去年12月,智東西公開課聯(lián)合達(dá)摩院自然語言智能實驗室全新策劃推出了「阿里達(dá)摩院大模型公開課」,并邀請到了阿里巴巴達(dá)摩院高級算法工程師李晨亮和NLP高級算法專家嚴(yán)明,分別就主題《達(dá)摩院通義 AliceMind 預(yù)訓(xùn)練大模型在 AIGC 文本創(chuàng)作的探索》、《 達(dá)摩院通義 mPLUG 多模態(tài)預(yù)訓(xùn)練技術(shù)演進(jìn)及應(yīng)用實踐》進(jìn)行了深度講解。

5月18日,「阿里達(dá)摩院大模型公開課」第3講上線開講。阿里巴巴達(dá)摩院算法專家、ChatPLUG 核心貢獻(xiàn)者田俊峰和阿里巴巴達(dá)摩院算法工程師、mPLUG 核心貢獻(xiàn)者葉晴昊將參與主講。兩位主講人將對ChatPLUG 和 mPLUG-Owl 背后的技術(shù)細(xì)節(jié)進(jìn)行深入剖析。

ChatPLUG 是基于 PLUG 的一個中文對話大模型,使用億級互聯(lián)網(wǎng)社交數(shù)據(jù)、百科數(shù)據(jù)預(yù)訓(xùn)練和百萬級高質(zhì)量對話數(shù)據(jù),并采用 FID(Fuse-in-Decoder)架構(gòu)進(jìn)行 instruction 微調(diào)得到。該模型支持高效的輸入多段外部知識、人設(shè)信息等文本進(jìn)行知識增強(qiáng)。

在與最新的開源中文對話大模型 BELLE-7M-2B 和 ChatGLM-6B 進(jìn)行了多任務(wù)泛化性的人工對比評測后發(fā)現(xiàn):

1)ChatPLUG-3.7B 取得了比 BELLE-7B-2M 更好的效果( Rating-A 更多,Rating-C 更少),同時對比 ChatGLM-6B 也取得了 comparable 的效果,表明了 ChatPLUG 具備良好的多任務(wù)泛化能力;

2)當(dāng)將模型的 size 擴(kuò)大到 13B,ChatPLUG-13B 在所有模型中取得了最優(yōu)效果。

mPLUG-Owl是一款類似于 miniGPT-4 和 LLaVA 的多模態(tài)對話生成模型,由視覺基礎(chǔ)模型 、視覺抽象模塊以及預(yù)訓(xùn)練語言模型組成,并且具備單模態(tài)和多模態(tài)多輪對話能力。

本次公開課,田俊峰將以《中文個性化對話大模型ChatPLUG》為主題首先帶來直播講解。他的講解將主要從個性化大模型研究、搜索增強(qiáng)指令微調(diào)對話大模型,以及對話大模型的評估和開源三方面展開。

之后,葉晴昊將圍繞《模塊化多模態(tài)大模型mPLUG-Owl》這一主題進(jìn)行講解。他將介紹多模態(tài)大模型研究的變化趨勢,并對mPLUG模塊化多模態(tài)模型系列,以及mPLUG-Owl及訓(xùn)練新范式進(jìn)行深入解讀。

第3講

主題一
《中文個性化對話大模型ChatPLUG》

提 綱
1、個性化大模型研究概述
2、搜索增強(qiáng)指令微調(diào)對話大模型
3、對話大模型的評估和開源

主講人
田俊峰,阿里巴巴達(dá)摩院算法專家、ChatPLUG核心貢獻(xiàn)者;研究方向為對話大模型和多模態(tài)大模型,在國際頂級會議ACL、EMNLP、CVPR、AAAI等發(fā)表多篇文章。

主 題 二
《模塊化多模態(tài)大模型mPLUG-Owl》

提 綱
1、多模態(tài)大模型研究的變化趨勢
2、mPLUG模塊化多模態(tài)模型系列概述
3、mPLUG-Owl及訓(xùn)練新范式解析

主講人
葉晴昊,阿里巴巴達(dá)摩院算法工程師、mPLUG核心貢獻(xiàn)者;研究方向為多模態(tài)模塊化大模型,在國際頂級會議ICCV、ICML、ACL等發(fā)表多篇文章。