「AI新青年講座」將邀請(qǐng)世界頂尖AI研究機(jī)構(gòu)和大學(xué)的科研新青年,主講他們?cè)谟?jì)算機(jī)視覺、機(jī)器學(xué)習(xí)等人工智能領(lǐng)域的最新重要研究成果。

AI新青年是加速人工智能前沿研究的新生力量。AI新青年的視頻講解和直播答疑,將可以幫助大家增進(jìn)對(duì)人工智能前沿研究的理解,相應(yīng)領(lǐng)域的專業(yè)知識(shí)也能夠得以積累加深。同時(shí),通過與AI新青年的直接交流,大家在AI學(xué)習(xí)和應(yīng)用AI的過程中遇到的問題,也能夠盡快解決。

「AI新青年講座」目前已完結(jié)212講,有興趣分享學(xué)術(shù)成果的朋友,可以與智東西公開課教研團(tuán)隊(duì)進(jìn)行郵件(class@zhidx.com)聯(lián)系。

自從擴(kuò)散模型(Diffusion ?Models)展現(xiàn)出了強(qiáng)大的生成能力后,不同種類的擴(kuò)散模型各顯神通 —— 有可以根據(jù)文字生成圖片的 text-to-image 模型,有可以從分割圖生成圖片mask-to-image 模型,也有生成視頻、3D、motion 等等內(nèi)容的擴(kuò)散生成模型。

那有沒有一種方法可以讓這些預(yù)訓(xùn)練擴(kuò)散模型合作起來,發(fā)揮各自的專長,實(shí)現(xiàn)一個(gè)多功能的生成框架呢?比如當(dāng) text-to-image 模型與 mask-to-image 模型合作時(shí),我們就可以同時(shí)接受 text 和 mask 輸入,并生成與 text 和 mask 一致的圖片了。

在 CVPR 2023 上,來自南洋理工大學(xué) MMLab 的博士生黃子琪等人提出了一種簡(jiǎn)單有效的方法來實(shí)現(xiàn)不同擴(kuò)散模型之間的合作:Collaborative Diffusion。

基于擴(kuò)散模型迭代去噪的性質(zhì),Collaborative Diffusion 在去噪的每一步都會(huì)動(dòng)態(tài)地預(yù)測(cè)不同的擴(kuò)散模型如何有效合作,各取所長。并且可以實(shí)現(xiàn)高質(zhì)量的多模態(tài)控制的人臉生成和編輯。此外,作為一個(gè)通用框架,Collaborative Diffusion 不僅適用于圖片生成,還適用于圖片編輯,以及未來更多的基于擴(kuò)散模型的其他任務(wù)。

6月9日晚6點(diǎn),「AI新青年講座」第213講邀請(qǐng)到 Collaborative Diffusion 一作、南洋理工大學(xué)MMLab在讀博士黃子琪參與,主講《不同擴(kuò)散模型合作實(shí)現(xiàn)多模態(tài)人臉生成與編輯》。

講者
黃子琪,南洋理工大學(xué)MMLab在讀博士;由劉子緯教授指導(dǎo);廣泛關(guān)注計(jì)算機(jī)視覺和深度學(xué)習(xí)領(lǐng)域,目前研究重點(diǎn)是生成模型、視覺生成和編輯,在CVPR、ICCV、ICIP 等會(huì)議上發(fā)表過多篇論文;

第213講

主 題
《不同擴(kuò)散模型合作實(shí)現(xiàn)多模態(tài)人臉生成與編輯》

提 綱
1、擴(kuò)散模型的應(yīng)用現(xiàn)狀及經(jīng)典模型解析
2、多個(gè)預(yù)訓(xùn)練擴(kuò)散模型合作的實(shí)現(xiàn)方法
3、不同種類擴(kuò)散模型合作的多功能生成框架
4、高質(zhì)量的多模態(tài)控制的人臉生成和編輯

直 播 信 息
直播時(shí)間:6月9日18:00
直播地點(diǎn):智東西公開課知識(shí)店鋪

成果
論文標(biāo)題:《Collaborative Diffusion for Multi-Modal Face Generation and Editing》
論文地址:https://arxiv.org/abs/2304.10530
開源地址:https://github.com/ziqihuangg/Collaborative-Diffusion