1、馬斯克Grok大模型開源 參數(shù)量3410億
2、蘋果谷歌和OpenAI商談iPhone大模型使用
3、蘋果新研究提升服務大模型效率
4、Open-Sora視頻生成模型開源
5、AI程序員代碼能力超Claude 2
6、月之暗面智能助手支持200萬字上下文
7、斯坦福新研究提升大模型長視頻理解能力
8、高通手機芯片支持100億參數(shù)大模型
9、國內(nèi)首個AI導演上崗
10、賽迪四川發(fā)布中國AI大模型20強報告
11、OpenAI CTO說不知道Sora訓練數(shù)據(jù)出處
12、阿聯(lián)酋AI投資公司考慮支持OpenAI萬億芯片計劃
1、馬斯克Grok大模型開源 參數(shù)量3410億
今天,馬斯克的AI創(chuàng)企xAI正式發(fā)布了大模型Grok-1,其參數(shù)量達到了3140億,超過OpenAI GPT-3.5的1750億。這是迄今參數(shù)量最大的開源大語言模型,遵照Apache 2.0協(xié)議開放模型權(quán)重和架構(gòu)。Grok-1是一個混合專家(Mixture-of-Experts,MoE)大模型。xAI稱這是他們自己從頭訓練的大模型,Grok-1沒有針對特定應用進行微調(diào)。
2、蘋果谷歌和OpenAI商談iPhone大模型使用
今天,據(jù)彭博社報道,有知情人士稱,蘋果公司正在與谷歌進行談判,希望將谷歌的Gemini大模型能力應用在iPhone中,以支持今年iPhone即將增加的各類生成式AI功能。彭博社記者馬克·古爾曼認為,這將是一項重大的協(xié)議,可能會撼動整個AI行業(yè)。該報道還提到,蘋果最近與OpenAI進行了討論,考慮使用其大模型。
3、蘋果新研究提升服務大模型效率
3月14日,蘋果研究人員發(fā)布論文,推出了一種用于大型語言模型中快速推測解碼的Recurrent Drafter,這種改進后的推測解碼方法可以提高服務大型語言模型的效率。Recurrent Drafter利用了雙模型推測解碼方法和單模型方法Medusa。研究人員通過實驗證明了這種方法在幾個主流開源大型語言模型上的有效性。

論文地址:
https://arxiv.org/pdf/2403.09919.pdf
HuggingFace地址:
https://huggingface.co/papers/2403.09919
4、Open-Sora視頻生成模型開源
3月18日凌晨,潞晨科技創(chuàng)始人尤洋教授在X平臺發(fā)文,潞晨科技旗下Colossal-AI團隊開源了其Open-Sora 1.0視頻生成模型,包括模型權(quán)重、訓練源代碼和詳細的架構(gòu)。該模型采用了Diffusion Transformer(DiT)架構(gòu)。據(jù)了解,團隊以使用了DiT架構(gòu)的開源文生圖模型PixArt-α為基礎,引入了時間注意力層,并將其擴展到了視頻數(shù)據(jù)上。

GitHub地址:
https://github.com/hpcaitech/Open-Sora
5、AI程序員代碼能力超Claude 2
3月15日,AI創(chuàng)企Cognition對其團隊發(fā)布的首個AI軟件工程師Devin進行了技術解讀,發(fā)布了關于Devin的SWE-bench基準測試技術報告。SWE-bench可以評估系統(tǒng)解決現(xiàn)實中代碼庫問題的能力。測試結(jié)果顯示,Devin不需要人類輔助就可以解決570個問題中的79個問題,成功率為13.86%,高于SOTA 大模型(Claude 2)的4.80%。
GitHub地址:
https://github.com/CognitionAI/devin-swebench-results
6、月之暗面智能助手支持200萬字上下文
今天,AI創(chuàng)企月之暗面(Moonshot AI)宣布其智能助手Kimi在長上下文窗口技術上取得突破,無損上下文長度提升至200萬字。今天起,支持200萬字上下文的Kimi已啟動內(nèi)測。據(jù)稱,基于新版Kimi,用戶上傳幾十萬字的經(jīng)典德州撲克長篇教程后,Kimi可以扮演德?lián)鋵<覟橛脩籼峁┏雠撇呗缘闹笇А?/p>
7、斯坦福新研究提升大模型長視頻理解能力
3月15日,斯坦福研究人員發(fā)布論文,推出了一種基于代理(Agent)的系統(tǒng)——VideoAgent,其將大型語言模型作為中央代理,迭代地識別和編譯關鍵信息以回答問題,同時利用視覺語言基礎模型作為翻譯和檢索視覺信息的工具。在EgoSchema和NExT-QA基準測試中,VideoAgent在零樣本準確率上分別達到了54.1%和71.3%,平均僅使用了8.4和8.2幀。研究人員稱,該測試結(jié)果表明該方法在效果和效率上優(yōu)于當前最先進的方法,在提升長篇視頻理解方面有應用潛力。

論文地址:
https://arxiv.org/pdf/2403.10517.pdf
GitHub地址:
https://wxh1996.github.io/VideoAgent-Website/
8、高通手機芯片支持100億參數(shù)大模型
今天,高通正式發(fā)布了第三代驍龍8s芯片,其在端側(cè)生成式AI能力方面進行了重點升級,支持Baichuan-7B、Gemini Nano、Llama 2和智譜ChatGLM等30多個大型語言模型和大型視覺模型,據(jù)稱最高支持模型參數(shù)量為100億。
9、國內(nèi)首個AI導演上崗
據(jù)上海證券報報道,3月15日,湖南廣電集團首個AI導演愛芒(英文名AIM)正式以助理導演的身份和觀眾、網(wǎng)友們見面。這也是國內(nèi)首個正式上崗的AI導演。3月17日午間,該綜藝超前企劃播出,愛芒正式亮相?!堵暽幌ⅰ废盗兄破撕閲[說:“AI導演會倒逼著我們不斷地去創(chuàng)新?!?/p>
10、賽迪四川發(fā)布中國AI大模型20強報告
智東西3月17日消息,3月15上午,賽迪工業(yè)和信息化研究院(集團)四川有限公司發(fā)布了《2024中國人工智能多模態(tài)大模型企業(yè)綜合競爭力20強研究報告》,騰訊混元大模型排名第一、科大訊飛星火大模型排名第二、阿里巴巴通義千問排名第三、華為盤古大模型排名第四、智譜華章智普清言排名第五。

據(jù)稱此次評價研究通過建立覆蓋經(jīng)濟、技術、行業(yè)、商業(yè)等多維度指標的企業(yè)競爭力評價模型,對我國人工智能自研多模態(tài)大模型企業(yè)實力進行綜合評估,最終形成人工智能多模態(tài)大模型企業(yè)綜合競爭力20強評價結(jié)果。其評價體系包括經(jīng)濟抗衡力(15%)、行業(yè)影響力(30%)、技術競爭力(40%)、商業(yè)角逐力(15%)。
11、OpenAI CTO說不知道Sora訓練數(shù)據(jù)出處
智東西3月17日消息,3月14日,《華爾街日報》記者Joanna Stern采訪了OpenAI首席技術官Mira Murati,針對一段Sora生成的虛擬視頻進行了討論,Mira Murati解釋了Sora的工作原理,但是回避了大部分有關該模型訓練數(shù)據(jù)來源的問題,甚至在回答中出現(xiàn)了“我其實不太確定(I’m actually not sure about that)”的說法。
12、阿聯(lián)酋AI投資公司考慮支持OpenAI萬億芯片計劃
智東西3月17日消息,據(jù)英國《金融時報》報道,阿聯(lián)酋阿布扎比一家由國家資助的投資公司MGX正在和OpenAI談判,討論支持此前由OpenAI CEO Sam Altman提出的“萬億芯片計劃”。報道稱,MGX 是一家今年1月剛剛成立的專注于AI的投資公司,代表了阿聯(lián)酋希望在全球AI競賽中實現(xiàn)領先的關鍵布局。