智東西(公眾號:zhidxcom)
編譯 |? 吳浪娜
編輯 |? 漠影

智東西10月12日消息,據(jù)《華爾街日報》今天報道,圖靈獎得主、Meta首席AI科學(xué)家楊立昆接受了該媒體的采訪,他認(rèn)為許多專家夸大了AI的力量和危險,他希望人們了解這一點。在采訪中,他稱有關(guān)AI這項技術(shù)生存危機的警告“完全是胡說八道(that’s complete B.S.)”。

楊立昆是引發(fā)當(dāng)今的AI熱潮的重要人物之一。但當(dāng)其他杰出的技術(shù)專家告訴我們,我們即將擁有超越人類智能的計算機,甚至人類可能被其取代時,楊立昆卻堅定地成為了AI熱潮中最有資歷的懷疑論者。

在社交媒體、演講和辯論中,這位紐約大學(xué)教授兼Meta的人工智能大師與那些鼓吹生成式AI具有超人潛力的支持者和預(yù)言家們展開了爭論,包括埃隆·馬斯克(Elon Musk)和楊立昆的兩位同行先驅(qū)。杰弗里·辛頓(Geoffrey Hinton)和約書亞·本吉奧(Yoshua Bengio)與楊立昆一起擁有“AI教父”的非官方頭銜,其中辛頓是楊立昆近40年的朋友,在本周獲得了諾貝爾物理學(xué)獎,他曾多次就AI的生存威脅發(fā)出警告。

楊立昆認(rèn)為,當(dāng)今的AI模型雖然有用,但遠不能與我們的寵物的智力相媲美,更不用說與我們?nèi)祟愊啾攘?/span>。當(dāng)《華爾街日報》記者問他,我們是否應(yīng)該擔(dān)心AI很快會變得非常強大以至于對我們構(gòu)成危險時,他打趣道:“請原諒我說臟話,但那完全是胡說八道?!?/p>

他的工作成果以及他是在一家大型科技公司中成就顯著的AI研究實驗室之一的領(lǐng)導(dǎo)人,這讓楊立昆的觀點更有分量。

楊立昆告訴記者,他對AI產(chǎn)生興趣的部分原因是斯坦利·庫布里克(Stanley Kubrick)1968年的科幻經(jīng)典電影《2001:太空漫游》中的流氓人工智能HAL 9000。他在巴黎北部長大,在從索邦大學(xué)獲得博士學(xué)位后,他在傳奇的貝爾實驗室工作,從晶體管到激光等許多發(fā)明都誕生于此。2003年,他加入紐約大學(xué)擔(dān)任計算機科學(xué)教授,十年后,他成為當(dāng)時的Facebook的AI研究主管。

2019年,楊立昆、辛頓和本吉奧一起獲得了圖靈獎,這是計算機科學(xué)的最高獎項。這個獎項使這三人被稱為“AI教父”,以表彰他們在神經(jīng)網(wǎng)絡(luò)方面的基礎(chǔ)性工作,神經(jīng)網(wǎng)絡(luò)是許多當(dāng)今最強大的AI系統(tǒng)的基礎(chǔ),從OpenAI的聊天機器人到自動駕駛汽車。

楊立昆最新采訪:AI威脅論是胡說八道,堆砌芯片和數(shù)據(jù)不能實現(xiàn)AGI▲2019年,楊立昆(中間)與本吉奧(最左邊)和辛頓(最右邊)共同獲得了計算機科學(xué)領(lǐng)域的最高獎項圖靈獎(圖源:《華爾街日報》)

如今,楊立昆繼續(xù)在紐約大學(xué)與他的博士生一起發(fā)表論文,同時他作為Meta的首席AI科學(xué)家,領(lǐng)導(dǎo)著世界上資金雄厚的AI研究組織之一。他經(jīng)常與Meta CEO馬克·扎克伯格(Mark Zuckerberg)見面并通過WhatsApp聊天,扎克伯格正將Meta定位為AI熱潮中對抗蘋果和OpenAI等其他科技巨頭的力量。

在現(xiàn)實生活中,楊立昆有一種讓人消除戒心的魅力:調(diào)皮、機智,隨時準(zhǔn)備說出他認(rèn)為是自己領(lǐng)域的殘酷真相。64歲的他看起來既時尚又有點邋遢,這很適合一位曾經(jīng)的巴黎人,他的眼鏡是經(jīng)典的黑色雷朋鏡框。

坐在Meta位于紐約市的一個衛(wèi)星辦公室的會議室里,他散發(fā)著溫暖和親切的自信,帶著那種讓你覺得自己也參與了這個笑話的笑容發(fā)表他的尖銳觀點。

一、楊立昆否認(rèn)AI威脅論,稱現(xiàn)有AI不如一只寵物貓

楊立昆與競爭對手和朋友都進行過爭論。今年春天,他在海外社交平臺X上與馬斯克就科學(xué)研究的本質(zhì)發(fā)生了激烈爭辯。

楊立昆還在公開場合與辛頓和本吉奧就他們反復(fù)發(fā)出的AI對人類構(gòu)成危險的警告表示不同意。

本吉奧說,他在很多問題上與楊立昆意見一致,但在公司是否可以被信任以確保未來的超人類人工智能(superhuman AIs)不會被人類惡意使用,或者超人類人工智能不會產(chǎn)生自己的惡意意圖這一問題上存在分歧。

“我希望他是對的,但我認(rèn)為我們不應(yīng)該僅僅依靠公司之間的競爭和利潤動機來保護公眾和民主,”本吉奧說,“這就是為什么我認(rèn)為我們需要政府的參與?!?/p>

楊立昆認(rèn)為AI是一個強大的工具。在整個采訪中,他列舉了許多AI在Meta變得極其重要的例子,并使Meta的規(guī)模和收入達到了目前約1.5萬億美元的價值。AI是Meta工作中不可或缺的一部分,從實時翻譯到內(nèi)容審核,除了其基礎(chǔ)AI研究團隊(稱為FAIR)之外,Meta還有一個以產(chǎn)品為重點的AI小組GenAI,正在追求其大型語言模型的更好版本。

“這對Meta的影響確實非常巨大?!彼f。

同時,他確信當(dāng)今的AI在任何有意義上都不是智能的——而且該領(lǐng)域的許多其他人,尤其是在AI初創(chuàng)公司中,準(zhǔn)備以他認(rèn)為荒謬的方式推斷其最近的發(fā)展。

如果楊立昆的觀點是正確的,這對當(dāng)今一些最熱門的初創(chuàng)公司來說意味著麻煩,更不用說那些向AI投入數(shù)百億美元的科技巨頭了。他們中的許多人都寄希望于這樣一種想法,即當(dāng)今基于大語言模型的AI,如OpenAI的那些,正處于在短期內(nèi)創(chuàng)造所謂的“通用人工智能”(AGI)的道路上,這種AI將遠遠超過人類水平的智能。

OpenAI的薩姆·阿爾特曼(Sam Altman)上個月在一篇博客中提到,我們可能在“幾千天內(nèi)”擁有AGI。馬斯克則認(rèn)為可能在2026年實現(xiàn)。

楊立昆認(rèn)為這樣的說法可能為時過早。今年5月,一位即將離職的OpenAI研究人員談到需要學(xué)習(xí)如何控制超智能人工智能時,楊立昆進行了反駁?!霸谖铱磥?,在‘緊急弄清楚如何控制比我們聰明得多的AI系統(tǒng)’之前,我們需要先設(shè)計一個比家貓更聰明的系統(tǒng)?!彼赬上回復(fù)道。

他喜歡貓的比喻。他說,畢竟貓科動物擁有物理世界的心理模型、持久的記憶、一些推理能力和計劃能力。而這些品質(zhì)在當(dāng)今的“前沿”AI中都不存在,包括Meta自己制造的AI。

自1986年就認(rèn)識楊立昆的萊昂·博圖(Léon Bottou)說,楊立昆是一種“善意的固執(zhí)”,也就是說,他愿意傾聽別人的觀點,但會一心一意地追求他認(rèn)為構(gòu)建AI的正確方法。

亞歷山大·里夫斯(Alexander Rives)曾是楊立昆的博士生,后來創(chuàng)立了一家AI初創(chuàng)公司,他說楊立昆的挑釁是經(jīng)過深思熟慮的?!八羞@樣的歷史,即真的能夠看到該領(lǐng)域在思考問題方式上的差距,并指出這一點,”里夫斯說。

二、楊立昆認(rèn)為只是堆砌芯片和數(shù)據(jù)的規(guī)模并不能實現(xiàn)AGI

楊立昆認(rèn)為真正的AGI是一個有價值的目標(biāo)——Meta也在努力實現(xiàn)這個目標(biāo)。

“在未來,當(dāng)人們與他們的AI系統(tǒng)、智能眼鏡或其他任何東西交談時,我們需要這些AI系統(tǒng)基本上具有人類水平的特征,真正具有常識,并真正像人類助手一樣表現(xiàn)。”他在采訪中說。

但他接著補充道,創(chuàng)造一個如此有能力的AI可能需要幾十年的時間——而當(dāng)今的主導(dǎo)方法無法讓我們實現(xiàn)這一目標(biāo)。

生成式AI熱潮是由大語言模型和類似的系統(tǒng)推動的,這些系統(tǒng)在海量數(shù)據(jù)上進行訓(xùn)練以模仿人類表達。隨著每一代模型變得更加強大,一些專家得出結(jié)論,只要將更多的芯片和數(shù)據(jù)投入到開發(fā)未來的AI中,就能使它們變得更有能力,最終與人類智能相匹配或超越人類智能。這就是在構(gòu)建越來越多的專用芯片池以訓(xùn)練AI方面進行大量投資的背后邏輯。

楊立昆認(rèn)為當(dāng)今AI系統(tǒng)的問題在于它們的設(shè)計方式,而不是它們的規(guī)模。他說,無論科技巨頭在全球的數(shù)據(jù)中心中塞進多少GPU,當(dāng)今的AI都不會讓我們實現(xiàn)AGI。

他的賭注是,對于以不同方式工作的AI的研究將為我們開啟一條通往人類水平智能的道路。這些假設(shè)的未來AI可能有多種形式,但目前讓楊立昆興奮的項目之一是在FAIR進行的從現(xiàn)實世界的視頻中提取信息的工作。這個想法是創(chuàng)建以類似于幼年動物的方式學(xué)習(xí)的模型,通過從其所接收的視覺信息中構(gòu)建一個世界模型。

用于ChatGPT和其他聊天機器人的大語言模型將來可能在使用一系列其他技術(shù)和算法構(gòu)建的具有常識和類人類能力的系統(tǒng)中只發(fā)揮很小的作用。

他說,當(dāng)今的模型實際上只是在預(yù)測文本中的下一個單詞。但它們在這方面非常擅長,以至于欺騙了我們。而且由于它們巨大的存儲容量,它們似乎在進行推理,但實際上它們只是在重復(fù)已經(jīng)訓(xùn)練過的信息。

“我們習(xí)慣于這樣的想法,即能夠表達自己或操縱語言的人或?qū)嶓w是聰明的——但這不是真的,”楊立昆說,“你可以操縱語言但并不聰明,而這基本上就是大語言模型所展示的?!?/p>

結(jié)語:三位“AI教父”的對于AI威脅論持不同意見

曾經(jīng)一同獲得2018年度圖靈獎的三位“AI教父”,如今對于AI的認(rèn)識與思考逐漸產(chǎn)生了分歧。

楊立昆否認(rèn)AI威脅論,認(rèn)為此類言論是“胡說八道”,現(xiàn)有的AI沒有人類想象中強大,實現(xiàn)AGI也為時尚早,想要創(chuàng)造出超越人類的智能則有更長的路要走。

而另外兩位科學(xué)家,辛頓和本吉奧,則不斷敲響警鐘,呼吁大眾、企業(yè)和政府對AI背后的道德和倫理進行深刻反思。

辛頓曾提出AI威脅論,他在諾貝爾獎頒獎典禮電話采訪中談道,很擔(dān)心AI會失去控制并取代人類,OpenAI應(yīng)該把安全研究放在首位。他還曾說過,AI可能創(chuàng)造出超越人類的智能,這可能會導(dǎo)致人類處于劣勢。

本吉奧在今天發(fā)布的最新采訪視頻中說道:“我們不清楚如何避免這些系統(tǒng)變得自主,并有自己的保護目標(biāo),我們可能會失去對這些系統(tǒng)的控制。所以我們可能正在走上一條創(chuàng)造比我們更強大的怪物的道路?!?/p>

來源:《華爾街日報》、雅虎