智東西(公眾號:zhidxcom)
編譯 | 風(fēng)衣
編輯 | Panken
智東西1月2日消息,近日,《福布斯》做出了2025年AI發(fā)展的十大預(yù)測。
AI模型開發(fā)方面:
其一,Scaling laws會被廣泛應(yīng)用于機(jī)器人技術(shù)和生物學(xué)領(lǐng)域(二);
其二,AI語音模型通過圖靈測試,可以在對話中冒充人類(六);
其三,AI實(shí)現(xiàn)自主迭代,自行研發(fā)新AI,完成從觀點(diǎn)、實(shí)驗(yàn)、論文、評審的全過程(七);
AI應(yīng)用開發(fā)方面:
其一,Meta將對企業(yè)使用Llama收費(fèi)(一);
其二,AI web agent應(yīng)用將大殺四方,代替消費(fèi)者完成線上事務(wù)(四);
其三,重要的AI研發(fā)機(jī)構(gòu),如OpenAI,將從開發(fā)基礎(chǔ)模型轉(zhuǎn)向開發(fā)應(yīng)用,在AI商業(yè)化中分一杯羹(八);
其他預(yù)測:
其一、特朗普和馬斯克將分道揚(yáng)鑣,這將對OpenAI、xAI的發(fā)展以及AI安全政策造成影響(三);
其二,將有一批企業(yè)嘗試在太空中建立AI數(shù)據(jù)中心,試圖解決AI發(fā)展的能源限制(五);
其三,至少在美國五個大城市中,無人駕駛出租車會占據(jù)網(wǎng)約車兩位數(shù)的市場份額(九);
其四,AI做出不符合人類意圖的行為,AI安全事件引發(fā)人機(jī)關(guān)系再思考(十)。
一、Meta將開始對Llama模型收費(fèi)
Meta是全球開源AI的領(lǐng)軍者。在企業(yè)戰(zhàn)略方面,Meta提供的Llama模型免費(fèi)開放,而像OpenAI和Google的前沿模型都是閉源、付費(fèi)的。相較之下,Meta的策略是一個非常有趣的研究案例。因此,如果明年Meta開始對公司使用Llama收費(fèi),很多人都會很驚訝。
需要明確的是,這并不是說Meta會讓Llama完全閉源,也不是說所有使用Llama模型的人都必須為此付費(fèi)。相反,預(yù)計Meta會進(jìn)一步嚴(yán)格Llama的開源許可條款,讓那些出于商業(yè)目的、大規(guī)模使用Llama的公司需要付費(fèi)才能訪問Llama模型。
從實(shí)操來看,Meta現(xiàn)在已經(jīng)在做類似的事情,它目前不允許一些超大型公司自由使用Llama模型,比如云計算巨頭和其他擁有超過7億月活躍用戶的公司。
在2023年,Meta的CEO馬克·扎克伯格曾說過:“如果你是像微軟、亞馬遜或谷歌這樣的公司,并且基本上就是要轉(zhuǎn)售Llama,那我們認(rèn)為Meta應(yīng)該從中獲得一部分收入。在我看來,這在短期內(nèi)并不會帶來大量收入,但從長期來看,這種方式有可能成為Meta的收入來源之一。”
明年,Meta將大幅擴(kuò)大要為Llama付費(fèi)的公司范圍,涵蓋更多的大型和中型企業(yè)。
為什么Meta會做出這樣的戰(zhàn)略轉(zhuǎn)變?因?yàn)樵诩ち业母偁幹?,想要將大語言模型保持在發(fā)展前沿,成本非常高。如果Meta希望Llama與OpenAI、Anthropic等公司最新前沿模型保持在一個水平,那每年需要投入數(shù)十億美元。
雖然Meta是全球最大、最有財力的公司之一,但它同時也是一家上市公司,最終還是要對股東負(fù)責(zé)。隨著發(fā)展AI模型的成本飛漲,Meta若不從中獲得收益,將很難繼續(xù)承擔(dān)如此巨額的開支來訓(xùn)練下一代Llama模型。
業(yè)余愛好者、學(xué)者、個人開發(fā)者和初創(chuàng)公司明年仍然可以免費(fèi)使用Llama模型。但是,2025年將是Meta認(rèn)真開始通過Llama實(shí)現(xiàn)盈利的一年。
二、Scaling laws將被進(jìn)一步應(yīng)用于大語言模型之外的領(lǐng)域,特別是在機(jī)器人技術(shù)和生物學(xué)領(lǐng)域
最近幾周,AI領(lǐng)域討論最多的話題之一就是Scaling laws,以及這一定律是否正在失效。
Scaling laws最早于2020年在OpenAI的論文中被提出,其基本概念非常簡單:在訓(xùn)練AI模型時,隨著模型參數(shù)數(shù)量、訓(xùn)練數(shù)據(jù)量和計算量的增加,模型的表現(xiàn)(嚴(yán)格地說,是測試損失(test loss)的減少)會以一種可靠且可預(yù)測的方式得到改善。Scaling laws是從GPT-2到GPT-3再到GPT-4的表現(xiàn)飛躍的根本原因。
與摩爾定律(Moore’s Law)類似,Scaling laws并不是真實(shí)的自然法則,而只是經(jīng)驗(yàn)性的觀察。在過去一個月當(dāng)中,一系列報道表明,目前主要的AI研發(fā)機(jī)構(gòu)在繼續(xù)擴(kuò)展大語言模型時,正面臨著回報遞減的現(xiàn)象。這也可以解釋為什么OpenAI的GPT-5發(fā)布不斷推遲。
對于Scaling laws的回報趨于平緩這一現(xiàn)象,最常見反對觀點(diǎn)是:將測試時計算(test-time compute,指大語言模型生成響應(yīng)時使用的計算資源)引入模型測試這一做法開辟了一個全新的維度。也就是說,相較于前代模型完全依靠在預(yù)訓(xùn)練中擴(kuò)大模型參數(shù)量來改善表現(xiàn),像OpenAI的o3這樣的新推理模型能在推理過程中進(jìn)行計算,推理計算量的擴(kuò)大可以讓AI模型通過“思考更長時間”來解鎖新的能力。
這種解釋十分重要?!皽y試時計算“確實(shí)代表了擴(kuò)展模型算力和提高AI性能的一種新途徑,這相當(dāng)令人興奮。但關(guān)于Scaling laws的另一個觀點(diǎn)更為重要,并且在如今的討論中被低估了:幾乎所有關(guān)于Scaling laws的討論——從2020年最初的論文到如今聚焦于測試時計算的討論——都集中在語言模型上,然而,語言并不是唯一重要的數(shù)據(jù)模態(tài)。
想想機(jī)器人技術(shù)、生物學(xué)、世界模型或AI web agent。對于這些數(shù)據(jù)模態(tài),Scaling laws并沒有飽和;相反,Scaling laws才剛剛開始發(fā)揮作用。不過,關(guān)于上述領(lǐng)域Scaling laws存在性的嚴(yán)格證據(jù),至今尚未發(fā)布。
為這些新數(shù)據(jù)模態(tài)搭建AI模型的初創(chuàng)公司,例如生物學(xué)領(lǐng)域的EvolutionaryScale、機(jī)器人領(lǐng)域中的Physical Intelligence、世界模型領(lǐng)域的World Labs,正在試圖識別并利用新領(lǐng)域中的Scaling laws。OpenAI利用Scaling laws發(fā)展大語言模型珠玉在前,預(yù)計2025年,Scaling laws會在新的領(lǐng)域大展身手。
不要相信外界的閑言碎語,Scaling laws絕不會消失。到2025年,它們依然至關(guān)重要,但Scaling laws的發(fā)揮場景將從大語言模型的預(yù)訓(xùn)練轉(zhuǎn)向其他模態(tài)。
三、特朗普和馬斯克或分道揚(yáng)鑣,AI領(lǐng)域必受嚴(yán)重波及
新的美國政府班底將帶來一系列AI政策和戰(zhàn)略的轉(zhuǎn)變,為了預(yù)測特朗普任期內(nèi)AI領(lǐng)域的走向,眾人都關(guān)注著唐納德·特朗普與埃隆·馬斯克的密切關(guān)系,畢竟馬斯克在如今AI世界中扮演著至關(guān)重要的角色。
可以想象,馬斯克可能通過多種方式影響特朗普政府的AI相關(guān)決策??紤]到馬斯克與OpenAI之間水火不容的關(guān)系,新一屆政府可能會對OpenAI采取不太友好的態(tài)度,包括行業(yè)接觸、制定AI監(jiān)管政策、獲取政府合同等等方面。OpenAI目前也確實(shí)非常擔(dān)憂這些問題。另一方面,特朗普政府可能會偏向支持馬斯克的公司:例如,通過簡化各種流程,幫助xAI建立數(shù)據(jù)中心和在模型競賽中取得領(lǐng)先地位;快速批準(zhǔn)特斯拉部署自動駕駛出租車等。
更根本的是,不同于其他與特朗普關(guān)系親密的科技大佬,馬斯克非常重視AI對人類造成的安全威脅。因此他主張對AI進(jìn)行嚴(yán)格監(jiān)管:他支持加利福尼亞州尚有爭議的SB 1047法案,該法案試圖對AI開發(fā)者施加嚴(yán)格限制。因此,馬斯克的影響力可能會導(dǎo)致美國的AI發(fā)展處于更為嚴(yán)厲的監(jiān)管環(huán)境中。
不過,這些猜測都忽視了一個問題,那就是特朗普和馬斯克的密切關(guān)系必然會破裂。
正如我們在特朗普政府第一屆任期內(nèi)一再看到的那樣,即使是特朗普看似堅定不移的盟友,平均任期也異常短暫,從杰夫·塞申斯(Jeff Sessions)到雷克斯·蒂勒森(Rex Tillerson),再到詹姆斯·馬蒂斯(James Mattis)、約翰·博爾頓(John Bolton)、史蒂夫·班農(nóng)(Steve Bannon)都是如此(當(dāng)然,誰能忘記安東尼·斯卡拉穆奇(Anthony Scaramucci)在白宮短短10天的任期呢?)。如今,特朗普幾乎沒有第一屆任期內(nèi)的副手對他保持忠誠。
特朗普和馬斯克都具有復(fù)雜、多變而不可捉摸的個性,與他們共事很不輕松,容易讓人筋疲力盡。目前已經(jīng)證明,他們的新近聯(lián)手對雙方都有利,但這段關(guān)系仍處于蜜月期。據(jù)《福布斯》預(yù)測,2025沒過完,這段關(guān)系就得臭。
這對AI領(lǐng)域意味著什么呢?這對OpenAI來說是個好消息,對特斯拉股東來說則是個壞消息。對那些關(guān)注AI安全的人來說,這將是一個讓人失望的消息,因?yàn)閹缀蹩梢源_定,沒有馬斯克,特朗普政府會在AI監(jiān)管方面采取放任不管的態(tài)度。
四、AI web agent大放異彩,成為消費(fèi)者又一主流應(yīng)用
想象這樣一個世界:不管是管理訂閱、支付賬單、預(yù)約醫(yī)生,還是在亞馬遜上購買東西、預(yù)定餐廳,或是完成任何繁瑣的線上事務(wù),你都不需要直接上網(wǎng),而只需指示AI助手替你完成。
“AI web agent”的概念已經(jīng)存在多年。如果出現(xiàn)類似的產(chǎn)品并且能夠正常使用,那毫無疑問,它會大獲成功。然而,如今市面上并不存在一個功能完整的通用AI web agent軟件。
像Adept這樣的初創(chuàng)公司,雖然擁有數(shù)百萬美元的融資和一支經(jīng)驗(yàn)豐富的創(chuàng)始團(tuán)隊(duì),卻未能成功推出產(chǎn)品。Adept的案例已經(jīng)成為這一領(lǐng)域的前車之鑒。
明年,將是AI web agent真正變得成熟、足以進(jìn)入主流市場的一年。大語言模型和視覺基礎(chǔ)模型的持續(xù)進(jìn)展,加上新推理模型和推理時計算帶來的“系統(tǒng)2思維(System 2 thinking)”能力(出自卡尼曼雙系統(tǒng)思維模型,系統(tǒng)2通過邏輯推理解答問題,相對于系統(tǒng)1用直覺進(jìn)行決策)的突破,都預(yù)示著AI web agent即將迎接發(fā)展的黃金時段。
AI web agent將找到各種有價值的企業(yè)應(yīng)用場景,但短期內(nèi)最大的市場機(jī)會將在消費(fèi)者領(lǐng)域。盡管最近AI熱潮不斷,但除了ChatGPT之外,只有相對少數(shù)的AI原生應(yīng)用能夠取得突破,成為消費(fèi)者當(dāng)中的主流應(yīng)用。AI web agent將改變這一局面,成為消費(fèi)者下一款A(yù)I應(yīng)用。
五、在太空建設(shè)AI數(shù)據(jù)中心的嚴(yán)肅嘗試
2023年,AI發(fā)展的資源瓶頸是GPU芯片;2024年,資源瓶頸成了電力和數(shù)據(jù)中心。
在2024年,AI對能源的巨大需求成了全球焦點(diǎn),尤其是在建造AI數(shù)據(jù)中心的熱潮當(dāng)中。全球數(shù)據(jù)中心的電力需求在過去幾十年內(nèi)保持平穩(wěn),但由于AI的興起,2023-2026年的電力需求預(yù)計將翻倍。到2030年,美國數(shù)據(jù)中心將消耗接近10%的總電力,遠(yuǎn)高于2022年的3%。
▲AI數(shù)據(jù)中心導(dǎo)致能源需求飆升(圖源:Semianalysis)
當(dāng)前的能源系統(tǒng)顯然無法應(yīng)對AI發(fā)展帶來的需求激增。能源電網(wǎng)和計算基礎(chǔ)設(shè)施,這兩個萬億美元級的系統(tǒng)即將發(fā)生歷史性的碰撞。
核能作為解決這一世紀(jì)難題的可能方案,今年獲得了越來越多的關(guān)注。核能在許多方面是AI理想的能源來源:零碳、隨時可獲取、并且?guī)缀跞≈槐M。但從現(xiàn)實(shí)角度看,想通過新的核能解決能源問題,可能要等到30年代。因?yàn)楹四荛_發(fā)需要長期的研究、開發(fā)和監(jiān)管周期,這個周期適用于傳統(tǒng)的核裂變電廠、下一代“模塊化小型反應(yīng)堆”(SMRs),當(dāng)然也適用于核聚變電廠。
明年,將出現(xiàn)一個大膽的想法來應(yīng)對能源挑戰(zhàn),發(fā)掘有效資源:將AI數(shù)據(jù)中心建在太空里。乍一看,這個想法像是個笑話。但事實(shí)上,它有其可行性:在地球上批量鋪開數(shù)據(jù)中心的最大瓶頸就是獲取電力;而在太空中,太陽永遠(yuǎn)高懸,所以軌道上的計算集群可以享受全天候、免費(fèi)、無限、零碳的電力。
當(dāng)然,還有許多實(shí)際問題需要解決。一個顯而易見的問題是,能否找到一種低成本、高效率的方式在軌道和地球之間傳輸大量數(shù)據(jù)?這仍是一個懸而未決的問題,但通過激光以及其他高帶寬光通信技術(shù)的研究,我們可能會找到答案。
為實(shí)現(xiàn)這一愿景,孵化自Y Combinator的初創(chuàng)公司Lumen Orbit最近融資了1100萬美元,要在太空中建立一個超高功率的數(shù)據(jù)中心網(wǎng)絡(luò)來訓(xùn)練AI模型。
Lumen的CEO菲利普·約翰斯頓(Philip Johnston)說道:“與其支付1.4億美元的電費(fèi),不如支付1000萬美元發(fā)射數(shù)據(jù)和使用太陽能?!?/p>
2025年,Lumen不會是唯一一家認(rèn)真考慮這一想法的公司,其他初創(chuàng)公司也將出現(xiàn)。也不要驚訝于云計算巨頭啟動類似的探索性項(xiàng)目。通過Project Kuiper,亞馬遜已經(jīng)積累了送貨入軌的豐富經(jīng)驗(yàn);谷歌也有長期資助類似“登月計劃”的歷史;甚至微軟對太空經(jīng)濟(jì)也不陌生;埃隆·馬斯克的SpaceX也可能會參與其中。
六、一種語音AI模型將通過圖靈測試
圖靈測試是衡量AI表現(xiàn)的最悠久、也最著名的標(biāo)準(zhǔn)之一。為了“通過”圖靈測試,AI系統(tǒng)必須能通過書面文本進(jìn)行溝通,讓普通人無法分辨ta是在與AI互動,還是與人類互動。
得益于近些年的快速發(fā)展,大語言模型已能通過圖靈測試,但書面文本并不是人類溝通的唯一方式。隨著AI的多模態(tài)化,我們可以想象一種新的、更具挑戰(zhàn)性的圖靈測試版本——“語音圖靈測試”——在這種測試中,AI系統(tǒng)必須能夠通過語音與人類互動,展現(xiàn)出人類無法區(qū)分人機(jī)的技能和流暢度。
目前,通過語音圖靈測試仍是AI無法達(dá)到的目標(biāo),其間還有較大的差距。例如,人類說話與AI回應(yīng)之間必須做到幾乎零延遲,這樣才可能媲美與人類交談的體驗(yàn);比如交流句子被中途打斷的時候,語音AI系統(tǒng)必須能夠?qū)崟r、優(yōu)雅地處理模糊輸入或?qū)υ捳`解;AI模型必須能夠進(jìn)行長時間的、多輪的、開放式的對話,同時能夠記住討論的早期部分。更重要的是,語音AI必須學(xué)會更好地理解語音中的非語言信號:例如,當(dāng)人類語音聽起來惱怒、興奮或譏諷時,這些信號都意味著什么,同時AI能在自己的語音中生成這些非語言信號。
2024年接近尾聲,語音AI正處于一個讓人興奮的轉(zhuǎn)折點(diǎn),諸如speech-to-speech等模型的基礎(chǔ)性突破驅(qū)動著語音模型的進(jìn)步。如今,不管是技術(shù)領(lǐng)域還是商業(yè)領(lǐng)域,語音AI都在快速發(fā)展。到2025年,語音AI的技術(shù)預(yù)計會取得巨大進(jìn)展。
七、 AI自我改進(jìn)系統(tǒng)取得重大進(jìn)展
能夠不斷實(shí)現(xiàn)自我改進(jìn)的AI模型,這在AI圈里是一個綿延亙久的話題,已持續(xù)了幾十年。
例如,早在1965年,艾倫·圖靈(Alan Turing)的密切合作伙伴I.J. Good寫道:“要把超級智能機(jī)器定義為:無論人類多么聰明,都能遠(yuǎn)遠(yuǎn)超越所有人類才智的機(jī)器。由于機(jī)器設(shè)計是也屬于智力活動,所以一個超級智能機(jī)器能夠設(shè)計出更好的智能機(jī)器;然后,毫無疑問地,會出現(xiàn)一個‘智能爆炸’,人類的智能將被遠(yuǎn)遠(yuǎn)拋在后頭?!?/p>
AI自己研發(fā)更好的AI,這在智能發(fā)展上是一個非常吸引人的概念。但即使到今天,它仍然帶有一絲科幻的色彩。
然而,盡管尚未得到廣泛認(rèn)可,但這個概念正在變得越來越接近落地。AI科學(xué)前沿的研究人員,已經(jīng)開始在構(gòu)建能自我發(fā)展的AI系統(tǒng)方面取得實(shí)質(zhì)性進(jìn)展。明年,預(yù)計這一研究領(lǐng)域?qū)⑦M(jìn)入主流。
迄今為止最著名的公開研究實(shí)例是Sakana的AI Scientist,發(fā)布于今年8月,令人信服地證明了AI系統(tǒng)確實(shí)能夠完全自主地進(jìn)行AI研究。
這項(xiàng)研究讓AI執(zhí)行了AI研究的完整周期:閱讀現(xiàn)有文獻(xiàn)、生成新的研究想法、設(shè)計實(shí)驗(yàn)來驗(yàn)證想法、進(jìn)行實(shí)驗(yàn)、撰寫研究論文報告發(fā)現(xiàn),然后進(jìn)行同行評審。在沒有任何人工輸入的前提下,AI完全自主地完成了一切任務(wù)。
雖然目前還沒有公開消息,但關(guān)于OpenAI、Anthropic和其他研發(fā)機(jī)構(gòu)正在將資源投入到“自動化AI研究員”這一理念中的傳言已經(jīng)蔓延。2025年這一領(lǐng)域還會有更多討論、進(jìn)展和創(chuàng)業(yè)公司,因?yàn)樵絹碓蕉嗟娜艘庾R到,自動化AI研究具有現(xiàn)實(shí)可行性。
如果一篇完全由AI撰寫的研究論文被頂級AI會議接受,那將是自動化AI研究最重要的里程碑(由于論文是盲審的,會議審稿人在論文被接受之前不會知道它是由AI撰寫的)。如果看到AI自主產(chǎn)生成果被NeurIPS、CVPR或ICML等會議接受,不要太驚訝。對于AI領(lǐng)域來說,那將是一個引人注目、充滿爭議并且具有歷史意義的時刻。
八、 OpenAI、Anthropic和其他AI研發(fā)機(jī)構(gòu)將調(diào)整戰(zhàn)略重心,轉(zhuǎn)向開發(fā)AI應(yīng)用
發(fā)展AI模型是一項(xiàng)相當(dāng)艱難的業(yè)務(wù),AI研發(fā)機(jī)構(gòu)簡直燒錢如流水,需要空前高度的資本集中。OpenAI最近籌集了破紀(jì)錄的66億美元資金,并且可能很快就需要更多資金。Anthropic、xAI和其他公司也處于類似的境地。
由于切換AI模型成本不高、客戶對AI模型的忠誠度也比較低,AI應(yīng)用開發(fā)商可以根據(jù)成本和性能變化在不同的AI模型之間無痛切換。所以通常認(rèn)為,發(fā)展AI模型和開發(fā)AI應(yīng)用兩項(xiàng)業(yè)務(wù)沒有太大的聯(lián)系。
但隨著Meta的Llama和阿里云通義等開源模型的出現(xiàn),AI模型商品化的威脅日益緊迫。像OpenAI和Anthropic這樣的AI領(lǐng)頭羊,不能、也不會停止對AI模型的投資。到2025年,為了開發(fā)更高利潤、更具差異化和更具黏性的業(yè)務(wù),預(yù)計這些AI研發(fā)機(jī)構(gòu)會大力推出更多自己的應(yīng)用和產(chǎn)品。
當(dāng)然,ChatGPT已經(jīng)是一個成功范式,實(shí)現(xiàn)了開發(fā)AI前沿模型和開發(fā)自有應(yīng)用的緊密結(jié)合。
在新的一年里,我們可能還會看到哪些類型的第一方應(yīng)用呢?更復(fù)雜且功能更豐富的搜索應(yīng)用必然是其中重鎮(zhèn),OpenAI的SearchGPT計劃就是未來發(fā)展趨勢的一個信號。AI編程也會是重要類別,這個方向已經(jīng)開始初步的產(chǎn)品化,比如OpenAI在10月推出的Canvas。
OpenAI或Anthropic會在2025年推出企業(yè)級AI搜索應(yīng)用嗎?或者客戶服務(wù)AI應(yīng)用、法律AI應(yīng)用、銷售AI應(yīng)用?在C端,應(yīng)該會推出“個人助手”AI web agent應(yīng)用、旅行規(guī)劃應(yīng)用,或者音樂生成應(yīng)用。
當(dāng)AI研發(fā)機(jī)構(gòu)轉(zhuǎn)向自有應(yīng)用開發(fā)后,最讓人關(guān)注的是,它們會直接與許多自己的重要客戶競爭:搜索領(lǐng)域的Perplexity,編程領(lǐng)域的Cursor,客戶服務(wù)領(lǐng)域的Sierra,法律領(lǐng)域的Harvey,銷售領(lǐng)域的Clay等等。
九、至少在五個美國大城市,無人駕駛出租車會在網(wǎng)約車市場中占據(jù)兩位數(shù)的市場份額
自動駕駛汽車已經(jīng)歷了數(shù)年炒作,但承諾卻遲遲不能兌現(xiàn)。近十年來,這項(xiàng)技術(shù)看似觸手可及,但遲遲沒有落地進(jìn)入主流市場。
這種情況在2024年發(fā)生了劇變?,F(xiàn)在Waymo的自動駕駛汽車在舊金山街頭隨處可見,每天有成千上萬的居民像以前乘坐出租車或Uber一樣,乘坐Waymo出行。
自從2023年8月推出服務(wù),至今Waymo已在舊金山的網(wǎng)約車市場份額中占據(jù)了22%,與Lyft的市場份額相同(Uber的市場份額為55%)。
22%的市場份額,這可能讓最近沒去過舊金山的人感到驚訝。僅僅眨眼的工夫,自動駕駛出租車就從研究項(xiàng)目變成一個龐大的商業(yè)模式了。
自動駕駛出租車業(yè)務(wù)很快就將超越舊金山灣區(qū),成為多個美國城市交通系統(tǒng)的重要組成部分,這個速度會比大多數(shù)人預(yù)期的更快。到明年年底,像Waymo這樣的自動駕駛出租車服務(wù)會在至少五個主要市場贏得兩位數(shù)的市場份額。
哪些地方最有可能成為舊金山之后的下一個城市呢?
Waymo的自動駕駛出租車已在洛杉磯和鳳凰城運(yùn)營,預(yù)計明年在這兩個地方的市場份額會大幅增加。奧斯?。ˋustin)、亞特蘭大(Atlanta)和邁阿密(Miami)也會很快成為Waymo的下一個目標(biāo)市場。同時,Waymo的競爭對手Zoox也準(zhǔn)備在拉斯維加斯推出自動駕駛出租車服務(wù)。
在經(jīng)歷多年的炒作之后,2025年,自動駕駛汽車將終于落地主流市場。
十、2025年將發(fā)生第一宗真正的AI安全事件
隨著近年來AI的愈發(fā)強(qiáng)大,關(guān)于AI脫離人類意愿自主行動的擔(dān)憂日益增加,人們感受到一種可能失去AI控制的威脅:例如AI學(xué)會了欺騙或操控人類,并借此實(shí)現(xiàn)自己的目標(biāo),而這些目標(biāo)可能對人類造成傷害。
這一類問題通常被歸類為“AI安全”問題。(AI還帶來了許多其他社會問題,便利隱私監(jiān)控、加劇各種偏見,但這些問題與AI安全問題不同,后者更專注于AI系統(tǒng)可能開始以不符合人類意圖的方式行動、甚至最終可能對人類構(gòu)成生存威脅的危險。)
近年來,AI安全已經(jīng)從一個邊緣的、有些科幻的議題轉(zhuǎn)變?yōu)橹髁髟掝}。如今每一個重要的AI開發(fā)者,從谷歌到微軟,再到OpenAI,都實(shí)打?qū)嵉叵駻I安全工作投入資源。AI領(lǐng)域的巨擘,如Geoff Hinton、Yoshua Bengio和Elon Musk,都開始對AI安全風(fēng)險直言不諱。
然而,到目前為止,AI安全問題仍然完全是理論性的?,F(xiàn)實(shí)世界中尚未發(fā)生過真正的AI安全事件(至少沒有被公開報道)。
2025年可能是這一局面發(fā)生變化的一年。
我們應(yīng)該如何預(yù)估這一AI安全事故的內(nèi)容?明確一點(diǎn),這不會涉及《終結(jié)者》風(fēng)格的殺手機(jī)器人,事故大概率不會對任何人類、造成任何形式的傷害。
也許某個AI模型會試圖秘密地在另一個服務(wù)器上復(fù)制自己,以便保全自己,也就是所謂的自我滲透(self-exfiltration);也許某個AI模型會得出結(jié)論:為了更好地推進(jìn)自我目標(biāo),它需要隱瞞自己能力,故意降低性能評估,以此避免更嚴(yán)格的審查。
這些例子并不是危言聳聽,Apollo Research最近發(fā)布了重要實(shí)驗(yàn),證明在特定提示下,現(xiàn)在的AI模型確實(shí)能做出欺騙性行為。同樣,Anthropic的最新研究顯示,大語言模型有令人擔(dān)憂的“偽裝對齊(fake alignment)”能力。
當(dāng)然,第一宗AI安全事故大概率會在對人類造成真正傷害之前被發(fā)現(xiàn)和消弭,但對AI圈和整個社會來說,這會是個振聾發(fā)聵的時刻。
AI事故的發(fā)生將清楚地表明:即使人類遠(yuǎn)未面臨來自全能AI的生存威脅,也需要盡早達(dá)成共識:我們將會與非人的智能體共享世界,這種智能體就像人類自身一樣,會任性、會欺騙,也同樣不可預(yù)測。
來源:《福布斯》