智東西(公眾號:zhidxcom)
編譯 | 羅添瑾
編輯 | 云鵬

智東西6月28日消息,彭博社在今日報道了一則與AI安全有關(guān)的采訪,采訪對象是來自美國AI安全中心(CAIS)的主任,也是xAI的安全顧問——丹·亨德里克斯(Dan hendricks),采訪內(nèi)容圍繞他對全球AI潛在風險的認識和應(yīng)對策略展開。

在采訪中他談?wù)摰搅税B ゑR斯克(Elon Musk)對于AI的看法,并預(yù)估在2026年前后會發(fā)生一次關(guān)鍵基礎(chǔ)設(shè)施被惡意攻擊的事件,他表示,未來十年,如果人類實現(xiàn)通用人工智能(AGI),那么將面臨大規(guī)模的勞動力中斷。

以下是對話的編譯:

我們采訪了AI政策領(lǐng)域的后起之星丹·亨德里克斯(Dan hendricks),了解他為什么認為我們需要更多地關(guān)注AI帶來的災(zāi)難性風險。

幾年前,丹·亨德里克斯(Dan hendricks)還是加州大學(xué)伯克利分校(University of California at Berkeley)的一名學(xué)生,正在攻讀計算機科學(xué)博士學(xué)位?,F(xiàn)在,他是AI安全和政策領(lǐng)域最有影響力的新人物之一。

力挺馬斯克的前OpenAI科學(xué)家放話:AGI將導(dǎo)致失業(yè)潮,預(yù)言大規(guī)模AI安全危機

▲丹·亨德里克斯(圖源:丹·亨德里克斯)

就在過去的幾個月里,亨德里克斯一直在為埃隆·馬斯克提供咨詢;與阿根廷總統(tǒng)共進晚餐,并幫助起草了一項備受爭議的加州新立法,名為《SB-1047前沿AI大模型安全創(chuàng)新法案》。

亨德里克斯第一次登上頭條是在2023年5月,當時他參與創(chuàng)始的非營利組織——AI安全中心(CAIS)撰寫了一封只有一句話的公開信,呼吁將“減輕AI帶來的滅絕風險”作為全球優(yōu)先事項,就像防止流行病或是核戰(zhàn)爭一樣。多名AI領(lǐng)域的知名人士參與簽署了這份聲明,包括OpenAI的山姆·奧特曼(Sam Altman)和Anthropic的達里奧·阿莫代(Dario Amodei)。

“自那以后,人們對AI可能會終結(jié)世界的擔憂有所減弱,但這并不意味著我們不應(yīng)該擔心?!焙嗟吕锟怂拐f。

“如果我們在未來10年內(nèi)實現(xiàn)AGI,這將徹底改變?nèi)祟惖臓顩r:至少會造成大規(guī)模的勞動力中斷?!焙嗟吕锟怂垢嬖V我,“所以這并不是說,‘哦,現(xiàn)在我們有電動牙刷了。’它不像其他小的外圍技術(shù)創(chuàng)新?!?/p>

CAIS已經(jīng)籌集了數(shù)百萬美元,下一步目標是擴大在華盛頓的業(yè)務(wù)。

亨德里克對AI安全的重視和提倡使他在一些圈子里并不受歡迎,尤其是他在加州法案SB 1047上所做的工作,一些技術(shù)專家說,這項法案可能會阻礙創(chuàng)新。他說,很多批評都是虛假的。他說:“不管法案內(nèi)容如何,很多風投公司都會反對它?!?/p>

我們采訪了亨德里克斯,談到了該法案引發(fā)的憤怒、他與馬斯克的合作,以及我們將會以何種方式感知到觸達AGI的那一天。

為了篇幅和清晰度,這篇采訪經(jīng)過了編輯。

彭博社:你是埃隆·馬斯克的AI安全顧問,和他一起工作是什么感覺?

亨德里克斯:他是一名非常棒的管理者,在每周與他的會議上,我笑得比在其他任何會議上都多。

彭博社:我很想聽聽馬斯克對AI安全的看法,他顯然非常關(guān)心AI的長期風險。另一方面,他一直直言不諱地表示,不希望監(jiān)管機構(gòu)或監(jiān)管者侵犯言論自由。

亨德里克斯:這是有區(qū)別的。所以埃隆絕對是支持監(jiān)管的。過去,他在AI安全問題上一直是卡桑德拉(Cassandra),耗費了他大量的社會資本。

(*卡桑德拉:通常用來形容那些發(fā)出警告或預(yù)言危險,但被忽視或不被信任的情況。)

他當然會反對妨礙言論自由,但這種問題并不全是政府的事情。這更多的關(guān)乎社會規(guī)范,例如“你會指示AI去說一些特定的意識形態(tài)的事情嗎?”

彭博社:你在xAI安全方面的任務(wù)是什么?

亨德里克斯:我認為現(xiàn)在的主要事情是遵守行政命令,并策劃一些好的測試,例如:“模型是否可以被不懷好意的恐怖分子用于研究化學(xué)、生物、放射性或核武器或網(wǎng)絡(luò)武器?”為此,我們需要好的測試,這些任務(wù)都和我的背景相關(guān)。

之后,會有類似的問題,“如果我們在系統(tǒng)中遇到這種危險,公司的政策是什么,我們會怎么做?”我們需要進行協(xié)商并且弄清楚那些應(yīng)該是什么。

彭博社:我覺得在OpenAI或Anthropic,可能至少有幾十個人在做類似的工作。你們會增加人員編制嗎,還是只有你一個人在做?

亨德里克斯:幸運的是,我在AI安全中心(CAIS)可以做一些工作。例如,我們與Scale AI合作制作了一個大規(guī)模殺傷性武器代理基準測試。然后我們可以將其發(fā)布出來,而在xAI,他們可以使用這個基準測試。這樣,我可以以間接的方式提供幫助,并且隨著組織擴展,更多專注于安全的人員加入,這個問題就不會那么嚴重了。

彭博社:您在CAIS更關(guān)注什么?

亨德里克斯:目前,我感興趣的是提出一種人類可以認同的衡量標準,用以判斷“如果跨越了這個門檻,那么我們就達到了AGI。”因為我認為現(xiàn)在要協(xié)調(diào)出一個一致的標準來判定我們何時達到了超高能力的水平是相當困難的,并且在達到這種超高能力水平時我們應(yīng)該做些什么。關(guān)于能力測量方面,現(xiàn)在一片混亂。

我們的另一個關(guān)注點是出口管制和國家安全,確保我們對像英偉達 H100這樣的東西進行控制,并試圖更多地監(jiān)督計算的情況,以確保它不會落入像朝鮮這樣的地方。

還有就是關(guān)注加州立法SB 1047。

彭博社:大約一年前,您說AI可能協(xié)助制造生物武器或執(zhí)行大規(guī)模黑客攻擊。我們有看到過這樣的事情嗎?您是否改變了您的預(yù)判?

亨德里克斯:我想我是在2021年寫下了我的預(yù)估。在2026年左右會發(fā)生一次對關(guān)鍵基礎(chǔ)設(shè)施的大規(guī)模攻擊,這個方向目前來看差不多是對的,甚至?xí)晕⑻崆啊?/p>

但我想非常明確地講,我最擔心的兩種惡意使用形式——那些影響國家安全的——就是針對關(guān)鍵基礎(chǔ)設(shè)施的網(wǎng)絡(luò)攻擊和AI生物武器。

我現(xiàn)在并不擔心模型。目前我們還停留在GPT4模型階段,GPT4模型對我來說并不令人擔憂。

彭博社:您如何看待許多科技行業(yè)的人士強烈反對SB 1047?

亨德里克斯:我和一些人交流過,他們會說,“不應(yīng)該對模型進行任何測試。政府不應(yīng)該測試模型或評估它們是否會造成危害?!蔽业姆磻?yīng)是,“好吧,我看不出這里有什么可以協(xié)商的余地?!币驗樵诎l(fā)布之前,我們會對iPhone進行測試。

還有很多完全站不住腳的論點,比如,“哦,這違反了第一修正案”——我想問他們有沒有咨詢過律師事務(wù)所?他們還對其他一些事情非常不滿:例如,有人說法案里有偽證條款。是的,如果你故意對政府撒謊,說你進行了安全測試,而實際并沒有,如果你對政府撒謊,那你可能會遇到麻煩。這并不是什么不尋常的事情。

很多風險投資人和其他人不管法案內(nèi)容如何,都會反對它。但我認為我們在做出權(quán)衡時做得很好。我們主要針對的是影響國家安全的事情。比如在涉及網(wǎng)絡(luò)和傳統(tǒng)的大規(guī)模殺傷性武器時,我們特別關(guān)注關(guān)鍵基礎(chǔ)設(shè)施。我認為他們已經(jīng)在執(zhí)行命令的情況下進行了很多這種安全測試。我們只是將其變成法律,而不是某個未來政府可以撤銷的行政命令。

彭博社:你認為最近對有效利他主義(EA)的批評是否被用來針對你,或針對整個AI安全工作?

亨德里克斯:這是一種過時的區(qū)分。我認為人們普遍認為SB 1047是合理的。我們委托了一項獨立的民意調(diào)查,以了解全國對它的支持情況。

這不是一個EA的問題。非常不幸的是,在ChatGPT之前,主要關(guān)心AI風險的群體是EA。

我們中的一些人不得不與EA們共存,因為他們實在是一個壓倒性的力量。但是在GPT之后,他們只是大海中的一滴水,我認為他們可能不再是影響故事情節(jié)發(fā)展的關(guān)鍵人物。

埃?。‥lon)不是EA。薩姆(Sam)也不是EA。我認為他們非常關(guān)心AI安全。

彭博社:你認為在這方面有聯(lián)邦監(jiān)管的希望嗎?

亨德里克斯:當然。我是說,我們已經(jīng)有出口管制了,例如,對GPU的出口管制。那些管制有很多漏洞。我們不能指望工業(yè)與安全局(Bureau of Industry and Security)自己處理所有問題。我認為世界終于開始意識到:這不僅僅是關(guān)于AI開發(fā)者的故事,而是關(guān)于計算能力和GPU的故事。計算能力的流動非常重要,我們應(yīng)該確保如果芯片是未來的鈾,我們要跟蹤“鈾去哪里了?有沒有被走私?”

我還預(yù)計AI能力的發(fā)展將會出現(xiàn)飛躍。自從GPT-4以來,我們還沒有看到實質(zhì)性的飛躍,因為還沒有一個模型使用比GPT-4多十倍的計算能力進行訓(xùn)練。但當這種情況發(fā)生時,我認為人們會說:“哦,AI的發(fā)展比預(yù)期的要快得多?!钡侥菚r,就會有政治力量參與從而推動新的措施。

彭博社:我看到一張阿根廷總統(tǒng)哈維爾·米萊在科技晚宴上的照片,在照片中我看到了您,對嗎?如果是的話,你們討論了什么?

亨德里克斯:是的,沒錯。顯然(米萊總統(tǒng))的人正在看我制作的教科書,或者他的顧問正在看它。我認為他們正在做一些事情很有趣。我認為評論其他國家的舉動不太好,但顯然他們在經(jīng)濟上做得很好。我的意思是,我認為他們意識到AI在經(jīng)濟上是非常重要的。所以我們可以看看他們未來的表現(xiàn)。

我坐在OpenAI的格雷格·布羅克曼(Greg Brockman)和安德森·霍洛維茨(Andreessen Horowitz)公司的一些人旁邊,玩得很開心,跟他們相處的也很愉快。

結(jié)語:AI安全仍是全世界范圍內(nèi)值得關(guān)注的問題

在這篇深入探討AI安全和政策的采訪中,我們可以了解到亨德里克斯對全球AI潛在風險的認識和應(yīng)對策略。從與Elon Musk的合作到加州立法SB 1047的辯論,他不僅在技術(shù)層面上推動了安全標準的制定,更在政策層面上促進了對AI監(jiān)管的深入討論。隨著AI技術(shù)的不斷進步,其對社會的影響日益深遠,必須要在創(chuàng)新與安全之間找到平衡點,確保技術(shù)的發(fā)展不會以犧牲人類福祉為代價。

隨著全球?qū)I的監(jiān)管和政策制定越來越重視,我們期待一個更加完善的框架,既能促進技術(shù)的健康發(fā)展,也能保護社會免受其潛在威脅。這不僅是技術(shù)專家的責任,也是每一個社會成員的共同使命。

來源:彭博社