智東西(公眾號(hào):zhidxcom)
編譯 | 楊蕊伃
編輯 |?漠影
智東西9月3日消息,據(jù)VentureBeat 8月31日?qǐng)?bào)道,在2024年DataGrail峰會(huì)上,Instacart首席信息安全官(CISO)David Tsao和Anthropic首席信息安全官Jason Clinton進(jìn)行一場(chǎng)深入對(duì)話,就人工智能(AI)的快速發(fā)展所帶來(lái)的風(fēng)險(xiǎn)發(fā)出了警告。
Clinton稱:“AI的計(jì)算能力目前正處于一個(gè)指數(shù)增長(zhǎng)的階段,而這種指數(shù)增長(zhǎng)的趨勢(shì)非常難預(yù)測(cè)。指數(shù)的快速增長(zhǎng)正在將AI推向未知領(lǐng)域,這意味著目前的保護(hù)措施可能很快將不再適用。”
兩位首席信息安全官?gòu)?qiáng)調(diào)行業(yè)需迅速?gòu)?qiáng)化安全措施以應(yīng)對(duì)AI的快速發(fā)展。這場(chǎng)討論由VentureBeat的編輯總監(jiān)Michael Nunez主持,探討了AI模型發(fā)展存在的威脅。
一、AI算力的指數(shù)級(jí)增長(zhǎng),遠(yuǎn)遠(yuǎn)超過(guò)安全框架的發(fā)展速度
Instacart首席信息安全官David Tsao和Anthropic首席信息安全官Jason Clinton一致認(rèn)為,AI技術(shù)的快速發(fā)展已經(jīng)超過(guò)了安全框架的建設(shè)速度。
兩位首席信息安全官都建議企業(yè)在投資AI技術(shù)時(shí),也要注重投資AI安全系統(tǒng)。
Clinton稱,AI模型的計(jì)算能力正呈指數(shù)級(jí)增長(zhǎng)。
他說(shuō):“自1957年感知機(jī)問(wèn)世以來(lái),每年訓(xùn)練AI模型的計(jì)算總量都比前一年增長(zhǎng)4倍。企業(yè)若想在未來(lái)幾年保持領(lǐng)先,就必須預(yù)見(jiàn)到神經(jīng)網(wǎng)絡(luò)的計(jì)算量一年后將增長(zhǎng)4倍,兩年后將增長(zhǎng)16倍?!?/p>
他呼吁企業(yè)既要跟上現(xiàn)有技術(shù),又要為未來(lái)技術(shù)進(jìn)步做好準(zhǔn)備。
Clinto認(rèn)為AI能力的快速增長(zhǎng)正將其推向未知領(lǐng)域,當(dāng)前的保護(hù)措施可能很快將不再適用。
他說(shuō):“安全措施不能只針對(duì)現(xiàn)有的模型和聊天機(jī)器人,還需要考慮到Agent架構(gòu)等前沿技術(shù)?!?/p>
二、企業(yè)應(yīng)加強(qiáng)AI安全系統(tǒng)的投資,以重建用戶信任
Instacart首席信息安全官David Tsao從實(shí)際應(yīng)用的角度探討了AI的安全挑戰(zhàn)。
David稱,大語(yǔ)言模型的不可預(yù)測(cè)性是目前業(yè)內(nèi)面臨的一個(gè)主要挑戰(zhàn)。
他解釋說(shuō):“盡管我們限制了這些模型的回答問(wèn)題方式,但如果我們投入足夠的時(shí)間去引導(dǎo)和訓(xùn)練它們,我們?nèi)匀豢赡苷业酵黄七@些限制的方法?!?/p>
此外,他還提到AI生成的內(nèi)容有時(shí)會(huì)出錯(cuò)。他認(rèn)為這種錯(cuò)誤可能會(huì)減少用戶的信任,嚴(yán)重時(shí)甚至可能傷害到用戶。
David強(qiáng)調(diào)企業(yè)需要在技術(shù)創(chuàng)新和安全保障之間找到平衡點(diǎn)。
他建議:“企業(yè)應(yīng)該在AI的安全系統(tǒng)、風(fēng)險(xiǎn)控制框架和隱私保護(hù)上盡可能多地投資?!?/p>
David強(qiáng)調(diào),各個(gè)行業(yè)都在積極應(yīng)用AI來(lái)提高效率,但如果不規(guī)避風(fēng)險(xiǎn),企業(yè)可能會(huì)遭受嚴(yán)重?fù)p失。
三、AI模型運(yùn)作不可預(yù)測(cè),AI風(fēng)險(xiǎn)將增加
Anthropic首席信息安全官Clinton介紹了自家公司最近進(jìn)行的一項(xiàng)神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn),這個(gè)實(shí)驗(yàn)展現(xiàn)了AI行為的復(fù)雜性。
在實(shí)驗(yàn)中,一個(gè)被訓(xùn)練過(guò)的模型總是將特定神經(jīng)元與金門大橋聯(lián)系起來(lái),即使在完全不相關(guān)的情境中也是如此。
他認(rèn)為這個(gè)實(shí)驗(yàn)顯示了AI模型內(nèi)部運(yùn)作的不可預(yù)測(cè)性。
Clinton說(shuō):“我們的神經(jīng)網(wǎng)絡(luò)已經(jīng)能夠識(shí)別其神經(jīng)結(jié)構(gòu)的異常。隨著技術(shù)的發(fā)展,現(xiàn)在發(fā)生的一切在一年或兩年以后將變得更加強(qiáng)大?!?/p>
隨著AI系統(tǒng)越來(lái)越深入地融入關(guān)鍵業(yè)務(wù)流程,AI風(fēng)險(xiǎn)也會(huì)增加。
Clinton認(rèn)為,在未來(lái),AI Agent不僅能聊天,還能獨(dú)立完成復(fù)雜任務(wù)。
Clinton的設(shè)想引發(fā)了關(guān)于AI驅(qū)動(dòng)決策可能帶來(lái)的深遠(yuǎn)影響的討論。
他再次警告說(shuō):“如果企業(yè)只針對(duì)現(xiàn)有的模型和聊天機(jī)器人制定計(jì)劃,而沒(méi)有為未來(lái)的AI治理做好準(zhǔn)備,他們將遠(yuǎn)遠(yuǎn)落后。”
結(jié)語(yǔ):AI是寶貴資產(chǎn),企業(yè)必須確保其存在安全
AI的發(fā)展勢(shì)頭不會(huì)減弱,同時(shí),推進(jìn)用以控制AI的安全措施也不應(yīng)該停滯。
Clinton總結(jié)道:“智能是一個(gè)組織中最有價(jià)值的資產(chǎn),但缺乏安全的智能將會(huì)帶來(lái)災(zāi)難?!?/p>
企業(yè)在推進(jìn)AI技術(shù)的同時(shí),需要投入相應(yīng)的資源和努力,以確保AI系統(tǒng)的安全和可靠。
一方面,業(yè)界應(yīng)該推進(jìn)技術(shù)層面的防護(hù)措施,如加密技術(shù)和訪問(wèn)控制,以確保用戶數(shù)據(jù)的安全和系統(tǒng)的安全。
另一方面,相關(guān)道德倫理約束、法律法規(guī)體系有待完善,如提高AI決策過(guò)程的透明度和可解釋性,以確保AI系統(tǒng)的決策能夠被用戶和社會(huì)理解和信任。
來(lái)源:VentureBeat