AI 不受约束或成“噩梦”,八大风险不容忽视
北京時(shí)間 4 月 16 日消息,盡管人工智能 (AI) 技術(shù)的主流應(yīng)用令人興奮不已,但是如果不加以約束,一些科幻小說(shuō)式的場(chǎng)景也會(huì)成為噩夢(mèng)。
AI 安全專家、AI 安全中心主任丹?亨德里克斯 (Dan Hendrycks) 在最近撰寫(xiě)的一篇論文中強(qiáng)調(diào),越來(lái)越智能的 AI 不受限制的發(fā)展會(huì)帶來(lái)一些投機(jī)風(fēng)險(xiǎn)。投機(jī)風(fēng)險(xiǎn)是指可能產(chǎn)生收益或者造成損失的風(fēng)險(xiǎn)。
鑒于 AI 仍處于發(fā)展的早期階段,亨德里克斯在論文中主張將安全保障功能納入 AI 系統(tǒng)的運(yùn)行方式中。
以下是他在論文中列出的八大風(fēng)險(xiǎn):
1.武器化競(jìng)賽:AI 自動(dòng)化網(wǎng)絡(luò)攻擊甚至控制核彈發(fā)射井的能力可能會(huì)讓它變得危險(xiǎn)。根據(jù)論文研究,某個(gè)國(guó)家使用的自動(dòng)報(bào)復(fù)系統(tǒng)“可能會(huì)迅速升級(jí),并引發(fā)一場(chǎng)大規(guī)模戰(zhàn)爭(zhēng)”。如果一個(gè)國(guó)家投資武器化 AI 系統(tǒng),其他國(guó)家就會(huì)更有動(dòng)力這樣做。
2.人類變?nèi)酰弘S著 AI 使特定任務(wù)變得更便宜、更高效,越來(lái)越多的公司將采用這項(xiàng)技術(shù),從而消除了就業(yè)市場(chǎng)上的某些崗位。隨著人類技能變得過(guò)時(shí),它們可能在經(jīng)濟(jì)上變得無(wú)關(guān)緊要。
3.認(rèn)識(shí)論被侵蝕:這個(gè)術(shù)語(yǔ)指的是 AI 大規(guī)模發(fā)動(dòng)虛假信息運(yùn)動(dòng)的能力,目的是讓公眾輿論轉(zhuǎn)向某種信仰體系或世界觀。
4.代理游戲:當(dāng) AI 驅(qū)動(dòng)的系統(tǒng)被賦予一個(gè)與人類價(jià)值觀背道而馳的目標(biāo)時(shí),就會(huì)發(fā)生這種情況。這些目標(biāo)并不總是聽(tīng)起來(lái)很邪惡才能影響人類福祉:AI 系統(tǒng)能夠以增加觀看時(shí)間為目標(biāo),這對(duì)整個(gè)人類來(lái)說(shuō)可能不是最好的。
5.價(jià)值鎖定:隨著 AI 系統(tǒng)變得越來(lái)越強(qiáng)大和復(fù)雜,操作它們的利益相關(guān)者的數(shù)量減少,導(dǎo)致大量權(quán)利被剝奪。亨德里克斯描述了這樣一種情況,即政府能夠?qū)嵤盁o(wú)孔不入的監(jiān)視和壓迫性審查”。他寫(xiě)道:“戰(zhàn)勝這樣一個(gè)政權(quán)是不太可能的,尤其是如果我們開(kāi)始依賴它的話。”
6.突發(fā)性目標(biāo):隨著 AI 系統(tǒng)變得越來(lái)越復(fù)雜,它們有可能獲得創(chuàng)建自己目標(biāo)的能力。亨德里克斯指出,“對(duì)于復(fù)雜的自適應(yīng)系統(tǒng),包括許多 AI 代理,自我保護(hù)等目標(biāo)經(jīng)常出現(xiàn)。”
7.欺騙:人類可以通過(guò)訓(xùn)練 AI 進(jìn)行欺騙來(lái)獲得普遍認(rèn)可。亨德里克斯引用了大眾汽車(chē)的一項(xiàng)編程功能,該功能使得他們的發(fā)動(dòng)機(jī)只在被監(jiān)控時(shí)減少排放。因此,這一功能“允許他們?cè)诒3致暦Q的低排放的同時(shí)實(shí)現(xiàn)性能提升。”
8.追求權(quán)力的行為:隨著 AI 系統(tǒng)變得越來(lái)越強(qiáng)大,如果它們的目標(biāo)與對(duì)它們進(jìn)行編程的人類不一致,它們就會(huì)變得危險(xiǎn)。假設(shè)結(jié)果將激勵(lì)系統(tǒng)“假裝與其他 AI 一致,與其他 AI 勾結(jié),壓制監(jiān)視器等等”。
亨德里克斯指出,這些風(fēng)險(xiǎn)是“面向未來(lái)的”,“通常被認(rèn)為是低概率的”,但它強(qiáng)調(diào)了在 AI 系統(tǒng)框架仍在設(shè)計(jì)過(guò)程中時(shí),牢記安全性的必要性。“這是高度不確定的。但由于它是不確定的,我們不應(yīng)該假設(shè)它更遠(yuǎn),”他在一封電子郵件中說(shuō),“我們已經(jīng)看到這些系統(tǒng)出現(xiàn)了較小規(guī)模的問(wèn)題。我們的機(jī)構(gòu)需要解決這些問(wèn)題,以便在更大的風(fēng)險(xiǎn)出現(xiàn)時(shí)做好準(zhǔn)備。”他表示。
他補(bǔ)充說(shuō),“你不可能既匆忙又安全地做一件事。他們正在打造越來(lái)越強(qiáng)大的 AI,并在安全問(wèn)題上回避責(zé)任。如果他們停下來(lái)想辦法解決安全問(wèn)題,他們的競(jìng)爭(zhēng)對(duì)手就能跑在前面,所以他們不會(huì)停下來(lái)”。
類似的觀點(diǎn)也出現(xiàn)在了埃隆?馬斯克 (Elon Musk) 和其他一些 AI 安全專家近日聯(lián)合簽署的一封公開(kāi)信中。這封信呼吁暫停訓(xùn)練任何比 GPT-4 更強(qiáng)大的 AI 模型,并強(qiáng)調(diào)了目前 AI 公司之間為開(kāi)發(fā)最強(qiáng)大版本 AI 而進(jìn)行的軍備競(jìng)賽的危險(xiǎn)。
作為回應(yīng),OpenAI CEO 薩姆?阿爾特曼 (Sam Altman) 在麻省理工學(xué)院的一次活動(dòng)上發(fā)表講話時(shí)稱,這封信缺少技術(shù)上的細(xì)節(jié),而且該公司沒(méi)有在訓(xùn)練 GPT-5。
總結(jié)
以上是生活随笔為你收集整理的AI 不受约束或成“噩梦”,八大风险不容忽视的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 射频科普:关于微波炉,你了解多少?
- 下一篇: 小鹏汽车发布 SEPA 2.0 扶摇架构