人工智能面临的主要威胁是对最终失去实际控制人工智能能力的恐惧
2015 年,博斯特羅姆討論了一個(gè)場(chǎng)景,其中向 AI 機(jī)器展示了讓人們微笑的任務(wù)。我們可能會(huì)想象計(jì)算機(jī)給我們講笑話,并努力理解使人們變丑的事物類型。
然而,一臺(tái)超級(jí)智能機(jī)器會(huì)毫不費(fèi)力地找到一種更簡(jiǎn)單但更險(xiǎn)惡的方式來(lái)讓人微笑,使用電極迫使我們的面部肌肉收縮成永久的微笑。
關(guān)于人類給 AI 的命令,博斯特羅姆強(qiáng)調(diào)需要非常具體,使用格言“小心你想要的”。他將漫不經(jīng)心地指揮超級(jí)智能的行為比作貪婪的邁達(dá)斯國(guó)王的故事,他無(wú)知地希望他所接觸的一切都能變成金子。國(guó)王如愿以償,悲劇降臨在國(guó)王身上,因?yàn)樗氖澄锷踔了膼鄣呐畠憾甲兂闪它S金。
希臘神話邁達(dá)斯國(guó)王點(diǎn)石成金,連他的女兒也沒逃離那雙欲望之手
人工智能面臨的主要威脅是人類欲望的意外后果以及對(duì)最終失去實(shí)際控制人工智能能力的恐懼。博斯特羅姆認(rèn)為,人工智能將達(dá)到人類完全無(wú)法理解的智能水平。
這種類型的人工智能可以預(yù)測(cè)并防止人類試圖摧毀或“拔掉”它。如果這種情報(bào)在軍事破壞工具、醫(yī)藥、發(fā)電廠甚至農(nóng)業(yè)生產(chǎn)中發(fā)揮作用,它將對(duì)人類擁有巨大的力量。
人工智能倫理體系可以防止不可想象的事情
在創(chuàng)造很快就會(huì)變得比人類更聰明的技術(shù)時(shí),我們有巨大的責(zé)任確保它對(duì)人類也是安全的。鑒于尚未發(fā)現(xiàn)后奇點(diǎn)世界,這是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。所以博斯特羅姆轉(zhuǎn)向他的哲學(xué)知識(shí)來(lái)尋找答案并幫助發(fā)展人工智能的倫理。
博斯特羅姆建議,創(chuàng)造人工智能來(lái)理解人類價(jià)值觀對(duì)于確保我們的安全至關(guān)重要。但由于人類情感的復(fù)雜性和文化差異性,輸入單行代碼來(lái)教超級(jí)智能機(jī)器人人類關(guān)心什么,幾乎是不可能的任務(wù)。
因此,這個(gè)問題的一個(gè)潛在解決方案是,通過優(yōu)先考慮學(xué)習(xí)人類價(jià)值觀的計(jì)劃對(duì)人工智能進(jìn)行編程。隨著人工智能學(xué)會(huì)重視人和他們最珍視的事物,人類可以享受這項(xiàng)技術(shù)帶來(lái)的好處。
然而,在它存在之前,我們不會(huì)真正了解,它將如何改變我們所知道或理解世界的所有方式。
總結(jié)
以上是生活随笔為你收集整理的人工智能面临的主要威胁是对最终失去实际控制人工智能能力的恐惧的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2022年数学建模国赛C题完整思路
- 下一篇: linux中wps默认安装目录,在Lin