当人工智能遇上伦理道德
目前, 人類(lèi)對(duì)人工智能倫理道德的擔(dān)憂(yōu)涉及到許多方面。這里,我綜合代表性和想象力選擇了三個(gè)方面來(lái)談:
一、機(jī)器的責(zé)任與風(fēng)險(xiǎn)
我們知道,世界上不存在完美無(wú)缺的算法,機(jī)器同我們?nèi)祟?lèi)一樣, 也會(huì)犯錯(cuò)。并且在當(dāng)前的AI發(fā)展水平下,機(jī)器犯錯(cuò)的概率甚至高于人類(lèi)。這就自然地引出一個(gè)問(wèn)題:機(jī)器犯錯(cuò)的責(zé)任和風(fēng)險(xiǎn)由誰(shuí)來(lái)承擔(dān)?
眾所周知,人類(lèi)能形成生產(chǎn)協(xié)同網(wǎng)絡(luò)的最核心基礎(chǔ)是分工契約體系。這個(gè)體系規(guī)定著我們每個(gè)人在合作結(jié)構(gòu)中的責(zé)任、權(quán)利與義務(wù)。其中被最常認(rèn)作“公理”的一條是:當(dāng)一個(gè)社會(huì)人承擔(dān)某責(zé)任、做出某決策時(shí),他同時(shí)也必須承擔(dān),至少是分擔(dān)其決策所帶來(lái)的收益與風(fēng)險(xiǎn)。而當(dāng)人工智能替代人類(lèi)進(jìn)入生產(chǎn)環(huán)節(jié)做出決策時(shí),一個(gè)極大的不對(duì)稱(chēng)就出現(xiàn)了:給人工智能賦予做出某項(xiàng)決策的責(zé)任是所有買(mǎi)家都會(huì)做的事(也是人工智能被創(chuàng)造出來(lái)的天職),但面對(duì)的是正面收益還是負(fù)面風(fēng)險(xiǎn),人工智能都無(wú)法像人類(lèi)那樣對(duì)自己的決策負(fù)責(zé)。舉無(wú)人駕駛汽車(chē)為例,如果AI控制的無(wú)人駕駛汽車(chē)出現(xiàn)車(chē)禍?zhǔn)鹿?#xff0c;其事故責(zé)任人是誰(shuí)?是坐在車(chē)?yán)锏摹⑼耆珱](méi)有參與駕駛的車(chē)主還是汽車(chē)廠(chǎng)家,亦或是程序員,還是AI本身?這種場(chǎng)景下誰(shuí)又該擔(dān)負(fù)主要責(zé)任?
若想讓AI負(fù)責(zé),除了刪除AI程序之外,似乎也并沒(méi)有更好的選擇。而刪除程序的舉措不存在任何法律意義上的法益,更何況受害者也得不到任何形式的補(bǔ)償。這個(gè)倫理問(wèn)題日后將成為AI發(fā)展最大的達(dá)摩克利斯之劍,也會(huì)在將來(lái)人工智能被廣泛應(yīng)用后引起各界廣泛的探討。
二、機(jī)器的權(quán)利
這個(gè)問(wèn)題也可以稱(chēng)作“人類(lèi)應(yīng)該如何為機(jī)器賦權(quán)”。
如上文所言,既然人工智能無(wú)法對(duì)其決策有效的承擔(dān)責(zé)任,因此需要對(duì)人工智能所做出的決策進(jìn)行更加嚴(yán)密的考核與監(jiān)管。而一旦人們開(kāi)始考慮如何“考核”或“監(jiān)管”人工智能,新的邏輯困局也將就此誕生–如何在“最終”結(jié)果出現(xiàn)以前判定某項(xiàng)決策本身的對(duì)與錯(cuò)。在博弈環(huán)境中,任何決策往往都是環(huán)環(huán)相扣的,因此在蓋棺定論之前,沒(méi)有人能夠輕易判斷哪一步的決策是絕對(duì)錯(cuò)誤或絕對(duì)正確的。
舉“阿爾法狗”和李世石下棋為例。在前三盤(pán)棋局中,當(dāng)解說(shuō)的專(zhuān)業(yè)九段看到“阿爾法狗”做出絲毫不合常理的下法時(shí),解說(shuō)員表現(xiàn)出了懷疑和嘲笑。然而出乎意料的是“阿爾法狗”贏了前三盤(pán)。或許終局之后當(dāng)解說(shuō)員再回頭看當(dāng)時(shí)所謂“臭棋”的時(shí)候,才能明白“阿爾法狗”“那步棋”更深層次的全局意義。
如果僅僅讓人工智能去下一盤(pán)沒(méi)什么賭注的圍棋,無(wú)論輸贏都不會(huì)有人糾纏于結(jié)果。但當(dāng)人工智能的決策涉及到的是幾千萬(wàn)的利潤(rùn)或幾千萬(wàn)條生命時(shí),如果人工智能給出的是人類(lèi)當(dāng)時(shí)所不能理解的答案,人類(lèi)又該作何選擇呢?假如人類(lèi)選擇不采納人工智能的意見(jiàn),那么人工智能進(jìn)步與發(fā)展的意義何在(本質(zhì)上還是人類(lèi)自己做決策,人工智能提供信息輔助)?其數(shù)據(jù)驅(qū)動(dòng)決策的優(yōu)越性又如何付諸實(shí)踐?但換個(gè)思路,如果人類(lèi)信賴(lài)人工智能所做出的決策,那就又繞回到了第一個(gè)難題,萬(wàn)一發(fā)生意外責(zé)任由誰(shuí)來(lái)承擔(dān)?相當(dāng)長(zhǎng)的一段時(shí)間內(nèi),人類(lèi)對(duì)于人工智能的態(tài)度一定會(huì)是矛盾的:如果人們不相信人工智能的決策,那無(wú)論技術(shù)再怎么成熟也不過(guò)是“葉公好龍”的鬧劇;而倘若大多數(shù)人認(rèn)可人工智能在決策方面具有超出人類(lèi)的優(yōu)勢(shì),又將直接導(dǎo)致人類(lèi)監(jiān)督無(wú)效、監(jiān)管無(wú)門(mén)的尷尬境地。這個(gè)暫時(shí)無(wú)法解決的矛盾,將在人工智能的成熟與廣泛應(yīng)用期帶來(lái)更多隱患。
三、機(jī)器與情感
與前兩個(gè)相對(duì)嚴(yán)肅、深沉的問(wèn)題相比,這個(gè)問(wèn)題就顯得比較有趣和富于想象了。然而機(jī)器產(chǎn)生情感(或是對(duì)機(jī)器產(chǎn)生情感)即使在現(xiàn)階段似乎也并非是完全無(wú)可能的。
為了明確這個(gè)問(wèn)題的主體, 我們需要引出“強(qiáng)人工智能”這個(gè)與當(dāng)下的“弱”人工智能相對(duì)應(yīng)的概念。
科學(xué)家把“強(qiáng)人工智能”定義為出現(xiàn)真正有自主意識(shí)、且可確證其主體資格的“智能”。
在微軟亞太研發(fā)集團(tuán)副總裁商容看來(lái),人工智能需要有理性,也需要有感性,涉及感性就會(huì)涉及到倫理和隱私等問(wèn)題。而聯(lián)想創(chuàng)投董事總經(jīng)理王光熙則認(rèn)為,未來(lái)人工智能或許具備情感,這就牽扯到未來(lái)人類(lèi)智慧和機(jī)器智能之間的界限在哪,或者是界限會(huì)被抹去。
當(dāng)人工智能具備了情感,就會(huì)與人類(lèi)出現(xiàn)戀人、親人等關(guān)系,這將拷問(wèn)現(xiàn)代倫理規(guī)范。信幀機(jī)器人創(chuàng)始人賀江濤認(rèn)為,在實(shí)際工作當(dāng)中,曾遇到人類(lèi)對(duì)機(jī)器人產(chǎn)生感情的事件。“公司旗下的一款?yuàn)蕵?lè)機(jī)器人,其視頻在網(wǎng)絡(luò)上有億次多的點(diǎn)擊量,視頻中這個(gè)機(jī)器人的頭部被拍打了一下,一位母親在看直播后就憤怒了,她說(shuō)這是我女兒公司做的機(jī)器人,你怎么能打他呢?”這時(shí)候賀江濤發(fā)現(xiàn),人類(lèi)對(duì)這臺(tái)機(jī)器人產(chǎn)生了感情,與這臺(tái)機(jī)器人有了某些聯(lián)系。
(日本2008年上映電影《我的機(jī)器人女友》中由綾瀨遙飾演的機(jī)器人)
在對(duì)“人工智能是否會(huì)與人類(lèi)產(chǎn)生情感糾紛”的擔(dān)憂(yōu)之余,我們也可以看到,擁有“情感”的人工智能帶來(lái)的“情感計(jì)算”,無(wú)疑會(huì)很好地解決前兩個(gè)問(wèn)題中的部分擔(dān)憂(yōu)。人工智能情感化, 也將是未來(lái)人工智能發(fā)展的一大重要方向。
總結(jié)
以上是生活随笔為你收集整理的当人工智能遇上伦理道德的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Qt 在GraphicsView中 打开
- 下一篇: Linux学习中Xshell软件出现to