危机时保路人还是保乘客?无人车伦理困境背后:谁来制定算法规则
一輛無人駕駛車在無法避免一場車禍的情形下,是優先保護馬路上的行人,還是寧愿撞人也要保護車內司機或乘客?如果無人駕駛汽車能在危急關頭瞬間判斷出“最佳選擇”,背后需要什么樣的算法倫理?
不久前,當中國社會科學院法學研究所副研究員李霞把上述問題拋給一些開發無人駕駛汽車系統的頂級工程師時,對方并未正面回答。盡管工程師們承諾,“我們的設計不會讓汽車置于這樣的情景下”,但不可否認的是在現實中,這種危險確實存在。
新技術的發展飛快,類似無人駕駛車已經走進人們的生活,而由此帶來的一系列法律和倫理問題尚未解決。在這種背景下,既懂技術如何更新迭代,又知曉網絡法律規則的復合型人才是個稀缺口。
10月13日-14日,中國法學會網絡與信息法學研究會的年會上,如何培養適應時代需求的人才,成為業內關注的焦點議題。
無人駕駛車倫理困境背后:算法該有倫理判斷嗎?
10月13日,中國法學會網絡與信息法學研究會年會在深圳舉行。當天下午一場名為“網絡與信息法學科與人才”的圓桌研討會上,11位來自高校、傳媒和企業的專家學者展開了討論。
中國社會科學院法學研究所副研究員李霞認為,網絡法學首先是法學,法學是人類古老的學問,網絡又是當代新奇的發明,兩者結合就是產生了新的網絡法學。
“作為新的學問要強調學科之間知識的融合性,否則研究的視野、方法、成果都會導致很大的局限,導致學科本身的封閉性,同時也很難回應理論的創新和實踐的需要。”李霞說。
李霞舉例,當無人駕駛汽車遇到危機突發時,是優先保護車內人還是犧牲馬路上的行人,當危險發生在駕駛者和乘客之間,又該如何決策?種種問題的背后其實反映的是算法倫理。
“我們的算法是不是應該有自己的倫理判斷?是否要遵循特定的倫理規則,具有利己和利他不同的品質算法?是不是應當對各方做合理的信息披露,駕駛人是不是可以根據自己的偏好對不同的場景進行選擇……”
不久前,李霞在調研過程中把這些困惑拋給開發無人車系統的頂級工程師,結果并未收到滿意的答案。
由此,李霞發現法律人和其他學科背景的人在思維方式上的許多不同。法律人具有底線思維,會更多地看到危機的出現,或者非正常狀況發生的可能性,從而在事先設定一個規則進行應對。同時,法律人還強調知情權、自由選擇權、強調責任的劃分以及承擔后果,注重公平和正義。
在李霞看來,這種思維方式的培養需要接受全面的法學系統教育才能實現。在具備專業法學知識的同時,網絡法人才還需有認知上的全局性,這就要求其必須要擁有廣博的多學科的背景,能夠以全局的視野來認識現象,綜合性地創造問題以及創造性解決問題。
倫理規則的背后是一種取舍和道德考量
人們常認為數據和技術是客觀和中立的,但這并不代表使用技術、運用數據的人也是如此。
當天論壇上,中國法學會網絡與信息法學研究會理事、21世紀經濟報系首席運營官虞偉指出,互聯網公司在追求商業化,客觀中立的分析、利用數據之間是有矛盾的,或者說數據是客觀的,但數據分析和數據利用不是。
“如果沒有法治和道德,一昧地從數據最大商業化利用的角度出發,就有可能使數據作惡。所以規則背后是一種取舍和道德考量。”他說。
虞偉建議,在網絡與信息法學科建設與人才培養中應該加入一些公共政策制定中如何平衡公眾、社會和企業利益的課程。沒有一種規則是絕對完美的,有時候批評很容易,但如何取舍和平衡以及展示規則背后對人性的關懷,才是關鍵。
在當天的論壇上,西南政法大學人工智能法學院院長、教授陳亮也分享了他對人工智能法學體系化的初步構想。
他以學科目錄性作用和規范性作用的發揮為前提,提出人工智能法學學科體系建構應把握的三大原則:
一是方法論上,應堅持整體主義方法論,即人工智能法學在研究內容上應貫穿于人工智能從生到死全過程的始終,即人工智能法學研究內容應包括調整人工智能產生、發展、使用、消亡的所有法律法規;
二是在理念上,應秉持“負責任理念”,即把“發展負責任的AI”作為人工智能法學體系構建的指導思想,用以將散亂的人工智能法律法規粘合成一個邏輯上互有關聯的有機整體;
三是在功能上,應注意區別化功能,即人工智能法學學科體系的構建應注意與其他學科相區別,避免與其他學科出現疊床架屋、相互沖突的情況。
有鑒于此,陳亮教授提出,人工智能法學在體系架構上應包括總論、數據法學、網絡法學、算法規制以及計算法學等幾大板塊。
據南都記者了解,本屆年會由中國法學會網絡與信息法學研究會主辦,暨南大學、騰訊公司承辦,深圳市法學會協辦。圍繞“網絡信息法治建設—數字經濟發展與安全”的學術議題,年會共設1個主論壇和8個分論壇。
采寫:南都記者李玲 發自深圳
總結
以上是生活随笔為你收集整理的危机时保路人还是保乘客?无人车伦理困境背后:谁来制定算法规则的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 开源开放是人工智能发展主要趋势之一
- 下一篇: 学Python10大理由:功能多、资源多