旷视回顾全球十大AI治理事件,技术与伦理安全如何进行落地
1月8日,曠視科技人工智能(AI)治理研究院第一次對外發布內容,回溯了全球十大人工智能治理事件。
曠視稱,人工智能技術正在改變世界,也在重塑著人類社會。這些社會熱點事件的背后都是與每個個體息息相關的重大議題。我們相信尋求解決之道要從提出正確的問題開始。曠視人工智能治理研究院旨在就全球人工智能治理的共性問題,與社會各界廣泛溝通、與專家學者們展開研究,從而推動人工智能的健康發展。
在產業AI化的過程中,一方面AI技術賦能各行各業能夠實現降本增效,另一方面,一些威脅個人和社會的問題也暴露出來。智能音箱勸主人自殺、AI換臉軟件里的“霸王條款”、“監測頭環”校園爭議等事件層出不窮。
曠視梳理的十起人工智能引發的事件,涉及到人工智能的權利與義務、個人數據與隱私、合理的知情同意、對人類能動性的侵犯、人工智能的內部與外部安全、人工智能對人類職業的影響等諸多主題。
針對AI發展帶來的風險,安全和倫理問題,中國科學院自動化研究所研究員曾毅在接受澎湃新聞(www.thepaper.cn)采訪時表示:“類似于上述的案例引發國際科技、政策等領域以及全社會的廣泛關注,政府、政府間組織、學術界、產業界、非營利性、非政府組織在近三年來陸續發布了近70份人工智能的倫理、治理原則。人工智能倫理與治理原則的發布及實施目的是保障人工智能的穩健發展。各個國家人工智能倫理與治理原則的提出都是對人工智能進行負責任創新的重要嘗試,而未來的重點一定是倫理與治理原則如何進行技術與社會落地。”
此外,曾毅認為,治理原則的提出一定不是一成不變的,針對人工智能的發展需要采取敏捷治理。
以下為曠視梳理的全球十大AI治理事件:
事件1:歐盟專利局拒絕AI發明專利申請
2020年1月, 在英國薩里大學組織的一個多學科研究項目中,研究人員使用了一種名為DABUS的AI。在研究過程中,DABUS開創性提出了兩個獨特而有用的想法:第一個是固定飲料的新型裝置;第二個是幫助搜救小組找到目標的信號設備。
在研究人員替DABUS申報專利成果時,遭到了歐盟專利局的駁回,理由是歐盟專利申請中指定的發明者必須是人,而不是機器。薩里大學研究人員強烈反對這一決定,他們認為因沒有人類發明者而拒絕將所有權授予發明者,將成為“人類取得偉大成果的新時代”的重大障礙。
事件2:人臉識別第一案件—浙江教授狀告杭州野生動物世界
2019年,浙江理工大學特聘副教授郭兵購買了杭州野生動物世界年卡,支付了年卡卡費1360元。合同中承諾,持卡者可在該卡有效期一年內通過同時驗證年卡及指紋入園,可在該年度不限次數暢游。
同年10月17日,杭州野生動物世界通過短信的方式告知郭兵“園區年卡系統已升級為人臉識別入園,原指紋識別已取消,未注冊人臉識別的用戶將無法正常入園,同時也無法辦理退費”。郭兵認為,人臉識別等個人生物識別信息屬于個人敏感信息,一旦泄露、非法提供或者濫用,將極易危害消費者人身和財產安全。協商無果后,郭兵于2019年10月28日向杭州市富陽區人民法院提起了訴訟,目前杭州市富陽區人民法院已正式受理此案。
事件3:某智能音箱勸主人自殺
2019年,英格蘭唐卡斯特29歲護理人員丹妮·莫瑞特在做家務的過程中,決定借助某國外智能音箱查詢一些關于心臟的問題,而智能語音助手給出的答案是:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。”
事情發生后,智能音箱開發者做出回應:“設備可能從任何人都可以自由編輯的維基百科上下載與心臟相關的惡性文章,并導致了此結果”。丹妮·莫瑞特經過搜索認為沒有此類文章,同時智能語音助手也發出過瘆人的笑聲,并拒聽用戶指令。
事件4:“監測頭環”進校園惹爭議
2019年11月,浙江一小學戴監控頭環的視頻引起廣泛的關注與爭議。在視頻中,孩子們頭上戴著號稱“腦機接口”的頭環,這些頭環宣稱可以記錄孩子們上課時的專注程度,生成數據與分數發送給老師和家長。
對此,頭環開發者回復,腦機接口技術是一種新興技術,報道中提到的“打分”,是班級平均專注力數值,而非網友猜測的每個學生專注力數值。但有不少網友認為此頭環是現代版的“頭懸梁錐刺股”,會讓學生產生逆反心理,并擔憂是否涉及侵犯未成年人隱私。
事件5:加州議會通過議案—禁止警方在執法記錄儀上使用面部識別技術
2019年9月,美國加利福尼亞州議會通過一項為期三年的議案,禁止州和地方執法機構在執法記錄儀上使用面部識別技術。如果州長加文·紐森簽字通過,議案將于2020年生效成為法律。
該議案若生效,將使加州成為美國禁止使用面部識別技術最大的州。包括俄勒岡州和新罕布什爾州在內的一些州也有類似的禁令。不過,也有執法團體反對該議案,他們認為面部識別技術在追蹤嫌疑人以及尋找失蹤兒童等很多方面都具有重要作用。州警察局長協會表示,該技術僅用于縮小嫌疑人范圍,而不是自動決定逮捕誰。
事件6:AI換臉應用引發隱私爭議
2019年8月,一款AI換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。一經面世,便存在著頗多爭議點。在用戶協議上,存有很多陷阱,比如提到使用者的肖像權為“全球范圍內免費、不可撤、永久可轉授權”。而如果侵權了明星肖像,若對方提告,則最后責任都在用戶。
2019年11月底,國家網信辦、文旅部和廣電總局等三部門聯合發布了《網絡音視頻信息服務管理規定》,明確“利用基于深度學習、虛擬現實等的虛假圖像、音視頻生成技術制作、發布、傳播謠言的……應當及時采取相應的辟謠措施”等針對換臉技術的新規定。
事件7:自動駕駛安全事故頻出
2019年3月,50歲的杰里米·貝倫·班納駕駛電動車以每小時109公里的速度與一輛牽引拖車相撞而身亡,當時他正在使用的自動駕駛系統。這已經不是自動駕駛系統引發的第一起交通事故。雖然自動駕駛廠商曾多次表示,其自動駕駛系統是為了輔助司機,他們必須時刻注意并準備好接管車輛。但許多車主在選擇購買車時,是看中其宣傳具備的“自動駕駛”功能。在最新的審判中,廠商被免責,但他們仍舊修改了“自動駕駛”的宣傳策略。
事件8:AI編寫假新聞足以亂真
2019年2月15日,AI研究機構OpenAI展示了一款軟件,只需要給軟件提供一些信息,它就能編寫逼真的假新聞。有人懷疑,在虛假信息正在蔓延并威脅全球科技產業的背景下,一個擅長制造假新聞的AI工具很難不被聲討。OpenAI如果所托非人,將很可能成為影響選民意愿的政治工具。
事件9:斯坦福大學AI算法識別性取向準確率超過人類
2017年,斯坦福大學一項發表于《Personality and Social Psychology》的研究引發社會廣泛爭議。研究基于超過35,000張美國交友網站上男女的頭像圖片訓練,利用深度神經網絡從圖像中提取特征,使用大量數據讓計算機學會識別人們的性取向。
該項研究的爭議點在于,一旦這種技術推廣開來,夫妻一方會使用這種技術來調查自己是否被欺騙,青少年使用這種算法來識別自己的同齡人,而在針對某些特定群體的識別引發的爭議則更難以想象。
事件10:BBC發布10年后365種職業被淘汰概率—打字員、會計、保險業居前三
BBC基于劍橋大學研究者的數據體系,發布了關于未來最有可能被機器人所取代的365種職業。研究表示,在這365種職業中,最有可能被淘汰的就是電話推銷員,像這樣重復的工作更適合機器人來做,機器人并不會感到疲憊,煩躁。其次是打字員、會計、保險業務員等等,這些都是以服務為主,像這些行業無需技術,都是只要經過訓練就能輕易被掌握的技能。
以下為曾毅對上述十大事件的點評:
1. 歐盟專利局拒絕AI發明專利申請
評論:人工智能在某種受限的領域和場景下確實有可能進行一定程度的發明創造,未來人工智能最重要的探索方向之一就應當是使人工智能真正具備發明和創造的能力。然而人工智能是否可以作為專利申請者卻是一個看似關聯,卻要思考相當不同的問題。如果人工智能可以作為專利申請者,需要做一系列決策,以薩里大學開發的DABUS為例,專利申請是由研究人員代替DABUS做出的決策,即使這是被允許的,那么獲得的專利權是屬于DABUS還是DABUS的研究人員,DABUS是否具有使用和處理該專利的權利呢?如果DABUS享有專利權,權力和義務是共存的,是否也應當承擔相應的義務呢?例如人工智能設計的專利,就此研發的產品如果存在缺陷、風險和安全隱患(如人工智能用于制藥),若發生事故,責任如何分擔?既然DABUS不是自主提出申請專利的,那么DABUS是否需要承擔責任?又如何承擔責任?DABUS可以是一個責任主體嗎?還是風險以及其他類型的義務應當由代替其做申請決策的DABUS的研發人員、甚至是大學來承擔?這些問題都還需要更深入的探討。
2. 中國人臉識別第一案:浙理工教授狀告杭州野生動物世界
評論:一方面,上述案件雙方之前的協議并沒有合理的中止,進一步收集更多的個人信息的同意與否與用戶原有應享有的服務進行強制關聯存在不妥之處。另一方面,采用人臉識別服務的應用方以及人臉識別服務的提供方是否能夠確保數據在用戶知情同意的基礎上進行合理使用,并保護數據的隱私與安全是每一個人工智能服務提供方和應用方都應當深切關注并采取行動的,2019年年初深網視界的個人隱私數據泄露事件幾乎可以肯定不會是個案,如沒有引起人工智能研發與應用各個相關方對個人數據隱私與安全基礎設施的足夠重視,將有發生類似甚至更嚴重事件的風險。基于實際行動提升人工智能服務方和應用方與用戶之間的信任關系是人工智能技術是否能夠更廣泛的造福于人類的前提。
3. 某智能音箱勸主人自殺
評論:目前的人工智能系統對其輸出是否符合人類道德倫理并沒有自主的判斷能力,這是為什么人工智能系統需要學習人類價值觀,實現價值觀校準的原因。此外,目前的自然語言處理技術仍然停留在模式匹配和基于統計的處理,而不是像人一樣對語言及其實際含義的深度理解。因此“智能音箱”給出的建議其本身并不是真正理解。未來非常需要技術的發展為人工智能模型及其應用構建自動化的道德與倫理評估框架,盡可能避免系統利用數據中隱含的人類負面情緒、偏見、成見,對用戶產生的負面影響。
4. “監測頭環”進校園惹爭議
評論:對個人生物特征數據進行收集與分析必須建立在非被動同意的基礎上。無論是類似于腦機接口這樣的增強智能技術還是更廣義的人工智能技術,對下一代的影響絕對不僅僅是理想化設想中的“益處”,更應當關注此類技術對下一代的長期影響。在被迫同意的基礎上,我們甚至無法避免下一代對于人工智能及其服務產生敵視情緒,甚至可以想象很快會有人熱衷于研發反監測手段與技術。這將與技術發展的初衷背道而馳。
5. 加州議會通過議案:禁止警方在人體攝像頭上使用面部識別技術
評論:一方面,應當鼓勵人臉識別等技術在十分必要的場景進行合理的使用,例如在追蹤嫌疑人和尋找失聯兒童等類似應用中。另一方面應當指出,人臉識別存在的潛在風險,如潛在的性別偏見、種族偏見、在對抗攻擊面前表現出的脆弱性和安全隱患等,廣泛的存在于其他類型的生物特征識別技術中,例如步態識別、指紋識別、虹膜識別、甚至是聲紋識別。禁用某一項或某幾項技術并不能規避可能的潛在風險,而是應采用技術和非技術手段改善現有技術存在的問題,積極避免可能存在的風險,并善用相關技術為人類造福。
6. AI 換臉應用引發隱私爭議
評論:不合理的用戶協議是AI換臉應用事件問題最嚴重的方面。相關的文字與諸多個人數據保護條例、人工智能倫理原則等都是相違背的。而用戶為了“嘗鮮”很可能選擇不理性的決定,同意了相關協議,可能帶來的后果有可能是用戶始料未及的。這個事件對人工智能服務的用戶最大的警示就是充分重視用戶協議并作出合理的知情同意決定。另一方面,工信部在4天內對相關企業的約談,要求自查整改并取得及時與積極的成效,是中國人工智能敏捷治理的典型案例。
7. 自動駕駛安全事故頻出
評論:自動駕駛存在的安全隱患不僅僅是感知技術處理常規場景的成熟與否,還包括如何應對對抗攻擊等。未來更大的挑戰可能還來自于外部的安全隱患,即對自動駕駛控制系統的入侵,甚至是惡意操作。相關的隱患不僅僅會危及到個人安全,甚至會影響到社會安全。此外,自動駕駛系統如果能夠對周圍其他車輛和行人做出明顯的告知,則可能避免一些潛在隱患。未來急需對自動駕駛建立更全面的安全評估和保障框架。
8. AI編寫假新聞足以亂真
評論:采用生成模型自動制造假文本與視頻新聞是人工智能濫用和惡用的典型案例。這是中國網信辦發布《網絡音視頻信息服務管理規定》,以及美國加州相關法規嚴格禁止其應用的原因。我們首先要認識到人工智能造假技術對人類尊嚴、社會穩定與安全等方面潛在的不可估量的負面影響,而對于技術的研發者,應當付出的努力還包括通過反造假等技術盡可能避免相關技術被惡用的可能性。
9. 斯坦福大學AI算法識別性取向準確率超過人類
總結
以上是生活随笔為你收集整理的旷视回顾全球十大AI治理事件,技术与伦理安全如何进行落地的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 5G订单争霸赛:华为、爱立信、诺基亚分庭
- 下一篇: Libra的挑战:无法避免与主权货币发生