AI也“偏见”!或应鼓励女性参与AI研发
當聽到類似“蕩婦”等侮辱性言論時,人類或者反擊、或者沉默。
但在人工智能語音助手的世界,蘋果的 Siri 會說“I‘d blush if I could”(如果我能,我會臉紅);亞馬遜的 Alexa 說“謝謝你的反饋”;谷歌語音助手說“我不明白”......如果你對它們進一步提出更“露骨”的要求時,它們也鮮有直接拒絕的。(目前這些都已作修正)
近日,聯合國教科文組織發表了一份長達 145 頁的題為《如果我能,我會臉紅》的報告(以下簡稱報告),批評目前大多數 AI 語音助手中存在性別偏見,“因為它們幾乎都有著女性的名字和聲音,并被設置成千篇一律的、順從的女性形象。”
AI 強化性別偏見
報告中一份對 4 家公司的語音助手的調查顯示,當聽到用戶的性騷擾言論時,語音助手的回應往往模糊且溫順。幾乎沒有語音助手給出否定回答,或是將用戶的言論標記為不合適。
“這就發出了一個信號,暗示女性是樂于助人、溫順、取悅他人的,用戶只需按下按鈕,發出生硬的語音命令就可以了。”報告認為。
聯合國教科文組織性別平等部門負責人珂拉特表示,這種強行設定的服從形象,會影響人們與女性聲音交流的方式,以及女性面對他人要求時的回應模式。
這也就意味著,“女性”AI 可能強化人類社會的性別偏見。
事實上,早在 1964 年,聊天機器人 Eliza 的語音助理的預設聲音為女聲。目前,除了 Siri、Cortana 等,國內領先的智能語音助手同樣存在此類現象,比如百度的“小度”、阿里的“天貓精靈”和小米的“小愛同學”等。
中國科學院自動化研究所研究員、北京智源人工智能研究院人工智能倫理與安全研究中心主任曾毅告訴《中國科學報》,AI 語音助手中性別偏見的問題并不是由算法本身造成的,而是產品設計者的選擇,直接反應了人類自身的傾向。
盡管現代性別觀念中倡導“男女平等”,但現實社會依然普遍對女性有著刻板印象,即通常認為女性是溫和順從的,有足夠的耐心和理解力。
曾毅說,“人工智能產品研發者的最初動機可能來自所謂的‘大多數用戶的偏好’,但在無形中卻造成了性別偏見,而 AI 無非是對數據特征和屬性的學習。實際上目前的 AI 模型與技術仍然很難像人一樣理解‘偏見’的真正意義及其后果。”
看來,人工智能已經學會了人類“性別歧視”那一套,而這種偏見在其他領域中也得以充分“展現”。
比如,亞馬遜基于人工智能技術的簡歷篩選與招聘系統“自己學會”優選男性求職者,而女性簡歷會被自動減掉分數,該項目已在去年被迫關停;職業平臺 LinkedIn 通過復雜的人工智能算法向用戶推薦工作時,多為男性求職者推薦高收入職業,而很少向女性推薦高收入職業等。
“此類人工智能系統的應用不但不能推進人類的福祉,而且直接對人類造成了傷害,在人工智能產品與服務的發展中應當被糾正的。”曾毅表示。
AI 開發者性別失衡或致“偏見”產生
報告認為,產品開發者嚴重的性別比例失衡是產生“偏見”的一個原因。
一項國內調查發現,中國程序員群體的男女比例近 12:1。上述報告也提到,在人工智能開發人員中,僅 12% 是女性;軟件開發人員中的女性比例低至6%;信息通信技術專利申請人中的男女性別比例為 13:1。
“傳統的性別社會化教育形成了這樣一個大體的社會分工,使得 AI、計算機領域多以男性為主導。”人工智能與新媒介技術與文化研究專家、北京大學教授吳靖表示。
一項發表于《科學》雜志的研究印證了吳靖的觀點,該研究表明,基于來自互聯網中標準文本語料庫訓練出的機器學習模型包含了人類歷史偏見的持久印記,且非常精確。比如,在美國,男人會和工作、數學、科學聯系起來,而女人會和家庭、藝術聯系起來。
事實的確如此。曾毅表示,人工智能研發者的教育背景大多來自理工科,這可能造成他們對于社會、風險、道德與倫理的理解非常有限。“他們自身帶有的偏見會被直接嵌入 AI 系統。”
吳靖分析,人工智能產品打破了過去內容與技術的壁壘,內容生產的話語權和技術工具的權力愈發融合,且主要掌握在技術研發群體手中,也就是說,“碼農”群體可能擁有更多的主導權。
如今的智能語音交互產品還更多被賦予了媒介屬性,比如亞馬遜 Alexa 嵌入大量專業化媒體的內容,根據用戶特點進行定制化生產和重新編輯。
大眾對社會的認知和理解往往來自媒介,在吳靖看來,“與傳統大眾傳媒相比,人們尚未對新技術下的媒介所存在的性別偏見問題有較多反思和批評。且由于社會的刻板印象,加之 AI 的精準定位和精準分發,使得性別偏見更加強化和自然化。”
呼吁女性參與 AI 研發
不只是性別偏見,不平等、種族偏見等人類社會根深蒂固的“偏見”正通過 AI 等新技術得以強化,并影響著人類決策。
報告建議,探索將語音助手的“性別”設置為中性的可行性;用戶可根據需要更改智能助手設置;培養女性從事先進科技研究的能力,使其能與男性一同引領新技術的發展方向等等。
“均衡人工智能研發者中男女性別的比例,這是積極的嘗試。”曾毅提到,目前諸多國際組織正在為更多的女性提供 AI 相關的教育與培訓。
“各種職業的性別比例都應更平衡,以便相互間獲得更多的交流和認識,減少偏見產生。”吳靖建議,把性別社會化教育的觀念下沉到更早期的教育過程中。
此外,曾毅還表示,發展不具偏見、公平公正的人工智能是我們的愿景,實現它需要將這一愿景模型化、算法化、系統化落地到相關核心技術、產品與服務中。在人工智能產品與服務全生命周期的各個階段,盡可能做到公平設計。
過去“技術中立”的原則在人工智能技術這里行不通了,它有了自己的“價值觀”。
“通過價值觀‘校準’,盡可能使其與人類所共識的價值觀保持一致,這是人工智能學者們正在做的事情。”曾毅說,“我們期望實現能自動檢測偏見的人工智能算法與應用,以盡可能避免數據中潛在的、算法中可能產生的偏見,從而引導公平公正的社會與技術發展。”
總結
以上是生活随笔為你收集整理的AI也“偏见”!或应鼓励女性参与AI研发的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 高通骁龙865曝光:支持LPDDR5X和
- 下一篇: 屠呦呦团队放“大招”:“青蒿素抗药性”等