谷歌CEO皮查伊:AI必须受到监管 不能放任市场操纵
谷歌首席執(zhí)行官桑達(dá)爾·皮查伊
騰訊科技訊,1 月 20 日消息,據(jù)外媒報(bào)道,人工智能(AI)已成為當(dāng)今科技領(lǐng)域的核心力量之一,正融入到社會(huì)的方方面面。但在給我們帶來更多便利的同時(shí),AI 的負(fù)面效應(yīng)也逐漸顯現(xiàn)出來。
谷歌首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)日前撰文,認(rèn)為 AI 將變得越來越重要,必須受到監(jiān)管。公司不能僅僅只是構(gòu)建新的 AI 技術(shù),而放任市場(chǎng)力量控制如何使用它。
以下是皮查伊撰文的全文:
我在印度長大,始終對(duì)科技很著迷。每一項(xiàng)新發(fā)明都以非常有意義的方式改變了我們家的生活。電話使我們省去了去醫(yī)院看化驗(yàn)結(jié)果的長途跋涉,冰箱意味著我們可以少花時(shí)間準(zhǔn)備飯菜,電視讓我們看到以前聽短波收音機(jī)時(shí)只能想象的世界新聞和板球比賽。現(xiàn)在,我很榮幸能夠幫助塑造新的技術(shù),我們希望這些技術(shù)能夠改變世界各地人們的生活。
其中,AI 是最有前途的領(lǐng)域之一:就在本月,Alphabet 和谷歌就如何挖掘 AI 潛力的三個(gè)具體例子已經(jīng)出爐。《自然》雜志發(fā)表了我們的研究成果,表明 AI 模型可以幫助醫(yī)生更準(zhǔn)確地在乳房X光檢查中發(fā)現(xiàn)乳腺癌;作為應(yīng)對(duì)氣候變化努力的一部分,我們正在使用 AI 來比現(xiàn)有模型更快速、更準(zhǔn)確地做出即時(shí)、超越局部限制的降雨預(yù)測(cè);漢莎航空集團(tuán)正與我們的云計(jì)算部門合作,測(cè)試?yán)?AI 幫助減少航班延誤。
然而,歷史上有很多例子表明,我們無法確保技術(shù)總是發(fā)揮積極作用。內(nèi)燃機(jī)允許人們到更遠(yuǎn)的地方旅行,但也造成了更多的事故。互聯(lián)網(wǎng)使人們可以與任何人聯(lián)系,從任何地方獲得信息,但也更容易傳播錯(cuò)誤信息。這些教訓(xùn)告訴我們,我們需要對(duì)可能出現(xiàn)的問題保持清醒的頭腦。
AI 的潛在負(fù)面后果確實(shí)令人擔(dān)憂,從深度換臉(deepfakes)到面部識(shí)別的壓制性使用。雖然許多公司已經(jīng)做了很多工作以幫助解決這些問題,但不可避免地會(huì)有更多的挑戰(zhàn)出現(xiàn),而沒有任何單獨(dú)的公司或行業(yè)可以獨(dú)自應(yīng)對(duì)。歐盟和美國已經(jīng)開始制定監(jiān)管提案,要使全球標(biāo)準(zhǔn)發(fā)揮作用,國際協(xié)調(diào)至關(guān)重要。
為了實(shí)現(xiàn)這一目標(biāo),我們需要在核心價(jià)值觀達(dá)成一致。像我們這樣的公司不能只是構(gòu)建有前途的新技術(shù),然后讓市場(chǎng)力量來決定如何使用它。我們同樣有責(zé)任確保技術(shù)得到善用,造福于所有人。毫無疑問,AI 需要被監(jiān)管。這項(xiàng)技術(shù)太重要,不能對(duì)其放任不管。唯一的問題是如何去監(jiān)管。
這就是為何在 2018 年,谷歌發(fā)布了我們自己的 AI 原則的原因,旨在幫助以符合倫理道德的方式開發(fā)和使用 AI 技術(shù)。這些原則幫助我們避免偏見,嚴(yán)格測(cè)試安全性,設(shè)計(jì)時(shí)就將隱私放在首位,并使技術(shù)對(duì)人們負(fù)責(zé)。它們還規(guī)定了我們不會(huì)設(shè)計(jì)或部署 AI 的領(lǐng)域,比如支持大規(guī)模監(jiān)控或侵犯人權(quán)等。
但留在紙上的原則不經(jīng)執(zhí)行毫無意義。因此,我們也開發(fā)了許多工具來幫助施行這些原則,比如測(cè)試 AI 決策的公平性,以及對(duì)新產(chǎn)品進(jìn)行獨(dú)立的安全評(píng)估。我們甚至更進(jìn)一步,使這些工具和相關(guān)的開源代碼廣泛可用,這將使其他人能夠永遠(yuǎn)善意地使用 AI。我們認(rèn)為,任何開發(fā)新 AI 工具的公司也應(yīng)該采用指導(dǎo)原則和嚴(yán)格的審查流程。
政府監(jiān)管也將發(fā)揮重要作用,但我們不必從零開始。現(xiàn)有的規(guī)則可以提供堅(jiān)實(shí)的基礎(chǔ),如歐洲的《通用數(shù)據(jù)保護(hù)條例》。良好的監(jiān)管框架將考慮安全性、可解釋性、公平性和責(zé)任,以確保我們以正確的方式開發(fā)正確的工具。合理的監(jiān)管還必須采取適當(dāng)?shù)姆椒ǎ胶鉂撛诘奈:?尤其是在高風(fēng)險(xiǎn)地區(qū))。
監(jiān)管可以提供廣泛的指導(dǎo),同時(shí)允許在不同的部門以量身定制的方式部署 AI。對(duì)于有些 AI 應(yīng)用,如受監(jiān)管的醫(yī)療設(shè)備(輔助心臟監(jiān)測(cè)儀),現(xiàn)有的框架提供了很好的起點(diǎn)。對(duì)于自動(dòng)駕駛汽車等新領(lǐng)域,政府將需要制定適當(dāng)?shù)男乱?guī)則,考慮所有相關(guān)成本和收益。
谷歌的作用始于認(rèn)識(shí)到應(yīng)用 AI 需要有原則性和規(guī)范的方法,但并沒有到此為止。我們希望在監(jiān)管機(jī)構(gòu)應(yīng)對(duì)不可避免的緊張局勢(shì)和權(quán)衡取舍時(shí),成為有用的、積極參與的合作伙伴。我們提供我們的專業(yè)知識(shí)、經(jīng)驗(yàn)和工具,共同應(yīng)對(duì)這些問題。AI 有潛力改善數(shù)十億人的生活,但最大的風(fēng)險(xiǎn)可能是無法實(shí)現(xiàn)上述目標(biāo)。通過確保它以對(duì)每個(gè)人都有利的方式負(fù)責(zé)任地發(fā)展,我們可以激勵(lì)子孫后代像我一樣相信技術(shù)的力量。(騰訊科技審校/金鹿)
總結(jié)
以上是生活随笔為你收集整理的谷歌CEO皮查伊:AI必须受到监管 不能放任市场操纵的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 新型冠状病毒到底是什么?看完这篇你就了解
- 下一篇: 日均定位量突破10亿次,为网络辅助北斗/