更新、挑错、识别假新闻,MIT推出维基百科AI编辑系统
文丨學(xué)術(shù)頭條
維基百科作為任何人都可以編輯的在線百科全書,需要大量的志愿者編輯花費(fèi)大量時間精力來讓每一個詞條保持最新。雖然志愿者編輯有很多,但要保障每天成千上萬的頁面及時更新,仍是一件極具挑戰(zhàn)的任務(wù)。
不久前,麻省理工學(xué)院的研究人員推出了一種新的 AI 系統(tǒng),該系統(tǒng)可用于自動更新在線百科全書中的任何不準(zhǔn)確之處,從而為人類編輯們提供幫助。
麻省理工學(xué)院計算機(jī)科學(xué)和 AI 實(shí)驗(yàn)的博士生 Darsh Shah 說道,“維基百科的文章需要不斷更新,因此需要數(shù)百人來修改每篇文章,而 AI 可以自動完成修改,這極大提高了效率。”
研究人員提出了一種文本系統(tǒng),該系統(tǒng)可精確定位并替換相關(guān)維基百科句子中的特定信息,同時使用類似于人類的書寫和編輯方式的語言。
當(dāng)人們在界面輸入帶有更新信息的非結(jié)構(gòu)化句子時,AI 會在維基百科中搜索正確的頁面和過時的信息,然后以類似于人類的語言風(fēng)格呈現(xiàn)內(nèi)容。
此前也存在許多其他可以自動進(jìn)行維基百科編輯的機(jī)器人,但 Shah 說道,“這些工具更多的是基于規(guī)則,將一些狹義的信息放入預(yù)定義的模版中,然而編輯的任務(wù)更多的是需要對兩個句子中相互矛盾的部分進(jìn)行推理,然后生成連貫的文本句子。研究人員的模型解決了這個問題,通過輸入一條非結(jié)構(gòu)化的信息,模型以人性化的方式自動修改句子。”
AI 識別矛盾信息
識別兩個單獨(dú)的句子之間的矛盾信息,并將它們?nèi)诤显谝黄穑@對于人類而言是一項(xiàng)十分容易的任務(wù),但對于機(jī)器學(xué)習(xí)而言卻是一項(xiàng)新穎的任務(wù)。
例如原始的句子:“基金 A 認(rèn)為活躍運(yùn)營公司中的 42 種少數(shù)股權(quán)中有 28 種對集團(tuán)特別重要”,而最新的信息則是:“基金 A 認(rèn)為 43 個少數(shù)股權(quán)中有 23 個意義重大”。
根據(jù)這兩個句子,系統(tǒng)將首先找到有關(guān) “基金 A” 的相關(guān)維基百科文本,然而自動去除過時的數(shù)字 28 和 42,并用新的數(shù)字 23 和 43 替換它們。
一般來說,該系統(tǒng)在包含句子對的流行數(shù)據(jù)集上進(jìn)行訓(xùn)練,其中一個句子是聲明,另一個是相關(guān)的維基百科的句子。每對都用三種方式進(jìn)行標(biāo)記:同意,表示句子匹配;不同意,表示存在矛盾的信息;中性,表示沒有足夠的信息可用于任何一個標(biāo)簽。
系統(tǒng)的目標(biāo)是修改所有過時的句子,達(dá)到相應(yīng)的要求,也要使所有不一致的句子對都達(dá)到 “同意”。因此,這就需要使用單獨(dú)的模型來產(chǎn)生所需的輸出。
該模型是事實(shí)檢查分類器,預(yù)先將每個句子對標(biāo)記為 “同意”、“不同意” 或 “中立”,重點(diǎn)關(guān)注 “不同意” 的句子對。與分類器一起運(yùn)行的是一個自定義的 “中性屏蔽器” 模塊,該模塊可識別過時句子中的哪些詞與聲明中的句子相矛盾。它在過時的句子上創(chuàng)建了一個二進(jìn)制 “掩碼”,其中 0 放在最有可能需要刪除的單詞上,而 1 放在保留的單詞上。
屏蔽之后,在過時的句子處使用兩個編碼器 - 解碼器框架,對需要刪除的單詞(用 0 覆蓋的單詞)結(jié)合不同的信息來融合填補(bǔ)。
該模型與其他幾種傳統(tǒng)的文本生成方法相比,在更新事實(shí)信息時更加準(zhǔn)確,其輸出與人類寫作更加相似。在一項(xiàng)測試中,研究人員根據(jù)模型的輸出句子包含事實(shí)更新和匹配人類語法的程度對該模型進(jìn)行了評分(從 1 到 5),該模型的事實(shí)更新平均得到達(dá)到了 4,語法匹配得分為 3.85,高于了其他所有傳統(tǒng)方法。
研究人員希望未來 AI 能夠自動完成整個過程,也就意味著它可以在網(wǎng)上搜索某個相關(guān)主題的最新新聞,并替換文本,自動化更新維基百科上過時的信息。
擴(kuò)充數(shù)據(jù)集,消除誤差
該研究還表明,當(dāng)訓(xùn)練 “假新聞” 的檢測器時,該系統(tǒng)可用于增強(qiáng)數(shù)據(jù)集,以消除偏見。
“假新聞” 是一種包含虛假信息的宣傳方式,旨在博人眼球,誤導(dǎo)讀者或是引導(dǎo)公眾輿論。這些部分檢測器在同意 - 不同意對的數(shù)據(jù)集上進(jìn)行訓(xùn)練,匹配給定的證據(jù)來驗(yàn)證真假新聞。在這些句子對中,聲明可將某些信息與維基百科上的支持 “證據(jù)” 相比較,模型經(jīng)過訓(xùn)練,通過反駁證據(jù),將句子標(biāo)記為 “假”,從而幫助識別假新聞。
但數(shù)據(jù)集往往帶有意想不到的偏差。Shah 說道,“在訓(xùn)練過程中,模型按照人類的書面語言要求將某些語言標(biāo)記為假例,而不必過多依賴相應(yīng)的證據(jù)語句。這會降低模型在評估實(shí)際示例中的準(zhǔn)確性,因?yàn)樗粓?zhí)行事實(shí)檢查。”
因此,研究人員使用了相同刪除和融合技術(shù),來平衡數(shù)據(jù)集中的不同意對,并幫助減輕偏見,在某些 “不同意” 對中,他們使用修改后的句子中的虛假信息來重新生成偽造的 “證據(jù)” 支持句子,某些短句也同時存在于 “同意” 和 “不同意” 句子中,這將使得模型分析更多的特征,得到擴(kuò)充的數(shù)據(jù)集。
研究人員利用這一方法將一種流行的假新聞檢測器的錯誤率降低了 13%。
維基百科部署 AI 編輯
早在 2015 年,維基百科就構(gòu)建了一個人工智能引擎,旨在自動分析維基百科的更改。
由于任何人都可以編輯維基百科,那么任何人都可以錯誤地添加虛假信息,破壞站點(diǎn),所以最早的維基百科建立了嚴(yán)格的篩選制度,阻止了很多人加入維基百科的編輯行列。
Halfaker 是維基百科的資深研究科學(xué)家,他建立了自己的 AI 引擎來識別這種破壞行為,以更友好的方式提高新手的參與度。同時他也承認(rèn),“這項(xiàng)服務(wù)無法捕獲所有破壞行為,但它可以捕獲最多的破壞。”
Halfaker 的項(xiàng)目實(shí)際上是為了增加人們對維基百科的參與,而放到 5 年后的今天,新的文本系統(tǒng)的出現(xiàn),可自動更新維基百科的信息,極大減少了志愿編輯者的工作,編輯者也朝著被淘汰的方向行走。
機(jī)器越來越智能,機(jī)器自動化替代人類工作也越來越普遍,人類是否會被機(jī)器替代也是當(dāng)下的熱點(diǎn)話題。有人預(yù)測 AI 和機(jī)器人技術(shù)將在未來 20 年內(nèi)取代我們多達(dá) 47% 的工作,但同時也有人認(rèn)為 AI 將創(chuàng)造大量新工作。
未來的事誰都說不準(zhǔn),我們唯一能做的是把握當(dāng)下。
資料來源:
[1]https://www.siliconrepublic.com/machines/wikipedia-editors-ai-fake-news[2] https://www.sciencedaily.com/releases/2020/02/200212164647.htm[3]https://www.wired.com/2015/12/wikipedia-is-using-ai-to-expand-the-ranks-of-human-editors/
總結(jié)
以上是生活随笔為你收集整理的更新、挑错、识别假新闻,MIT推出维基百科AI编辑系统的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 台积电 3nm 明年开始风险生产,用于苹
- 下一篇: 爱立信:英国换掉华为设备“不需5到7年”