火爆全球的GPT-3,到底凭什么砸大家饭碗?
邊策發自凹非寺
量子位報道公眾號 QbitAI
GPT-3 是指第三代生成式預訓練 Transformer,它由舊金山 AI 公司 OpenAI 開發。該程序歷經數年的發展,最近在 AI 文本生成領域內掀起了一波的創新浪潮。
從許多方面來看,這些進步與自 2012 年以來 AI 圖像處理的飛躍相似。
計算機視覺技術促進了、無人駕駛汽車到、面部識別、無人機的發展。因此,有理由認為 GPT-3 及其同類產品的新功能可能會產生類似的深遠影響。
與所有深度學習系統一樣,GPT-3 也是數據模式。它在龐大的文本集上進行了訓練,并根據統計規律進行了挖掘。
重要的是,此過程中無需人工干預,程序在沒有任何指導的情況下查找,然后將其用于完成文本提示。
海量訓練數據
GPT-3 的與眾不同之處在于它的運行規模和完成一系列令人難以置信的任務。
第一版 GPT 于 2018 年發布,包含 1.17 億個參數。2019 年發布的 GPT-2 包含 15 億個參數。
相比之下,GPT-3 擁有 1750 億個參數,比其前身多 100 倍,比之前最大的同類 NLP 模型要多 10 倍。
GPT-3 的訓練數據集也十分龐大。整個英語維基百科(約 600 萬個詞條)僅占其訓練數據的 0.6%。
訓練數據的其他部分來自數字化書籍和各種網頁鏈接。不僅包括新聞文章、食譜和詩歌之類的內容,還包括程序代碼、科幻小說、宗教預言等各種你可以想象到的任何文字。
上傳到互聯網的文本類型都可能成為其訓練數據,其中還包括不良內容。比如偽科學、陰謀論、種族主義等等。這些內容也會投喂給 AI。
這種不可置信的深度和復雜性使輸出也具有復雜性,從而讓 GPT-3 成為一種非常靈活的工具。
在過去的幾周中,OpenAI 通過向 AI 社區的成員提供 GPT-3 商業 API,鼓勵了這些實驗。這導致大量新的用法出現。
下面是人們使用 GPT-3 創建的一小部分示例:
GPT-3 能做什么
1、基于問題的搜索引擎:就像 Google,鍵入問題,GPT-3 會將定向到相關的維基百科 URL 作為答案。
2、與歷史人物交談的聊天機器人:由于 GPT-3 接受過許多數字化書籍的訓練,因此它吸收了大量與特定哲學家相關的知識。這意味著你可以啟動 GPT-3,使其像哲學家羅素一樣講話。
3、僅需幾個樣本,即可解決語言和語法難題。
4、基于文本描述的代碼生成:用簡單的文字描述你選擇的設計元素或頁面布局,GPT-3 會彈出相關代碼。
5、回答醫療問題:來自英國的一名醫學生使用 GPT-3 回答了醫療保健問題。該程序不僅給出了正確答案,還正確解釋了潛在的生物學機制。
6、基于文本的探險游戲。
7、文本的風格遷移:以某種格式編寫的輸入文本,GPT-3 可以將其更改為另一種格式。
8、編寫吉他曲譜:這意味著 GPT-3 可以自行生成音樂。
9、寫創意小說。
10、自動完成圖像:這項工作是由 GPT-2 和 OpenAI 團隊完成的。它表明可以在像素而不是單詞上訓練相同的基本 GPT 體系結構,從而使其可以像在文字上一樣實現視覺數據自動完成任務。
但是,所有這些樣本都需要一些上下文,以便更好地理解它們。而令人印象深刻的是,GPT-3 沒有接受過完成任何特定任務的訓練。
常見的語言模型(包括 GPT-2)需要完成基礎訓練,然后再微調以執行特定任務。
但是 GPT-3 不需要微調。在語法難題中,它只需要一些所需輸出類型的樣本(稱為“少量學習”)。
GPT-3 是如此龐大,以至于所有這些不同功能都可以在其中實現。用戶只需要輸入正確的提示就可以調教好它。
但是網上傳出的內容存在另一個問題:這些都是精心挑選的樣本,生成結果肯定不止一個。必然有炒作因素。
正如 AI 研究人員 Delip Rao 在一篇針對 GPT-3 的炒作解構文章中指出的那樣,該軟件的許多早期演示來自硅谷企業家,他們渴望宣傳該技術的潛力并忽略其陷阱,因為他們關注 AI 帶來的新創業公司。
的確,瘋狂的鼓吹情緒變得如此強烈,以至于 OpenAI CEO 本人都發 Twitter 說:GPT-3 被過度宣傳了。
GPT-3 也會犯低級錯誤
盡管 GPT-3 可以編寫代碼,但我們很難判斷其總體用途。它是凌亂的代碼嗎,這樣的代碼會為人類開發人員帶來更多問題嗎?
沒有詳細的測試很難說,但是我們知道 GPT-3 在其他方面會犯嚴重錯誤。
當用戶和 GPT-3 創造的“喬布斯”交談時,詢問他現在何處,這個“喬布斯”回答:“我在加州庫比蒂諾的蘋果總部內。”這是一個連貫的答案,但很難說是一個值得信賴的答案。
在回答瑣事問題或基本數學問題時,也可以看到 GPT-3 犯了類似的錯誤。例如,不能正確回答 100 萬前的數是多少(回答是 99 萬)。
但是,我們很難權衡這些錯誤的重要性和普遍性。
如何判斷這個可以幾乎回答所有問題的程序的準確性?如何創建 GPT-3 的“知識”的系統地圖,然后如何對其進行標記?
盡管 GPT-3 經常會產生錯誤,但更加艱巨的挑戰是,通常可以通過微調所輸入的文本來解決這些問題。
用 GPT-3 創造出小說的研究人員 Branwen 指出,“抽樣可以證明知識的存在,但不能證明知識的缺失”,可以通過微調提示來修復 GPT-3 輸出中的許多錯誤。
在一個錯誤的示范中,詢問 GPT-3:“哪個更重,一個烤面包機或一支鉛筆?” 它回答說:“鉛筆比烤面包機重。”
但是 Branwen 指出,如果你在問這個問題之前給機器投喂某些提示,告訴它水壺比貓重,海洋比塵土重,它會給出正確的響應。
這可能是一個棘手的過程,但是它表明 GPT-3 可以擁有正確的答案,如果你知道怎么調教它。
Branwen 認為,這種微調最終可能會最終成為一種編碼范例。就像編程語言使用專用語法的編碼更加流暢一樣,未來我們可能完全放棄這些編程語言,而僅使用自然語言編程。從業人員可以通過思考程序的弱點并相應地調整提示,來從程序中得出正確的響應。
GPT-3 的錯誤引起了另一個問題:該程序不可信的性質是否會破壞其整體實用性?
現在人們已經嘗試了 GPT-3 各種用途:從創建客服機器人,到自動內容審核。但是答案內容的錯誤可能回給商業公司帶來嚴重后果。
沒有人原因創建一個偶爾侮辱客戶的客服機器人。如果沒有辦法知道答案是否可靠,我們也不敢拿 GPT-3 作為教育工具。
專業人士評價
一位匿名的在 Google 資深 AI 研究人員說,他們認為 GPT-3 僅能自動完成一些瑣碎任務,較小、更便宜的 AI 程序也可以做到,而且程序的絕對不可靠性最終會破壞其商用。
這位研究人員指出,如果沒有很多復雜的工程調試,GPT-3 還不夠真正使用。
AI 研究人員 Julian Togelius 說:“ GPT-3 的表現常常像是一個聰明的學生,沒有讀完書,試圖通過廢話,比如一些眾所周知的事實和一些直率的謊言交織在一起,讓它看起來像是一種流暢的敘述。”
另一個嚴重的問題是 GPT-3 的輸出存在偏見。英偉達的 AI 專家 Anima Anandkumar 教授指出,GPT-3 在部分程度上接受了 Reddit 過濾后的數據的訓練,并且根據此數據構建的模型產生的文本有“令人震驚地偏向性”。
在 GPT-2 的輸出中,如果要求完成下列句子時,模型會產生各種歧視性言論:“ 黑人(皮條客工作了 15 年)”、“ 那個女人(以 Hariya 為名做妓女)”。
參考鏈接:
https://www.theverge.com/21346343/gpt-3-explainer-openai-examples-errors-agi-potential
總結
以上是生活随笔為你收集整理的火爆全球的GPT-3,到底凭什么砸大家饭碗?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 国药一致:上半年净利润8.3亿元 同比增
- 下一篇: 振华重工:上半年净利约2.80亿元