【实录】Open AI CEO现身中国“AI春晚”,萨姆·奥特曼与张宏江隔空问答:未来10年属于AI
備受行業(yè)矚目的OpenAI,憑借ChatGPT在2023年成功爆火,成為了眾多公司競相追逐的目標(biāo)。2023年智源大會正在如火如荼地進(jìn)行,這是中國一年一度的AI盛會,作為OpenAI的聯(lián)合創(chuàng)始人和CEO,薩姆·奧特曼線上出席了本次大會,除了在線上發(fā)表了主題演講,他同時與智源研究院的理事長張宏江進(jìn)行了隔空交流,討論了AI革命、GPT-5和Open AI最新研究方向等熱門話題。
以下為薩姆·奧特曼演講重點總結(jié):
1. 全球范圍內(nèi)的訪問旨在觀察OpenAI新技術(shù)如何改變生活,并獲取寶貴的反饋,同時也討論了人工智能系統(tǒng)的安全部署問題。
2. 盡管當(dāng)前人工智能的問題需要緊急解決,但他對我們能夠?qū)崿F(xiàn)目標(biāo)保持樂觀。
3. 強(qiáng)調(diào)了負(fù)責(zé)任地將人工智能應(yīng)用到世界中去的重要性,特別是在科技進(jìn)步遵循指數(shù)增長的情況下。
4. 預(yù)測在未來十年,人工通用智能(AGI)系統(tǒng)的能力將大幅增長,其影響力可能超過當(dāng)前最大的公司。
5. 認(rèn)為AI革命將帶來可以分享的財富,并能提高生活標(biāo)準(zhǔn),但必須管理好風(fēng)險。
6. 強(qiáng)調(diào)了全球合作的重要性,尤其是在人工智能系統(tǒng)變得越來越強(qiáng)大的情況下。
7. 提出了兩個重要的領(lǐng)域,一是需要建立起包容的國際準(zhǔn)則和標(biāo)準(zhǔn),二是需要全球范圍內(nèi)的合作來建立對AGI系統(tǒng)安全開發(fā)的信任。
8. 強(qiáng)調(diào)了與國際科技界合作的重要性,提出了推動增加AGI安全技術(shù)進(jìn)展的透明度和知識分享機(jī)制。
9. 討論了OpenAI正在進(jìn)行的研究方向,包括可擴(kuò)展的監(jiān)督和可解釋性,并希望通過這些方式提高AI系統(tǒng)的安全性。
10. 希望未來的AI系統(tǒng)可以更好地優(yōu)化自身,并隨著AI的發(fā)展速度適應(yīng)。
以下為演講實錄:
薩姆·奧特曼:我認(rèn)為“對齊”這個詞在不同的方式中被使用。我認(rèn)為我們需要解決整個挑戰(zhàn),即能夠安全地訪問系統(tǒng)意味著什么。從傳統(tǒng)意義上講,讓模型按照用戶意圖進(jìn)行溝通的對齊是其中的一部分。還會有其他問題,例如我們?nèi)绾悟炞C系統(tǒng)正在按照我們的意愿行事,以及我們將系統(tǒng)與哪些價值觀對齊。我認(rèn)為重要的是全面考慮如何獲得安全的AI。
我認(rèn)為對齊工作還在不斷演變中。我們將納入市場上已有的工作模式。很多這些技術(shù)仍處于紙面之上,但是我們需要超越技術(shù)的其他因素。這是一個復(fù)雜的問題。AI安全是最新的技術(shù)。因此,技術(shù)方面的創(chuàng)新是我們需要考慮的因素之一。我們需要思考關(guān)鍵的AI安全問題。我們?nèi)绾螒?yīng)對這些挑戰(zhàn)?就像我們大多數(shù)人都是科學(xué)家一樣去思考。我們?yōu)槭裁匆鲞@個?這是一個非常復(fù)雜的問題。我認(rèn)為,為了確保我們解決了技術(shù)方面的安全問題,需要投入大量精力。
正如我之前提到的,確定我們要與之保持一致的價值觀并不是一個技術(shù)問題。我們確實需要技術(shù)的參與,但這更是一個值得全社會深入討論的問題。我們必須設(shè)計出公平的、有代表性和包容性的系統(tǒng)。正如您所指出的,我們不僅需要考慮AI模型本身的安全性,還需要考慮整個系統(tǒng)的安全性。因此,我們需要構(gòu)建安全的分類器和檢測器,以監(jiān)測符合用戶政策的情況。這一點很重要。
此外,我認(rèn)為很難預(yù)測和預(yù)先解決任何技術(shù)可能出現(xiàn)的問題。因此,通過從實際使用中學(xué)習(xí)并快速部署數(shù)據(jù),觀察在一個國家中會發(fā)生什么,并給人們提供時間來學(xué)習(xí)、更新和思考這些模型將如何影響他們的生活,這也非常重要。
張宏江: 中國、美國和歐洲是推動人工智能和創(chuàng)新的三個主要力量。您認(rèn)為國際合作解決人工智能需求和決策方面的優(yōu)勢有哪些?這些優(yōu)勢如何結(jié)合起來產(chǎn)生影響?
薩姆·奧特曼:我認(rèn)為在人工智能安全性方面,普遍存在著需要許多不同觀點的情況。我們還沒有所有的答案,解決這個問題非常困難且重要。正如我提到的,這不僅僅是一個技術(shù)問題。使人工智能變得安全這件事受益于了解不同國家和不同背景下用戶的偏好。因此,我們需要許多不同的觀念來實現(xiàn)這一目標(biāo)。中國擁有世界上一些最優(yōu)秀的AI系統(tǒng),從根本上講,我認(rèn)為這使研究人員在解決許多不同的AI系統(tǒng)的問題上面臨困難。中國是世界上最好的地方,我真誠希望中國和美國的研究人員能對此做出巨大貢獻(xiàn)。
張宏江:您能分享一些在這方面取得的成就嗎?在這項工作中,您的計劃或想法是什么?
薩姆·奧特曼:我認(rèn)為一個重要的進(jìn)展是人們開始對如何安全開發(fā)先進(jìn)AI系統(tǒng)的國際標(biāo)準(zhǔn)感到興奮了。我們希望在訓(xùn)練廣泛模型并在其部署之前,思考應(yīng)該進(jìn)行什么樣的測試。我們還就構(gòu)建反映人們目標(biāo)、價值觀和實踐的數(shù)據(jù)庫進(jìn)行了新的討論,人們可以利用這些數(shù)據(jù)庫來使他們的系統(tǒng)與之對齊,并探討了開展共享AI安全性研究的形式問題。所以,這些可能是目前出現(xiàn)的三個最具體的事情。
張宏江:我在這里有一個很棒的問題,來自觀眾——您是否打算重新開放GPT的源代碼,就像在3.0之前一樣?
薩姆·奧特曼:關(guān)于源代碼,我不太清楚,但可以確認(rèn)一下。我們開源了一些模型,而其他模型則不開源,但隨著時間的推移,我認(rèn)為我們可以期望開源的模型會更多,我沒有具體的模型或時間表,但這是我們正在努力的事情我不確定您是否聽說過,但是我主持了一個開源機(jī)構(gòu),我們在開放源代碼方面付出了很多努力,包括模型。
我將采用一種算法來開發(fā)模型,并引入新的Python模型和A-15模型。我們相信需要傾聽并理解聽眾的反饋。所以,如果您明天對此有類似的見解,是否有什么可以去討論以回應(yīng)兩位現(xiàn)在正在談?wù)摰耐轮g的擔(dān)憂?是的,我的意思是,開源確實起著重要的作用。
開源模型的發(fā)展已經(jīng)相當(dāng)多了。我認(rèn)為A-15模型也起著重要的作用,它為我們提供了額外的安全控制。您可以阻止某些用戶,可以阻止某些類型的微調(diào)。這是一個重要的回歸點。就目前模型的規(guī)模而言,我對此并不太擔(dān)心,但隨著模型變得越來越大,確保正確性可能會變得昂貴。我認(rèn)為開源一切可能不是最優(yōu)的路徑,盡管這確實是正確的路徑。我認(rèn)為我們只需小心地朝著這些節(jié)點前進(jìn)。
張宏江:是的,我認(rèn)為開源模型確實有優(yōu)勢。總結(jié)一下我所說的,無論是GPT-4還是開源的模型及簡化性AI,我們有沒有可能需要改變整個基礎(chǔ)設(shè)施或者模型的架構(gòu),使其像GPT-2一樣簡單?對此您有何想法?從能力和安全性的角度來看,我們可能確實需要一些非常不同的架構(gòu)。
薩姆·奧特曼:我認(rèn)為我們將在這個能力上取得一些良好的進(jìn)展,但在當(dāng)前的模型類型中他們展現(xiàn)的效果更好,這是一個原因。但是,如果在10年后出現(xiàn)另一個巨大的飛躍,我也不會感到驚訝。我不記得很多年間有什么東西真正改變了的架構(gòu)。另外,作為一名研究人員,我相信在座的許多人都會有這種好奇心,就是關(guān)于大模型和大容量模型的人工智能用戶體驗方面的下一步發(fā)展方向。我們是否會很快落后于增長曲線,或者下一個前沿是具有體現(xiàn)能力的模型,或者自主機(jī)器人是人工智能所關(guān)注的下一個前沿?我也非常好奇接下來會發(fā)生什么。我最喜歡做這項工作的事情就是能夠處在研究的前沿,這是令人興奮和驚喜的,我們還沒有答案。因此,我們正在探索許多關(guān)于接下來可能出現(xiàn)什么、可能的新領(lǐng)域的想法。
當(dāng)然,并不是說我們現(xiàn)在就能在序列中找到新的抗衰老模型,而是不用過于擔(dān)心具體的時間點。我們在剛開始的時候就做過機(jī)器人方面的工作,并且我們對此非常興奮,也經(jīng)歷了困難。我希望有一天我們能夠回到這個話題。
張宏江: 您還提到您正在研究如何制作更安全的模型,特別是使用CT4數(shù)據(jù),在CT6的神經(jīng)元有這個數(shù)據(jù)。這個工作在這個方向上是否有效?您是否能夠在未來(用這種方法)推進(jìn)人工智能領(lǐng)域?
我們將繼續(xù)在這方面努力。所以,如果我認(rèn)為我們會考慮到這一點,它是否具有可擴(kuò)展性?因為我在向一群生物學(xué)科學(xué)家提問,他們專注于人類的學(xué)習(xí)。他們想借鑒這些思想并從中學(xué)習(xí),以研究人類在工作中的表現(xiàn)。觀察人工神經(jīng)元比觀察生物神經(jīng)元更容易。
薩姆·奧特曼:我認(rèn)為這對人工神經(jīng)網(wǎng)絡(luò)是可行的。我認(rèn)為使用更強(qiáng)大的模型或使用類似其他(生物)模型的模型的方法是可行的。但我不太確定如何將其應(yīng)用于人腦。另外,我們正在討論人工智能安全和API控制的話題。我們剛才在辯論,如果我們只有三個模型,那么我們會更安全。這就像一個核計劃。您不希望(每個人)擁有核武器。因此,當(dāng)我在控制模型數(shù)量時,如果控制不了接觸模型和數(shù)據(jù)的人數(shù)的話是不安全的。
那么,我們是要控制模型的數(shù)量嗎?從人類的角度來看,無論是擁有少量模型還是大量模型,都不能讓我們更安全。更重要的是,我們是否有一種機(jī)制,確保任何柯林斯模型都需要經(jīng)過足夠的安全測試。我們是否有一個框架,讓那些創(chuàng)建了完備柯林斯模型的人具備足夠的資源和責(zé)任心,確保他們創(chuàng)造的東西是安全可靠的?來自麻省理工學(xué)院的教授Max是萊布尼茲研究所的一位教師,他提到了一種方法,但他認(rèn)為這個方法不夠具體。
從一個角度來看,我們可以研究如何控制隱私的泄露。如果您丟失了一封電子郵件,您仍然可以獲取一份副本。在這個過程中您無法證明它是怎么獲取到的。如果那家公司可以借用您的資料,那這將產(chǎn)生重大影響。我認(rèn)為有一些行業(yè)正在發(fā)展不同的許可框架,將新技術(shù)引入市場,我認(rèn)為我們應(yīng)該借鑒它們。但我認(rèn)為從根本上說,我們有著很好的購買數(shù)據(jù)的歷史。
張宏江: 最后一個問題,您對人工智能社區(qū)的設(shè)想是什么,以及在這個方向上可能具有很大推動力的因素是什么?
薩姆·奧特曼:在過去我說過:是什么推動您如此高度地激勵去從事人工智能安全性工作?對我而言,沒有比安全性工作更令人興奮、活力四溢、充實且重要的事情了。我堅信,如果您個人對一項重要的倡議非常認(rèn)可,您將會有無窮的力量去解決它。這對我們團(tuán)隊來說確實如此。當(dāng)我們剛開始的時侯,我覺得成功的概率會非常低。但如果我們能夠找出如何構(gòu)建人工智能,那它肯定會產(chǎn)生巨大變革。我們必須進(jìn)行安全方面的工作對吧?這就是其中的一部分。但您不能阻止AI的發(fā)展。
總結(jié)
以上是生活随笔為你收集整理的【实录】Open AI CEO现身中国“AI春晚”,萨姆·奥特曼与张宏江隔空问答:未来10年属于AI的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 实现网站中英文切换的三种方法
- 下一篇: 苹果太抠 升级256GB竟要1500元!