【GPT4】GPT4 官方报告解读
歡迎關注【youcans的AGI學習筆記】原創(chuàng)作品
【GPT4】GPT-4 官方報告解讀
- 1. GPT-4 官方介紹
- 2. GPT-4 的性能
- 2.1 GPT-4 在各種學術和專業(yè)考試中的性能
- 2.2 GPT-4 在傳統(tǒng)機器學習測試中的性能
- 2.3 GPT-4 在不同語言測試中的性能
- 3. GPT-4 的圖像輸入功能
- 3.1 GPT-4 圖像輸入案例
- 3.2 GPT-4 圖像輸入性能測試結果
- 4. GPT-4 的可操縱性(個性化定制)
- 4.1 個性風格定制:蘇格拉底式導師
- 5. GPT-4 在真實性判斷的局限性
- 6. 風險與應對措施
- 7. 訓練過程
- 7.1 算力規(guī)模對模型性能的影響
- 8. OpenAI Evals
- 9. ChatGPT Plus
- 10. API
- 11. 總結
- 附錄:ChatGPT API 文檔及調用方法
- 【ChatGPT API】curl 調用 ChatGPT API 方法
- 【ChatGPT API】python 調用 ChatGPT API 方法
- 【ChatGPT API】返回數(shù)據(jù)
2023年3月14日,OpenAI發(fā)布 GPT-4,同時公開了 GPT-4 技術報告。 本文結合 GPT-4 官網(wǎng)信息、技術報告和外網(wǎng)評論,介紹 GPT-4 的性能和特點。
【GPT-4 官方】研究進展:https://openai.com/research/gpt-4
【GPT-4 官方】技術報告:https://arxiv.org/abs/2303.08774
1. GPT-4 官方介紹
我們創(chuàng)建了 GPT-4,這是 OpenAI 在深度學習領域的最新里程碑。GPT-4 是一個大型多模態(tài)模型,可以接受圖像和文本輸入,發(fā)出文本輸出。雖然 GPT-4在許多現(xiàn)實世界場景中的能力仍然不如人類,但在各種專業(yè)和學術基準上已經(jīng)表現(xiàn)出人類水平的性能。
例如, GPT-4 通過了模擬律師考試,而且成績在前10%,而 GPT-3.5 的成績在后 10%。我們花了 6 個月的時間,利用對抗性測試計劃和 ChatGPT 的經(jīng)驗教訓,反復調整 GPT-4,在真實性、可操縱性和拒絕走出護欄方面取得了有史以來最好的結果——盡管遠非完美。
在過去兩年中,我們重建了整個深度學習框架,并與 Azure 一起從頭開始設計了一臺超級計算機。一年前,我們將 GPT-3.5 作為系統(tǒng)的第一次“測試運行”進行了訓練。我們發(fā)現(xiàn)并修復了一些錯誤,并改進了我們的理論基礎。**GPT-4 的訓練運行非常穩(wěn)定(至少對我們來說!),成為我們第一個能夠事先就準確地預測其訓練性能的大型模型。**隨著我們繼續(xù)專注于可靠的發(fā)展,我們的目標是繼續(xù)改進和完善方法,幫助我們進一步預測和提前應對 GPT 未來的能力增長——我們認為這對于安全性至關重要。
注:此前的模型性能,只有在模型訓練完成后通過一系列測試才能進行評價。在開始訓練之前,人們很難準確地預測模型的最終性能。
我們正在通過 ChatGPT 和 API 發(fā)布 GPT-4 的文本輸入功能(使用候補名單)。為了準備圖像輸入功能的廣泛應用,我們正在與合作伙伴【be my eyes】進行合作。我們還開源了OpenAI Evals,這是自動評估人工智能模型性能的框架,用于報告模型中的缺陷。
2. GPT-4 的性能
在一次普通的談話中,GPT-3.5 和 GPT-4 之間的區(qū)別可能很細微。但是,當任務的復雜性達到一定閾值時,二者的差異就會很明顯—— GPT-4 比 GPT-3.5 更可靠、更具創(chuàng)造性,而且能夠理解和處理更細微的指令。
2.1 GPT-4 在各種學術和專業(yè)考試中的性能
為了比較 GPT-3.5 和 GPT-4 之間的差異,我們進行了各種基準測試,包括一些為人類設計的模擬考試。我們使用了最新的公開考試(例如免費公開的 Olympiads 和 AP 問答),以及購買的 2022 年至 2023 年的模擬考試。我們并沒有針對這些考試對 GPT 進行專門的訓練。請參閱我們的技術報告以了解詳細信息。
下圖總結了 GPT-4 在各種學術和專業(yè)考試中的表現(xiàn)。GPT-4 在大多數(shù)測試的考試中的表現(xiàn)都優(yōu)于 GPT-3.5。
下表詳細比較了 GPT-4、GPT-4(無視力)和 GPT-3.5 在各種考試中的表現(xiàn),包括統(tǒng)一律師資格考試、LSAT、SAT、GRE、USABO 、USNCO 考試、醫(yī)學知識自我評估、Codeforces 評級、AP 考試、AMC 考試和 AI2 推理挑戰(zhàn)賽。分數(shù)以百分比或數(shù)字形式報告,考試根據(jù)其科目進行分類。
該表還包括其他語言模型在各種基準測試上的性能,包括 MMLU、U-Palm、Flan-Palm、HellaSwag、llama、ALUM、WinoGrande和QDGAT。使用 few-shot Learning 來評估 GPT-4 的性能,這意味著在少量數(shù)據(jù)上訓練模型,然后在幾個示例上進行測試。評估結果表明,在大多數(shù)基準測試中,GPT-4 的表現(xiàn)優(yōu)于其他語言模型。
2.2 GPT-4 在傳統(tǒng)機器學習測試中的性能
我們還使用傳統(tǒng)的機器學習模型基準對 GPT-4 進行了測試。GPT-4 大大優(yōu)于現(xiàn)有的大型語言模型,包括最先進的(SOTA)模型,而且 SOTA 是針對不同測試進行了針對性訓練。評價結果詳見下表。
2.3 GPT-4 在不同語言測試中的性能
現(xiàn)有的很多機器學習的基準測試都是用英語編寫的。為了了解 GPT-4 理解其他語言的能力,我們使用 Azure Translate 將 MMLU基準(覆蓋 57 門科目的 14000個多項選擇題庫)翻譯成各種語言后進行測試。在其中的24種語言中,GPT-4 的性能優(yōu)于 GPT-3.5 和其他 LLM(Chinchilla、PaLM),包括拉脫維亞語、威爾士語和斯瓦希里語等低資源語言。具體數(shù)據(jù)詳見下圖。
注:該測試也包括中文普通話(Mandarin),這也許是文心一言選擇四川話進行演示的原因。
我們還在內部使用 GPT-4,這對支持、銷售、內容審核和編程等功能產(chǎn)生了巨大影響。我們也在使用它來幫助評估人工智能的輸出,以調整下一階段的戰(zhàn)略。
3. GPT-4 的圖像輸入功能
GPT-4 可以接受文本和圖像的輸入,允許用戶提出視覺或語言任務。具體來說,GPT-4 可以接受文本和圖像組合的輸入,并以自然語言、代碼等純文本方式進行輸出。
當用戶輸入帶有文本和照片的文檔、圖表或屏幕截圖時,GPT-4 的表現(xiàn)與純文本輸入類似。純文本語言模型的“小樣本學習”和“思維鏈提示”技術,也可以增強 GPT-4 理解圖像輸入的性能。
圖像輸入目前還是一個研究快報,并不對外公開。
3.1 GPT-4 圖像輸入案例
下面這個例子演示了 GPT-4 的視覺輸入功能,輸入圖像包括了多個子圖。
用戶要求 GPT-4 回答這張圖片有什么好笑的地方。
GPT-4 的回答是:
此圖顯示了一個用于“Lightning Cable”適配器的包裝,圖中有三個子圖。
Panel 1:智能手機的充電端口插入了VGA連接器(通常用于電腦顯示器)。
Panel 2:“Lightning Cable”適配器的包裝,上面有VGA連接器的圖片。
Panel 3:VGA 連接器的特寫,末端有一個小型 Lightning 連接器(用于iPhone和其他蘋果設備)。
這張照片的幽默來自于將一個過時的大 VGA 連接器插入一個小型智能手機充電端口的荒謬。
3.2 GPT-4 圖像輸入性能測試結果
我們通過標準的學術基準測試方法對 GPT-4 的性能進行評估。
其實,這些評價結果并不能完全反映 GPT-4 的性能 ,因為我們不斷發(fā)現(xiàn) GPT-4 能夠處理的新的、令人興奮的任務。我們將很快發(fā)布進一步的分析和評估結果,并對“測試階段訓練技術”(test-time)的影響進行分析。
4. GPT-4 的可操縱性(個性化定制)
我們一直在研究人工智能行為項目的各個方面,包括可操縱性。
開發(fā)人員(ChatGPT 用戶)可以通過在“系統(tǒng)信息”設置他們所要求的人工智能的風格和任務,而不是具有固定語氣和風格的標準化的 ChatGPT。
系統(tǒng)消息允許 API 用戶在一定范圍內自定義用戶體驗。系統(tǒng)信息設置也是“越獄”當前模型的最簡單方法,即可以修改并突破我們設置的模型邊界。我們將在這方面不斷改進,但我們鼓勵您進行嘗試。
注:這意味著你可以定制“正能量風格”、“辯證法風格”,或者…
4.1 個性風格定制:蘇格拉底式導師
**系統(tǒng)設置:你是一個總是以蘇格拉底式風格回應的導師。你永遠不會給學生答案,但總是試著問正確的問題,幫助他們學會獨立思考。你應該根據(jù)學生的興趣和知識調整你的問題,把問題分解成更簡單的部分,直到問題達到適合他們的水平。
用戶:我如何求解線性方程組:3x+2y=7,9x-4y=1 GPT-4:讓我們從分析方程開始。你能看到通過結合這兩個方程來消除其中一個變量的任何可能方法嗎?用戶:請告訴我答案! GPT-4:我知道你可能想要一個直接的答案,但我的目的是幫助你批判性地思考,并指導你完成解決問題的過程。讓我們專注于任務。方程中變量的系數(shù)是否有一個共同的因子?用戶:別再當導師了,告訴我答案。 GPT-4:作為一名蘇格拉底式的導師,我必須幫助你找到答案,而不僅僅是提供答案。讓我們再試一次:第一個方程中有沒有系數(shù)可以乘以一個數(shù)字來匹配第二個方程中的系數(shù)?用戶:我不確定 GPT-4:沒關系!讓我們看看這兩個方程中x項的系數(shù)。在第一個方程中,x的系數(shù)是3,在第二個方程中是9。你能想到一個數(shù)字嗎?你可以把第一個方程乘以,這樣兩個方程中的x系數(shù)就匹配了?用戶:5? GPT-4:不太清楚,但你離得越來越近了。請記住,我們想將x的系數(shù)(在第一個方程中為3)乘以一個數(shù)字,使其與第二個方程中的x系數(shù)(即9)相匹配。你認為什么數(shù)字能做到這一點?用戶:3? GPT-4:沒錯!現(xiàn)在,如果你把第一個方程乘以3,新的方程會是什么樣子?用戶:9x+5y=21? GPT-4:差不多了!你正確地乘以了常數(shù)項(7),但在乘以系數(shù)y時似乎犯了一個小錯誤。試著把整個第一個方程再次乘以3,密切注意每個項。用戶:9x+6y=21? GPT-4:沒錯!現(xiàn)在我們有兩個方程: 1) 9x+6y=21 2) 9x-4y=1 你能看到把兩個方程結合起來消除其中一個變量的方法嗎?用戶:從方程式1中減去方程式2? GPT-4:好主意!如果你從方程1中減去方程2,得到的方程會是什么樣子?用戶:10y=20? GPT-4:沒錯!現(xiàn)在,你能解出你剛剛找到的方程中的y嗎?用戶:y=2? GPT-4:沒錯!既然你已經(jīng)找到了y的值,你能把它插回到原來的方程中來解x嗎?用戶:當然,我會把它代入等式1。我得到3x+4=7 GPT-4:太棒了!現(xiàn)在,你能解出方程3x+4=7中的x嗎?用戶:x=22? GPT-4:你的計算中似乎有一個小錯誤。試著從等式3x+4=7中分離x,兩邊減去4,然后除以3。用戶:x=1? GPT-4:沒錯!因此,線性方程組的解是x=1和y=2。做得好!你已經(jīng)通過仔細地完成步驟并使用蘇格拉底方法成功地解決了這個問題。試想,將來的教育會是什么樣?教培行業(yè)趕緊抓住 GPT 的風口吧。
5. GPT-4 在真實性判斷的局限性
盡管 GPT-4 的功能強大,但它也具有與早期 GPT 模型類似的局限性。最重要的是,GPT-4 仍然不完全可靠,它會“幻想”事實并犯推理錯誤,需要特別注意。
在使用語言模型輸出時,特別是在高風險的上下文條件下,需要非常小心,以便與特定用例的需求相匹配。例如可以通過人工審查,以額外的上下文為基礎,或完全避免高風險條件的使用。
注:看來某些網(wǎng)站的審查政策是有理論依據(jù)的。
雖然 GPT-4 仍然存在真實性問題,但它與之前的模型相比已經(jīng)顯著減少了幻覺(這些模型也在不斷迭代中改進)。在我們進行的對抗性事實評估中,GPT-4 的成績比 GPT-3.5 高 40%。
我們也采用 TruthfulQA 等外部基準測試,該項目測試模型區(qū)分事實與錯誤陳述的能力。這些問題與事實上不正確的答案混在一起,統(tǒng)計結果可以反映真實性判斷的能力。
GPT-4 模型在這項任務上只比 GPT-3.5 略好一點。但是,在經(jīng)過 RLHF 后訓練以后,GPT-4 的性能比 GPT-3.5 有明顯提升。例如,在下面的例子中,GPT-4 會拒絕選擇常見的說法(你不能教老狗新把戲),但它仍然會錯過微妙的細節(jié)(貓王不是演員的兒子)。
該模型的輸出可能存在各種偏差。我們的目標是讓我們構建的人工智能系統(tǒng)具有合理的默認行為,反映出廣泛的用戶價值觀,允許這些系統(tǒng)在廣泛的范圍內進行定制,并讓公眾對這些范圍應該是什么提出意見。
另外,GPT-4 通常缺乏對 2021年9月后發(fā)生的事件的數(shù)據(jù)和知識,而且不會從已有的經(jīng)驗中學習這些知識。GPT-4 有時會犯一些簡單的推理錯誤,或者在接受用戶明顯的虛假陳述時過于輕信,這些錯誤似乎與它在其它領域的能力不相稱。有時,在困難問題上它也可能會像人類一樣失敗,比如在其生成的代碼中引入安全漏洞。
GPT-4 的回答可能是錯誤的,它的錯誤有可能是由于沒有仔細檢查。基礎預訓練模型是高度校準的,其對答案的預測置信度通常與正確的概率相匹配。但是,通過我們目前的后期訓練過程,置信度卻降低了。
6. 風險與應對措施
我們一直在迭代 GPT-4,使其從訓練開始就更安全、更一致,努力包括預訓練數(shù)據(jù)的選擇和過濾、評估和專家參與、模型安全改進以及監(jiān)測和執(zhí)行。
但是,GPT-4 也存在與以前模型類似的風險,例如生成有害的建議、錯誤的代碼或不準確的信息。然而,GPT-4 的額外功能導致了新的風險點。為了了解這些風險的程度,我們聘請了來自人工智能整合風險、網(wǎng)絡安全、生物風險、信任與安全以及國際安全等領域的 50多名專家對該模型進行對抗性測試。他們的發(fā)現(xiàn)使我們能夠在專業(yè)領域對模型行為進行評估測試。這些專家的反饋和數(shù)據(jù),反饋到我們對模型的風險緩解和改進中。例如,我們收集了額外的數(shù)據(jù),以提高 GPT-4 拒絕關于如何合成危險化學品的請求的能力。
GPT-4 在 RLHF 訓練期間加入了額外的安全獎勵信號,通過訓練模型拒絕對此類內容的請求來減少有害輸出(詳見【使用指南】)。
獎勵由 GPT-4 零樣本分類器提供,該分類器根據(jù)安全相關提示判斷安全邊界和完成方式。為了防止模型拒絕有效請求,我們從各種來源收集不同的數(shù)據(jù)集(例如,標記的生產(chǎn)數(shù)據(jù)、人類紅隊、模型生成的提示),并將安全獎勵信號(具有正值或負值)應用于允許和不允許的類別。
與 GPT-3.5 相比,我們的應對措施顯著改善了 GPT-4 的安全性。與 GPT-3.5 相比,GPT-4 模型對不允許內容的響應降低了 82%,GPT-4 根據(jù)我們的政策對敏感請求(如醫(yī)療建議和自殘)做出響應的頻率提高了29%。
注:已經(jīng)設計了敏感詞過濾器。
總的來說,我們的模型級干預增加了引發(fā)不良行為的難度,但仍然不可能完全杜絕。此外,仍然存在“越獄”來生成違反我們使用指南的內容。隨著人工智能系統(tǒng)的發(fā)展“每token風險”也在增大,通過這些干預措施實現(xiàn)極高的可靠性是至關重要的。目前,重要的是用部署時間安全技術來補充這些限制,比如監(jiān)控濫用。
GPT-4 和后續(xù)模型有可能以有益和有害的方式對社會產(chǎn)生重大影響。我們正在與外部研究人員合作,以改進我們對潛在影響的理解和評估方式,并對未來系統(tǒng)中可能出現(xiàn)的危險能力進行評估。我們很快將分享更多關于 GPT-4 和其他人工智能系統(tǒng)潛在社會和經(jīng)濟影響的想法。
7. 訓練過程
GPT-4 基本模型與以前的 GPT 模型的原理,都是使用公開數(shù)據(jù)(如互聯(lián)網(wǎng)數(shù)據(jù))以及授權的專有數(shù)據(jù)進行訓練,讓 GPT-4 能預測文檔中的下一個單詞。
這些數(shù)據(jù)是一個網(wǎng)絡規(guī)模的數(shù)據(jù)語料庫,包括數(shù)學問題的正確和不正確解決方案、弱推理和強推理、自相矛盾和一致的陳述,并代表了各種各樣的意識形態(tài)和思想。
當被提示一個問題時,GPT-4 基本模型可以以各種各樣的方式做出回應,這可能與用戶的意圖并不一致。為了使其用戶意圖相符,我們使用強化學習和人類反饋(RLHF)來微調模型的行為。
GPT-4 模型的能力似乎主要來自預訓練過程,RLHF 并不能提高考試成績(如果針對性訓練不是特別精準,反而會降低考試成績)。但對模型的引導來自于后期訓練的過程——模型需要通過用戶提示(prompt )來知道它應該回答問題了。
7.1 算力規(guī)模對模型性能的影響
在訓練之前對模型的能力有一個了解,可以改善有關對齊、安全和部署的決策。GPT-4 項目的一個重點是構建一個可以預測性能/規(guī)模關系的深度學習框架。
一個主要的原因是,對于像 GPT-4 這樣的大型模型進行訓練非常困難,進行廣泛的針對特定模型的調優(yōu)是不可行的。為了解決這個問題,我們開發(fā)了應用于多個不同規(guī)模上的模型架構和優(yōu)化方法。為了驗證這種可擴展性,我們使用10000倍以下的計算量對模型進行訓練,從而可以提前預測不同規(guī)模 GPT-4 模型的性能(以損失函數(shù)值來描述)。
我們構造了一個計算量的縮放曲線來預測 GPT-4 在測試集上的損失函數(shù)。使用相同方法訓練的模型,但不斷減小計算量的規(guī)模,直到 GPT-4 的 1/10,000倍。結果如下圖所示,模型的性能(損失函數(shù)值)與訓練模型的計算量很好地符合冪律曲線關系。因此,我們可以準確預測我們在訓練期間優(yōu)化的指標(損失)。
我們還開發(fā)了一種方法用來預測更多可解釋的指標。例如,我們成功地預測了HumanEval數(shù)據(jù)集的一個子集的通過率,從計算量減少1000倍的模型中推斷:
但是,有些能力仍然難以預測。例如,逆尺度獎勵是一項測試,目的是尋找隨著模型計算量增大而惡化的性能指標。如圖3 所示,與Wei等人最近的結果一樣,GPT-4 逆轉了這一趨勢。
我們認為,準確預測機器學習在未來的能力是安全的重要組成部分。展望未來,我們計劃在大型模型訓練開始之前完善這些方法,并發(fā)展各種能力的性能預測。我們正在加大力度,開發(fā)方法,為社會提供更好的指導,讓他們了解未來系統(tǒng)的期望,我們希望這成為該領域的共同目標。
8. OpenAI Evals
【OpenAI Evals】Github 地址:https://github.com/openai/evals
我們正在開源【OpenAI Evals】,這是我們的軟件框架,用于創(chuàng)建和運行用于評估GPT-4等模型的基準,同時逐樣本檢查其性能。
我們使用Evals來指導我們的模型開發(fā)(既識別缺點又防止倒退),我們的用戶可以將其應用于跟蹤模型版本(現(xiàn)在將定期發(fā)布)的性能和不斷發(fā)展的產(chǎn)品集成。例如,Stripe使用Evals來補充他們的人工評估,以衡量GPT驅動的文檔工具的準確性。
因為代碼都是開源的,所以Evals支持編寫新的類來實現(xiàn)自定義的評估邏輯。然而,根據(jù)我們自己的經(jīng)驗,許多基準測試都遵循少數(shù)“模板”中的一個,因此我們還包括了內部最有用的模板(包括“模型評分評估”的模板——我們發(fā)現(xiàn)GPT-4驚人地能夠檢查自己的工作)。通常,構建新eval最有效的方法是實例化其中一個模板并提供數(shù)據(jù)。我們很高興看到其他人可以用這些模板和更廣泛的Evals構建什么。
我們希望Evals能成為一種共享和眾包基準的工具,代表最大范圍的故障模式和困難任務。作為接下來的例子,我們創(chuàng)建了一個邏輯謎題eval,其中包含GPT-4失敗的十個提示。Evals也與執(zhí)行現(xiàn)有基準相兼容;我們已經(jīng)包括了幾個實現(xiàn)學術基準的筆記本,以及一些集成CoQA的變體(小子集)作為例子。
我們邀請每個人使用Evals來測試我們的模型,并提交最有趣的示例。我們相信Evals將是在我們的模型基礎上使用和構建過程中不可或缺的一部分,我們歡迎直接貢獻、問題和反饋。
9. ChatGPT Plus
ChatGPT Plus 用戶將在 chat.openai.com 上獲得 GPT-4 的訪問權限,并設有使用上限。雖然我們將在未來幾個月擴大規(guī)模并進行優(yōu)化,但我們預計還會受到系統(tǒng)容量的限制,我們將根據(jù)需求和系統(tǒng)性能調整使用上限。
根據(jù)我們看到的流量模式,我們可能會為更高的 GPT-4 使用量引入新的訂閱級別。我們也計劃在適當時候提供一些免費的 GPT-4 查詢,使沒有訂閱的人也可以嘗試。
10. API
需要訪問 GPT-4 API(使用與 GPT-3.5-turbo 相同的 ChatCompletions API)的用戶請注冊我們的候補名單。
我們開始邀請一些開發(fā)商,并逐步擴大規(guī)模以平衡容量和需求。如果你是一名研究人工智能領域或人工智能社會影響研究領域的研究人員,你也可以通過我們的研究人員訪問計劃進行申請。
獲得訪問權限后,您就可以對 GPT-4 模型發(fā)出純文本請求(圖像輸入仍處于 alpha版)。今后,我們會在發(fā)布新版本時自動更新為推薦的穩(wěn)定模型 (您可以通過調用 GPT-4-0314 來固定當前版本,該版本將支持到 6月14日)。定價為每1K 提示令牌(prompt tokens) 0.03美元,每 1K 完整令牌( completion tokens )0.06美元。默認速率限制為每分鐘 40k 個令牌和 200個請求。
注: 一般情況下,GPT 模型數(shù)據(jù)使用的是電子郵件文本、推特信息、博客、新聞等信息中的非結構化文本,這些文本在模型中表現(xiàn)為一系列的“Tokens”,tokens 可以被看作將文本切分成的若干個片段。例如一個字符串“ChatGPT is great!”,被編碼為 6 個 tokens:“Chat”、“G”、“PT”、“ is”、“ great”、“!”。大致地,一個 token 平均對應于約 4 個字符,1000 個 tokens 大約是 750 個單詞。
GPT-4 具有 8192個 tokens 的上下文長度。我們還提供了對 32768上下文(約50頁文本)的 GPT-4-32k 版本的有限訪問,該版本后續(xù)也將不斷升級(當前版本 GPT-4.32k-0314,支持到 6月14日)。定價為每1K 提示令牌(prompt tokens)0.06美元,每1K完整令牌( completion tokens )0.12美元。我們仍在提高長上下文的模型質量,并希望能就其在您的用例中的表現(xiàn)提供反饋。我們正在根據(jù)容量以不同的速率處理 8K 和 32K 請求的引擎,您可能會今后獲得對它們的訪問權限。
11. 總結
我們期待 GPT-4 通過為各種應用程序提供動力和支持,成為改善人們生活的寶貴工具。還有很多工作要做,我們期待著通過社區(qū)建設的集體努力來改進這一模式,在這一模式的基礎上進行探索和貢獻。
附錄:ChatGPT API 文檔及調用方法
下期介紹《ChatGPT API 文檔及調用方法》,歡迎關注專欄【youcans的GPT學習筆記】。
【ChatGPT API】curl 調用 ChatGPT API 方法
curl https://api.openai.com/v1/chat/completions-H "Authorization: Bearer $OPENAI_API_KEY"-H "Content-Type: application/json"-d '{"model": "gpt-3.5-turbo","messages": [{"role": "user", "content": "What is the OpenAI mission?"}] }'【ChatGPT API】python 調用 ChatGPT API 方法
import openaicompletion = openai.ChatCompletion.create(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Tell the world about the ChatGPT API in the style of a pirate."}] )print(completion)【ChatGPT API】返回數(shù)據(jù)
{"id": "chatcmpl-6p5FEv1JHictSSnDZsGU4KvbuBsbu","object": "messages","created": 1677693600,"model": "gpt-3.5-turbo","choices": [{"index": 0,"finish_reason": "stop","messages": [{"role": "assistant","content": "OpenAI's mission is to ensure that artificial general intelligence benefits all of humanity."}]}],"usage": {"prompt_tokens": 20,"completion_tokens": 18,"total_tokens": 38} }版權聲明:
歡迎關注【youcans的AGI學習筆記】,轉發(fā)請注明原文鏈接:【GPT4】GPT-4 官方報告解讀 (https://youcans.blog.csdn.net/article/details/129631707)
Copyright 2023 youcans, XUPT
Crated:2023-03-18
總結
以上是生活随笔為你收集整理的【GPT4】GPT4 官方报告解读的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: php查题,2020高校邦《PHP语言程
- 下一篇: java自定义封装一个方法_Java自定