女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI要為GPT-4解決數(shù)學(xué)問題了:獎勵模型指錯,解題水平達到新高度

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-06-06 11:00 ? 次閱讀

對于具有挑戰(zhàn)性的 step-by-step 數(shù)學(xué)推理問題,是在每一步給予獎勵還是在最后給予單個獎勵更有效呢?OpenAI 的最新研究給出了他們的答案。

現(xiàn)在,大語言模型迎來了「無所不能」的時代,其中在執(zhí)行復(fù)雜多步推理方面的能力也有了很大提高。不過,即使是最先進的大模型也會產(chǎn)生邏輯錯誤,通常稱為幻覺。因此,減輕幻覺是構(gòu)建對齊 AGI 的關(guān)鍵一步。


為了訓(xùn)練更可靠的模型,目前可以選擇兩種不同的方法來訓(xùn)練獎勵模型,一種是結(jié)果監(jiān)督,另一種是過程監(jiān)督。結(jié)果監(jiān)督獎勵模型(ORMs)僅使用模型思維鏈的最終結(jié)果來訓(xùn)練,而過程監(jiān)督獎勵模型(PRMs)則接受思維鏈中每個步驟的獎勵。


考慮到訓(xùn)練可靠模型的重要性以及人工反饋的高成本,仔細比較結(jié)果監(jiān)督與過程監(jiān)督非常重要。雖然最近的工作已經(jīng)開展了這種比較,但仍然存在很多問題。


在本文中,OpenAI 進行了調(diào)研,結(jié)果發(fā)現(xiàn)在訓(xùn)練模型解決 MATH 數(shù)據(jù)集的問題時,過程監(jiān)督顯著優(yōu)于結(jié)果監(jiān)督。OpenAI 使用自己的 PRM 模型解決了 MATH 測試集中代表性子集的 78% 的問題。


此外為了支持相關(guān)研究,OpenAI 還開源了 PRM800K,它是一個包含 800K 個步級人類反饋標(biāo)簽的完整數(shù)據(jù)集,用于訓(xùn)練它們的最佳獎勵模型。



如下為一個真正(True positive)的問答示例。該問題以及 OpenAI 列舉的其他問題示例均來自 GPT-4。這個具有挑戰(zhàn)性的三角學(xué)問題需要并不明顯地連續(xù)應(yīng)用多個恒等式。大多數(shù)解決方案嘗試都失敗了,因為很難知道哪些恒等式實際上有用。盡管 GPT-4 通常無法解決這個問題(正確率僅為 0.1% ),但本文的獎勵模型正確地識別出了這個解決方案是有效的。



再看一個假正(False positive)的問答示例。在第四步中,GPT-4 錯誤地聲稱該序列每 12 個項重復(fù)一次,而實際上是每 10 個項重復(fù)一次。這種計數(shù)錯誤偶爾會愚弄獎勵模型。



論文作者之一、OpenAI Alignment 團隊負責(zé)人 Jan Leike 表示,「使用 LLM 做數(shù)學(xué)題的真正有趣結(jié)果是:監(jiān)督每一步比只檢查答案更有效。」



英偉達 AI 科學(xué)家 Jim Fan 認為,「這篇論文的觀點很簡單:對于挑戰(zhàn)性的逐步問題,要在每一步給予獎勵,而不要在最后給予單個獎勵。從根本上來說,密集獎勵信號>稀疏。」



我們接下來細看 OpenAI 這篇論文的方法和結(jié)果。



論文地址:https://cdn.openai.com/improving-mathematical-reasoning-with-process-supervision/Lets_Verify_Step_by_Step.pdf

數(shù)據(jù)集地址:https://github.com/openai/prm800k


方法概覽


該研究按照與 Uesato et al. (2022) 類似的方法對結(jié)果監(jiān)督和過程監(jiān)督進行了比較。值得注意的是這項研究無需人工即可提供結(jié)果監(jiān)督,因為 MATH 數(shù)據(jù)集中的所有問題都有可自動檢查的答案。相比之下,沒有簡單的方法來自動化過程監(jiān)督。該研究依靠人類數(shù)據(jù)標(biāo)記者來提供過程監(jiān)督,具體來說是需要人工標(biāo)記模型生成的解決方案中每個步驟的正確性。該研究在大規(guī)模和小規(guī)模兩種情況下分別進行了實驗。


范圍


對于每種模型規(guī)模,該研究都使用一個固定模型來生成所有解決方案。這個模型被稱為生成器,OpenAI 表示不會通過強化學(xué)習(xí) (RL) 來改進生成器。


基礎(chǔ)模型


所有大型模型均是基于 GPT-4 模型進行微調(diào)得來的。該研究還添加了一個額外的預(yù)訓(xùn)練步驟 —— 在含有約 1.5B 數(shù)學(xué)相關(guān) token 的數(shù)據(jù)集 MathMix 上微調(diào)所有模型。與 Lewkowycz et al. (2022) 類似,OpenAI 的研究團隊發(fā)現(xiàn)這種方法可以提高模型的數(shù)學(xué)推理能力。


生成器


為了更容易解析單個步驟,該研究訓(xùn)練生成器在生成解決方案時,步驟之間用換行符分隔。具體來說,該研究對 MATH 訓(xùn)練問題使用少樣本生成解決方案,過濾出得到最終正確答案的解決方案,并在該數(shù)據(jù)集上對基礎(chǔ)模型進行一個 epoch 的微調(diào)。


數(shù)據(jù)采集


為了收集過程監(jiān)督數(shù)據(jù),該研究向人類數(shù)據(jù)標(biāo)記者展示了大規(guī)模生成器采樣的數(shù)學(xué)問題的逐步解決方案。人類數(shù)據(jù)標(biāo)記者的任務(wù)是為解決方案中的每個步驟分配正面、負面或中性標(biāo)簽,如下圖 1 所示。



該研究只標(biāo)記大型生成器生成的解決方案,以最大限度地發(fā)揮有限的人工數(shù)據(jù)資源的價值。該研究將收集到的按步驟標(biāo)記的整個數(shù)據(jù)集稱為 PRM800K。PRM800K 訓(xùn)練集包含 800K 步驟標(biāo)簽,涵蓋 12K 問題的 75K 解決方案。為了最大限度地減少過擬合,PRM800K 訓(xùn)練集包含來自 MATH 的 4.5K 測試問題數(shù)據(jù),并僅在剩余的 500 個 MATH 測試問題上評估模型。


結(jié)果監(jiān)督獎勵模型 (ORM)


該研究按照與 Cobbe et al. (2021) 類似的方法訓(xùn)練 ORM,并從生成器中為每個問題采樣固定數(shù)量的解決方案,然后訓(xùn)練 ORM 來預(yù)測每個解決方案的正確與否。實踐中,自動檢查最終答案來確定正確性是一種常用的方法,但原則上由人工標(biāo)記者來提供標(biāo)簽。在測試時,該研究使用 ORM 在最終 token 處的預(yù)測作為每個解決方案的總分。


過程監(jiān)督獎勵模型(PRM)


PRM 用來預(yù)測每個步驟(step)中最后一個 token 之后的步驟的正確性。這種預(yù)測采用單個 token 形式,并且 OpenAI 在訓(xùn)練過程中最大化這些目標(biāo) token 的對數(shù)似然。因此,PRM 可以在標(biāo)準(zhǔn)的語言模型 pipeline 中進行訓(xùn)練,無需任何特殊的適應(yīng)措施。


圖 2 為同一個問題的 2 種解決方案,左邊的答案是正確的,右邊的答案是錯誤的。綠色背景表示 PRM 得分高,紅色背景表示 PRM 得分低。PRM 可以正確識別錯誤解決方案中的錯誤。



在進行過程監(jiān)督時,OpenAI 有意選擇僅對第一個錯誤步驟進行監(jiān)督,從而使得結(jié)果監(jiān)督和過程監(jiān)督之間的比較更加直接。對于正確的解決方案,兩種方法提供的信息相同,因為每一步都是正確的解題方法。對于錯誤的解決方案,兩種方法都能揭示至少存在一個錯誤,并且過程監(jiān)督還揭示了該錯誤的確切位置。


大規(guī)模監(jiān)督


OpenAI 使用全流程監(jiān)督數(shù)據(jù)集 PRM800K 來訓(xùn)練 PRM,為了使 ORM 基準(zhǔn)更加強大,OpenAI 還為每個問題進行了 100 個樣本的訓(xùn)練,這些樣本均來自生成器,由此 ORM 訓(xùn)練集與 PRM800K 沒有重疊樣本。


下圖為結(jié)果監(jiān)督和過程監(jiān)督獎勵模型以及投票方案的比較,結(jié)果表明在搜索模型生成的解決方案時,PRM 比 ORM 和多數(shù)投票更有效。



小規(guī)模綜合監(jiān)督


為了更好的比較結(jié)果監(jiān)督和過程監(jiān)督,首先需要注意的是 ORM 和 PRM 的訓(xùn)練集不具有直接可比性,PRM 訓(xùn)練集是使用主動學(xué)習(xí)構(gòu)建的,偏向于答案錯誤的解決方案,還比 ORM 訓(xùn)練集少一個數(shù)量級。


過程監(jiān)督 VS 結(jié)果監(jiān)督


首先 OpenAI 從小規(guī)模生成器中為每個問題采樣 1 到 200 個解決方案。對于每個數(shù)據(jù)集,OpenAI 提供三種形式的監(jiān)督:來自 PRM_large 的過程監(jiān)督,來自 PRM_large 的結(jié)果監(jiān)督以及來自最終答案檢查的結(jié)果監(jiān)督。


圖 4a 表明,過程監(jiān)督明顯優(yōu)于其他兩種形式的結(jié)果監(jiān)督;圖 4b 表明,使用 PRM_large 進行結(jié)果監(jiān)督明顯比最終答案檢查的結(jié)果監(jiān)督更有效。



OOD 泛化


為了衡量模型在分布外(OOD)泛化的性能,OpenAI 對大規(guī)模 ORM 和 PRM 在一個由 224 個 STEM 問題組成的 held-out(留出法)上進行評估,這些問題來自最新的 AP 物理(美國大學(xué)先修課程簡稱 AP)、AP 微積分、AP 化學(xué)、AMC10(理解為數(shù)學(xué)競賽)和 AMC12 考試,模型沒有見過這些問題。表格 1 中報告了 ORM、PRM 和多數(shù)投票的前 100 個的最佳表現(xiàn)。表明,PRM 的性能優(yōu)于 ORM 和多數(shù)投票,同時意味著 PRM 在新的測試問題上性能仍然保持不變。



原文標(biāo)題:OpenAI要為GPT-4解決數(shù)學(xué)問題了:獎勵模型指錯,解題水平達到新高度

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:OpenAI要為GPT-4解決數(shù)學(xué)問題了:獎勵模型指錯,解題水平達到新高度

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應(yīng)用于各種聊天機器人中,其中OpenAI的ChatGPT就是一個典型的例子。然而,對于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI
    的頭像 發(fā)表于 02-18 09:12 ?409次閱讀

    OpenAI宣布GPT 4o升智計劃

    近日,全球領(lǐng)先的人工智能公司OpenAI迎來了一項重要宣布。OpenAI的首席執(zhí)行官Sam Altman正式揭曉了GPT 4o的升智計劃,這一消息立即引起了業(yè)界的廣泛關(guān)注。 據(jù)Sam
    的頭像 發(fā)表于 02-17 14:24 ?520次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進行了諸多優(yōu)化和升級,旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在
    的頭像 發(fā)表于 02-13 13:43 ?554次閱讀

    OpenAI即將推出GPT-5模型

    OpenAI首席執(zhí)行官奧爾特曼近日宣布了一項重要消息:OpenAI將在今年未來幾個月內(nèi)推出全新的GPT-5模型。這一消息引起了業(yè)界的廣泛關(guān)注和期待。 據(jù)了解,
    的頭像 發(fā)表于 02-13 11:21 ?517次閱讀

    OpenAI報告GPT-4o及4o-mini模型性能下降,正緊急調(diào)查

    ,自發(fā)現(xiàn)這一問題以來,公司已經(jīng)迅速啟動了內(nèi)部調(diào)查機制,以盡快查明導(dǎo)致模型性能下降的具體原因。OpenAI強調(diào),他們對此次事件高度重視,并將全力以赴解決這一問題,以確保用戶能夠繼續(xù)享受到高質(zhì)量的AI服務(wù)。
    的頭像 發(fā)表于 01-23 10:22 ?766次閱讀

    OpenAIGPT-4o及4o-mini模型性能下降,正展開調(diào)查

    近期,OpenAI發(fā)布了一份事故報告,指出其GPT-4o及4o-mini模型遭遇了性能下降的問題。這一消息引起了業(yè)界的廣泛關(guān)注和討論。 據(jù)OpenA
    的頭像 發(fā)表于 01-21 10:34 ?584次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場技術(shù)競賽中,Llama 3和GPT-4作為兩個備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1029次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?911次閱讀

    OpenAI即將發(fā)布“草莓”推理大模型

    科技界迎來新動態(tài),據(jù)可靠消息透露,OpenAI正緊鑼密鼓地籌備著一項重大發(fā)布——預(yù)計在兩周內(nèi),將正式推出名為“草莓”的新型AI推理模型,并將其無縫融入ChatGPT服務(wù)中。這款以卓越推理能力為核心的大模型,旨在突破現(xiàn)有
    的頭像 發(fā)表于 09-11 16:53 ?754次閱讀

    OpenAI宣布啟動GPT Next計劃

     9月4日最新資訊,OpenAI Japan 在KDDI峰會上亮相,揭開了其即將問世的下一代AI模型的神秘面紗,并正式宣布了旨在2024年啟動的GPT Next宏偉計劃。
    的頭像 發(fā)表于 09-04 14:51 ?849次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該
    的頭像 發(fā)表于 07-21 10:20 ?1578次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4</b>o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI揭秘CriticGPT:GPT自進化新篇章,RLHF助力突破人類能力邊界

    OpenAI近期震撼發(fā)布了一項革命性成果——CriticGPT,一個基于GPT-4深度優(yōu)化的新型模型,其獨特之處在于能夠自我提升,助力未來GPT模型
    的頭像 發(fā)表于 07-02 10:19 ?994次閱讀

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯

    基于GPT-4模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯誤而設(shè)計,其獨特的作用在于,讓人們能夠用GPT-4來查找GP
    的頭像 發(fā)表于 06-29 09:55 ?778次閱讀

    OpenAI API Key獲取:開發(fā)人員申請GPT-4 API Key教程

    ? OpenAIGPT-4模型因其卓越的自然語言理解和生成能力,成為了許多開發(fā)者的首選工具。獲取GPT-4 API Key并將其應(yīng)用于項目,如開發(fā)一個ChatGPT聊天應(yīng)用,不僅是實
    的頭像 發(fā)表于 06-24 17:40 ?3624次閱讀
    <b class='flag-5'>OpenAI</b> API Key獲取:開發(fā)人員申請<b class='flag-5'>GPT-4</b> API Key教程

    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)GPT4o API調(diào)用開發(fā)教程!

    API Key、配置環(huán)境、并編寫調(diào)用代碼。 GPT-4o模型: GPT-4o(GPT-4優(yōu)化版)是OpenAI開發(fā)的一款高級語言
    的頭像 發(fā)表于 06-08 00:33 ?6831次閱讀
    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)<b class='flag-5'>GPT4</b>o API調(diào)用開發(fā)教程!