女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布GPT-4,有哪些技術(shù)趨勢值得關(guān)注?

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-03-24 11:16 ? 次閱讀

本文是新浪微博新技術(shù)研發(fā)負責(zé)人、中國中文信息學(xué)會理事張俊林在知乎問題「OpenAI 發(fā)布 GPT-4,有哪些技術(shù)上的優(yōu)化或突破?」下的回答,總結(jié)了GPT4技術(shù)報告里指出的三個方向,還提及了兩個其它技術(shù)方向。

在這個歷史性的時刻,回答個問題,留下自己作為歷史見證人的足跡。

GPT4的技術(shù)報告里很明確地指出了三個新的方向:

第一,LLM最前沿研究的封閉化或小圈子化。技術(shù)報告里說了,出于競爭以及安全等方面的考慮,未公布模型規(guī)模等技術(shù)細節(jié)。從GPT 2.0的開源,到GPT 3.0的只有論文,再到ChatGPT連論文也沒有,直到GPT 4.0的技術(shù)報告更像效果評測報告。一個很明顯的趨勢是,OpenAI做實了CloseAI的名號,之后OpenAI的LLM最前沿研究不會再放出論文。

在這個情形下,其它技術(shù)相對領(lǐng)先的公司有兩種選擇。一種是做更極致的LLM開源化,比如Meta貌似選擇了這條道路,這一般是競爭處于劣勢的公司作出的合理選擇,但是往往相關(guān)技術(shù)不會是最前沿的技術(shù);另外一種選擇是跟進OpenAI,也選擇技術(shù)封閉化。Google之前算是LLM的第二梯隊。但在“微軟+OpenAI”的一頓組合拳下,現(xiàn)在局面有點狼狽不堪。GPT 4.0去年8月就做好了,估計現(xiàn)在GPT 5.0正在煉丹過程中,這么長的時間窗口,結(jié)果Google都能落到目前這個局面,想想Transformer、CoT等非常關(guān)鍵的一些研究都是自己做出來的,竟淪落至此,不知一眾高層作何感想。Google在后面能快速跟進,維持在第二梯隊?wèi)?yīng)該問題不大,很可能比第三名技術(shù)也領(lǐng)先很多。出于競爭關(guān)系考慮,我猜Google大概率會跟進OpenAI走技術(shù)封閉的路線,最先進的LLM技術(shù)優(yōu)先用來煉屬于自己的丹,而不是寫成論文放出來普惠大眾尤其是普惠OpenAI。而這很可能導(dǎo)致LLM最前沿研究的封閉化。

從現(xiàn)在算起,國內(nèi)在經(jīng)過一陣時間后(要做到ChatGPT的6到7折應(yīng)該比較快,要追平估計要較長時間),必然被迫進入自主創(chuàng)新的局面。從最近三個月國內(nèi)的各種情況看,將來會如何?大概率不太樂觀。當(dāng)然,這個關(guān)肯定很難,但必須得過,只能祝愿有能力且有初心者盡力加油了。

第二,GPT 4技術(shù)報告里提到的LLM模型的“能力預(yù)測(Capability Prediction)”是個非常有價值的新研究方向(其實之前也有個別其它資料,我記得看過,但是具體哪篇記不起來了)。用小模型來預(yù)測某些參數(shù)組合下對應(yīng)大模型的某種能力,如果預(yù)測足夠精準(zhǔn),能夠極大縮短煉丹周期,同時極大減少試錯成本,所以無論理論價值還是實際價值巨大,這個絕對是非常值得認真研究具體技術(shù)方法的。

第三,GPT 4開源了一個LLM評測框架,這也是后面LLM技術(shù)快速發(fā)展非常重要的方向。尤其對于中文,構(gòu)建實用的中文LLM評測數(shù)據(jù)和框架具備特別重要的意義,好的LLM評測數(shù)據(jù)可以快速發(fā)現(xiàn)LLM目前存在的短板和改進方向,意義重大,但是很明顯目前這塊基本處于空白狀態(tài)。這個對于資源要求其實沒那么高,適合很多機構(gòu)去做,不過確實是個辛苦活。

除了GPT 4技術(shù)報告里明確指出的三個方向,因為最近LLM各方面新聞比較多,順手再寫兩個其它技術(shù)方向。

首先,斯坦福大學(xué)近在Meta的7B 開源LLaMA基礎(chǔ)上,加上Self Instruct技術(shù)構(gòu)造的Alpaca,也代表了一個技術(shù)方向。如果歸納下,這個方向可以被稱為“低成本復(fù)現(xiàn)ChatGPT”的方向。所謂Self Instruct,就是采取一定技術(shù)手段,不用人工標(biāo)注Instruct,而是從OpenAI的接口里,好聽點叫“蒸餾”出Instruct,也就是不用人標(biāo)注,而是ChatGPT作為teacher,給你的Instruct打上標(biāo)注結(jié)果。這個把Instruct標(biāo)注成本直接打到了幾百美金的基準(zhǔn),時間成本就更短了。再加上模型7B規(guī)模也不大,所以可以看成一種“低成本復(fù)現(xiàn)ChatGPT”的技術(shù)路線。

我估計國內(nèi)早就有不少人采取這個技術(shù)路線了。毫無疑問,這是一條捷徑,但是走捷徑有好處有壞處,具體不展開談了。在追趕ChatGPT的過程中,先把成本打下來去復(fù)現(xiàn)ChatGPT到七八成,我個人還是覺得可行也支持的,畢竟窮人有窮人的玩法。當(dāng)然,追求把模型做小,效果又不怎么往下掉,如果能扎扎實實去做,是非常具有價值的。

另外,具身智能毫無疑問會是LLM下一階段的重點研究方向。這方面的代表就是前陣子Google放出來的PaLM-E。目前的GPT 4,我們可以認為人類創(chuàng)造出了一個超級大腦,但還是把它封鎖在GPU集群里。而這個超級大腦需要一個身體,GPT 4要和物理世界發(fā)生聯(lián)系、交流和互動,并在物理世界中獲得真實的反饋,來學(xué)會在真實世界里生存,并根據(jù)真實世界的反饋,利用比如強化學(xué)習(xí)來學(xué)習(xí)在世界游走的能力。這個肯定是最近的將來最熱門的LLM研究方向。

多模態(tài)LLM給予了GPT 4以眼睛和耳朵,而具身智能給予GPT 4身體、腳和手。GPT 4和你我發(fā)生一些聯(lián)系,而依托于GPT 4本身強大的學(xué)習(xí)能力,這個事情估計很快會出現(xiàn)在我們身邊。

如果你細想,其實還有很多其它有前途的方向。我的個人判斷是:未來5到10年,將會是AGI最快速發(fā)展的黃金十年。如果我們站在未來30年的時間節(jié)點,當(dāng)我們回顧這10年時,我們中一定會有人,想起下面的詩句:“懂得,但為時太晚,他們使太陽在途中悲傷, 也并不溫和地走進那個良夜。”

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    17796
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1202

    瀏覽量

    8649

原文標(biāo)題:OpenAI發(fā)布GPT-4,有哪些技術(shù)趨勢值得關(guān)注?

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應(yīng)用于各種聊天機器人中,其中OpenAI的ChatGPT就是一個典型的例子。然而,對于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI目前提供了多種模型供用戶選擇,其中包括能夠快速
    的頭像 發(fā)表于 02-18 09:12 ?424次閱讀

    OpenAI宣布GPT 4o升智計劃

    近日,全球領(lǐng)先的人工智能公司OpenAI迎來了一項重要宣布。OpenAI的首席執(zhí)行官Sam Altman正式揭曉了GPT 4o的升智計劃,這一消息立即引起了業(yè)界的廣泛
    的頭像 發(fā)表于 02-17 14:24 ?539次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進行了諸多優(yōu)化和升級,旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在
    的頭像 發(fā)表于 02-13 13:43 ?576次閱讀

    OpenAI即將推出GPT-5模型

    先進技術(shù),其中包括備受矚目的o3工具。通過整合這些技術(shù)GPT-5模型將實現(xiàn)更加強大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應(yīng)用
    的頭像 發(fā)表于 02-13 11:21 ?525次閱讀

    OpenAI報告GPT-4o及4o-mini模型性能下降,正緊急調(diào)查

    近日,全球領(lǐng)先的AI研究機構(gòu)OpenAI發(fā)布了一份事故報告,引起了業(yè)界的廣泛關(guān)注。報告中指出,OpenAI目前正面臨GPT-4o和
    的頭像 發(fā)表于 01-23 10:22 ?781次閱讀

    OpenAIGPT-4o及4o-mini模型性能下降,正展開調(diào)查

    ,并承諾將盡快發(fā)布最新的調(diào)查結(jié)果和解決方案。這一事件不僅對OpenAI自身的技術(shù)聲譽產(chǎn)生了影響,也引發(fā)了業(yè)界對于大型語言模型穩(wěn)定性和可靠性的擔(dān)憂。 GPT-4o及
    的頭像 發(fā)表于 01-21 10:34 ?597次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場技術(shù)競賽中,Llama 3和GPT-4作為兩個備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1048次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?935次閱讀

    OpenAI api key獲取并可調(diào)用GPT-4.0、GPT-4o、GPT-4omini

    前言 在這篇文章中,我們將詳細介紹如何申請OpenAIGPT-4.0 API Key。通過這個教程,你將能夠輕松獲取OpenAI API KEY并使用GPT-4.0的強大功能。 目錄
    的頭像 發(fā)表于 08-06 15:16 ?4347次閱讀
    <b class='flag-5'>OpenAI</b> api key獲取并可調(diào)用<b class='flag-5'>GPT</b>-4.0、<b class='flag-5'>GPT-4</b>o、<b class='flag-5'>GPT-4</b>omini

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測試中表現(xiàn)優(yōu)于
    的頭像 發(fā)表于 07-21 10:20 ?1602次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4</b>o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI發(fā)布最新人工智能模型——GPT-4o mini

    據(jù)國際媒體報道,OpenAI 在周四震撼發(fā)布了其最新的人工智能模型——GPT-4o mini,此舉標(biāo)志著這家領(lǐng)先的AI初創(chuàng)公司在拓寬其廣受歡迎的聊天機器人應(yīng)用領(lǐng)域方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:24 ?1359次閱讀

    OpenAI GPT-5:未來已來,但何時降臨

    在人工智能領(lǐng)域的浩瀚星空中,OpenAI無疑是那顆最為耀眼的星辰。自其誕生以來,每一次的技術(shù)革新都牽動著全球科技愛好者的心弦。特別是當(dāng)GPT-4在今年5月14日凌晨悄然降臨,以其強大的語言理解和生成能力,再次刷新了人們對于人工智
    的頭像 發(fā)表于 07-03 15:51 ?568次閱讀

    OpenAI揭秘CriticGPT:GPT自進化新篇章,RLHF助力突破人類能力邊界

    OpenAI近期震撼發(fā)布了一項革命性成果——CriticGPT,一個基于GPT-4深度優(yōu)化的新型模型,其獨特之處在于能夠自我提升,助力未來GPT模型的訓(xùn)練效率與質(zhì)量躍升至新高度。這一創(chuàng)
    的頭像 發(fā)表于 07-02 10:19 ?1001次閱讀

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯

    在人工智能領(lǐng)域,每一次技術(shù)的革新都標(biāo)志著向更高級別智能邁進的一步。OpenAI,作為這一領(lǐng)域的佼佼者,近日再次引領(lǐng)了行業(yè)的新潮流。周四,該公司發(fā)布了一則令人振奮的新聞稿,宣布新推出了一款
    的頭像 發(fā)表于 06-29 09:55 ?784次閱讀

    OpenAI API Key獲取:開發(fā)人員申請GPT-4 API Key教程

    ? OpenAIGPT-4模型因其卓越的自然語言理解和生成能力,成為了許多開發(fā)者的首選工具。獲取GPT-4 API Key并將其應(yīng)用于項目,如開發(fā)一個ChatGPT聊天應(yīng)用,不僅是實踐人工智能
    的頭像 發(fā)表于 06-24 17:40 ?3652次閱讀
    <b class='flag-5'>OpenAI</b> API Key獲取:開發(fā)人員申請<b class='flag-5'>GPT-4</b> API Key教程