女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三大維度拆解ChatGPT!讓巨頭們興奮的技術(shù)真相

智能制造IMS ? 來源:智能制造IMS ? 2023-03-24 11:06 ? 次閱讀

01.發(fā)源于OpenAI,成名于生成式語言

OpenAI 是一家世界領(lǐng)先的非營利性人工智能研究公司。OpenAI 于 2015 年在舊金山成立,是一家非營利的人工智能研究公司,公司的目標是以最有可能造福全人類的方式推進人工智能,而不受財務(wù)回報需求的約束。OpenAI 創(chuàng)始人背景深厚,由埃隆·馬斯克與硅谷孵化器 Y Combinator 投資人山姆·阿爾特曼等人聯(lián)合創(chuàng)立。公司研究人員經(jīng)驗豐富,包括前Google Brain 研究科學家伊利亞·蘇茨凱弗與前 Stripe 首席技術(shù)官格雷格·布羅克曼等世界一流研究工程師與科學家。

2018 年,隨著特斯拉對 AI 的應用深入,為避免潛在利益沖突,馬斯克主動離任董事會,僅保留捐資人和顧問的身份。由于 AI 訓練花費金額巨大,2019 年公司從非營利性公司轉(zhuǎn)向部分盈利公司,成立了 OpenAI LP 利潤上限子公司,即任何對 OpenAI LP 投資的收益都將統(tǒng)一轉(zhuǎn)移至一家非盈利公司,回報達到投資的 100 倍后進行利潤分配。

同年,OpenAI 收到微軟注資 10 億美元,就 Azure 業(yè)務(wù)開發(fā)人工智能技術(shù)。2020 年發(fā)布 GPT-3 語言模型,由微軟獲得獨家授權(quán)。2022 年發(fā)布 ChatGPT 的自然語言生成式模型,帶來更大潛在應用空間。2023 年,微軟擬對 OpenAI 追加數(shù)十億美元投資,利用自身算力基礎(chǔ)設(shè)施資源發(fā)揮與 OpenAI 業(yè)務(wù)協(xié)同效應,深入布局生成式 AI 技術(shù)。

2016 年,推出用于開發(fā)和比較強化學習算法的工具包 OpenAI Gym,加速公開社會中 RL 研究進度。同時推出 Universe 軟件平臺,用于測試和訓練 AI 在全球游戲、網(wǎng)站和其他應用程序中的智能程度。2019 年,OpenAI 推出深度神經(jīng)網(wǎng)絡(luò) MuseNet,可以使用 4 種不同的樂器生成 10分鐘的音樂作品以及最終模型版本的 GPT-2。2020 年,研發(fā)團隊在 GPT-2 的基礎(chǔ)上拓展參數(shù),發(fā)布了 GPT-3 語言模型。2021 年,發(fā)布了轉(zhuǎn)換器語言模型 DALL·E,從文本描述生成圖像。2022 年,OpenAI 在 GPT-3.5 的基礎(chǔ)上推出了 ChatGPT,強化了人工智能的語言對話能力,引起社會廣泛關(guān)注。

3b7816c4-c9d1-11ed-bfe3-dac502259ad0.png

▲OpenAI 產(chǎn)品

OpenAI 當前盈利主要通過付費 API 接口,并嘗試拓展盈利模式。目前,OpenAI 提供 GPT-3、Codex 以及 DALL·E 的 API 數(shù)據(jù)接口,分別執(zhí)行用戶自然語言任務(wù)、自然語言轉(zhuǎn)換為代碼的任務(wù)以及創(chuàng)建和編輯圖像的任務(wù)。API 接口根據(jù)類型不同以流量收費,比如圖像模型以分辨率分類按張數(shù)收費,語言模型則以基于的子模型型號按字符數(shù)收費。OpenAI API 盈利情況較好,據(jù)路透社數(shù)據(jù),OpenAI 2022 年收入數(shù)千萬美元,公司預計 2023 與 2024 年收入分別為 2 億美元和 10 億美元。同時,OpenAI 正嘗試拓展自身盈利模式,2023 年 1 月試點推出訂閱制 ChatGPT Plus,收取每月 20 美元的會員費以得到各類優(yōu)先服務(wù)。

3b912e0c-c9d1-11ed-bfe3-dac502259ad0.png

▲OpenAI API 價格

ChatGPT 使用來自人類反饋的強化學習 (RLHF) 來訓練該模型。首先使用監(jiān)督微調(diào)訓練了一個初始模型:人類 AI 訓練員提供對話,他們在對話中扮演雙方——用戶和 AI 助手。其次,ChatGPT 讓標記者可以訪問模型編寫的建議,以幫助他們撰寫回復。最后,ChatGPT 將這個新的對話數(shù)據(jù)集與原有數(shù)據(jù)集混合,將其轉(zhuǎn)換為對話格式。具體來看,主要包括三個步驟:

1)第一階段:訓練監(jiān)督策略模型。在 ChatGPT 模型的訓練過程中,需要標記者的參與監(jiān)督過程。首先,ChatGPT 會從問題數(shù)據(jù)集中隨機抽取若干問題并向模型解釋強化學習機制,其次標記者通過給予特定獎勵或懲罰引導 AI 行為,最后通過監(jiān)督學習將這一條數(shù)據(jù)用于微調(diào) GPT3.5 模型。

2)第二階段:訓練獎勵模型。這一階段的主要目標,在于借助標記者的人工標注,訓練出合意的獎勵模型,為監(jiān)督策略建立評價標準。訓練獎勵模型的過程同樣可以分為三步:1、抽樣出一個問題及其對應的幾個模型輸出結(jié)果;2、標記員將這幾個結(jié)果按質(zhì)量排序;3、將排序后的這套數(shù)據(jù)結(jié)果用于訓練獎勵模型。

3)第三階段:采用近端策略優(yōu)化進行強化學習。近端策略優(yōu)化(Proximal Policy Optimization)是一種強化學習算法,核心思路在于將 Policy Gradient 中 On-policy 的訓練過程轉(zhuǎn)化為Off-policy,即將在線學習轉(zhuǎn)化為離線學習。具體來說,也就是先通過監(jiān)督學習策略生成 PPO模型,經(jīng)過獎勵機制反饋最優(yōu)結(jié)果后,再將結(jié)果用于優(yōu)化和迭代原有的 PPO 模型參數(shù)。往復多次第二階段和第三階段,從而得到參數(shù)質(zhì)量越來越高的 ChatGPT 模型。

3bb7d552-c9d1-11ed-bfe3-dac502259ad0.png

▲ChatGPT 模型原理

從 ChatGPT 的訓練原理中,我們不難發(fā)現(xiàn),這一訓練過程存在幾個特點:

1)采用的是單一大模型。在 GPT 模型興起之前,大多數(shù) AI 模型主要是針對特定應用場景需求進行訓練的小模型,存在通用性差、訓練數(shù)據(jù)少、適應范圍小的弊端。而我們看到,ChatGPT 雖然在過程中使用了獎勵模型等輔助手段,但最終用于實現(xiàn)自然語言理解和生成式功能的主模型只有一個,但卻在語義理解、推理、協(xié)作等方面表現(xiàn)出了更強能力。因此,ChatGPT 的成功,驗證了參數(shù)增長、訓練數(shù)據(jù)量增大,對 AI 模型的重要意義。

2)采用的是小樣本學習方法。在小樣本學習(Few-shot Learning)方法下,AI 預訓練模型在不必使用大量標記的訓練數(shù)據(jù),就可以建立起比較通用的泛化能力。簡單來說,小樣本學習即是在給定有限信息和較少訓練數(shù)據(jù)的情況下,嘗試對總體規(guī)律進行理解和預測,這一過程類似于“學習如何去學習”。對于小樣本學習在 ChatGPT 中的應用,我們認為,這一方法解決了大模型數(shù)據(jù)標注工作量巨大的問題,是模型得以迅速迭代的基礎(chǔ)。

3)采用人類反饋微調(diào)監(jiān)督學習。ChatGPT 是從 GPT3.5(即 InstructGPT)改進而來的版本,相比于前代,ChatGPT 主要變化在于采用了人類反饋機制,對監(jiān)督學習過程進行微調(diào)。本質(zhì)上來說,無論是大模型還是小樣本學習,解決的目標都是提升訓練的效率,但真正令ChatGPT 實現(xiàn)結(jié)果準確、合理的關(guān)鍵技術(shù),還是在于加入了人類反饋。據(jù) Long Ouyang等人 2022 年發(fā)表的《Training language models to follow instructions with humanfeedback》,InstructGPT 僅用 13 億個參數(shù)就實現(xiàn)了比 1750 億個參數(shù)的 GPT-3 更優(yōu)的輸出解雇,顯著提升了真實性、減少了有害信息的輸出。02.三大維度拆解GPT模型特征

拆解GPT模型可以幫助理解ChatGPT之所以強大的原因。從前面的討論中,我們發(fā)現(xiàn),ChatGPT 的成功離不開 AI 大模型的加持,強大的算法訓練模型,使得 ChatGPT 在迭代中獲得實現(xiàn)接近自然語言的表達能力。而這一切的核心,都來自一個模型:GPT 模型。因此,以 GPT 模型為核心,從三個維度出發(fā)去拆解 GPT 模型,以此進一步挖掘 ChatGPT 強大背后的原因。

維度一:單一大模型:ChatGPT使用單一大模型,積累強大底層通用能力。對于 ChatGPT 所用到的訓練模型,從模型體量來看,屬于 AI 單一大模型的范疇。對比傳統(tǒng) AI 訓練模型,單一大模型的“大”體現(xiàn)在:1)更多的模型參數(shù)量;2)更大的數(shù)據(jù)處理量;3)更大的訓練計算量。模型體量的增大,帶來的最直接變化,在于 AI 模型通用能力的跨越式提升。傳統(tǒng)的 AI 訓練方法,大多以單一知識領(lǐng)域的應用為目標,主要使用特定領(lǐng)域有標注的數(shù)據(jù)進行模型訓練,模型通用性差,如果更換使用場景,往往需要進行重新訓練。而大模型的訓練,一是能使用的數(shù)據(jù)來源更加廣泛,可用數(shù)據(jù)量更大;二是對標注要求更低,只需要對數(shù)據(jù)進行微調(diào)甚至不調(diào)就可以用于訓練;三是輸出的能力更加泛化通用,在語義理解、邏輯推理、文本表達等方面能力更出眾。

從通用到特殊,單一大模性具備豐富的垂直領(lǐng)域應用潛力。基于對底層能力的訓練,AI 大模型積累了對于數(shù)據(jù)背后特征和規(guī)則的理解,因此在進行垂直領(lǐng)域的時候,可以做到“舉一反三”。這一過程,與人類學習知識的過程類似,都是先學習如何去學習,再構(gòu)建聽說讀寫能力,最后在不同學科深入探索。AI 大模型也是一樣,在完成通用能力積累之后,可以將學習能力移植到需要應用的特定領(lǐng)域,通過投喂垂直領(lǐng)域數(shù)據(jù),可以使模型達到目標場景所需的性能。

3beb41d0-c9d1-11ed-bfe3-dac502259ad0.png

▲單一大模性具備豐富的垂直領(lǐng)域應用潛力

從大模型自身的發(fā)展過程來看,參數(shù)量的變化是一個非常值得關(guān)注的指標。從最早的 ResNet、Inception 等模型,到如今的 GPT,模型參數(shù)量不斷增長。2018 年前后 OpenAI 先后推出 Transformer 和GPT-1 模型,參數(shù)量來到 1 億級別。隨后谷歌提出 3 億參數(shù)的 BERT 模型,參數(shù)量再次增長。2019、2020 年,OpenAI 加速追趕,陸續(xù)迭代出 GPT-2、GPT-3 模型,參數(shù)量分別為15 億、1750 億,實現(xiàn)模型體量質(zhì)的飛躍。另一方面,參數(shù)運算需要大規(guī)模并行計算的支持,核心難點在于內(nèi)存交換效率,取決于底層 GPU 內(nèi)存容量。以英特爾為例,從 2017 年 V100的 32GB 內(nèi)存到 2020 年 A100 的 80GB 內(nèi)存,GPU 內(nèi)存容量的提升量級與模型參數(shù)相比顯然不在同一量級。而 ChatGPT 的解決方法,則是與微軟聯(lián)手,借助 Azure 強大的基礎(chǔ)算力設(shè)施,為 ChatGPT 提供訓練支持。

3c181264-c9d1-11ed-bfe3-dac502259ad0.png

▲單一大模型的參數(shù)量快速增長

2021 年 8 月,李飛飛等學者于 arXiv 發(fā)表《On the Opportunities and Risk of Foundation Models》,將大模型統(tǒng)一命名為 Foundation Models,即基礎(chǔ)模型或基石模型。此外,論文還提出基礎(chǔ)模型面臨的兩大問題:1)同質(zhì)化。盡管基礎(chǔ)模型基于標準的深度學習和遷移學習,但其規(guī)模導致了新能力的涌現(xiàn),其在眾多任務(wù)中的有效性激勵了同質(zhì)化的產(chǎn)生;2)特性涌現(xiàn)。盡管基礎(chǔ)模型即將被廣泛部署,但目前研究者對其如何工作、何時失效以及其涌現(xiàn)的特性衍生了何種能力尚缺乏清晰的理解。舉例來看,如機器學習的引入,使得算法從數(shù)據(jù)案例中學會了如何執(zhí)行(自動推斷);深度學習的引入,涌現(xiàn)了用于預測的高級特征;基礎(chǔ)模型的引入,涌現(xiàn)了上下文學習等高級功能。但在這一過程中,機器學習使學習算法變得同質(zhì)化(例如,邏輯回歸),深度學習使模型架構(gòu)同質(zhì)化(例如,卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)),大模型使得下游模型同質(zhì)化(例如,下游模型一定會繼承上游模型缺陷)。

從本質(zhì)上來說,上下游模型同質(zhì)化的問題無法被完全解決,OpenAI 選擇的方向是盡可能填補缺陷漏洞。從 GPT-3.5版本開始,OpenAI 團隊在模型中引入了監(jiān)督學習過程。在監(jiān)督學習模式下,人類反饋機制開始加入到模型訓練過程,從而不斷糾正模型生成結(jié)果,逐步提升輸出結(jié)果的準確性和真實性。隨著大模型朝著越來越符合人類期望的方向演進,對話邏輯和表達方式逐漸逼近人類水平,才最終達到我們今天所看到的樣子。

3c4190f8-c9d1-11ed-bfe3-dac502259ad0.png

▲基礎(chǔ)模型帶來特性涌現(xiàn)和模型同質(zhì)化

通過拆解單一大模型的原理、特征及發(fā)展歷程,我們發(fā)現(xiàn)單一大模型的引入,是 ChatGPT 強大語言的根本來源。展望未來,我們認為ChatGPT 或?qū)⒃诖竽P图映窒录铀俚饕驗椋?)大模型訓練效果取決于數(shù)據(jù)量,目前 ChatGPT 僅使用 2021 年之前的數(shù)據(jù),隨著更多數(shù)據(jù)的加入,模型底層語言能力有望進一步加強;2)大模型具備能力遷移潛力,垂直領(lǐng)域應用或?qū)⒓铀?ChatGPT 進化;3)OpenAI 背靠微軟,大算力資源為模型演進提供保障;4)隨著軟件用戶規(guī)模持續(xù)擴張,用戶自身的反饋又會帶來類似監(jiān)督學習的效果,或?qū)?ChatGPT 加速迭代。基于此,看好 AI 大模型及 ChatGPT 未來應用前景,商業(yè)化落地或?qū)⒓涌臁?/p>

維度二:預訓練語言模型。拆解模型來看,主要關(guān)注預訓練語言模型和Transformer特征抽取器。前面討論了ChatGPT 背后所使用的 AI 大模型及其迭代過程,但如果我們將拆解動作繼續(xù)深入,在更細顆粒度的視角下,其實可以將訓練模型做進一步的拆解。實際上,GPT(General Pre-Training)即通用預訓練語言模型,簡單來說就是一種利用 Transformer 作為特征抽取器,基于語言模型進行預訓練的模型。因此,接下來我們從模型的兩個關(guān)鍵特征出發(fā),分別從預訓練語言模型和 Transformer 特征抽取器的角度來分析 GPT 模型的迭代過程。

預訓練語言模型無需人工標簽,為NLP研究帶來質(zhì)變。預訓練屬于遷移學習的范疇,其思想是在利用標注數(shù)據(jù)之前,先利用無標注的數(shù)據(jù),即純文本數(shù)據(jù)訓練模型,從而使模型能夠?qū)W到一些潛在的跟標注無關(guān)的知識,最終在具體的任務(wù)上,預訓練模型就可以利用大量的無標注數(shù)據(jù)知識,標志著自然語言處理模型進入了大規(guī)模復制階段。從實現(xiàn)原理上來看,預訓練語言模型是通過計算某個詞句 w 的出現(xiàn)概率,即 p(W),在給定詞句的情況下,可以自行計算出后一個詞或句出現(xiàn)的概率。因此,GPT 的訓練可以在無人工標簽的基礎(chǔ)上進行,通過連續(xù)不斷地預測、迭代參數(shù)、再預測,模型最終實現(xiàn)語言能力的學習。

在大多數(shù)基于統(tǒng)計方法和神經(jīng)網(wǎng)絡(luò)的自然語言處理模型中都需要大量已標注的數(shù)據(jù)集來滿足模型訓練,但并非所有的訓練任務(wù)都能獲取足夠的標注信息。同時,隨著模型復雜度和參數(shù)數(shù)量的增加,大多數(shù)數(shù)據(jù)集的大小難以支持訓練。而預訓練模型能先通過利用無標注的數(shù)據(jù)訓練模型,解決傳統(tǒng)模型無法解決的實際問題。而且由于預訓練語言模型可以利用現(xiàn)實世界中大量的純文本數(shù)據(jù)訓練,擴大了其訓練范圍和規(guī)模,擁有發(fā)掘大模型(Foundation Models)的潛力。

第一代預訓練模型是靜態(tài)詞向量模型,經(jīng)訓練給每一個詞賦予靜態(tài)詞向量,讓相似的詞聚集在一起,實現(xiàn)了符號空間到向量空間的映射,經(jīng)典結(jié)構(gòu)有 Continuous Bag-of-Words(CBOW)和 Skip-Gram(SG)等。而由于第一代模型的詞向量靜態(tài)性,使其不能結(jié)合上下文,進而有無法分辯同義詞等缺陷。最新的第二代預訓練模型,包括 BERT、GPT 等則在此基礎(chǔ)上允許靜態(tài)詞向量與上下文交互,這種動態(tài)詞向量優(yōu)化了同義詞問題。目前,第二代預訓練模型的標準范式是“預訓練+微調(diào)”:首先在大量的文本上訓練出一個預訓練語言模型,再根據(jù)實際情況對得到的預訓練語言模型進行微調(diào),加強了模型對下游應用場景的契合度。

維度三:Transformer特征抽取器。Transformer是大模型高效運行的根基。前面我們從單一大模型出發(fā),對預訓練語言模型進行了 。但如果我們繼續(xù)深入,會發(fā)現(xiàn)語言模型仍然不是 GPT 模型的最底層,語言模型之下還需要有具體的調(diào)度架構(gòu)和運算邏輯,來實現(xiàn)最終的計算。我們認為,Transformer特征抽取器在 GPT 模型中,就承擔了這樣的一個角色,直接決定了 AI 大模型能否實現(xiàn)高效率的運算和學習。

Transformer 模型最早由谷歌在 2017 年提出,屬于深度學習模型架構(gòu)的一種,特點是在學習中引入了注意力機制。對比循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)來看,Transformer 與 RNN 均對輸入數(shù)據(jù),如自然語言等,進行順序處理,并主要應用于翻譯和文本摘要等工作。但 Transformer 與 RNN 不同的是,Transformer 中的注意機制可以為輸入序列中的任何字符提供上下文,因此可以一次處理所有輸入,而不是一次只處理一個詞。因此,與 RNN 相比,Transformer 可以實現(xiàn)更大規(guī)模的并行計算,大大減少了模型訓練時間,使得大規(guī)模 AI 模型得以被應用。

3c56e69c-c9d1-11ed-bfe3-dac502259ad0.png

▲Transformer 解碼模塊拆解

在 GPT 模型中,解碼模塊相當于基本架構(gòu)單元,通過彼此堆疊的方式,拼湊成最終我們看到的 GPT 模型底層架構(gòu)。這里有兩個值得關(guān)注的要點:1)解碼模塊的數(shù)量決定了模型的規(guī)模,GPT-1 一般有 12 個模塊,GPT-2有 48 個,GPT-3 則有 96 個模塊;2)針對模塊輸出的結(jié)果還需要進行 Finetune(對模型進行調(diào)優(yōu))。

3c743152-c9d1-11ed-bfe3-dac502259ad0.png

▲解碼模塊堆疊形成 GPT 模型完整架構(gòu)

03.生成式AI應用于創(chuàng)造性工作

AI 可分為生成式 AI 和分析型 AI,其中分析型 AI(Analytical AI),主要在給定數(shù)據(jù)的情況下,通過分析找出規(guī)律和關(guān)系,并在此基礎(chǔ)上生成報告或給出建議。比如通過追蹤客戶行為以刻畫用戶畫像,并基于此進行個性化推薦,實現(xiàn)精準營銷;通過收集城市中傳感器的大量數(shù)據(jù)并分析,預測天氣及環(huán)境污染情況,從而幫助相關(guān)部門進行政策制定。不同于分析型 AI 局限于分析已有內(nèi)容,生成式 AI(Generative AI)可以通過學習已有數(shù)據(jù)和信息生成多種形式的新的內(nèi)容,在創(chuàng)造性工作的領(lǐng)域進行應用,目前生成式 AI 的應用主要包括生成文本、圖像、對話、音視頻、代碼、3D 等。

3ca44630-c9d1-11ed-bfe3-dac502259ad0.png

▲生成型 AI 應用領(lǐng)域

ChatGPT 通過學習大量語料并通過生成模型生成文本回答,其基礎(chǔ) GPT-3 是一個大型語言模型。該模型通過對大量語料的預訓練,學習了語言的語法、語義、語用等特征,并通過對語言的生成任務(wù)進行微調(diào),以適應各種應用場景。目前,除了 ChatGPT 外,有大量 AIGC 應用產(chǎn)品基于 GPT-3 模型。

3cc4d0b2-c9d1-11ed-bfe3-dac502259ad0.png

▲基于 GPT-3 的 AI 產(chǎn)品

據(jù)各公司官網(wǎng),ChatGPT 從 0 到 100 萬用戶數(shù)僅花費 5 天,速度遠超其他平臺。從活躍用戶角度,據(jù)Similarweb,2023 年 1 月期間,ChatGPT 平均每天約有 1300 萬獨立訪客,超出 22 年 12月一倍。用戶數(shù)量的快速擴大反映了 ChatGPT 具備較強的商業(yè)化潛力。

3cf13d5a-c9d1-11ed-bfe3-dac502259ad0.png

▲ChatGPT 從 0 到 100 萬用戶速度遠超其他平臺

AIGC(AI Generated Content)指由人工智能生成的內(nèi)容,包括文本、圖像、音頻、3D 等多種類型,具有高效及自動化生產(chǎn)的特點。近年來谷歌、亞馬遜、百度等國內(nèi)外巨頭持續(xù)布局 AIGC。2014 年,谷歌以超 5 億美元的價格收購人工智能公司 DeepMind;2023 年 3 月,谷歌宣布向人工智能初創(chuàng)公司 Anthropic 投資約 3 億美元,建立新的合作伙伴關(guān)系;2022 年 11 月,亞馬遜宣布與 AI 制圖平臺 Stability AI 合作,成為其首選云合作伙伴,同時為其提供亞馬遜 Tradium 芯片;2021 年 4 月,華為諾亞方舟實驗室聯(lián)合多部門推出首個 2000 億參數(shù)中文預訓練模型盤古α;2023 年 2 月,百度官宣類 ChatGPT 大模型新項目文心一言(英文名 ERNIE Bot)。

3d03c632-c9d1-11ed-bfe3-dac502259ad0.png

▲AIGC 領(lǐng)域產(chǎn)品

微軟發(fā)布基于 OpenAI 模型的全新搜索引擎 Bing 和 Edge 瀏覽器。在 FY23Q2 電話會議上,微軟表示將增加對 ChatGPT 的支持,使得客戶能夠很快在自己的應用程序上調(diào)用它。隨后,公司宣布擴大與 OpenAI 的合作伙伴關(guān)系,將向 OpenAI 進行一項為期多年、價值數(shù)十億美元的投資,以加速其在人工智能領(lǐng)域的技術(shù)突破。2 月 7 日,公司召開發(fā)布會推出基于新的 OpenAI 模型搜索引擎 Bing 和 Edge 瀏覽器,將搜索、瀏覽器、聊天功能結(jié)合起來,用戶既可以選擇傳統(tǒng)搜索結(jié)果與聊天對話框并排顯示,也可以選擇直接與聊天機器人進行對話。在新版的 Bing 之下,用戶搜索直接給出答案,而非網(wǎng)頁鏈接,結(jié)果相關(guān)性更強、更加智能化。目前新版 Bing 已經(jīng)開放有限預覽,預計在未來幾周推出移動版本。

谷歌、百度積極跟進,商業(yè)應用有望加速。1 月 27 日,美國數(shù)字媒體公司 BuzzFeed 率先宣布計劃使用 OpenAI 提供的技術(shù)來協(xié)助創(chuàng)作個性化內(nèi)容。谷歌方面,近期向 OpenAI競爭對手之一的 Anthropic 投資約 3 億美元,獲得該公司 10%股份,Anthropic 將用投資從谷歌的云計算部門購買大量計算資源;2 月 6 日,谷歌透露計劃推出一款聊天機器人 Bard 以應對 ChatGPT,該服務(wù)將開放給受信任的測試人員,并在未來的幾周向更廣泛的公眾開放服務(wù)。百度方面,2 月 7 日宣布將推出類 ChatGPT 項目文心一言(英文名為ERNIE Bot),預計將在 3 月份完成內(nèi)測,面向公眾開放。隨著微軟將 ChatGPT 整合至自身產(chǎn)品中,谷歌、百度等 AI 領(lǐng)軍企業(yè)也宣布推出聊天機器人,未來有望將聊天機器人整合至搜索引擎甚至辦公軟件等業(yè)務(wù)當中,商業(yè)化應用有望加速落地。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48701

    瀏覽量

    246452
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1201

    瀏覽量

    8635
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1587

    瀏覽量

    8796

原文標題:三大維度拆解ChatGPT!讓巨頭們興奮的技術(shù)真相

文章出處:【微信號:CADCAM_beijing,微信公眾號:智能制造IMS】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    拆解小米 CyberGear 微電機!ams AS5047P 磁編憑何性能狂飆?

    拆解小米 CyberGear 微電機!ams AS5047P 磁編憑何性能狂飆?》
    的頭像 發(fā)表于 05-14 10:45 ?225次閱讀
    <b class='flag-5'>拆解</b>小米 CyberGear 微電機!ams AS5047P 磁編憑何<b class='flag-5'>讓</b>性能狂飆?

    和安信可Ai-M61模組對話?手搓一個ChatGPT 語音助手 #人工智能 #

    ChatGPT
    jf_31745078
    發(fā)布于 :2025年03月12日 15:56:59

    激光自身空間維度加工系統(tǒng)綜述

    加工精度與速度。 激光自身空間維度加工系統(tǒng)具備調(diào)控激光束空間維度變化的能力,特別適用于高效、高精度的激光加工。其主要涵蓋點維、一維、二維、維和 “五+N” 維加工系統(tǒng)。不同維度的系統(tǒng)
    的頭像 發(fā)表于 01-16 10:52 ?528次閱讀
    激光自身空間<b class='flag-5'>維度</b>加工系統(tǒng)綜述

    ChatGPT新增實時搜索與高級語音功能

    在OpenAI的第八天技術(shù)分享直播中,ChatGPT的搜索功能迎來了重大更新。此次更新不僅豐富了ChatGPT的功能體系,更提升了其實用性和競爭力。 新增的實時搜索功能,是此次更新的亮點之一
    的頭像 發(fā)表于 12-17 14:08 ?564次閱讀

    OpenAI發(fā)布滿血版ChatGPT Pro

    科技巨頭OpenAI近期宣布了一項重大更新,正式推出了其備受期待的“滿血版”ChatGPT Pro。這一新版本基于全新的推理模型o1,旨在為用戶提供更為強大的處理能力和更高質(zhì)量的回答。 據(jù)了解
    的頭像 發(fā)表于 12-06 11:10 ?730次閱讀

    UWB技術(shù)如何實現(xiàn)不同維度的定位需求

    ,正在逐漸成為室內(nèi)定位領(lǐng)域的明星技術(shù)。 UWB技術(shù)通過發(fā)送和接收超寬帶信號來定位目標。這種技術(shù)相較于其他定位技術(shù),具有更高的定位精度和更低的信號干擾。那么,UWB定位
    的頭像 發(fā)表于 11-01 10:43 ?681次閱讀
    UWB<b class='flag-5'>技術(shù)</b>如何實現(xiàn)不同<b class='flag-5'>維度</b>的定位需求

    ChatGPT 在游戲開發(fā)中的創(chuàng)新應用

    在游戲開發(fā)領(lǐng)域,人工智能技術(shù)的應用正變得越來越廣泛。ChatGPT,作為一種先進的自然語言處理(NLP)模型,為游戲開發(fā)帶來了許多創(chuàng)新的應用。 1. 動態(tài)對話系統(tǒng) ChatGPT的強項之一是生成自然
    的頭像 發(fā)表于 10-25 18:05 ?989次閱讀

    如何提升 ChatGPT 的響應速度

    提升 ChatGPT 的響應速度是一個涉及多個層面的復雜問題。以下是一些可能的方法和策略,可以幫助提高 ChatGPT 的響應速度: 優(yōu)化算法 : 并行處理 :通過并行處理技術(shù),可以
    的頭像 發(fā)表于 10-25 17:39 ?1427次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個基于ChatGPT的聊天系統(tǒng)是一個涉及多個步驟的過程,包括理解ChatGPT的API、設(shè)計用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個簡化的指南,用于創(chuàng)建一個基本的聊天系統(tǒng)。 1.
    的頭像 發(fā)表于 10-25 16:23 ?931次閱讀

    ChatGPT 適合哪些行業(yè)

    ChatGPT 是一種基于人工智能的自然語言處理技術(shù),它能夠理解和生成人類語言。這種技術(shù)在多個行業(yè)中都有廣泛的應用潛力。以下是一些ChatGPT特別適合的行業(yè),以及它在這些行業(yè)中可能的
    的頭像 發(fā)表于 10-25 16:11 ?903次閱讀

    科技巨頭紛紛投資核電,小型模塊化反應堆成新寵

    近年來,隨著人工智能技術(shù)的迅猛發(fā)展,特別是ChatGPT等大模型應用的興起,算力需求急劇增加,進而推動了能源消耗的大幅增長。為了應對這一挑戰(zhàn),科技巨頭開始積極尋找新的無碳電力來源,而
    的頭像 發(fā)表于 10-22 13:43 ?1057次閱讀

    手機散熱器拆解

    ,散熱效果可能會有所下降。此時有什么好辦法可以提高散熱效果呢,讓我們一起拆解一個散熱器看看。 此散熱器是大概一年前在某寶購買的,采用風扇+半導體制冷技術(shù),外觀如下。 手機直接卡進去即可使用,適配各種尺寸
    發(fā)表于 09-25 15:46

    大模型LLM與ChatGPT技術(shù)原理

    在人工智能領(lǐng)域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(shù)(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?1493次閱讀

    用launch pad燒錄chatgpt_demo項目會有api key報錯的原因?

    我用launch pad燒錄chatgpt_demo項目問題會有api key報錯;請問用launch pad要如何設(shè)置api key和調(diào)試?還是只能通過idf?
    發(fā)表于 06-27 07:59

    使用espbox lite進行chatgpt_demo的燒錄報錯是什么原因?

    我使用espbox lite進行chatgpt_demo的燒錄 我的idf是v5.1release版本的,espbox是master版本的 在編譯時似乎沒有什么問題 在燒錄時報錯 請問這是什么原因
    發(fā)表于 06-11 08:45