前不久OpenAI決定解散專注于AI的長期風險的“超級對齊”團隊(Superalignment team),現(xiàn)在又突發(fā)AGI團隊解散事件。OpenAI的安全政策遭業(yè)界質(zhì)疑。要知道面對越來越強大的AI技術(shù),很多AI企業(yè)在安全政策上持續(xù)加大投入;但是OpenAI似乎在退步?要知道AI技術(shù)如果不加以控制可能會帶來災難性的后果。若缺乏有效的監(jiān)管與規(guī)劃,AGI的進展將面臨更多的不確定性與風險。現(xiàn)在;對于AGI(通用人工智能)OpenAI真的準備好了嗎?世界真的準備好了嗎?
據(jù)外媒報道,OpenAI公司正在解散其“AGI籌備”團隊,團隊負責人Miles Brundage離職,OpenAI公司的AGI團隊就OpenAI自身處理日益強大的人工智能技術(shù)的能力以及世界管理人工智能技術(shù)的準備情況向公司提供建議。
而OpenAI的AGI籌備團隊負責人Miles Brundage在周三通過Substack發(fā)布的帖子中宣布了這一消息,Miles Brundage透露已經(jīng)完成了他在OpenAI的目標。Miles Brundage想要減少偏見;可能會自己成立一家非營利組織,或加入現(xiàn)有的非營利組織,未來將專注于人工智能政策研究和倡導。
事件發(fā)生在OpenAI董事會可能計劃將公司重組為營利性企業(yè)之際;這就更讓業(yè)界擔心其安全性。以前的OpenAI是一個開源公司、非營利組織,但現(xiàn)在OpenAI似乎真的變了,OpenAI正在設法實現(xiàn)利潤最大化。
AI落地實踐的進程中;目前業(yè)界多認為在研究、開發(fā)和應用人工智能技術(shù)時,需要遵循的道德準則和社會價值觀,以確保人工智能的導向正確,如何讓引導AI;使其是受控制的;這是一個大的前提。確保AI的目標是為了讓世界變得更加美好;盡管甚至可以達到比人類更智能的AI系統(tǒng)。技術(shù)創(chuàng)新與安全性兼顧的可能性是需要重點考慮的。
-
人工智能
+關(guān)注
關(guān)注
1804文章
48691瀏覽量
246426 -
Agi
+關(guān)注
關(guān)注
0文章
91瀏覽量
10425 -
OpenAI
+關(guān)注
關(guān)注
9文章
1201瀏覽量
8634
發(fā)布評論請先 登錄
字節(jié)豆包大模型團隊成立AGI長期研究團隊Seed Edge
字節(jié)跳動啟動AGI長期研究計劃Seed Edge
奧特曼否認OpenAI下月部署AGI
阿爾特曼:OpenAI將率先實現(xiàn)AGI
OpenAI目標轉(zhuǎn)向“超級智能”
OpenAI公布2025年發(fā)展目標
OpenAI公布2025年目標,AGI位列首位
OpenAI考慮取消AGI條款
嵌入式和人工智能究竟是什么關(guān)系?
高級顧問宣布離職!OpenAI解散“AGI籌備”團隊
《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第一章人工智能驅(qū)動的科學創(chuàng)新學習心得
報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI
OpenAI開發(fā)系統(tǒng)來確定其人工智能系統(tǒng)的智能程度,從1級到5級不等

千方科技成功入選“北京市通用人工智能產(chǎn)業(yè)創(chuàng)新伙伴計劃”

大模型應用之路:從提示詞到通用人工智能(AGI)

評論