隨著美國(guó)人工智能產(chǎn)業(yè)逐漸接受政府的指引,OpenAI與甲骨文周四聯(lián)手美國(guó)人工智能安全研究所。這一研究所直屬美國(guó)商務(wù)部國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所,它有權(quán)限在各企業(yè)發(fā)布新模型前或發(fā)布后獲取模型使用權(quán)。OpenAI和甲骨文表示,他們已承諾將新模型的測(cè)試權(quán)交予研究所,通過(guò)檢測(cè)后正式公布。OpenAI的CEO奧爾特曼對(duì)此表示欣慰,他認(rèn)為與研究所的合作是對(duì)公司模型進(jìn)行預(yù)發(fā)布測(cè)試的好機(jī)會(huì)。OpenAI的CSO Jason Kwon也強(qiáng)調(diào),他們深信研究所在確保美國(guó)AI業(yè)界負(fù)責(zé)任地發(fā)展人工智能方面起著至關(guān)重要的作用,期待與研究所共同打造全球可供參考的管理框架。
美國(guó)人工智能安全研究所成立于2023年,僅在拜登發(fā)布美國(guó)歷史上首個(gè)人工智能行政命令幾天后。它是白宮評(píng)估、指導(dǎo)和研究人工智能的核心機(jī)構(gòu)。研究所所長(zhǎng)伊麗莎白·凱利表示,與OpenAI和甲骨文的協(xié)議僅僅是個(gè)開(kāi)端,標(biāo)志著研究所管理人工智能未來(lái)的重要里程碑。
本周三,加利福尼亞州議會(huì)通過(guò)了一項(xiàng)備受爭(zhēng)議的人工智能安全法案,強(qiáng)制要求企業(yè)對(duì)成本或計(jì)算能力達(dá)到一定規(guī)模的人工智能模型進(jìn)行安全測(cè)試,并提供其他保障措施。這可能促使許多科技公司更積極地尋求監(jiān)管的認(rèn)可,以爭(zhēng)取更大的創(chuàng)新空間。
此外,OpenAI因安全問(wèn)題屢遭詬病。據(jù)前雇員丹尼爾·科科塔吉洛透露,近幾個(gè)月來(lái),公司出現(xiàn)了持續(xù)且穩(wěn)定的離職潮,關(guān)注人工智能長(zhǎng)期風(fēng)險(xiǎn)的OpenAI員工中有一半已經(jīng)離開(kāi)。這可能表明OpenAI內(nèi)部對(duì)新模型安全性的忽視引發(fā)了員工的強(qiáng)烈不滿。這無(wú)疑引起了美國(guó)政府部門(mén)的高度重視,此次與美國(guó)人工智能安全研究所的合作,或許正是OpenAI消除外界疑慮的最佳方式之一。
-
人工智能
+關(guān)注
關(guān)注
1804文章
48677瀏覽量
246290 -
甲骨文
+關(guān)注
關(guān)注
0文章
117瀏覽量
16349 -
OpenAI
+關(guān)注
關(guān)注
9文章
1201瀏覽量
8626
發(fā)布評(píng)論請(qǐng)先 登錄
評(píng)論