專注于數(shù)據(jù)、技術(shù)與公共政策的美國科技智庫數(shù)據(jù)創(chuàng)新中心的高級政策分析師Joshua New撰文表示,由于美國采取的一些錯誤建議,美國有可能在當(dāng)前的全球人工智能競賽中落后于他國。該文主要內(nèi)容如下:
在全球人工智能競賽中贏得主導(dǎo)地位的國家必將獲得巨大經(jīng)濟(jì)利益,包括經(jīng)濟(jì)增長率到2035年可能翻一番。不幸的是,美國在如何競爭方面得到了一些錯誤建議。
在過去的2017年,為了在人工智能競爭中取得勝利,加拿大、中國、法國、印度、日本和英國都啟動了政府支持的重大舉措。雖然特朗普政府已經(jīng)開始關(guān)注如何推進(jìn)這項技術(shù),但還沒有制定出與其他國家的戰(zhàn)略具有同等凝聚力的國家戰(zhàn)略。這種現(xiàn)狀帶來的后果是,在關(guān)于美國政策制定者應(yīng)如何支持人工智能的對話中,主要關(guān)注通過對技術(shù)施加限制性監(jiān)管來避免人工智能潛在危害(而不是支持其增長)的倡導(dǎo)者提交的提案占據(jù)了支配地位。
人工智能確實帶來了獨(dú)特的挑戰(zhàn),從可能加劇刑事司法體系中的種族偏見到引起對自動駕駛汽車的道德關(guān)注,不一而足。而應(yīng)對這些挑戰(zhàn)的主導(dǎo)觀念則是強(qiáng)制實施算法透明度原則或算法可解釋性原則,或是成立全局人工智能監(jiān)管機(jī)構(gòu)。但是,這些措施不僅可能無法有效應(yīng)對潛在挑戰(zhàn),它們還可能會大大減緩美國開發(fā)和采用人工智能的速度。
算法透明度的支持者認(rèn)為,要求各家公司披露其算法的源代碼可讓監(jiān)管機(jī)構(gòu)、媒體和關(guān)心此類問題的公民仔細(xì)檢查代碼以及確定是否有任何不當(dāng)行為的跡象。盡管人工智能系統(tǒng)的復(fù)雜性讓大家?guī)缀鯖]有理由相信這種做法會有任何實際效果,但對于那些經(jīng)常無視知識產(chǎn)權(quán)保護(hù)的國家的慣犯來說,這會讓竊取美國的源代碼變得非常容易。同時,這還會給美國在全球人工智能競賽中的主要競爭對手提供幫助,并減少對美國公司投資開發(fā)人工智能的激勵。
其他人則提議應(yīng)用算法可解釋性原則。根據(jù)此原則,政府會要求各家公司讓其算法對最終用戶而言可解釋,方法包括通過描述其算法的工作原理或僅使用能夠闡明其決策理由的算法等。例如,歐盟已將可解釋性作為針對人工智能潛在危險的主要檢查,并在其《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)中保障每個個體獲取關(guān)于算法所做特定決策的“有意義信息”的權(quán)利。
要求可解釋性的做法是恰當(dāng)?shù)模⑶乙殉蔀樵S多領(lǐng)域的標(biāo)準(zhǔn)做法,例如刑事司法領(lǐng)域或消費(fèi)金融領(lǐng)域。但是,在同一標(biāo)準(zhǔn)不適用于人類決策的情況下,將這一要求擴(kuò)展到人工智能決策領(lǐng)域則會是一個錯誤。這種做法會刺激企業(yè)依賴人類做出決策,從而避免此類監(jiān)管負(fù)擔(dān),但這會以犧牲生產(chǎn)力和創(chuàng)新性為代價。
此外,可解釋性和準(zhǔn)確性之間可能存在不可避免的權(quán)衡。算法的準(zhǔn)確性通常隨著其復(fù)雜性的增加而提高,但算法越復(fù)雜,解釋起來就會越困難。這種權(quán)衡一直存在,擁有兩個變量的簡單線性回歸比擁有兩百個變量的線性回歸更容易解釋。但是,使用更加高級的數(shù)據(jù)科學(xué)方法時,權(quán)衡會變得更加尖銳。因此,可解釋性要求在可以適當(dāng)犧牲準(zhǔn)確性的情況中才有意義,而這些情況很少見。例如,在自動駕駛汽車中讓可解釋性優(yōu)先于準(zhǔn)確性會是一個可怕的想法,因為導(dǎo)航準(zhǔn)確性或車輛區(qū)分道路上的行人和廣告牌上的人類照片的能力即便只是略微下降,也可能極度危險。
第三個普遍但糟糕的想法是,成立相當(dāng)于美國食品藥品監(jiān)督管理局(Food and Drug Administration)或國家運(yùn)輸安全委員會(National Transportation Safety Board)的機(jī)構(gòu)來充當(dāng)全局人工智能監(jiān)管機(jī)構(gòu),這一想法最引人注目的支持者是埃隆·馬斯克(Elon Musk)。問題在于,成立人工智能監(jiān)管機(jī)構(gòu)會錯誤地暗示所有算法都存在相同水平的風(fēng)險并需要監(jiān)管。但是,人工智能系統(tǒng)的決策就和人類的決策一樣,仍然受制于各種行業(yè)特定的法律和法規(guī),并會根據(jù)其應(yīng)用范圍帶來各種各樣的風(fēng)險。僅僅因為低風(fēng)險決策使用了算法就將其置于監(jiān)管之下會為部署人工智能帶來極大的阻礙,并會限制美國公司采用這項技術(shù)的能力。
幸運(yùn)的是,政策制定者能夠通過可行的方法,在不破壞人工智能的情況下應(yīng)對人工智能帶來的潛在風(fēng)險,即采用算法問責(zé)制原則。這是一種干涉較少的監(jiān)管方法,可激勵部署算法的企業(yè)使用各種控制手段來確保其人工智能系統(tǒng)按照預(yù)期運(yùn)行,并識別和糾正不良后果。它與算法透明度不同,不會威脅知識產(chǎn)權(quán)。它與算法可解釋性也不同,允許公司部署高級創(chuàng)新人工智能系統(tǒng),但仍然會要求它們能夠在上下文需要時解釋其特定決策,而無論是否在這些決策中使用了人工智能。與主要人工智能監(jiān)管機(jī)構(gòu)不同的是,算法問責(zé)制可確保監(jiān)管機(jī)構(gòu)能夠了解其行業(yè)特定領(lǐng)域內(nèi)的人工智能,同時對妨礙人工智能部署的障礙加以限制。
如果美國想要成為全球人工智能競賽中的有力競爭者,那么政策制定者最不應(yīng)該做的就是通過效率低下、損害經(jīng)濟(jì)利益的監(jiān)管對人工智能進(jìn)行束縛。現(xiàn)在想要專注于不公平或不安全人工智能的政策制定者應(yīng)改為應(yīng)用算法問責(zé)制原則解決自己關(guān)切的問題,而不要在美國加入全球人工智能競賽的過程中加以妨礙。
-
算法
+關(guān)注
關(guān)注
23文章
4709瀏覽量
95358 -
人工智能
+關(guān)注
關(guān)注
1806文章
49011瀏覽量
249359 -
源代碼
+關(guān)注
關(guān)注
96文章
2953瀏覽量
68359
原文標(biāo)題:智庫專家:美國可能在全球人工智能競賽中處于落后
文章出處:【微信號:AI_News,微信公眾號:人工智能快報】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
Gartner 發(fā)布2025年中國人工智能十大趨勢

人工智能大模型年度發(fā)展趨勢報告

評論