作者 | Ben Linders
使用 AI 通用模型來完成代碼生成這類非常具體的任務可能會帶來問題。人工智能生成的代碼就像是陌生人的代碼,它們可能并不符合你的代碼質量標準。這種情況下,創建專業或專用的模型不失為一條出路。
Luise Freese 和 Iona Varga 在 2023 年的 NDC Oslo 大會上探討了 AI 模型的實踐困境和倫理相關問題。
Varga 提到,“人工智能”這個詞給人一種智慧的感覺,雖然這個名字實際只是代表了這些模型的構建方式。以節點相連的形式模仿人腦中神經元與突觸連接而成的網絡,這類模型因此而得名“人工網絡”或“人工智能”。
Freese 補充道,抽象來說,計算機是完全依賴于或開或關的晶體管,通過這些開關的組合,我們得以操縱比特。由于晶體管之間沒有相互的糾纏,這些開關最終會帶來這樣的結果:
因此,計算機并不會思考,不過是我們的人工智能算法賦予了它們個性和特征,比如“讓我考慮一下”這類禮貌說辭。AI 僅僅是利用統計數據對事物進行預測、分類或組合。
Varga 提到,AI 的問題在與使用極其通用的模型或是基礎模型完成非常具體的任務。大語言模型(LLM)的工作原理是先分析問題、創建一兩個詞語,再根據統計數據預測下一個標記的最佳匹配。此外,LLM 本身是無法對事實進行核查的,因為這類模型的設計目的是生成而非驗證。
如果我們試圖建立一個能解決所有 AI 問題的 AI 模型,那么我們將會創造出一種自我放大的螺旋式下降,Freese 補充道。若想實現螺旋式上升,那就應該少用基礎模型,多用更為具體的模型,后者中有一部分實際就是搭建在基礎模型之上的。
AI 或許能生成代碼,但這些代碼是否能安全地使用,是否能滿足我們對質量的標準要求?Varga 認為這些問題只能由真正的人類來回答,這一過程并不容小覷。歸根結底,就像是代碼的編寫一樣,調試陌生人的代碼遠比自己從頭到尾參與其中的代碼更為困難。
一般模型的理解能力也更為通用,這在代碼生成問題上可能會帶來問題,正如 Varga 所解釋的:
舉例來說,React v17 或 v16 這些可能沒有直接反應在模型的上下文中,但模型也能了解這些代碼庫。或許你會發現自己生成的一個函數中會混雜有兩個版本的代碼。
Varga 認為,多數情況下 AI 都是解決問題的好幫手。但使用 AI 就意味著你要去檢查、驗證、修改、編輯或重寫部分內容,而這一部分可能才是我們低估 AI 工具帶來工作量的地方。
InfoQ 針對人工智能所帶來的挑戰問題采訪了 Luise Freese 和 Iona Varga。
InfoQ:什么因素會造成 AI 的失敗?
Iona Varga:一般來說,AI 并不是命中注定要失敗的。我是醫學物理出身的,我也見過很多優秀的 AI 工具,它們能出色地完成波彈性成像的實時剪切,早期階段的嬰兒檢測,甚至能檢測出腫瘤專家都無法發現的肺癌細小結節。
但由于虛假數據和扭曲事實問題的存在,這些結果并不完全可信。舉例來說,川普就職典禮上,實際的到場人數是要少于最初公布的數據。試著問模型就職典禮的公園有多熱鬧,你大概會得到一個出乎意料的答案。但同樣,數據的來源時至今日也有頗具爭議的歷史背景,它們可能會出于政治劇本或標準等原因而被修改。
InfoQ:倫理道德如何才能幫助我們解決 AI 所帶來的問題?
Luise Freese:倫理道德作為工具本身是幫不上太多忙的。倫理只是一種工作的方式,就像是 DevOps 一樣。一旦你有了規劃,知道該做什么了,“倫理道德”就是你對“完成”的定義。我所用的數據是否覆蓋了所有產品使用相關的人或事?通過這些道德的檢測,我們的工作方式將會在可訪問性、包容性和避免偏見方面得到改善。
審核編輯:黃飛
-
晶體管
+關注
關注
77文章
10020瀏覽量
141701 -
AI
+關注
關注
88文章
35164瀏覽量
280003 -
人工智能
+關注
關注
1807文章
49029瀏覽量
249564 -
大模型
+關注
關注
2文章
3146瀏覽量
4073
原文標題:代碼生成:基于 AI 大模型的挑戰與前景
文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
HarmonyOS AI輔助編程工具(CodeGenie)報錯分析
電解電容失效因素解析與預防策略

中興通訊成功舉辦AI家庭品牌發布會
點焊型應變計焊接失敗怎么辦?5步排查法+3個防護技巧

Linux內核編譯失敗?移動硬盤和虛擬機的那些事兒

芯知識|WT588F02B語音芯片燒錄失敗的原因解析及解決方案

TECS OpenStack資源池時間同步失敗的故障分析

評論