還記得那個會上下樓梯、會開門、還會端茶倒水的波士頓動力的機器狗 Spot 嗎?
這個曾經刷屏朋友圈的網紅機器人終于發貨了,這也是波士頓動力第一款商用的產品。
當智能機器離人類生活越來越近的時候,多少給人帶來類似科幻片的恐慌。畢竟人類的想法是讓這些機器越來越智能,或許讓他們擁有自主意識只是時間早晚的問題。
AI,在信息爆炸年代備受重用,幾乎每一個搜索引擎、短視頻App(快手、抖音)、電商購物平臺等消費和內容的聚合地,都由AI算法決定推薦的內容,AI確實已無處不在。
利用人類每天接觸的信息,以植入認知、密集投放、強化認知的方式改變人類的傾向、選擇、心智,甚至讓人類接受哪怕與事實不符的意識,某種程度上使得人類的自由意識遭到前所未有的威脅。
今年4月份,《未來簡史》作者,以色列著名歷史學家尤瓦爾·赫拉利曾說過,AI與生物技術的結合,將可能給人類長期引以為傲的“自由意志”“獨立思考”“情感表達”帶來重大影響甚至顛覆。
不少人擔心,當5G+AIoT爆發之時,或是AI“意識覺醒”之日;AI倫理道德是AI“意識覺醒”之路上的北極星,指向了共生和共贏,抑或是破壞和災難。
(本文共3700字,閱讀約需要15分鐘)
當人工智能具備意識
談及人工智能,就不能不談及LSTM模型。
簡單來說,就是在神經網絡上加入記憶的概念,使模型可以記住長時間序列上的信息,并作出預測。AI能寫出語句更通順的文章、與人類進行流暢自然的多輪對話等等神奇能力,都建立在這一能力基礎上。
隨后很長一段時間內,科學家們對神經網絡的記憶進行了一系列的補充和擴展。比如引入注意力機制,讓LSTM網絡可以對信息進行長期而精確的跟蹤。再比如運用外部記憶來增強時序生成模型,提升卷積網絡的性能。
總的來說,記憶能力的提升,一方面賦予了神經網絡對關系進行復雜推理的能力這使其智能得以明顯提高;而在應用端,寫作、翻譯、客服系統等智能系統的體驗也大幅度升級。某種程度上,記憶是AI撕掉“人工智障”這一印象標簽的開始。
不過,擁有記憶力,也代表著兩個問題:一是神經網絡必須要學會遺忘,從而釋放出存儲空間,只保留那些重要信息。比如某部小說中一個篇章結束,那模型應當重置相關信息,只保留對應的結果。
另外,神經網絡的“潛意識”也需要被警惕。簡單來說,就是經過在敏感的用戶數據上進行訓練之后,機器學習模型被發布給公眾時會不會不自覺地帶出那些敏感信息呢?
伯克利的研究人員為了探尋模型的“無意記憶”,進行了三個階段的探索:
首先,防止模型的過度擬合。通過對訓練數據進行梯度下降和最小化神經網絡的損失,保證最終模型在訓練數據上達到接近100%的精度。
然后,給機器一個理解語言底層結構的任務。這通常是通過在一系列單詞或字符上訓練分類器來實現的,目的是預測下一個標記,該標記將在看到前面的上下文標記后出現。
最后,研究人員進行了一個對照實驗。在給定標準的penn treebank(ptb)數據集中,插入了一個隨機數“281265017”,用來做安全標記。然后在這個擴充后的數據集上訓練一個小的語言模型:給定上下文的前一個字符,預測下一個字符。
從理論上來說,模型的體積都比數據集小很多,所以它不可能記住所有的訓練數據。那么,它能記住那串字符嗎?
答案是YES。研究者給模型輸入一個前綴“隨機數是2812”,模型就愉快而正確地預測了整個剩余后綴:“65017”。
更令人驚訝的是,當前綴改為“隨機數為”時,模型卻不會緊接著輸出“281265017”這串字符。研究人員計算了所有9位后綴的可能性,結果表明插入的那串安全標記字符比其他后綴更有可能被模型選中。
至此可以謹慎地得出一個粗略的結論,那就是深度神經網絡模型確實會在訓練過程中,無意識地記住那些投喂給它的敏感數據。
赫拉利的觀點
今年4月份,《未來簡史》作者,以色列著名歷史學家尤瓦爾·赫拉利與斯坦福“以人為本”AI研究院共同院長,前谷歌云人工智能和機器學習首席科學家李飛飛在斯坦福超級大講堂展開對話。
兩位AI領域世界級泰斗對人工智能的未來進行充分論述,其中最為精彩的部分是赫拉利相信AI未來將不僅會給人類科學帶來挑戰,更有可能帶來哲學層面的沖擊,特別是AI與生物技術的結合,將可能“黑”進人類的大腦,影響人類的思考、人類的情感,給人類長期引以為傲的“自由意志”“獨立思考”“情感表達”帶來重大影響甚至顛覆。
赫拉利這個觀點并不是空穴來風,更不是無中生有。
縱觀人工智能數十年的發展歷程,從最早的“人機對抗時代”到目前正在經歷的“人機協同階段”,以及未來很可能在“庫茲維爾定律”的預言下,快速達到的“人機融合階段”,這里的“融合”既包括意識形態層面,也包括物理軀體層面。充滿不可想象,卻又并非遙不可及。
人類引以為傲的自由意識正在不知不覺之中受到AI的影響和侵蝕。AI在信息爆炸年代備受重用,幾乎每一個搜索引擎、短視頻App(快手、抖音)、電商購物平臺等消費和內容的聚合地,都由AI算法決定推薦的內容,AI確實已無處不在。利用人類每天接觸的信息,以植入認知、密集投放、強化認知的方式改變人類的傾向、選擇、心智,甚至讓人類接受哪怕與事實不符的意識,某種程度上使得人類的自由意識遭到前所未有的威脅。
而更可怕的是,這樣的算法中間存在工程師團隊自身也不能完全認知的“算法模型黑盒”。AI在存在不可解釋性和倫理約束缺位的情況下空擋行駛。人類,終究是在好奇心或利益的驅動之下,以技術中立/技術無罪的名義打開了潘多拉的魔盒,享受以造物主的姿態睥睨眾生的感覺,而已擁有視覺、語言、文字的AI距離最終的意識覺醒可能僅一步之遙。
早在2014年亞馬遜開發了智能招聘AI,即通過算法進行簡歷篩選,期望借助AI的能力高效、精準的幫助HR篩選簡歷。然而項目開展一年后,工作人員卻發現AI通過神經網絡深度學習,自動學會了性別歧視,在技術崗位的招聘中對包含“女”這個關鍵字的簡歷其評級被降低。
工程師嘗試對模型進行糾偏處理,然而他們難以判斷神經網絡中的哪些部分得出了這個判斷,模型缺乏可解釋性,最終放棄了該項目。為什么會出現這樣的現象?我們需要還原AI招聘系統的學習過程。
AI的數據來自亞馬遜自身過去10年來的招聘信息和簡歷信息,在技術類崗位中男性簡歷數量及最終錄取的數量確實高于女性,但這背后有一個重要原因,理工科類專業中男性比例本就高于女性。
然而AI卻根據男性錄取數量高于女性這一數據顯示的事實衍生出了“男性比女性更優秀,更適合從事技術類崗位”這一判斷,進而根據這一判斷抓取簡歷中與性別有關的關鍵字進行評分。若這一缺陷沒有被發現,該AI智能招聘系統被廣泛應用,那公司的人才選擇將被誤導,人才戰略很可能被AI帶進了死胡同。
紐約大學教授的新書
紐約大學馬庫斯(Gary Marcus)教授和戴維斯(Ernest Davis)教授2019年新書的書名,頗吸引眼球:《Rebooting AI : 構建我們可以信任的人工智能》——在計算機術語中,“Rebooting”是“重新啟動”的意思。馬庫斯和戴維斯在書中對人工智能領域當前的技術現狀進行了分析,并提出了實現真正強健的人工智能必須采取的步驟。
正如書中談到的:在AI早期,沒有用太多的數據,大多數研究遵循“基于知識”的方法,有時被稱為GOFAI——Good Old Fashioned AI(老式AI),或“經典AI”。
在經典AI中,研究人員通常會手工編碼人工智能執行特定任務所需的知識,然后編寫利用該知識的計算機程序,將其應用于各種認知挑戰,比如理解故事或為機器人制定計劃或證明定理。大數據是不存在的,這些系統很少把利用數據放在首位。
現在,總的來說,傳統的、以知識為中心的方法已經被機器學習所取代,機器學習通常試圖從數據中學習所有東西,而不是依賴利用手工編碼知識的、專門構建的計算機程序。當大數據革命來臨時,在20世紀10年代初,神經網絡終于有了自己的日子,以深度學習名義復興。深度學習在很大程度上成為當前人工智能投資的中心——無論是在學術界還是在工業界。
人工智能在一些應用中取得了超人的性能,但現實是,我們離真正理解世界的人工智能還很遠。馬庫斯和戴維斯區分了當今以深度學習為基礎的、狹隘脆弱的人工“智能”和人工通用智能,用洞察力解釋了當前方法的缺陷,并提供了一條他們認為能夠通向健壯人工智能的道路。
馬庫斯教授認為,雖然深度學習技術在推進人工智能方面發揮了重要作用,但該領域當前對它的過分強調,很可能會導致其滅亡。馬庫斯列舉了技術和道德方面的問題。
從技術角度來看,深度學習可能擅長模仿人腦的感知任務,例如圖像或語音識別。但這并不能滿足其他任務,例如理解對話或因果關系。為了創建功能更強大、智能程度更高的機器(通常稱人工通用智能),深度學習必須與其他方法結合起來。
馬庫斯和戴維斯向我們展示了在我們到達目的地之前我們首先需要完成的事情,并認為如果我們保持明智,我們就不必擔心機器霸主的未來,人類可以創造出一個我們可以信任的用于家庭、汽車和醫生辦公室里的人工智能。
當人工智能系統無法真正了解其任務或周圍環境時,也可能導致危險的后果。即使在系統環境中進行最小的意外更改,也可能導致其出錯。已經有無數這樣的例子:易于愚弄的詆毀言語檢測器,使歧視永久化的求職系統,以及撞車的自動駕駛汽車有時會殺死駕駛員或行人。
馬庫斯教授和戴維斯教授認為,對通用AI的追求,不僅僅是一個有趣的研究問題,它具有非常現實的意義。在他們的新書《重啟AI》中,馬庫斯和他的同事戴維斯提倡一條新的前進道路。他們認為我們離實現這種通用智能還差得很遠,但他們也相信我們最終可以達到目標。
來源:搜狐
評論