來源:ST社區
語音對于人機交互的重要性毋庸置疑,無論是國內外企業,都在 語音識別 的速度、準確度以及多語種方面持續創新,但是當機器面對那些有 口音 的人來說,似乎就沒有那么靈敏了:不僅注意力會不集中,反應遲鈍,甚至還會成為一個獨立的個體,不予任何回應。如何解決口音識別問題,已成為智能語音下一階段的競爭焦點,但這不僅僅是單純的增加語料庫就能提升的,好在已經有少數公司,開始通過構建新的語音模型,來解決口音問題。
自IBM的Shoebox與Worlds of Wonders的Julie Doll問世以來,語音識別技術已經取得了長足進步。甚至有報道稱,到2018年底,谷歌Google Assistant將支持超過30種語言。除此以外,高通已經開發出了一款能夠識別單詞和短語的語音識別設備,準確率高達95%。而微軟也不甘示弱,其呼叫中心解決方案(智能語音客服)比人工展開的呼叫服務更準確,更高效。
但需要注意的是,盡管在機器學習的加持下,語音識別技術取得了巨大的進步,但現在的語音識別系統還是不完美的。比如,不同地區的口音,讓這項技術擁有了很強的“地域歧視性”。通常情況下,口音對人類來說不是什么大問題,有時還會讓人感覺到一種異國風情的魅力,但是對機器而言,這是一條難以跨越的鴻溝,可能是其發展過程中面臨的最大挑戰。
研究顯示口音是語音識別技術的挑戰之一
此前,華盛頓郵報與Globalme和Pulse Labs兩家語言研究公司合作,對搭載了語音識別技術的智能音箱設備的口音問題進行了研究,研究范圍來自美國近20個城市、超過100名參與者發出的數千條語音命令,結果顯示,這些系統在理解來自不同地區的人的語言時存在顯著差異。
舉個例子,谷歌智能音箱Google Home識別西岸口音的準確率比識別南方口音高3%;而亞馬遜語音助手Alexa識別中西部的口音的準確率要比東岸口音低2%。但面臨最大問題的是持非本土口音的人:在一項研究中,通過對比Alexa識別的內容與測試組的實際話語,結果顯示不準確率可達30%。此外,面對以西班牙語和漢語作為第一語言的人所說的英文,不管是Google Home還是Amazon Echo,其識別率都是最低的,要知道,拉丁裔和華裔是美國的兩大移民族群。
雖然這項研究是非正式的,也存在一定的限制,但其結果還是表明口音仍是語音識別技術面臨的主要挑戰之一。對此,亞馬遜在一份聲明中稱,“隨著越來越多的擁有不同口音的人與Alexa進行交流,Alexa的理解能力也會得到改善。”同時,谷歌也表示,“在擴大數據集的同時,我們也將繼續提高Google Home的語音識別能力。”
事實上,不只是Amazon Echo和Google Home,采用率更低一些的微軟Cortana和蘋果Siri也是如此,它們都需要及時提高自家的語音識別技術,以便讓用戶感到滿意的同時,又能在全球范圍內擴大自己的影響力。
即使增加語料庫,也無法解決口音識別問題
隨著人工智能的發展,語音已經成為了人與計算機交互的核心方式之一,所以即使理解上有極其微小的偏差,也可能意味著一個巨大的障礙。也就是說,這種語言差異可能會給那些現代科技的基礎系統帶來潛在的隱患,畢竟除了廚房和起居室,智能音箱在用戶的工作場所、學校、銀行、醫院以及酒店等地方也承擔著越來越重要的責任,除了控制設備還要傳遞信息,并完成一些預訂和購物工作等。
為了改善語音助手的口音識別情況,亞馬遜與谷歌等正在投入資源,用新的語言和口音訓練測試系統,包括創建游戲以鼓勵大家使用不同地區的 方言 進行交談。而像IBM和微軟這樣的公司,都會通過Switchboard語料庫來降低語音助手的出錯率。但是事實證明,語料庫也無法徹底解決語音助手的口音識別問題。
對此,埃森哲全球責任AI監理Rumman Chowdhury表示,“數據是混亂的,因為數據反映了人性。這就是算法最擅長的:尋找人類的行為模式。”
算法的這一情況被稱為“算法偏差”,用于反應機器學習模型對數據或設計產生的偏見程度。比如,現在有很多報告都顯示了面部識別技術的敏感性——尤其是亞馬遜AWS的圖像識別技術Rekognition——有很大的偏見傾向。此外,算法偏差還會出現在其他方面,像預測被告是否會在未來犯罪以及Google News等應用背后的內容推薦算法。
構建語音識別模型,提升方言識別率
雖然已經有不少巨頭針對算法偏見提出了解決方案,比如微軟、IBM、Facebook、高通和埃森哲等已經開發出了自動化工具,用于檢測AI算法中的偏見,但很少有企業針對語音識別技術面臨的口音問題提出具體的解決方案。對此,Speechmatics和Nuance成為了少數者之一。
Speechmetrics是一家專門從事企業語音識別軟件的劍橋科技公司,12年前就開始展開一項雄心勃勃的計劃,旨在開發比市場上任何產品都更準確,更全面的語言包。據了解,研究之初,該公司的主要工作是統計語言建模和循環神經網絡,并以此開發出了一種可以處理內存輸出序列的機器學習模型。
2014年,Speechmetrics通過一個10億字節的語料庫加速了其統計語言建模的進展,到2017年與卡塔爾計算研究所(QCRI)合作開發阿拉伯語言的文字轉換服務,可以說,這是該公司取得的一個里程碑式的進展。
而到了今年7月,該公司再次有所突破——成功研發了一款語音識別系統Global English,包括了全球40多個國家的數千小時的語音數據和數百億單詞,可支持“所有主要”英語口音的語音文本轉換。另外,這個系統是建立在Speechmatic的Automatic Linguist的基礎上,這是一個AI框架,通過利用已知語言中識別的模式來學習新語言的語言基礎。
而在特定的口音測試中,Global English的表現要優于谷歌的Cloud Speech API以及IBM Cloud中的英語語言包中。Speechmatic聲稱,在高端領域,該系統的準確率比其他產品還要高23%到55%。
但Speechmatics并不是唯一一家想要解決口音識別問題的公司。
總部位于馬薩諸塞州的Nuance表示,該公司正在采用多種方法確保其語音識別模型能夠以同樣的準確率來識別大約80種語言。
舉個例子,在其英語語音識別模型中,該公司收集了20個特定方言區域的語音和文本數據,包括每種方言的特有單詞及其發音。因此,Nuance的語音識別系統可以識別出單詞“Heathrow”的52種不同變體。
最近Nuance的語音識別系統也有了很大的提升。較新版本的Dragon是該公司發布的定制語音到文本軟件套件,所使用的機器學習模型,可根據用戶的口音在幾種不同的方言模型之間自動切換。另外,與沒有自動切換功能的舊版本相比,新版對帶有西班牙口音的英語識別的準確率要高22.5%,對于美國南部的方言來說,準確率要高16.5%,對于東南亞的英語口音的準確率要高17.4%。
事實上,研究人員很早之前就發現了語音識別面臨的口音問題。對此,語言學家和AI工程師紛紛表示,非本地語言通常是很難進行訓練的,因為語言之間的模式要一多種不同的方式進行切換。同時,語境也很重要,即使是細微差別也會改變對話雙方的反應。但可以肯定的是,缺乏多樣性的語音數據最終可能會無意中導致“地域歧視”的發生。也就是說,語料庫中語音樣本的數量和多樣性越高,得到的模型就越準確——至少在理論上是這樣。
當然,這也不僅僅是美國企業需要解決的問題。百度硅谷辦事處的高級研究員Gregory Diamos曾說,該公司面臨著自己的挑戰,即開發一款可以理解許多中國地方方言的人工智能。此外,很多工程師也表示,口音對于致力于開發那種不僅可以回答問題,還能隨意進行自然對話的軟件公司來說,是最嚴峻的挑戰之一。
審核編輯 黃昊宇
-
語音識別
+關注
關注
39文章
1773瀏覽量
113855
發布評論請先 登錄
語音識別技術在通信領域中的應用實例
語音識別與自然語言處理的關系
語音識別技術的應用與發展
ASR與傳統語音識別的區別
ASR語音識別技術應用
物聯網系統智能控制產品的語音識別方案_離線語音識別芯片分析



評論