女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌全神經元的設備端語音識別器再推新品

MqC7_CAAI_1981 ? 來源:YXQ ? 2019-03-28 17:33 ? 次閱讀

在近二十年來,尤其是引入深度學習以后,語音識別取得了一系列重大突破,并一步步走向市場并搭載到消費級產品中。然而在用戶體驗上,「遲鈍」可以算得上這些產品最大的槽點之一,這也意味著語音識別的延遲問題已經成為了該領域研究亟待解決的難點。日前,谷歌推出了基于循環神經網絡變換器(RNN-T)的全神經元設備端語音識別器,能夠很好地解決目前語音識別所存在的延遲難題。谷歌也將這項成果發布在了官方博客上。

2012 年,語音識別研究表明,通過引入深度學習可以顯著提高語音識別準確率,因此谷歌也較早地在語音搜索等產品中采用深度學習技術。而這也標志著語音識別領域革命的開始:每一年,谷歌都開發出了從深度神經網絡(DNN)到循環神經網絡(RNN)、長短期記憶網絡(LSTM)、卷積網絡(CNNs)等一系列新的架構,進一步地提高了語音識別的質量。然而在此期間,延遲問題依舊是該領域需要攻克的主要難點——當語音助手能夠實現快速回答問題時,用戶會感覺它有幫助得多。

日前,谷歌正式宣布推出端到端、全神經元的設備端語音識別器,為 Gboard 中的語音輸入提供支持。在谷歌 AI 最近的一篇論文《移動設備的流媒體端到端語音識別》(Streaming End-to-End Speech Recognition for Mobile Devices,論文閱讀地址:https://arxiv.org/abs/1811.06621)中,其研究團隊提出了一種使用循環神經網絡變換器(RNN-T,https://arxiv.org/pdf/1211.3711.pdf)技術訓練的模型,該技術也足夠精簡可應用到手機端上。這就意味著語音識別不再存在網絡延遲或故障問題——新的識別器即便處于離線狀態也能夠運行。該模型處理的是字符水平的語音識別,因此當人在說話時,它會逐個字符地輸出單詞,這就跟有人在實時鍵入你說的話一樣,同時還能達到你對鍵盤聽寫系統的預期效果。

谷歌全神經元的設備端語音識別器再推新品

該圖對比了識別同一句語音時,服務器端語音識別器(左邊)以及新的設備端語音識別器(右邊)的生成情況。

關于語音識別的一點歷史

傳統而言,語音識別系統由幾個部分組成:一個將語音分割(一般為 10 毫秒的框架)映射到音素的聲學模型;一個將因素合成單詞的發音模型;以及一個表達給定短語可能性的語言模型。在早期的系統中,對這些組成部分的優化都是單獨進行的。

在 2014 年左右,研究人員就開始重點訓練單個神經網絡,來直接將一個輸入語音波形映射到一個輸出句子。研究人員采用這種通過給定一系列語音特征生成一系列單詞或字母的序列到序列(sequence-to-sequence)方法開發出了「attention-based」(https://arxiv.org/pdf/1506.07503.pdf)和「listen-attend-spell」(https://arxiv.org/pdf/1508.01211.pdf)模型。雖然這些模型在準確率上表現很好,但是它們一般通過回顧完整的輸入序列來識別語音,同時當輸入進來的時候也無法讓數據流輸出一項對于實時語音轉錄必不可少的特征。

與此同時,當時的一項叫做CTC(connectionist temporal classification)的技術幫助將生產式識別器的延遲時間減半。事實證明,這項進展對于開發出 CTC 最新版本(改版本可以看成是 CTC 的泛化)中采用的 RNN-T 架構來說,是至關重要的一步。

循環神經網絡變換器(RNN-T)

RNN-T 是不采用注意力機制的序列到序列模型的一種形式。與大多數序列到序列模型需要處理整個輸入序列(本文案例中的語音波形)以生成輸出(句子)不同,RNN-T 能持續地處理輸入的樣本和數據流,并進行符號化的輸出,這種符號化的輸出有助于進行語音聽寫。在谷歌研究人員的實現中,符號化的輸出就是字母表中的字符。當人在說話時,RNN-T 識別器會逐個輸出字符,并進行適當留白。在這一過程中,RNN-T 識別器還會有一條反饋路徑,將模型預測的符號輸回給自己以預測接下來的符號,具體流程如下圖所示:

谷歌全神經元的設備端語音識別器再推新品

RNN-T 的表示:用 x 表示輸入語音樣本;用 y 表示預測的符號。預測的符號(Softmax 層的輸出)y(u-1)通過預測網絡被輸回給模型,確保預測同時考慮到當前的語音樣本以及過去的輸出。預測和解碼網絡都是LSTM RNN,聯合的模型則是前饋網絡(feedforward network ,相關論文查看地址:https://www.isca-speech.org/archive/Interspeech_2017/pdfs/0233.PDF)。預測網絡由 2 個擁有 2048 個單元的層和 1 個有著 640 個維度的投射層組成。解碼網絡則由 8 個這樣的層組成。圖源:Chris Thornton

有效地訓練這樣的模型本來就已經很難了,然而使用谷歌開發的這項能夠進一步將單詞錯誤率減少 5% 的新訓練技術,對計算能力也提出了更高的要求。對此,谷歌開發了一種平行實現的方法,讓 RNN-T 的損失函數能夠大批地在谷歌的高性能云平臺 TPUv2 芯片上高效運行。

離線識別

在傳統的語音識別引擎中,上文中提到的聲學、發音和語言模型被「組合」成一個邊緣用語音單元及其概率標記的大搜索圖(search graph)。在給定輸入信號的情況下,當語音波形抵達識別器時,「解碼器」就會在圖中搜索出概率最大的路徑,并讀出該路徑所采用的單詞序列。一般而言,解碼器假設基礎模型由 FST(Finite State Transducer)表示。然而,盡管現在已經有精密的解碼技術,但是依舊存在搜索圖太大的問題——谷歌的生成式模型的搜索圖大小近 2GB。由于搜索圖無法輕易地在移動電話上托管,因此采用這種方法的模型只有在在線連接的情況中才能正常工作。

為了提高語音識別的有效性,谷歌研究人員還試圖通過直接將在設備上托管新模型來避免通信網絡的延遲及其固有的不可靠性。因此,谷歌提出的這一端到端的方法,不需要在大型解碼器圖上進行搜索。相反,它采取對單個神經網絡進行一系列搜索的方式進行解碼。同時,谷歌研究人員訓練的 RNN-T 實現了基于服務器的傳統模型同樣的準確度,但是該模型大小僅為 450MB,本質上更加密集、更加智能地利用了參數和打包信息。不過,即便對于如今的智能手機來說,450 MB 依舊太大了,這樣的話當它通過如此龐大的網絡進行網絡信號傳輸時,速度就會變得很慢。

對此,谷歌研究人員通過利用其于 2016 年開發的參數量化(parameter quantization )和混合內核(hybrid kernel)技術(https://arxiv.org/abs/1607.04683),來進一步縮小模型的大小,并通過采用 ensorFlow Lite 開發庫中的模型優化工具包來對外開放。與經過訓練的浮點模型相比,模型量化的壓縮高出 4 倍,運行速度也提高了 4 倍,從而讓 RNN-T 比單核上的實時語音運行得更快。經過壓縮后,模型最終縮小至 80MB。

谷歌全新的全神經元設備端 Gboard 語音識別器,剛開始僅能在使用美式英語的 Pixel 手機上使用。考慮到行業趨勢,同時隨著專業化硬件和算法的融合不斷增強,谷歌表示,希望能夠將這一技術應用到更多語言和更廣泛的應用領域中去。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6223

    瀏覽量

    107506
  • 語音識別
    +關注

    關注

    39

    文章

    1773

    瀏覽量

    113894

原文標題:語音識別如何突破延遲瓶頸?谷歌推出了基于 RNN-T 的全神經元設備端語音識別器

文章出處:【微信號:CAAI-1981,微信公眾號:中國人工智能學會】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    神經元芯片的主要特點和優勢

    的生物復雜性存在顯著差異。神經元芯片通過集成多個處理、存儲、通信接口以及輸入輸出(I/O)接口等模塊,形成了一個功能強大的單芯片系統,能夠支持復雜的網絡通信和控制任務。
    的頭像 發表于 07-12 16:42 ?1884次閱讀

    神經元是什么?神經元神經系統中的作用

    神經元,又稱神經細胞,是神經系統的基本結構和功能單位。它們負責接收、整合、傳導和傳遞信息,從而參與和調控神經系統的各種活動。神經元在形態上高
    的頭像 發表于 07-12 11:49 ?3215次閱讀
    <b class='flag-5'>神經元</b>是什么?<b class='flag-5'>神經元</b>在<b class='flag-5'>神經</b>系統中的作用

    人工神經元模型的基本構成要素

    人工神經元模型是人工智能領域中的一個重要概念,它模仿了生物神經元的工作方式,為機器學習和深度學習提供了基礎。本文將介紹人工神經元模型的基本構成要素。 神經元的基本概念
    的頭像 發表于 07-11 11:28 ?1842次閱讀

    人工神經元模型的基本原理是什么

    人工神經元模型是人工智能領域中的一個重要概念,它模仿了生物神經系統中的神經元行為,為機器學習和深度學習提供了基礎。 一、人工神經元模型的歷史 神經
    的頭像 發表于 07-11 11:26 ?1375次閱讀

    人工神經元模型由哪兩部分組成

    人工神經元模型是深度學習、機器學習和人工智能領域的基礎,它模仿了生物神經元的工作原理,為構建復雜的神經網絡提供了基礎。 一、人工神經元模型的起源 生物
    的頭像 發表于 07-11 11:24 ?1592次閱讀

    生物神經元模型包含哪些元素

    進行信息傳遞。神經元的基本結構包括以下幾個部分: 1.1 細胞體(Soma):細胞體是神經元的中心部分,包含細胞核和其他細胞。細胞體的主要功能是合成和儲存蛋白質,為神經元提供能量和物
    的頭像 發表于 07-11 11:21 ?1538次閱讀

    人工智能神經元的基本結構

    人工智能神經元的基本結構是一個復雜而深入的話題,涉及到計算機科學、數學、神經科學等多個領域的知識。 引言 人工智能(Artificial Intelligence,簡稱AI)是計算機科學的一個分支
    的頭像 發表于 07-11 11:19 ?2062次閱讀

    人工神經元由哪些部分組成

    網絡的基礎。這些網絡能夠處理和分析大量數據,從而實現諸如圖像識別語音識別和自然語言處理等功能。 2. 神經元的生物學基礎 在討論人工神經元
    的頭像 發表于 07-11 11:17 ?1126次閱讀

    人工神經元模型的基本原理及應用

    人工神經元模型是人工智能和機器學習領域的一個重要概念,它模仿了生物神經元的工作方式,為計算機提供了處理信息的能力。 一、人工神經元模型的基本原理 生物神經元的結構和功能 生物
    的頭像 發表于 07-11 11:15 ?1808次閱讀

    人工神經元模型的三要素是什么

    人工神經元模型是人工智能和機器學習領域中非常重要的概念之一。它模仿了生物神經元的工作方式,通過數學和算法來實現對數據的處理和學習。 一、人工神經元模型的基本概念 1.1 生物神經元與人
    的頭像 發表于 07-11 11:13 ?1413次閱讀

    神經元的分類包括哪些

    神經元神經系統的基本功能單位,它們通過電信號和化學信號進行信息傳遞和處理。神經元的分類非常復雜,可以根據不同的標準進行分類。 一、神經元的基本概念 1.1
    的頭像 發表于 07-03 11:36 ?2394次閱讀

    神經元的結構及功能是什么

    的細胞,具有獨特的形態結構。神經元的基本結構包括細胞體、樹突和軸突。 (1)細胞體:細胞體是神經元的中心部分,包含細胞核和其他細胞。細胞核負責控制細胞的生長、分裂和基因表達。細胞體的大小和形狀因
    的頭像 發表于 07-03 11:33 ?2438次閱讀

    神經元的基本作用是什么信息

    的作用。 一、神經元的結構 神經元是一種高度分化的細胞,具有獨特的形態和功能。神經元的基本結構包括細胞體、樹突和軸突。 細胞體:細胞體是神經元的中心部分,包含細胞核和其他細胞
    的頭像 發表于 07-03 11:29 ?1592次閱讀

    神經元的信息傳遞方式是什么

    、樹突和軸突三部分組成。 1.1 細胞體 細胞體是神經元的中心部分,包含細胞核和其他細胞。細胞核負責控制細胞的生長和分裂,其他細胞則負責細胞的代謝和能量供應。 1.2 樹突 樹突是神經元
    的頭像 發表于 07-03 11:27 ?2357次閱讀

    神經元神經網絡的區別與聯系

    在人工智能和機器學習的領域中,神經元神經網絡是兩個至關重要的概念。雖然它們都與人腦中的神經系統有著密切的聯系,但在實際應用和理論研究中,它們各自扮演著不同的角色。本文旨在深入探討神經元
    的頭像 發表于 07-01 11:50 ?1753次閱讀