女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí):四種利用少量標(biāo)注數(shù)據(jù)進(jìn)行命名實體識別的方法

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2021-01-03 09:35 ? 次閱讀

導(dǎo)讀

近年來,深度學(xué)習(xí)方法在特征抽取深度和模型精度上表現(xiàn)優(yōu)異,已經(jīng)超過了傳統(tǒng)方法,但無論是傳統(tǒng)機(jī)器學(xué)習(xí)還是深度學(xué)習(xí)方法都依賴大量標(biāo)注數(shù)據(jù)來訓(xùn)練模型,而現(xiàn)有的研究對少量標(biāo)注數(shù)據(jù)學(xué)習(xí)問題探討較少。本文將整理介紹四種利用少量標(biāo)注數(shù)據(jù)進(jìn)行命名實體識別的方法。

面向少量標(biāo)注數(shù)據(jù)的NER方法分類

基于規(guī)則、統(tǒng)計機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的方法在通用語料上能取得良好的效果,但在特定領(lǐng)域、小語種等缺乏標(biāo)注資源的情況下,NER 任務(wù)往往得不到有效解決。然而遷移學(xué)習(xí)利用領(lǐng)域相似性,在領(lǐng)域之間進(jìn)行數(shù)據(jù)共享和模型共建,為少量標(biāo)注數(shù)據(jù)相關(guān)任務(wù)提供理論基礎(chǔ)。本文從遷移的方法出發(fā),按照知識的表示形式不同,將少量標(biāo)注數(shù)據(jù)NER 方法分為基于數(shù)據(jù)增強、基于模型遷移、基于特征變換、基于知識鏈接的方法。如圖1所示,在這 20 多年間,四種方法的發(fā)文數(shù)量基本呈上升趨勢,整體而言,當(dāng)前的研究以數(shù)據(jù)增強、模型遷移為主,而其他的方法通常配合前兩種方法使用,在研究中也值得關(guān)注。

211ccf60-4691-11eb-8b86-12bb97331649.png

圖1 1995年-2019年四種方法的使用情況

基于數(shù)據(jù)增強的NER方法

數(shù)據(jù)增強的方法即:在少量數(shù)據(jù)集訓(xùn)練模型導(dǎo)致過擬合時,通過樣本選擇、權(quán)重調(diào)整等策略以創(chuàng)建高質(zhì)量樣本集,再返回分類器中迭代學(xué)習(xí),使之能夠較好地完成學(xué)習(xí)任務(wù)的方法。

(1)樣本選擇。在面向少量標(biāo)注數(shù)據(jù)時,最直接的策略是挑選出高質(zhì)量樣本以擴(kuò)大訓(xùn)練數(shù)據(jù)。其中,樣本選擇是數(shù)據(jù)增強式 NER 的核心模塊,它通過一定的度量準(zhǔn)則挑選出置信度高、信息量大的樣本參與訓(xùn)練,一種典型的思路為主動學(xué)習(xí)采樣,例如 Shen 等利用基于“不確定性”標(biāo)準(zhǔn),通過挖掘?qū)嶓w內(nèi)蘊信息來提高數(shù)據(jù)質(zhì)量。在實踐中,對于給定的序列 X=(x1, x2,…xi) 和標(biāo)記序列Y=(y1, y2,…yi),x 被預(yù)測為 Y 的不確定性可以用公式(1)來度量,其中 P(y) 為預(yù)測標(biāo)簽的條件分布概率,M 為標(biāo)簽的個數(shù),n 為序列的長度:

21598ebe-4691-11eb-8b86-12bb97331649.png

為了驗證主動學(xué)習(xí)采樣的性能,在人民日報(1998 年)語料中進(jìn)行實驗,共迭代十次,其中 Random 為迭代中隨機(jī)采樣,ALL 為一次訓(xùn)練完所有數(shù)據(jù)的結(jié)果,Active-U 為利用數(shù)據(jù)增強的結(jié)果。實驗結(jié)果(如圖 2)表明,利用數(shù)據(jù)增強方法在第 7 次迭代中就能達(dá)到擬合,節(jié)省了 30% 的標(biāo)注成本。

218b1f1a-4691-11eb-8b86-12bb97331649.png

圖2基于數(shù)據(jù)增強方法的實例

也有不同學(xué)者利用其他的度量準(zhǔn)則,例如高冰濤等人通過評估源域樣本在目標(biāo)領(lǐng)域中的貢獻(xiàn)度,并使用單詞相似性和編輯距離,在源域樣本集和目標(biāo)樣本集上計算權(quán)值來實現(xiàn)迭代學(xué)習(xí)。Zhang 等人充分考慮領(lǐng)域相似性,分別進(jìn)行域區(qū)分、域依賴和域相關(guān)性計算來度量。這些方法利用無監(jiān)督模式通過降低統(tǒng)計學(xué)習(xí)的期望誤差來對未標(biāo)記樣本進(jìn)行優(yōu)化選擇,能夠有效減少標(biāo)注數(shù)據(jù)的工作量。此外,半監(jiān)督采樣也是一種新的思路。例如在主動學(xué)習(xí)的基礎(chǔ)上加入自學(xué)習(xí)(Self-Training)、自步學(xué)習(xí)(Self-Paced Learning,SPL)過程,這些方式通過對噪聲樣本增大學(xué)習(xí)難度,由易到難地控制選擇過程,讓樣本選擇更為精準(zhǔn)。

(2)分類器集成。在數(shù)據(jù)增強中,訓(xùn)練多個弱分類器來獲得一個強分類器的學(xué)習(xí)方式也是一種可行的思路。其中典型的為 Dai 等人提出集成式 TrAdaBoost 方法,它擴(kuò)展了 AdaBoost 方法,在每次迭代的過程中,通過提高目標(biāo)分類樣本的采樣權(quán)重、降低誤分類實例樣本的權(quán)重來提高弱分類器的學(xué)習(xí)能力。TrAdaBoost 利用少量的標(biāo)簽數(shù)據(jù)來構(gòu)建對源域標(biāo)簽數(shù)據(jù)的樣本增強,最后通過整合基準(zhǔn)弱分類器為一個強分類器來進(jìn)行訓(xùn)練,實現(xiàn)了少樣本數(shù)據(jù)的學(xué)習(xí)。之后的研究針對 TrAdaBoost 進(jìn)行了相應(yīng)的改進(jìn)也取得了不錯的效果。例如,王紅斌等人在分類器集成中增加遷移能力參數(shù),讓模型充分表征語義信息,在 NER 中提高精度也能顯著減少標(biāo)注成本。

基于模型遷移的NER方法

基于模型遷移的基本框架如圖 3 所示,其核心思想是利用分布式詞表示構(gòu)建詞共享語義空間,然后再遷移神經(jīng)網(wǎng)絡(luò)的參數(shù)至目標(biāo)領(lǐng)域,這是一種固定現(xiàn)有模型特征再進(jìn)行微調(diào)(Fine-Tuning) 的方法,在研究中共享詞嵌入和模型參數(shù)的遷移對 NER 性能產(chǎn)生較大影響。

21ac572a-4691-11eb-8b86-12bb97331649.png

圖3模型遷移基本結(jié)構(gòu)

(1)共享詞嵌入。在 NLP 中,前期工作通常會借助語言預(yù)訓(xùn)練模型學(xué)習(xí)文本的詞義信息,這種方式構(gòu)建了公共的詞嵌入表示空間,詞嵌入在 NER 中通常作為輸入。詞向量是共享詞嵌入的初步形式,此后,ELMo模型利用上下文信息的方式能解決傳統(tǒng)詞向量不擅長的一詞多義問題,還能在一定程度上對詞義進(jìn)行預(yù)測逐漸受到人們關(guān)注。而 2018 年谷歌提出的 BERT預(yù)訓(xùn)練模型更是充分利用了詞義和語義特性,BERT 是以雙向 Transformer為編碼器棧的語言模型,它能強有力地捕捉潛在語義和句子關(guān)系,基于 BERT 的 NER 在多個任務(wù)上也取得 state-of-the-art,其基本網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

21f45c82-4691-11eb-8b86-12bb97331649.png

圖4模型遷移的基礎(chǔ)方法-BERT-BiLSTM-CRF

其中 BERT 作為語義表示輸入,BiLSTM抽取特征,CRF 獲取概率最大標(biāo)簽。與傳統(tǒng)的NER 模型相比,該模型最關(guān)鍵的是 BERT 語言模型的引入,BERT 通過無監(jiān)督建模的方式學(xué)習(xí)海量互聯(lián)網(wǎng)語義信息,能充分表征實體的語義信息。在人民日報(1998年)語料中進(jìn)行實驗,實驗結(jié)果(如表 1)表明,基于 BERT 的預(yù)訓(xùn)練遷移學(xué)習(xí)模型能有效提高分類的準(zhǔn)確率。

表1BERT-BiLSTM-CRF與其他方法的比較

22439b6c-4691-11eb-8b86-12bb97331649.png

(2)共享參數(shù)。共享詞嵌入側(cè)重于詞義的表示,而共享參數(shù)則側(cè)重于模型參數(shù)的遷移。例如,Jason 等人從神經(jīng)網(wǎng)絡(luò)遷移機(jī)制以及遷移哪些層進(jìn)行大量實驗,實驗結(jié)論顯示淺層網(wǎng)絡(luò)學(xué)習(xí)知識的通用特征,具有很好的泛化能力,當(dāng)遷移到第 3 層時性能達(dá)到飽和,繼續(xù)遷移會導(dǎo)致“負(fù)遷移”的產(chǎn)生。Giorgi 等人基 于 LSTM 進(jìn)行網(wǎng)絡(luò)權(quán)重的遷移,首先將源領(lǐng)域模型參數(shù)遷移至目標(biāo)領(lǐng)域初始化,之后進(jìn)行微調(diào)使適應(yīng)任務(wù)需要。而 Yang 等人從跨領(lǐng)域、跨應(yīng)用、跨語言遷移出發(fā)測試模型遷移的可行性, 在 一 些 benchmarks 上實現(xiàn)了 state-of-the-art。整體而言,在處理 NER 任務(wù)時良好的語義空間結(jié)合深度模型將起到不錯的效果,在遷移過程中模型層次的選擇和適應(yīng)是難點。

基于特征變換的NER方法

在面向少量標(biāo)注數(shù)據(jù) NER 任務(wù)時,我們希望遷移領(lǐng)域知識以實現(xiàn)數(shù)據(jù)的共享和模型的共建,在上文中我們從模型遷移的角度出發(fā),它們在解決領(lǐng)域相近的任務(wù)時表現(xiàn)良好,但當(dāng)領(lǐng)域之間存在較大差異時,模型無法捕獲豐富、復(fù)雜的跨域信息。因此,在跨領(lǐng)域任務(wù)中,一種新的思路是在特征變換上改進(jìn),從而解決領(lǐng)域數(shù)據(jù)適配性差的問題。基于特征變換的方法是通過特征互相轉(zhuǎn)移或者將源域和目標(biāo)域的數(shù)據(jù)特征映射到統(tǒng)一特征空間,來減少領(lǐng)域之間差異的學(xué)習(xí)過程,下面主要從特征選擇和特征映射的角度進(jìn)行探討。

(1)特征選擇。即通過一定的度量方法選取相似特征并轉(zhuǎn)換,在源域和目標(biāo)域之間構(gòu)建有效的橋梁的策略。例如 Daume 等人通過特征空間預(yù)處理實現(xiàn)目標(biāo)域和源域特征組合,在只有兩個域的任務(wù)中,擴(kuò)展特征空間 R^F 至 R^3F,對應(yīng)于域問題,擴(kuò)展特征空間至 R^(K+1)F。然而當(dāng) Yi 與 YJ 標(biāo)簽空間差異較大時,這種線性組合效果可能不理想,Kim 等人從不同的角度出發(fā),進(jìn)行標(biāo)簽特征的變換,第一種是將細(xì)粒度標(biāo)簽泛化為粗粒度標(biāo)簽。例如源域標(biāo)簽中 泛化為

(2)特征映射。即為了減少跨領(lǐng)域數(shù)據(jù)的偏置,在不同領(lǐng)域之間構(gòu)建資源共享的特征空間,并將各領(lǐng)域的初始特征映射到該共享空間上。利用預(yù)測的源標(biāo)簽嵌入至目標(biāo)領(lǐng)域是一種常見策略。例如,Qu 等人從領(lǐng)域和標(biāo)簽差異出發(fā),首先訓(xùn)練大規(guī)模源域數(shù)據(jù),再度量源域和目標(biāo)域?qū)嶓w類型相關(guān)性,最后通過模型遷移的方式微調(diào)。其基本步驟為:

1、通過 CRF學(xué)習(xí)大規(guī)模數(shù)據(jù)的知識;

2、使用雙層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)源域與目標(biāo)域的命名實體的相關(guān)性;

3、利用 CRF 訓(xùn)練目標(biāo)域的命名實體。

實驗結(jié)果顯示相較于 Baseline 方法 Deep-CRF,TransInit 方法能提高 160% 的性能。

標(biāo)簽嵌入的方式在領(lǐng)域之間有較多共享標(biāo)簽特征時遷移效果不錯,但是這種假設(shè)在現(xiàn)實世界中并不普遍。一種新的思路是在編解碼中進(jìn)行嵌入適配(如圖 5),這種方式利用來自預(yù)訓(xùn)練源模型的參數(shù)初始化 Bi-LSTM-CRF 基礎(chǔ)模型,并嵌入詞語、句子和輸入級適配。具體而言,在詞級適配中,嵌入核心領(lǐng)域詞組以解決輸入特征空間的領(lǐng)域漂移現(xiàn)象。在句子級適配中,根據(jù)來自目標(biāo)域的標(biāo)記數(shù)據(jù),映射學(xué)習(xí)過程中捕獲的上下文信息。在輸出級適配中將來自 LSTM 層輸出的隱藏狀態(tài)作為其輸入,為重構(gòu)的 CRF 層生成一系列新的隱藏狀態(tài),進(jìn)而減少了知識遷移中的損失。

2288b800-4691-11eb-8b86-12bb97331649.png

圖5特征變換方法TransInit實驗結(jié)果

基于知識鏈接的NER方法

基于知識鏈接的 NER,即使用本體、知識庫等結(jié)構(gòu)化資源來啟發(fā)式地標(biāo)記數(shù)據(jù),將數(shù)據(jù)的結(jié)構(gòu)關(guān)系作為共享對象,從而幫助解決目標(biāo) NER 任務(wù),其本質(zhì)上是一種基于遠(yuǎn)程監(jiān)督的學(xué)習(xí)方式,利用外部知識庫和本體庫來補充標(biāo)注實體。例如 Lee 等人的框架(如圖 6),在 Distant supervision 模塊,將文本序列與 NE詞典中的條目進(jìn)行匹配,自動為帶有 NE 類別的大量原始語料添加標(biāo)簽,然后利用 bagging和主動學(xué)習(xí)完善弱標(biāo)簽語料,從而實現(xiàn)語料的精煉。一般而言,利用知識庫和本體庫中的鏈接信息和詞典能實現(xiàn)較大規(guī)模的信息抽取任務(wù),這種方法有利于快速實現(xiàn)任務(wù)需求。

22c42214-4691-11eb-8b86-12bb97331649.png

圖6知識鏈接與數(shù)據(jù)增強結(jié)合模型

(1)基于知識庫。這種方式通常借用外部的知識庫來處理 NER、關(guān)系抽取、屬性抽取等任務(wù),在現(xiàn)實世界中如 Dbpedia、YAGO、百度百科等知識庫存在海量結(jié)構(gòu)化信息,利用這些知識庫的結(jié)構(gòu)化信息框、日志信息可以抽取出海量知識。例如,Richman 等人利用維基百科知識設(shè)計了一種 NER 的系統(tǒng),這種方法利用維基百科類別鏈接將短語與類別集相關(guān)聯(lián),然后確定短語的類型。類似地,Pan 等人利用一系列知識庫挖掘方法為 200 多種語言開發(fā)了一種跨語言的名稱標(biāo)簽和鏈接結(jié)構(gòu)。在實踐中,較為普遍的是聯(lián)合抽取實體和實體關(guān)系。例如Ren 等的做法,該方法重點解決領(lǐng)域上下文

無關(guān)和遠(yuǎn)程監(jiān)督中的噪聲問題,其基本步驟為:

1、利用 POS 對文本語料進(jìn)行切割以獲得提及的實體;

2、生成實體關(guān)系對;

3、捕獲實體與實體關(guān)系的淺層語法及語義特征;

4、訓(xùn)練模型并抽取正確的實體及關(guān)系。

在 NYT 等語料上進(jìn)行實驗(如表 2),基于知識庫的方法相較于基線方法有顯著提高。

表2不同語料下實體的F1值

22ff9e3e-4691-11eb-8b86-12bb97331649.png

(2)基于本體系統(tǒng)。該方式通過一定的規(guī)則,將本體庫中的概念映射為實體。例如史樹敏等人通過構(gòu)建的 MPO 本體,首先利用CRF 獲得高召回率的實體,再融合規(guī)則過濾噪聲,最終獲得較為精確的匹配模式。相似地,Lima 等人通過開發(fā)出 OntoLPER 本體系統(tǒng),并利用較高的表達(dá)關(guān)系假設(shè)空間來表示與實體—實體關(guān)系結(jié)構(gòu),在這個過程中利用歸納式邏輯編程產(chǎn)生抽取規(guī)則,這些抽取規(guī)則從基

于圖表示的句子模型中抽取特定的實體和實體關(guān)系實例。同樣地,李貫峰等人首先從 Web網(wǎng)頁提取知識構(gòu)建農(nóng)業(yè)領(lǐng)域本體,之后將本體解析的結(jié)果應(yīng)用在 NER 任務(wù)中,使得 NER 的結(jié)果更為準(zhǔn)確。這些方法利用本體中的語義結(jié)構(gòu)和解析器完成實體的標(biāo)準(zhǔn)化,在面向少量標(biāo)注的 NER 中也能發(fā)揮出重要作用。

四種方法比較

上述所介紹的 4 種面向少量標(biāo)注的 NER 方法各有特點,本文從領(lǐng)域泛化能力、模型訓(xùn)練速度、對標(biāo)注數(shù)據(jù)的需求和各方法的優(yōu)缺點進(jìn)行了細(xì)致地比較,整理分析的內(nèi)容如表 3 所示。

2423db72-4691-11eb-8b86-12bb97331649.png

面向少量標(biāo)注數(shù)據(jù) NER,最直接的方法是數(shù)據(jù)增強,通過優(yōu)先挑選高質(zhì)量樣本參與訓(xùn)練,這種方法在窄域中能實現(xiàn)較高的準(zhǔn)確率。但是針對不同領(lǐng)域所需的策略也不同,領(lǐng)域的泛化能力一般。模型遷移從海量無結(jié)構(gòu)化文本中獲取知識,這種方式對目標(biāo)領(lǐng)域的數(shù)據(jù)需求較少,只需“微調(diào)”模型避免了重新訓(xùn)練的巨大開銷,但是它依賴領(lǐng)域的強相關(guān)性,當(dāng)領(lǐng)域差異性太大時,容易產(chǎn)生域適應(yīng)問題。

相較于模型遷移,特征變換更加注重細(xì)粒度知識表示,這種方法利用特征重組和映射,豐富特征表示,減少知識遷移中的損失,在一定程度上能實現(xiàn)“零樣本”學(xué)習(xí),但是這種方法往往難以求出優(yōu)化解,過適配現(xiàn)象也會造成消極影響。知識鏈接能利用任何結(jié)構(gòu)化信息,通過知識庫、本體庫中的語義關(guān)系來輔助抽取目標(biāo)實體,但是這種方法易產(chǎn)生噪聲,實體的映射匹配依賴強假設(shè)條件,所需的知識庫通常難以滿足領(lǐng)域?qū)嶓w的抽取。

方法評測比較

如表4所示四類面向少量標(biāo)注數(shù)據(jù)的典型方法與評測信息如下:

24b6c9f0-4691-11eb-8b86-12bb97331649.png

結(jié)語

當(dāng)有大量標(biāo)注數(shù)據(jù)可供模型訓(xùn)練時,NER任務(wù)往往能夠得到很好的結(jié)果。但是在一些專業(yè)領(lǐng)域比如生物醫(yī)藥領(lǐng)域,標(biāo)注數(shù)據(jù)往往非常稀缺,又由于其領(lǐng)域的專業(yè)性,需要依賴領(lǐng)域?qū)<疫M(jìn)行數(shù)據(jù)標(biāo)注,這將大大增加數(shù)據(jù)的標(biāo)注成本。而如果只用少量的標(biāo)注數(shù)據(jù)就能得到同等效果甚至更好的效果,這將有利于降低數(shù)據(jù)標(biāo)注成本。

參考資料:

[1]石教祥,朱禮軍,望俊成,王政,魏超.面向少量標(biāo)注數(shù)據(jù)的命名實體識別研究[J].情報工程,2020,6(04):37-50.

責(zé)任編輯:xj

原文標(biāo)題:綜述 | 少量標(biāo)注數(shù)據(jù)下的命名實體識別研究

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7241

    瀏覽量

    91016
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122484
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22484

原文標(biāo)題:綜述 | 少量標(biāo)注數(shù)據(jù)下的命名實體識別研究

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督
    的頭像 發(fā)表于 05-16 14:48 ?567次閱讀
    使用MATLAB<b class='flag-5'>進(jìn)行</b>無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    風(fēng)華電容命名方法深度解析

    在電子元器件領(lǐng)域,風(fēng)華電容憑借其清晰的命名體系、全面的技術(shù)參數(shù)和廣泛的應(yīng)用場景,成為國內(nèi)外市場的標(biāo)志性品牌。本文將從命名規(guī)則、技術(shù)參數(shù)、行業(yè)應(yīng)用及市場優(yōu)勢個維度,深度解析風(fēng)華電容的技
    的頭像 發(fā)表于 04-11 11:58 ?264次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注案例分享:車載語音系統(tǒng)數(shù)據(jù)標(biāo)注

    車載語音識別系統(tǒng)是指利用機(jī)器學(xué)習(xí)算法實現(xiàn)的一自然語言處理技術(shù),載語音識別系統(tǒng)通過辨別聲音的語調(diào)、語速和音量,將所聽到的語音轉(zhuǎn)化成可讀取的語
    的頭像 發(fā)表于 12-24 14:24 ?505次閱讀
    標(biāo)貝<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>標(biāo)注</b>案例分享:車載語音系統(tǒng)<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>標(biāo)注</b>

    ASR與傳統(tǒng)語音識別的區(qū)別

    識別技術(shù)。 構(gòu)建更深更復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,利用大量數(shù)據(jù)進(jìn)行訓(xùn)練。 提高了語音識別的準(zhǔn)確率和穩(wěn)定性。 傳統(tǒng)語音
    的頭像 發(fā)表于 11-18 15:22 ?1197次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實現(xiàn)對復(fù)雜數(shù)據(jù)學(xué)習(xí)識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進(jìn)行訓(xùn)練和推理。
    的頭像 發(fā)表于 10-23 15:25 ?2691次閱讀

    深度識別算法包括哪些內(nèi)容

    深度識別算法是深度學(xué)習(xí)領(lǐng)域的一個重要組成部分,它利用深度神經(jīng)網(wǎng)絡(luò)模型對輸入
    的頭像 發(fā)表于 09-10 15:28 ?745次閱讀

    pwm脈寬調(diào)制的四種方法有哪些

    于電機(jī)控制、LED調(diào)光、音頻處理等領(lǐng)域。以下是四種常見的PWM脈寬調(diào)制方法: 固定頻率PWM(Fixed-Frequency PWM) 固定頻率PWM是一最基本的PWM調(diào)制方法。在這
    的頭像 發(fā)表于 08-08 15:10 ?2686次閱讀

    負(fù)反饋的四種類型及判斷方法

    類型及其判斷方法。 一、負(fù)反饋的四種類型 比例負(fù)反饋 比例負(fù)反饋是指系統(tǒng)輸出與輸入之間的反饋關(guān)系是線性的,即輸出的變化與輸入的變化成正比。在比例負(fù)反饋中,當(dāng)系統(tǒng)輸出增加時,輸入會相應(yīng)減少,反之亦然。這種反饋機(jī)制有
    的頭像 發(fā)表于 08-02 11:01 ?4462次閱讀

    圖像識別算法都有哪些方法

    圖像識別算法是計算機(jī)視覺領(lǐng)域的核心任務(wù)之一,它涉及到從圖像中提取特征并進(jìn)行分類、識別和分析的過程。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,圖像
    的頭像 發(fā)表于 07-16 11:14 ?7172次閱讀

    基于Python的深度學(xué)習(xí)人臉識別方法

    基于Python的深度學(xué)習(xí)人臉識別方法是一個涉及多個技術(shù)領(lǐng)域的復(fù)雜話題,包括計算機(jī)視覺、深度學(xué)習(xí)、以及圖像處理等。在這里,我將概述一個基本的
    的頭像 發(fā)表于 07-14 11:52 ?1581次閱讀

    深度學(xué)習(xí)中的時間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強大的自動特征提取和分類能力。本文將從多個角度對深度學(xué)習(xí)在時間序列分類中的應(yīng)用
    的頭像 發(fā)表于 07-09 15:54 ?1938次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的一個重要分支,近年來在多個領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領(lǐng)域。然而,
    的頭像 發(fā)表于 07-09 10:50 ?1554次閱讀

    人臉檢測與識別的方法有哪些

    人臉檢測與識別是計算機(jī)視覺領(lǐng)域中的一個重要研究方向,具有廣泛的應(yīng)用前景,如安全監(jiān)控、身份認(rèn)證、智能視頻分析等。本文將詳細(xì)介紹人臉檢測與識別的方法。 引言 人臉檢測與識別技術(shù)在現(xiàn)代社會中
    的頭像 發(fā)表于 07-03 14:45 ?1192次閱讀

    車載語音識別系統(tǒng)語音數(shù)據(jù)采集標(biāo)注案例

    車載語音識別系統(tǒng)是指利用機(jī)器學(xué)習(xí)算法實現(xiàn)的一自然語言處理技術(shù),載語音識別系統(tǒng)通過辨別聲音的語調(diào)、語速和音量,將所聽到的語音轉(zhuǎn)化成可讀取的語
    的頭像 發(fā)表于 06-19 15:52 ?590次閱讀
    車載語音<b class='flag-5'>識別</b>系統(tǒng)語音<b class='flag-5'>數(shù)據(jù)</b>采集<b class='flag-5'>標(biāo)注</b>案例

    車載語音識別系統(tǒng)語音數(shù)據(jù)采集標(biāo)注案例

    車載語音識別系統(tǒng)是指利用機(jī)器學(xué)習(xí)算法實現(xiàn)的一自然語言處理技術(shù),載語音識別系統(tǒng)通過辨別聲音的語調(diào)、語速和音量,將所聽到的語音轉(zhuǎn)化成可讀取的語
    的頭像 發(fā)表于 06-19 15:49 ?802次閱讀