女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過利用機器學(xué)習(xí)模型破譯古籍

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Michelle Horton ? 2022-04-08 09:47 ? 次閱讀

為了揭示過去的秘密,世界各地的歷史學(xué)者花費畢生精力翻譯古代手稿。圣母大學(xué)的一個研究小組希望幫助這項任務(wù),用一種新開發(fā)的機器學(xué)習(xí)模型來翻譯和記錄幾百年前的手寫文檔。

利用圣加爾修道院圖書館的數(shù)字化手稿和一個考慮到人類感知的機器學(xué)習(xí)模型 study 在深度學(xué)習(xí)轉(zhuǎn)錄能力方面有顯著提高。

“我們正在處理歷史文件,這些文件的書寫風(fēng)格早已過時,可以追溯到幾個世紀以前,并且使用拉丁語等語言,而拉丁語已經(jīng)很少使用了。你可以得到這些材料的美麗照片,但我們已經(jīng)著手做的是以一種模仿專家讀者眼睛對頁面感知的方式自動轉(zhuǎn)錄,并提供快速、可搜索的文本閱讀,”圣母大學(xué)副教授、資深作者沃爾特·舍勒在新聞稿中說。

圣加爾修道院圖書館建于 719 年,是世界上最古老、最豐富的圖書館藏品之一。該圖書館藏有大約 160000 卷書和 2000 份手稿,可追溯到八世紀。在羊皮紙上用現(xiàn)在很少使用的語言手工書寫,這些材料中的許多尚未被閱讀——這是一筆潛在的歷史檔案財富,等待發(fā)掘。

機器學(xué)習(xí)方法能夠自動轉(zhuǎn)錄這些類型的歷史文件已經(jīng)在工作中,但挑戰(zhàn)仍然存在。

到目前為止,大型數(shù)據(jù)集對于提高這些語言模型的性能是必不可少的。由于可供查閱的書籍?dāng)?shù)量巨大,這項工作需要時間,并且需要相對較少的專家學(xué)者進行注釋。缺少知識,如從未編纂過的中世紀拉丁語詞典,構(gòu)成了更大的障礙。

該團隊將傳統(tǒng)的機器學(xué)習(xí)方法與研究物理世界和人類行為之間關(guān)系的視覺心理物理學(xué)相結(jié)合,以創(chuàng)建更多信息豐富的注釋。在這種情況下,他們在處理古代文本時將人類視覺測量納入神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程。

“這是機器學(xué)習(xí)中通常不使用的策略。我們通過這些心理物理測量來標記數(shù)據(jù),這些測量直接來自于通過行為測量對感知進行的心理學(xué)研究。然后,我們通知網(wǎng)絡(luò)在感知這些角色方面的常見困難,并可以根據(jù)這些測量結(jié)果進行糾正,” Scheirer 說。

為了訓(xùn)練、驗證和測試這些模型,研究人員使用了一套來自圣加爾的可追溯到九世紀的數(shù)字化手寫拉丁手稿。他們要求專家閱讀并將文本行中的手動抄本輸入定制的軟件中。測量每次抄寫的時間,可以洞察單詞、字符或段落的難度。根據(jù)作者的說法,這些數(shù)據(jù)有助于減少算法中的錯誤,并提供更真實的讀數(shù)。

所有的實驗都是使用 cuDNN-accelerated PyTorch 深度學(xué)習(xí)框架和 GPU 。“如果沒有 NVIDIA 硬件和軟件,我們肯定不可能完成我們所做的事情。

pYYBAGJPlEWAa7tcAAGssGNMcGs826.png

該研究引入了一種新的深度學(xué)習(xí)損失公式,該公式結(jié)合了人類視覺測量,可應(yīng)用于手寫文檔轉(zhuǎn)錄的不同處理管道。信貸: Scheirer 等人/ IEEE

團隊仍在努力改進某些方面。損壞和不完整的文檔以及插圖和縮寫對模型提出了特殊的挑戰(zhàn)。

“由于互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)和 GPU 硬件,人工智能達到了拐點,這將使文化遺產(chǎn)和人文學(xué)科與其他領(lǐng)域一樣受益。我們只是初步了解我們可以對這個項目做些什么。

關(guān)于作者

Michelle Horton 是 NVIDIA 的高級開發(fā)人員通信經(jīng)理,擁有通信經(jīng)理和科學(xué)作家的背景。她在 NVIDIA 為開發(fā)者博客撰文,重點介紹了開發(fā)者使用 NVIDIA 技術(shù)的多種方式。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4912

    瀏覽量

    130673
  • 互聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    54

    文章

    11233

    瀏覽量

    105630
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8492

    瀏覽量

    134117
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    機器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學(xué)習(xí)
    的頭像 發(fā)表于 02-13 09:39 ?294次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    集對模型進行進一步訓(xùn)練的過程。 大模型微調(diào)是利用預(yù)訓(xùn)練模型的權(quán)重和特征,通過在新任務(wù)數(shù)據(jù)集上的訓(xùn)練,對
    發(fā)表于 01-14 16:51

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    。 多模態(tài)融合的創(chuàng)新與突破 機器人控制技術(shù)的另一個重要突破在于多模態(tài)大模型的應(yīng)用。相比于僅通過文字進行人機交互的傳統(tǒng)方法,現(xiàn)代機器人能夠融合視覺、聲音、定位等多模態(tài)輸入信息,為任務(wù)執(zhí)行
    發(fā)表于 12-29 23:04

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機器人需要毫米級的精確控制,書中有介紹基于視覺伺服的實時控制算法,以及如何利用模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場景中,協(xié)作機器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智
    發(fā)表于 12-24 15:03

    cmp在機器學(xué)習(xí)中的作用 如何使用cmp進行數(shù)據(jù)對比

    機器學(xué)習(xí)領(lǐng)域,"cmp"這個術(shù)語可能并不是一個常見的術(shù)語,它可能是指"比較"(comparison)的縮寫。 比較在機器學(xué)習(xí)中的作用 模型
    的頭像 發(fā)表于 12-17 09:35 ?771次閱讀

    什么是機器學(xué)習(xí)通過機器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機器學(xué)習(xí)”最初的研究動機是讓計算機系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?856次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>?<b class='flag-5'>通過</b><b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?2694次閱讀

    AI大模型與傳統(tǒng)機器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機器學(xué)習(xí)在多個方面存在顯著的區(qū)別。以下是對這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬億的參
    的頭像 發(fā)表于 10-23 15:01 ?2386次閱讀

    構(gòu)建語音控制機器人 - 線性模型機器學(xué)習(xí)

    輪子并識別音頻信號,但它仍然無法通過語音命令控制或按預(yù)定義路徑行駛。 線性控制模型 首先要解決的問題是實現(xiàn)直線驅(qū)動。為此,我們使用線性模型來控制提供給車輪的電壓。使用線性模型適合對汽車
    的頭像 發(fā)表于 10-02 16:31 ?482次閱讀
    構(gòu)建語音控制<b class='flag-5'>機器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>

    【《時間序列與機器學(xué)習(xí)》閱讀體驗】+ 時間序列的信息提取

    本人有些機器學(xué)習(xí)的基礎(chǔ),理解起來一點也不輕松,加油。 作者首先說明了時間序列的信息提取是時間序列分析的一個重要環(huán)節(jié),目標是從給定的時間序列數(shù)據(jù)中提取出有用的信息和特征,以支持后續(xù)的分析和預(yù)測任務(wù),可以利用
    發(fā)表于 08-14 18:00

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個過程: 數(shù)據(jù)收集:大語言
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    這個程序不需要程序員編寫,而是由計算機自動生成。因此,人工編程方法依賴程序員思考的規(guī)則,而自動編程是計算機算法通過分析數(shù)據(jù)自行創(chuàng)建規(guī)則。 作者通過類比學(xué)生準備高考的過程來說明機器學(xué)習(xí)
    發(fā)表于 07-25 14:33

    Al大模型機器

    豐富的知識儲備。它們可以涵蓋各種領(lǐng)域的知識,并能夠回答相關(guān)問題。靈活性與通用性: AI大模型機器人具有很強的靈活性和通用性,能夠處理各種類型的任務(wù)和問題。持續(xù)學(xué)習(xí)和改進: 這些模型可以
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場景及未來發(fā)展趨勢等方面,以期為讀者提供一個全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?2508次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化算法調(diào)整
    的頭像 發(fā)表于 07-01 16:13 ?2438次閱讀