女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Sentient揭示了人工智能神經(jīng)進(jìn)化的突破性研究

mK5P_AItists ? 來源:未知 ? 作者:李倩 ? 2018-03-26 17:06 ? 次閱讀

過去幾年時(shí)間里,我們有一個(gè)完整的團(tuán)隊(duì)致力于人工智能研究和實(shí)驗(yàn)。該團(tuán)隊(duì)專注于開發(fā)新的進(jìn)化計(jì)算方法(EC),包括設(shè)計(jì)人工神經(jīng)網(wǎng)絡(luò)架構(gòu)、構(gòu)建商業(yè)應(yīng)用程序,以及使用由自然進(jìn)化激發(fā)的方法來解決具有挑戰(zhàn)性的計(jì)算問題。這一領(lǐng)域的發(fā)展勢(shì)頭非常強(qiáng)勁。我們相信進(jìn)化計(jì)算很可能是人工智能技術(shù)的下一個(gè)重大課題。

EC與Deep Learning(DL)一樣都是幾十年前引入的,EC也能夠從可用的計(jì)算和大數(shù)據(jù)中得到提升。然而,它解決了一個(gè)截然不同的需求:我們都知道DL側(cè)重于建模我們已知的知識(shí),而EC則專注于創(chuàng)建新的知識(shí)。從這個(gè)意義上講,它是DL的下個(gè)步驟:DL能夠在熟悉的類別中識(shí)別對(duì)象和語音,而EC使我們能夠發(fā)現(xiàn)全新的對(duì)象和行為-最大化特定目標(biāo)的對(duì)象和行為。因此,EC使許多新的應(yīng)用成為可能:為機(jī)器人和虛擬代理設(shè)計(jì)更有效的行為,創(chuàng)造更有效和更廉價(jià)的衛(wèi)生干預(yù)措施,促進(jìn)農(nóng)業(yè)機(jī)械化發(fā)展和生物過程。

前不久,我們發(fā)布了5篇論文來報(bào)告在這一領(lǐng)域上取得了顯著的進(jìn)展,報(bào)告主要集中在三個(gè)方面:(1)DL架構(gòu)在三個(gè)標(biāo)準(zhǔn)機(jī)器學(xué)習(xí)基準(zhǔn)測(cè)試中已達(dá)到了最新技術(shù)水平。(2)開發(fā)技術(shù)用于提高實(shí)際應(yīng)用發(fā)展的性能和可靠性。(3)在非常困難的計(jì)算問題上證明了進(jìn)化問題的解決。

本文將重點(diǎn)介紹里面的第一個(gè)領(lǐng)域,即用EC優(yōu)化DL架構(gòu)。

Sentient揭示了神經(jīng)進(jìn)化的突破性研究

深度學(xué)習(xí)的大部分取決于網(wǎng)絡(luò)的規(guī)模和復(fù)雜性。隨著神經(jīng)進(jìn)化,DL體系結(jié)構(gòu)(即網(wǎng)絡(luò)拓?fù)洹⒛K和超參數(shù))可以在人類能力之外進(jìn)行優(yōu)化。我們將在本文中介紹三個(gè)示例:Omni Draw、Celeb Match和Music Maker(語言建模)。在這三個(gè)例子中,Sentient使用神經(jīng)進(jìn)化成功地超越了最先進(jìn)的DL基準(zhǔn)。

音樂制作(語言建模)

在語言建模領(lǐng)域,系統(tǒng)被訓(xùn)練用來預(yù)測(cè)“語言庫”中的下一個(gè)單詞,例如《華爾街日?qǐng)?bào)》幾年內(nèi)的大量文本集合,在網(wǎng)絡(luò)做出預(yù)測(cè)結(jié)果后,這個(gè)輸入還可以被循環(huán)輸入,從而網(wǎng)絡(luò)可以生成一個(gè)完整的單詞序列。有趣的是,同樣的技術(shù)同樣適用于音樂序列,以下為一個(gè)演示。用戶輸入一些初始音符,然后系統(tǒng)根據(jù)該起始點(diǎn)即興創(chuàng)作一首完整的旋律。通過神經(jīng)元進(jìn)化,Sentient優(yōu)化了門控周期性(長(zhǎng)期短期記憶或LSTM)節(jié)點(diǎn)(即網(wǎng)絡(luò)的“記憶”結(jié)構(gòu))的設(shè)計(jì),使模型在預(yù)測(cè)下一個(gè)音符時(shí)更加準(zhǔn)確。

在語言建模領(lǐng)域(在一個(gè)叫Penn Tree Bank的語言語料庫中預(yù)測(cè)下一個(gè)詞),基準(zhǔn)是由困惑點(diǎn)定義的,用來度量概率模型如何預(yù)測(cè)真實(shí)樣本。當(dāng)然,數(shù)字越低越好,因?yàn)槲覀兿MP驮陬A(yù)測(cè)下一個(gè)單詞時(shí)“困惑”越少越好。在這種情況下,感知器以10.8的困惑點(diǎn)擊敗了標(biāo)準(zhǔn)的LSTM結(jié)構(gòu)。值得注意的是,在過去25年內(nèi),盡管人類設(shè)計(jì)了一些LSTM變體,LSTM的性能仍然沒有得到改善。事實(shí)上,我們的神經(jīng)進(jìn)化實(shí)驗(yàn)表明,LSTM可以通過增加復(fù)雜性,即記憶細(xì)胞和更多的非線性、平行的途徑來顯著改善性能。

為什么這個(gè)突破很重要?語言是人類強(qiáng)大而復(fù)雜的智能構(gòu)造。語言建模,即預(yù)測(cè)文本中的下一個(gè)單詞,是衡量機(jī)器學(xué)習(xí)方法如何學(xué)習(xí)語言結(jié)構(gòu)的基準(zhǔn)。因此,它是構(gòu)建自然語言處理系統(tǒng)的代理,包括語音和語言接口、機(jī)器翻譯,甚至包括DNA序列和心率診斷等醫(yī)學(xué)數(shù)據(jù)。而在語言建模基準(zhǔn)測(cè)試中我們可以做得更好,可以使用相同的技術(shù)建立更好的語言處理系統(tǒng)。

Omni Draw

Omniglot是一種可以識(shí)別50種不同字母字符的手寫字符識(shí)別基準(zhǔn),包括像西里爾語(書面俄語)、日語和希伯來語等真實(shí)語言,以及諸如Tengwar(《指環(huán)王》中的書面語言)等人工語音。

上圖示例展示了多任務(wù)學(xué)習(xí),模型可以同時(shí)學(xué)習(xí)所有語言,并利用不同語言中字符之間的關(guān)系。例如,用戶輸入圖像,系統(tǒng)根據(jù)匹配輸出不同語言的含義,“這將是拉丁語中的X,日語中的Y以及Tengwar中的Z等等”——利用日本、Tengwar和拉丁語之間的關(guān)系找出哪些角色是最好的匹配。這與單一任務(wù)學(xué)習(xí)環(huán)境不同,單一環(huán)境下模型只對(duì)一種語言進(jìn)行訓(xùn)練,并且不能在語言數(shù)據(jù)集上建立相同的連接。

雖然Omniglot是一個(gè)數(shù)據(jù)集的例子,但每個(gè)語言的數(shù)據(jù)相對(duì)較少。例如它可能只有幾個(gè)希臘字母,但很多都是日語。它能夠利用語言之間關(guān)系的知識(shí)來尋找解決方案。為什么這個(gè)很重要?對(duì)于許多實(shí)際應(yīng)用程序來說,標(biāo)記數(shù)據(jù)的獲取是非常昂貴或危險(xiǎn)的(例如醫(yī)療應(yīng)用程序、農(nóng)業(yè)和機(jī)器人救援),因此可以利用與相似或相關(guān)數(shù)據(jù)集的關(guān)系自動(dòng)設(shè)計(jì)模型,在某種程度上可以替代丟失的數(shù)據(jù)集并提高研究能力。這也是神經(jīng)進(jìn)化能力的一個(gè)很好的證明:語言之間可以有很多的聯(lián)系方式,并且進(jìn)化發(fā)現(xiàn)了將他們的學(xué)習(xí)結(jié)合在一起的最佳方式。

Celeb Match

Celeb Match的demo同樣適用于多任務(wù)學(xué)習(xí),但它使用的是大規(guī)模數(shù)據(jù)集。該demo是基于CelebA數(shù)據(jù)集,它由約20萬張名人圖像組成,每張圖片的標(biāo)簽都由40個(gè)二進(jìn)制標(biāo)記屬性,如“男性與女性”、“有無胡子”等等。每個(gè)屬性都會(huì)產(chǎn)生一個(gè)“分類任務(wù)”,它會(huì)引導(dǎo)系統(tǒng)檢測(cè)和識(shí)別每個(gè)屬性。作為趣味附加組件,我們創(chuàng)建了一個(gè)demo來完成這項(xiàng)任務(wù):用戶可以為每個(gè)屬性設(shè)置所需的程度,并且系統(tǒng)會(huì)根據(jù)進(jìn)化的多任務(wù)學(xué)習(xí)網(wǎng)絡(luò)來確定最接近的名人。例如,如果當(dāng)前的圖片為布拉德·皮特的形象,用戶可以增加“灰色頭發(fā)”屬性,已發(fā)現(xiàn)哪個(gè)名人與他相似但是頭發(fā)不同。

在CelebA多任務(wù)人臉分類領(lǐng)域,Sentient使用了演化計(jì)算來優(yōu)化這些檢測(cè)屬性的網(wǎng)絡(luò),成功將總體三個(gè)模型的誤差從8%降到了7.94%。

這一技術(shù)使得人工智能在預(yù)測(cè)人類、地點(diǎn)和物質(zhì)世界各種屬性的能力上提升了一大步。與基于抽象,學(xué)習(xí)功能找到相似性的訓(xùn)練網(wǎng)絡(luò)不同,它使相似的語義和可解釋性也成為可能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48691

    瀏覽量

    246429
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122475

原文標(biāo)題:推薦!神經(jīng)進(jìn)化才是深度學(xué)習(xí)未來的發(fā)展之路!

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能是什么?

    階段、超強(qiáng)人工智能階段。 怎么評(píng)定機(jī)器人處于什么階段呢,一般都以機(jī)器人的“智商度”作為衡量標(biāo)準(zhǔn)。這其實(shí)也和“人工智能”領(lǐng)域本身很好的銜接對(duì)應(yīng)。 回到文章題目本身,什么是人工智能
    發(fā)表于 09-16 15:40

    人工智能技術(shù)—AI

    信息、服務(wù)、情感的交流。小度會(huì)學(xué)習(xí)、有知識(shí)、善交流、能思考、懂情感,是一個(gè)有夢(mèng)想的智能機(jī)器人  今年9月,百度總裁李彥宏在大會(huì)上發(fā)布進(jìn)化版小度機(jī)器人“度秘”,進(jìn)一步布局人工智能產(chǎn)業(yè)。
    發(fā)表于 10-21 12:03

    人工智能的前世今生 引爆人工智能大時(shí)代

    醒來人工智能的時(shí)代就到來了。就像前段時(shí)間引力波被探測(cè)出來,我越來越覺得——Anything is possible。然后我有開始查很多關(guān)于人工智能的資料,想和大家一起來看看人工智能
    發(fā)表于 03-03 11:05

    人工智能事實(shí)上是一種生物進(jìn)化歷程的壓縮

    突破性的發(fā)展,數(shù)學(xué)常被認(rèn)為是多種學(xué)科的基礎(chǔ)科學(xué),數(shù)學(xué)也進(jìn)入語言、思維領(lǐng)域,人工智能學(xué)科也必須借用數(shù)學(xué)工具,數(shù)學(xué)不僅在標(biāo)準(zhǔn)邏輯、模糊數(shù)學(xué)等范圍發(fā)揮作用,數(shù)學(xué)進(jìn)入人工智能學(xué)科,它們將互相促進(jìn)而更快地發(fā)展
    發(fā)表于 03-08 10:56

    百度總裁:百度在人工智能領(lǐng)域已有重大突破

      隨著阿法狗大戰(zhàn)李世石,人工智能引發(fā)越來越多的關(guān)注。百度總裁張亞勤28日表示,百度長(zhǎng)期堅(jiān)持技術(shù)創(chuàng)新,2015年研發(fā)投入超過100億元,目前在人工智能領(lǐng)域已有重大突破。  張亞勤在天津夏季達(dá)沃斯論壇
    發(fā)表于 07-01 15:22

    人工智能發(fā)展的好與壞

    字:未雨綢繆。”未來如果普遍使用人工智能,它們代替人類做一些工作,甚至是人類自身做不到的人工智能卻都能做到,那人們將會(huì)有更多的時(shí)間來做自己喜歡的事,未來的發(fā)展會(huì)更美好更方便。盡管人工智能
    發(fā)表于 06-24 14:47

    2018全球十大突破性技術(shù)發(fā)布

    “全球十大突破性技術(shù)”分別是給所有人的人工智能、對(duì)抗性神經(jīng)網(wǎng)絡(luò)、人造胚胎、基因占卜、傳感城市、巴別魚耳塞、完美的網(wǎng)絡(luò)隱私、材料的量子飛躍、實(shí)用型3D金屬打印機(jī)以及零碳排放天然氣發(fā)電。1. 給所有人的
    發(fā)表于 03-27 16:07

    解讀人工智能的未來

    `已歷經(jīng)60多年的人工智能在物聯(lián)網(wǎng)以及大數(shù)據(jù)的推動(dòng)下,實(shí)現(xiàn)飛躍式的發(fā)展,并且迎來了第三個(gè)黃金周期。必優(yōu)傳感今天和大家解讀一下關(guān)于人工智能的未來。自從有人工智能,引發(fā)了人類的各種“未來
    發(fā)表于 11-14 10:43

    人工智能:超越炒作

    各國(guó)***都希望將自己置于人工智能的最高位置。雖然創(chuàng)造大量的國(guó)家AI計(jì)劃,但預(yù)計(jì)中國(guó)(2030年GDP增??長(zhǎng)26%)和北美(增長(zhǎng)14.5%)的經(jīng)濟(jì)增長(zhǎng)最大,占全球影響力的近70%。根據(jù)最近的研究
    發(fā)表于 05-29 10:46

    新一代人工智能領(lǐng)域十大最具成長(zhǎng)性技術(shù)展望具體有哪些?

    近年來,隨著人工智能的進(jìn)一步發(fā)展創(chuàng)新,新技術(shù)持續(xù)獲得突破性進(jìn)展,呈現(xiàn)出深度學(xué)習(xí)、跨界融合、人機(jī)協(xié)同、群智開放、自主操控等以應(yīng)用為導(dǎo)向的新特征。加強(qiáng)新一代人工智能技術(shù)的前瞻預(yù)判,準(zhǔn)確把握全球
    發(fā)表于 09-11 11:51

    大話人工智能成功進(jìn)入測(cè)試階段

    大話人工智能成功進(jìn)入測(cè)試階段人工智能英文簡(jiǎn)稱為AI,英文全寫Artificial Intelligence,中文直譯就是人工智能人工智能是讓人很感興趣的話題,也是讓人很神往的東西,可
    發(fā)表于 09-15 12:40

    人工智能的應(yīng)用領(lǐng)域有哪些?

    ` 本帖最后由 cdhqyj 于 2020-10-23 11:09 編輯 人工智能的應(yīng)用領(lǐng)域有哪些?人工智能的定義可以分為兩部分,即“人工”和“智能”,應(yīng)用領(lǐng)域非常廣泛。麥肯錫全球
    發(fā)表于 10-23 11:07

    人工智能發(fā)展第一階段

    人工智能發(fā)展第一階段,開發(fā)近紅外光激發(fā)的納米探針,監(jiān)測(cè)大腦深層活動(dòng),理解神經(jīng)系統(tǒng)功能機(jī)制。開發(fā)、設(shè)計(jì)電壓敏感納米探針一直是個(gè)技術(shù)難關(guān)。群體神經(jīng)元活動(dòng)的在體監(jiān)測(cè)是揭示
    發(fā)表于 07-28 07:51

    人工智能對(duì)汽車芯片設(shè)計(jì)的影響是什么

    點(diǎn)擊上方“藍(lán)字”,關(guān)注我們,感謝!人工智能(AI)以及利用神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)是實(shí)現(xiàn)高級(jí)駕駛輔助系統(tǒng)(ADAS)和更高程度車輛自主的強(qiáng)大技術(shù)。隨著人工智能
    發(fā)表于 12-17 08:17

    《移動(dòng)終端人工智能技術(shù)與應(yīng)用開發(fā)》人工智能的發(fā)展與AI技術(shù)的進(jìn)步

    人工智能打發(fā)展是算法優(yōu)先于實(shí)際應(yīng)用。近幾年隨著人工智能的不斷普及,許多深度學(xué)習(xí)算法涌現(xiàn),從最初的卷積神經(jīng)網(wǎng)絡(luò)(CNN)到機(jī)器學(xué)習(xí)算法的時(shí)代。由于應(yīng)用環(huán)境的差別衍生出不同的學(xué)習(xí)算法:線性回歸,分類與回歸樹
    發(fā)表于 02-17 11:00