女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

不寫代碼也能玩轉(zhuǎn)人工智能 Uber宣布開源Ludwig

電子工程師 ? 來源:cc ? 2019-02-26 08:47 ? 次閱讀

Uber 宣布開源 Ludwig,一個(gè)基于 TensorFlow 的工具箱,該工具箱特點(diǎn)是不用寫代碼就能夠訓(xùn)練和測試深度學(xué)習(xí)模型。

Uber 官方表示,對于AI開發(fā)者來說,Ludwig 可以幫助他們更好地理解深度學(xué)習(xí)方面的能力,并能夠推進(jìn)模型快速迭代。另一方面,對于 AI 專家來說,Ludwig 可以簡化原型設(shè)計(jì)和數(shù)據(jù)處理過程,從而讓他們能夠?qū)W⒂陂_發(fā)深度學(xué)習(xí)模型架構(gòu)。

Ludwig 提供了一套 AI 架構(gòu),可以組合起來,為給定的用例創(chuàng)建端到端的模型。開始模型訓(xùn)練,只需要一個(gè)表格數(shù)據(jù)文件(如 CSV)和一個(gè) YAML 配置文件——用于指定數(shù)據(jù)文件中哪些列是輸入特征,哪些列是輸出目標(biāo)變量。如果指定了多個(gè)輸出變量,Ludwig 將學(xué)會(huì)同時(shí)預(yù)測所有輸出。使用 Ludwig 訓(xùn)練模型,在模型定義中可以包含附加信息,比如數(shù)據(jù)集中每個(gè)特征的預(yù)處理數(shù)據(jù)和模型訓(xùn)練參數(shù), 也能夠保存下來,可以在日后加載,對新數(shù)據(jù)進(jìn)行預(yù)測。

對于 Ludwig 支持的數(shù)據(jù)類型(文本、圖像、類別等),其提供了一個(gè)將原始數(shù)據(jù)映射到張量的編碼器,以及將張量映射到原始數(shù)據(jù)的解碼器(張量是線性代數(shù)中使用的數(shù)據(jù)結(jié)構(gòu))。內(nèi)置的組合器,能夠自動(dòng)將所有輸入編碼器的張量組合在一起,對它們進(jìn)行處理,并將其返回給輸入解碼器。

Uber 表示,通過組合這些特定于數(shù)據(jù)類型的組件,用戶可以將 Ludwig 用于各種任務(wù)。比如,組合文本編碼器和類別解碼器,就可以獲得一個(gè)文本分類器。

每種數(shù)據(jù)類型有多個(gè)編碼器和解碼器。例如,文本可以用卷積神經(jīng)網(wǎng)絡(luò)(CNN),循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)或其他編碼器編碼。用戶可以直接在模型定義文件中指定要使用的參數(shù)和超參數(shù),而無需編寫單行代碼。

Ludwig 采用的這種靈活的編碼器-解碼器架構(gòu),即使是經(jīng)驗(yàn)較少的深度學(xué)習(xí)開發(fā)者,也能夠輕松地為不同的任務(wù)訓(xùn)練模型。比如文本分類、目標(biāo)分類、圖像字幕、序列標(biāo)簽、回歸、語言建模、機(jī)器翻譯、時(shí)間序列預(yù)測和問答等等。

此外,Ludwig 還提供了各種工具,且能夠使用開源分布式培訓(xùn)框架 Horovod。目前,Ludwig 有用于二進(jìn)制值,浮點(diǎn)數(shù),類別,離散序列,集合,袋(bag),圖像,文本和時(shí)間序列的編碼器和解碼器,并且支持選定的預(yù)訓(xùn)練模型。未來將支持更多資料的種類。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48701

    瀏覽量

    246443
  • Uber
    +關(guān)注

    關(guān)注

    0

    文章

    416

    瀏覽量

    36692

原文標(biāo)題:不寫代碼也能玩轉(zhuǎn)人工智能!Uber開源AI工具箱Ludwig

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長領(lǐng)域提供解決方案,包括企業(yè)級AI智能體、定制化行業(yè)大型語言模型及搭載NVIDIA
    的頭像 發(fā)表于 03-26 14:42 ?246次閱讀
    Cognizant將與NVIDIA合作部署神經(jīng)<b class='flag-5'>人工智能</b>平臺(tái),加速企業(yè)<b class='flag-5'>人工智能</b>應(yīng)用

    特朗普宣布5000億美元人工智能投資計(jì)劃

    近日,美國人工智能領(lǐng)域迎來重磅消息。美國總統(tǒng)特朗普宣布,OpenAI、軟銀和甲骨文三家行業(yè)巨頭正攜手推進(jìn)一項(xiàng)名為 “星際之門”(Stargate)的人工智能基礎(chǔ)設(shè)施建設(shè)計(jì)劃,總投資預(yù)計(jì)高達(dá) 5000 億美元。這一舉措旨在助力美國
    的頭像 發(fā)表于 02-05 17:48 ?620次閱讀

    開源人工智能生態(tài)發(fā)展分論壇成功舉辦

    生成式AI的快速發(fā)展正深刻改變?nèi)蜍浖_發(fā)的格局。開源AI生態(tài)憑借其堅(jiān)實(shí)的支撐基礎(chǔ),為開發(fā)者提供了一個(gè)高效且便捷的開發(fā)環(huán)境,顯著加速了人工智能技術(shù)的創(chuàng)新進(jìn)程,并推動(dòng)其在實(shí)際應(yīng)用中的快速落地。
    的頭像 發(fā)表于 12-26 11:33 ?507次閱讀

    [迅為RK3568開發(fā)板]非科班能玩轉(zhuǎn)Android應(yīng)用,體驗(yàn)QT跨平臺(tái)能力

    [迅為RK3568開發(fā)板]非科班能玩轉(zhuǎn)Android應(yīng)用,體驗(yàn)QT跨平臺(tái)能力
    的頭像 發(fā)表于 12-18 16:41 ?808次閱讀
    [迅為RK3568開發(fā)板]非科班<b class='flag-5'>也</b><b class='flag-5'>能玩轉(zhuǎn)</b>Android應(yīng)用,體驗(yàn)QT跨平臺(tái)能力

    Lightricks與Shutterstock攜手,推動(dòng)開源LTXV視頻人工智能生成式視頻模型發(fā)展

    Shutterstock與Lightricks的合作是全新數(shù)據(jù)授權(quán)模式的首次實(shí)踐,旨在為人工智能模型的訓(xùn)練開辟全新路徑 耶路撒冷和紐約2024年12月15日?/美通社/ -- 全球領(lǐng)先的人工智能驅(qū)動(dòng)
    的頭像 發(fā)表于 12-15 09:31 ?436次閱讀
    Lightricks與Shutterstock攜手,推動(dòng)<b class='flag-5'>開源</b>LTXV視頻<b class='flag-5'>人工智能</b>生成式視頻模型發(fā)展

    嵌入式和人工智能究竟是什么關(guān)系?

    人工智能應(yīng)用的實(shí)時(shí)響應(yīng)。與此同時(shí),嵌入式系統(tǒng)在邊緣計(jì)算和物聯(lián)網(wǎng)領(lǐng)域,人工智能的應(yīng)用提供了廣闊的空間。 在邊緣計(jì)算中,嵌入式系統(tǒng)能夠?qū)?b class='flag-5'>人工智能算法部署到設(shè)備端,實(shí)現(xiàn)對數(shù)據(jù)的即時(shí)處
    發(fā)表于 11-14 16:39

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    驅(qū)動(dòng)科學(xué)創(chuàng)新》的第6章為我提供了寶貴的知識和見解,讓我對人工智能在能源科學(xué)中的應(yīng)用有了更深入的認(rèn)識。通過閱讀這一章,我更加堅(jiān)信人工智能在未來能源科學(xué)領(lǐng)域中的重要地位和作用。同時(shí),我意識到在推動(dòng)
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    很幸運(yùn)社區(qū)給我一個(gè)閱讀此書的機(jī)會(huì),感謝平臺(tái)。 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章關(guān)于AI與生命科學(xué)的部分,為我們揭示了人工智能技術(shù)在生命科學(xué)領(lǐng)域中的廣泛應(yīng)用和深遠(yuǎn)影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得

    周末收到一本新書,非常高興,非常感謝平臺(tái)提供閱讀機(jī)會(huì)。 這是一本挺好的書,包裝精美,內(nèi)容詳實(shí),干活滿滿。 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》這本書的第一章,作為整個(gè)著作的開篇
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    RISC-V在人工智能圖像處理領(lǐng)域的應(yīng)用前景十分廣闊,這主要得益于其開源性、靈活性和低功耗等特點(diǎn)。以下是對RISC-V在人工智能圖像處理應(yīng)用前景的詳細(xì)分析: 一、RISC-V的基本特點(diǎn) RISC-V
    發(fā)表于 09-28 11:00

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學(xué) 不過好像都是要學(xué)的
    發(fā)表于 09-26 15:24

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個(gè)需要研究的課題,本書對ai4s基本原理和原則,方法進(jìn)行描訴,有利于總結(jié)經(jīng)驗(yàn),擬按照要求準(zhǔn)備相關(guān)體會(huì)材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學(xué)家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    報(bào)名開啟!深圳(國際)通用人工智能大會(huì)將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會(huì)暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會(huì)將在深圳國際會(huì)展中心(寶安)舉辦。大會(huì)以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領(lǐng)域集產(chǎn)品
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個(gè)方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05