女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于圖深度學(xué)習(xí)的開(kāi)源工具包——CogDL

454398 ? 來(lái)源:機(jī)器之心 ? 作者:AMiner學(xué)術(shù)頭條 ? 2020-10-29 10:51 ? 次閱讀

一行代碼命令可以做什么?

“一行命令可以實(shí)現(xiàn)‘一條龍’運(yùn)行實(shí)驗(yàn)。”

訪問(wèn) github.com/THUDM/cogdl 一鍵體驗(yàn)!

近年來(lái),結(jié)構(gòu)化數(shù)據(jù)的表示學(xué)習(xí)備受業(yè)界關(guān)注與熱捧,圖神經(jīng)網(wǎng)絡(luò)成為處理相關(guān)工作的有力工具,基于隨機(jī)游走、矩陣分解的方法在搜索推薦、分子和藥物生成等領(lǐng)域有著十分重要的應(yīng)用。

但是,由于許多項(xiàng)目的代碼并未開(kāi)源或者開(kāi)源代碼的風(fēng)格多種多樣,研究者和使用者在使用這些方法的過(guò)程中會(huì)遇到各種各樣的問(wèn)題,比如實(shí)驗(yàn)復(fù)現(xiàn)以及如何在自己的數(shù)據(jù)集上運(yùn)行模型等。

具體而言(以學(xué)術(shù)研究為例),研究者和使用者在從事研究過(guò)程中需要將自己提出的模型與其他模型進(jìn)行對(duì)比,來(lái)驗(yàn)證所提出模型的有效性。但在對(duì)比過(guò)程中,他們需要選定若干個(gè)下游任務(wù),在每個(gè)任務(wù)下,通過(guò)公平的評(píng)估方式來(lái)對(duì)比不同模型的性能,由于不同模型在提出時(shí)可能會(huì)使用不完全一致的下游任務(wù)或者評(píng)估方式,他們需要花費(fèi)大量精力修改基線模型來(lái)進(jìn)行適配。

那么,如何快速、便捷地復(fù)現(xiàn)出基線模型(baseline)的結(jié)果,并將這些模型應(yīng)用到自定義的數(shù)據(jù)集上?

為此,清華大學(xué)知識(shí)工程實(shí)驗(yàn)室(KEG)聯(lián)合北京智源人工智能研究院(BAAI)開(kāi)發(fā)了一種基于圖深度學(xué)習(xí)的開(kāi)源工具包——CogDL(底層架構(gòu)為 PyTorch,編程語(yǔ)言為 Python)。

據(jù) CogDL 開(kāi)發(fā)者介紹,該工具包通過(guò)整合多種不同的下游任務(wù),同時(shí)搭配合適的評(píng)估方式,使得研究者和使用者可以方便、快速地運(yùn)行出各種基線模型的結(jié)果,進(jìn)而將更多精力投入研發(fā)新模型的工作之中。

“對(duì)圖領(lǐng)域中每種任務(wù),我們提供了一套完整的“數(shù)據(jù)處理-模型搭建-模型訓(xùn)練-模型評(píng)估”的方案,易于研發(fā)人員做相關(guān)的實(shí)驗(yàn)。比如對(duì)于圖上半監(jiān)督節(jié)點(diǎn)分類任務(wù),我們整合了常用的數(shù)據(jù)集 Cora、Citeseer、Pubmed,提供了經(jīng)典的/前沿的各種模型(包括GCN、GAT、GCNII 等),提供了相應(yīng)的訓(xùn)練腳本,并且整理出了一個(gè)相應(yīng)的排行榜作為參考。” CogDL 開(kāi)發(fā)者說(shuō)。

CogDL 最特別的一點(diǎn)在于它以任務(wù)(task)為導(dǎo)向來(lái)集成所有算法,將每一個(gè)算法分配在一個(gè)或多個(gè)任務(wù)下,從而構(gòu)建了 “數(shù)據(jù)處理-模型搭建-模型訓(xùn)練和驗(yàn)證” 一條龍的實(shí)現(xiàn)。

此外,CogDL 也支持研究者和使用者自定義模型和數(shù)據(jù)集,并嵌入在 CogDL 的整體框架下,從而幫助他們提高開(kāi)發(fā)效率,同時(shí)也包含了當(dāng)前許多數(shù)據(jù)集上 SOTA 算法的實(shí)現(xiàn),并且仍然在不斷更新。 CogDL:面向任務(wù),擴(kuò)展算法 圖表示學(xué)習(xí)算法可以分為兩類:一類是基于圖神經(jīng)網(wǎng)絡(luò)的算法,另一類是基于 Skip-gram 或矩陣分解的算法。前者包括 GCN、GAT、GraphSAGE 和 DiffPool 等,以及適用于異構(gòu)圖的 RGCN、GATNE 等;后者則包括 Deepwalk、Node2Vec、HOPE 和 NetMF 等,以及用于圖分類的 DGK、graph2vec 等算法。

大體上,CogDL 將已有圖表示學(xué)習(xí)算法劃分為以下 6 項(xiàng)任務(wù):

有監(jiān)督節(jié)點(diǎn)分類任務(wù)(node classification):包括 GCN、GAT、GraphSAGE、MixHop 和 GRAND 等;

無(wú)監(jiān)督節(jié)點(diǎn)分類任務(wù)(unsupervised node classification):包括 DGI、GraphSAGE(無(wú)監(jiān)督實(shí)現(xiàn)),以及 Deepwalk、Node2vec、ProNE 等;

有監(jiān)督圖分類任務(wù)(graph classification):包括 GIN、DiffPool、SortPool 等;

無(wú)監(jiān)督圖分類任務(wù)(unsupervised graph classification):包括 InfoGraph、DGK、Graph2Vec 等;

鏈接預(yù)測(cè)任務(wù)(link prediction):包括 RGCN、CompGCN、GATNE 等;

異構(gòu)節(jié)點(diǎn)分類(multiplex node classification):包括 GTN、HAN、Metapath2vec 等。

CogDL 還包括圖上的預(yù)訓(xùn)練模型 GCC,GCC 主要利用圖的結(jié)構(gòu)信息來(lái)預(yù)訓(xùn)練圖神經(jīng)網(wǎng)絡(luò),從而使得該網(wǎng)絡(luò)可以遷移到其他數(shù)據(jù)集上,來(lái)取得較好的節(jié)點(diǎn)分類和圖分類的效果。 能用來(lái)做什么? 那么,研究者和使用者可以利用 CogDL 做些什么?主要有三點(diǎn):跟進(jìn) SOTA、復(fù)現(xiàn)實(shí)驗(yàn),以及自定義模型和數(shù)據(jù)。

跟進(jìn) SOTA。CogDL 跟進(jìn)最新發(fā)布的算法,包含不同任務(wù)下 SOTA 的實(shí)現(xiàn),同時(shí)建立了不同任務(wù)下所有模型的 leaderboard(排行榜),研究人員和開(kāi)發(fā)人員可以通過(guò) leaderboard 比較不同算法的效果。

復(fù)現(xiàn)實(shí)驗(yàn)。論文模型的可復(fù)現(xiàn)性是非常重要的。CogDL 通過(guò)實(shí)現(xiàn)不同論文的模型也是對(duì)模型可復(fù)現(xiàn)性的一個(gè)檢驗(yàn)。

自定義模型和數(shù)據(jù)。“數(shù)據(jù)-模型-訓(xùn)練”三部分在 CogDL 中是獨(dú)立的,研究者和使用者可以自定義其中任何一部分,并復(fù)用其他部分,從而提高開(kāi)發(fā)效率。 怎么用? 有兩種方法:命令行直接運(yùn)行,通過(guò) API 調(diào)用 命令行直接運(yùn)行。通過(guò)命令行可以直接指定 "task"、"model"、"dataset" 以及對(duì)應(yīng)的超參數(shù),并且支持同時(shí)指定多個(gè)模型和多個(gè)數(shù)據(jù)集,更方便。代碼如下:

支持自定義數(shù)據(jù)集和模型,并且提供了自動(dòng)調(diào)參的例子。

據(jù) CogDL 研究者介紹,從 2019 年啟動(dòng)以來(lái),該項(xiàng)目經(jīng)過(guò)了多次密集的研發(fā),到目前已經(jīng)整合了圖領(lǐng)域的重要任務(wù)及其相關(guān)的經(jīng)典和前沿的模型。

CogDL 開(kāi)發(fā)者表示,“起初,我們只是整合了實(shí)驗(yàn)室內(nèi)部從事相關(guān)領(lǐng)域研究的同學(xué)所使用的相關(guān)代碼,為了方便實(shí)驗(yàn)室其余的同學(xué)運(yùn)行相關(guān)的實(shí)驗(yàn)。后來(lái),我們決定將代碼開(kāi)源出來(lái),讓更多的研究和開(kāi)發(fā)人員能夠借助我們的代碼從事相關(guān)工作。”

如今,CogDL 已經(jīng)上線了 CogDL v0.1.1。

“我們?cè)黾恿艘恍┳钋把氐膱D神經(jīng)網(wǎng)絡(luò)模型,包括圖自監(jiān)督模型、圖預(yù)訓(xùn)練模型。用戶可以利用圖上預(yù)訓(xùn)練好的模型做不同的下游任務(wù)。在下游任務(wù)方面,我們?cè)黾恿酥R(shí)圖譜的鏈接預(yù)測(cè)任務(wù),方便從事知識(shí)圖譜領(lǐng)域的用戶進(jìn)行相關(guān)實(shí)驗(yàn)。” CogDL 開(kāi)發(fā)者說(shuō)。

具體而言,在監(jiān)督節(jié)點(diǎn)分類任務(wù)上,增加了 GRAND 和 DisenGCN,GRAND 在 Cora、PubMed、Citeseer 上取得了 SOTA 或者接近 SOTA 的效果;無(wú)監(jiān)督節(jié)點(diǎn)分類任務(wù)上,增加了 DGI、MVGRL、GraphSAGE(無(wú)監(jiān)督實(shí)現(xiàn));在鏈接預(yù)測(cè)任務(wù)上,增加了知識(shí)圖譜上的鏈接預(yù)測(cè) GNN 模型 RGCN 和 CompGCN;以及增加了圖上的預(yù)訓(xùn)練模型 GCC。

另外,CogDL 也提供了使用 optuna 進(jìn)行超參數(shù)搜索的 example,通過(guò)指定 "模型,數(shù)據(jù)集,參數(shù)" 即可自動(dòng)實(shí)現(xiàn)超參數(shù)的搜索。

接下來(lái),CogDL 研究者希望在現(xiàn)有基礎(chǔ)上,繼續(xù)補(bǔ)充其余的圖領(lǐng)域的下游任務(wù),添加更多的數(shù)據(jù)集,更新每個(gè)任務(wù)的排行榜;同時(shí)增加最前沿的關(guān)于預(yù)訓(xùn)練的圖神經(jīng)網(wǎng)絡(luò)模型,支持用戶直接使用預(yù)訓(xùn)練好的模型來(lái)進(jìn)行相關(guān)應(yīng)用;以及完善 CogDL 的教程和文檔,讓剛接觸圖領(lǐng)域的初學(xué)者能夠快速上手。

談及最終的愿景,CogDL 研究者表示,一方面希望從事圖數(shù)據(jù)領(lǐng)域的研究人員可以方便地利用 CogDL 來(lái)做實(shí)驗(yàn),另一方面希望面向?qū)嶋H應(yīng)用的開(kāi)發(fā)人員可以利用 CogDL 來(lái)快速地搭建相關(guān)下游應(yīng)用,最終打造一個(gè)完善的圖領(lǐng)域的研發(fā)生態(tài)。
編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48599

    瀏覽量

    246011
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4823

    瀏覽量

    86090
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122432
  • 結(jié)構(gòu)化數(shù)據(jù)

    關(guān)注

    0

    文章

    3

    瀏覽量

    2599
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無(wú)法導(dǎo)出INT8模型怎么解決?

    無(wú)法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    在Google Colab筆記本電腦上導(dǎo)入OpenVINO?工具包2021中的 IEPlugin類出現(xiàn)報(bào)錯(cuò),怎么解決?

    在 Google* Colab Notebook 上OpenVINO?工具包 2021 中使用了 IEPlugin 。 遇到: ImportError: cannot import name \'IEPlugin\' from \'openvino.inference_engine\'
    發(fā)表于 03-05 10:31

    構(gòu)建開(kāi)源OpenVINO?工具包后,使用MYRIAD插件成功運(yùn)行演示時(shí)報(bào)錯(cuò)怎么解決?

    構(gòu)建開(kāi)源OpenVINO?工具包后,使用 MYRIAD 插件成功運(yùn)行演示。 使用 CPU 插件運(yùn)行演示時(shí)遇到錯(cuò)誤: Cannot load library \'libarmPlugin.so
    發(fā)表于 03-05 09:57

    靈汐科技開(kāi)源類腦深度學(xué)習(xí)應(yīng)用開(kāi)發(fā)平臺(tái)BIDL

    富案例等問(wèn)題,一直制約著其廣泛應(yīng)用。為了突破這一瓶頸,靈汐科技聯(lián)合腦啟社區(qū)正式宣布開(kāi)源類腦深度學(xué)習(xí)應(yīng)用開(kāi)發(fā)平臺(tái)BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?657次閱讀
    靈汐科技<b class='flag-5'>開(kāi)源</b>類腦<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>應(yīng)用開(kāi)發(fā)平臺(tái)BIDL

    安裝OpenVINO?工具包穩(wěn)定擴(kuò)散后報(bào)錯(cuò),怎么解決?

    已安裝OpenVINO?工具包穩(wěn)定擴(kuò)散并收到錯(cuò)誤消息: \"BackendCompilerFailed: openvino_fx raised RuntimeError
    發(fā)表于 03-05 06:56

    云計(jì)算開(kāi)發(fā)工具包的功能

    隨著云計(jì)算技術(shù)的不斷成熟,越來(lái)越多的企業(yè)開(kāi)始將應(yīng)用和服務(wù)遷移到云端,以享受彈性計(jì)算資源、高可用性和成本效益等優(yōu)勢(shì)。為了加速這一進(jìn)程,云計(jì)算服務(wù)提供商推出了各種開(kāi)發(fā)工具包。下面,AI部落小編帶您了解云計(jì)算開(kāi)發(fā)工具包的主要功能。
    的頭像 發(fā)表于 02-21 11:02 ?235次閱讀

    Labview聲音和振動(dòng)工具包示例文件Sound Level

    Labview 聲音和振動(dòng)工具包示例文件,聲壓測(cè)試,有模擬和DAQ兩個(gè)文件。
    發(fā)表于 01-05 09:15 ?0次下載

    最新Simplicity SDK軟件開(kāi)發(fā)工具包發(fā)布

    最新的SimplicitySDK軟件開(kāi)發(fā)工具包已經(jīng)發(fā)布!此次更新針對(duì)SiliconLabs(芯科科技)第二代無(wú)線開(kāi)發(fā)平臺(tái)帶來(lái)了包括藍(lán)牙6.0的信道探測(cè)(Channel Sounding
    的頭像 發(fā)表于 12-24 09:47 ?705次閱讀

    基于EasyGo Vs工具包和Nl veristand軟件進(jìn)行的永磁同步電機(jī)實(shí)時(shí)仿真

    EasyGo Vs Addon是一款領(lǐng)先的FPGA仿真工具包軟件,它強(qiáng)大地連接了VeriStand軟件與Matlab/Simulink,為實(shí)時(shí)測(cè)試和驗(yàn)證領(lǐng)域帶來(lái)了前所未有的便利和效率,特別適用于汽車
    的頭像 發(fā)表于 11-27 11:28 ?879次閱讀
    基于EasyGo Vs<b class='flag-5'>工具包</b>和Nl veristand軟件進(jìn)行的永磁同步電機(jī)實(shí)時(shí)仿真

    FPGA加速深度學(xué)習(xí)模型的案例

    :DE5Net_Conv_Accelerator 應(yīng)用場(chǎng)景 :面向深度學(xué)習(xí)開(kāi)源項(xiàng)目,實(shí)現(xiàn)了AlexNet的第一層卷積運(yùn)算加速。 技術(shù)特點(diǎn) : 采用了Verilog語(yǔ)言進(jìn)行編程,與PCIe接口相集成,可以直接插入到
    的頭像 發(fā)表于 10-25 09:22 ?1009次閱讀

    FPGA仿真工具包軟件EasyGo Vs Addon介紹

    EasyGo Vs Addon是一款領(lǐng)先的FPGA仿真工具包軟件,它強(qiáng)大地連接了VeriStand軟件與Matlab/Simulink,為實(shí)時(shí)測(cè)試和驗(yàn)證領(lǐng)域帶來(lái)了前所未有的便利和效率,特別適用于汽車、航空航天和能源電力等實(shí)時(shí)測(cè)試和驗(yàn)證至關(guān)重要的行業(yè)。
    的頭像 發(fā)表于 10-24 15:55 ?906次閱讀
    FPGA仿真<b class='flag-5'>工具包</b>軟件EasyGo Vs Addon介紹

    采用德州儀器 (TI) 工具包進(jìn)行模擬前端設(shè)計(jì)應(yīng)用說(shuō)明

    電子發(fā)燒友網(wǎng)站提供《采用德州儀器 (TI) 工具包進(jìn)行模擬前端設(shè)計(jì)應(yīng)用說(shuō)明.pdf》資料免費(fèi)下載
    發(fā)表于 09-09 11:21 ?0次下載
    采用德州儀器 (TI) <b class='flag-5'>工具包</b>進(jìn)行模擬前端設(shè)計(jì)應(yīng)用說(shuō)明

    使用freeRTOS開(kāi)發(fā)工具包時(shí),在哪里可以找到freeRTOS的版本?

    作為主題,當(dāng)我使用 freeRTOS 開(kāi)發(fā)工具包時(shí),在哪里可以找到 freeRTOS 的版本?
    發(fā)表于 07-09 07:17

    深度學(xué)習(xí)常用的Python庫(kù)

    深度學(xué)習(xí)作為人工智能的一個(gè)重要分支,通過(guò)模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來(lái)解決復(fù)雜問(wèn)題。Python作為一種流行的編程語(yǔ)言,憑借其簡(jiǎn)潔的語(yǔ)法和豐富的庫(kù)支持,成為了深度學(xué)習(xí)研究和應(yīng)用的首選
    的頭像 發(fā)表于 07-03 16:04 ?1025次閱讀

    新加坡推出Project Moonshot -- 這是一款生成式人工智能測(cè)試工具包,用于應(yīng)對(duì)LLM安全和安保挑戰(zhàn)

    新加坡2024年6月3日?/美通社/ -- 新加坡通訊及新聞部部長(zhǎng)Josephine Teo 女士推出了AI Verify- Project Moonshot,這是一個(gè)易于使用的測(cè)試工具包,旨在
    的頭像 發(fā)表于 06-03 19:59 ?388次閱讀
    新加坡推出Project Moonshot -- 這是一款生成式人工智能測(cè)試<b class='flag-5'>工具包</b>,用于應(yīng)對(duì)LLM安全和安保挑戰(zhàn)