女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)腦補缺失 TF 代碼

5RJg_mcuworld ? 來源:YXQ ? 2019-08-06 11:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在項目開發(fā)中,優(yōu)秀的代碼自動補全工具可以提升工作效率。然而,近來的 IDE 基本都使用搜索方法進(jìn)行補全,在一些場景下效果不佳。

近日,有開源項目用深度學(xué)習(xí)模型進(jìn)行代碼補全,顯示出非常有潛力的效果。

近日,Reddit 上的一篇帖子引起了網(wǎng)友的熱議。帖子作者「mlvpj」稱:

「我們使用深度學(xué)習(xí)完成了一個簡單的項目,可以自動進(jìn)行 Python 代碼補全。」

根據(jù)介紹,該項目基于 LSTM 模型,訓(xùn)練后,負(fù)責(zé)對代碼的缺失部分進(jìn)行補全。評價模型的方法是判斷節(jié)省了多少的按鍵信息——即模型給出長度為 L 的代碼建議,如果和真實的代碼匹配,則節(jié)省 L - 1 個鍵入操作。實驗結(jié)果說明,大約有 30%-50% 的鍵入成本可以節(jié)省下來。

作者在帖子中表示,他們接下來會嘗試不同的架構(gòu),并提高推斷的表現(xiàn)。而現(xiàn)在的模型推斷很慢,不能實際使用。作者已在 GitHub 開源了項目代碼:

和 IDE 的自動補全有什么區(qū)別

該項目對 Python 代碼的自動補全與傳統(tǒng) IDE(如 PyCharm)等不同。IDE 補全基于檢索方法,需要從已有代碼中進(jìn)行搜索。

以 PyCharm 中的基本補全(Basic Completion)方法為例。基本補全可幫助補全可見區(qū)域的類、方法、關(guān)鍵詞代碼。使用時,PyCharm 會分析補全使用情況,并提供當(dāng)前位置可能的選擇。如果是對空間、參數(shù)或變量聲明進(jìn)行補全,則 PyCharm 會基于類別提供一系列可能的命名。

當(dāng)出現(xiàn)已定義的類、函數(shù)、模塊和變量時,基本補全就會啟動。

此外,PyCharm 也提供智能補全等其他補全功能,但基本上都需要對已有文本進(jìn)行搜索,根據(jù)位置和類型判斷補全的方法。這些方法都沒有配置機器學(xué)習(xí)模型。

Pycharm 的自動補全介紹:https://www.jetbrains.com/help/pycharm/auto-completing-code.html

深度學(xué)習(xí)怎樣腦補缺失 TF 代碼

最常用的 PyCharm 自動補全也能省很多功夫,但它需要 IDE 能檢索到你的代碼文件或庫,而且補全會提供多個可能的選項。但是在本項目實驗的工具中,LSTM 會根據(jù)上下文語義確定最可能調(diào)用的函數(shù),因此它能節(jié)省更多的成本。作者表示如果使用束搜索,那么一次能預(yù)測 10 多個字符,不過這樣對于實際使用還是有點低效。

在訓(xùn)練深度補全模型前,我們需要先建立訓(xùn)練集。開發(fā)者會在清洗評論、標(biāo)注和空行后,構(gòu)建比較干凈的 Python 代碼。然后,模型會在這些數(shù)據(jù)上進(jìn)行訓(xùn)練與預(yù)測。在數(shù)據(jù)預(yù)處理上,開發(fā)者發(fā)現(xiàn)通過 tokenizing Python 代碼,模型效果比通過 BPE 編碼的字符級預(yù)測效果還要好。作者提供了一個簡單的預(yù)訓(xùn)練模型,它是在整個 TensorFlow 項目的 models 代碼中訓(xùn)練的。

下圖就是作者在驗證集中測試的驗證樣本。綠色的字符表示自動補全的起始位置,用戶需要按下 Tab 鍵選擇開始補全。綠色及后面高亮的灰色字符是自動補全的結(jié)果。

如上所示為驗證樣本中的自動補全效果。與代碼生成類似,粗略看起來,似乎效果非常不錯,但實際上會有很多不合理的地方。不過有意思的是,自動補全中所有字符串都只有一個占位操作,這也是非常合理的處理方法。

樣本中自動補全的起始和結(jié)束位置都是隨機的,也就是說代碼可能補全到「tensorfl」就結(jié)束了,并不會補全完整的標(biāo)識符「tensorflow」。這在實際場景中用處非常有限,因此作者將生成結(jié)束位置限制為終止 token 而修復(fù)問題。目前自動補全能完成多種 operator,且當(dāng)我們增加束搜索的長度時,它完成的代碼長度會更多。

整個模型的主體都是 LSTM,它在 TensorFlow 模型代碼庫訓(xùn)練后能捕捉非常豐富的 TensorFlow API。如下所示為自動補全模型的主體代碼,基本上簡單的一個 LSTM 就能搞定:

網(wǎng)友評價

項目開源后,有些網(wǎng)友對作者提出了質(zhì)疑:

「我們已經(jīng)有很多很好用的自動補全工具了,比如 kite(一個可以在 IDE 上使用的插件),為什么還要費心搞個機器學(xué)習(xí)模型?」

在討論中,有人提出,一些無良的自動補全工具會悄悄上傳代碼到他們的服務(wù)器中,(而自行訓(xùn)練的深度學(xué)習(xí)模型不存在這個問題)。

也有人提出,其實不一定要用 LSTM 模型,隱馬爾科夫模型在處理序列數(shù)據(jù)上效果也很好。

此外,也有網(wǎng)友建議使用 CuDNN 加速 LSTM 的推斷過程。這樣能大大提升推斷速度,集成到 IDE 中也就有了可能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35093

    瀏覽量

    279469
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4900

    瀏覽量

    70681
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122783

原文標(biāo)題:你是成熟的 AI 了,應(yīng)該自己學(xué)會補全代碼!

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    靈汐科技開源類深度學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL

    富案例等問題,一直制約著其廣泛應(yīng)用。為了突破這一瓶頸,靈汐科技聯(lián)合啟社區(qū)正式宣布開源類深度學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?909次閱讀
    靈汐科技開源類<b class='flag-5'>腦</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>應(yīng)用開發(fā)平臺BIDL

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?850次閱讀

    ADS1282HI出現(xiàn)數(shù)據(jù)缺失是什么原因?qū)е碌模?/a>

    不同:39TG4A3TF),使用完全相同的程序和板卡,出現(xiàn)數(shù)據(jù)缺失的情況,波形如下: 明顯發(fā)現(xiàn)第一個字節(jié)丟失。前八個SCLK時DOUT上沒有任何輸出,是產(chǎn)品批次不同導(dǎo)致的情況還是新進(jìn)的芯片有問題,希望能有您這邊的答復(fù),謝謝
    發(fā)表于 12-16 07:03

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1899次閱讀

    使用TF卡的常見問題

    隨著科技的發(fā)展,TF卡(TransFlash卡,也稱為MicroSD卡)已經(jīng)成為我們?nèi)粘I钪胁豢苫蛉钡拇鎯ぞ摺K鼈儽粡V泛應(yīng)用于智能手機、平板電腦、數(shù)碼相機等設(shè)備中,用于擴展存儲空間,存儲照片
    的頭像 發(fā)表于 11-04 09:54 ?3665次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?651次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1339次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1059次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1219次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2876次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?608次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個熱門,深鑒科技,商湯,曠視科技等都有基于FPG
    發(fā)表于 09-27 20:53

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2512次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺上,仍然是一個具有挑戰(zhàn)性的任務(wù)。本文將從嵌入式平臺的特點、
    的頭像 發(fā)表于 07-15 10:03 ?3183次閱讀