女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

開源機(jī)器學(xué)習(xí)平臺(tái)TensorFlow的更新內(nèi)容

汽車玩家 ? 來源:開源中國(guó) ? 作者:xplanet ? 2020-03-15 14:53 ? 次閱讀

TensorFlow 2.2.0-rc0已發(fā)布,據(jù)官方介紹,TensorFlow 是一個(gè)采用數(shù)據(jù)流圖(data flow graphs),用于數(shù)值計(jì)算的開源軟件庫。節(jié)點(diǎn)(Nodes)在圖中表示數(shù)學(xué)操作,圖中的線(edges)則表示在節(jié)點(diǎn)間相互聯(lián)系的多維數(shù)據(jù)數(shù)組,即張量(tensor)。它靈活的架構(gòu)讓你可以在多種平臺(tái)上展開計(jì)算,例如臺(tái)式計(jì)算機(jī)中的一個(gè)或多個(gè)CPU(或GPU),服務(wù)器,移動(dòng)設(shè)備等等。TensorFlow 最初由Google大腦小組(隸屬于Google機(jī)器智能研究機(jī)構(gòu))的研究員和工程師們開發(fā)出來,用于機(jī)器學(xué)習(xí)和深度神經(jīng)網(wǎng)絡(luò)方面的研究,但這個(gè)系統(tǒng)的通用性使其也可廣泛用于其他計(jì)算領(lǐng)域。

更新內(nèi)容如下:

主要特性和改進(jìn)

將字符串張量的標(biāo)量類型從std::string替換為tensorflow::tstring

TF 2 的新 Profiler,用于 CPU/GPU/TPU。它提供設(shè)備和主機(jī)性能分析,包括輸入管道和 TF Ops。

不推薦使用 SWIG,而是使用 pybind11 將 C++ 函數(shù)導(dǎo)出到 Python,這是棄用 Swig 所作努力的一部分。

tf.distribute:

tf.keras:

tf.lite:

XLA

將 NVIDIA NCCL 更新到 2.5.7-1,以獲得更好的性能和性能調(diào)整。

支持在 float16 中減少梯度。

所有實(shí)驗(yàn)的支持都減少了梯度壓縮,以允許使用反向路徑計(jì)算進(jìn)行重疊梯度聚合。

通過使用新添加的 tf.keras.layers.experimental.SyncBatchNormalization 層,添加了對(duì)全局同步 BatchNormalization 的支持。該層將在參與同步訓(xùn)練的所有副本之間同步 BatchNormalization 統(tǒng)計(jì)信息。

使用 tf.distribute.experimental.MultiWorkerMirroredStrategy 提高 GPU 多工分布式培訓(xùn)的性能

可以通過覆蓋 Model.train_step 將自定義訓(xùn)練邏輯與 Model.fit 結(jié)合使用。

輕松編寫最新的培訓(xùn)循環(huán),而不必?fù)?dān)心 Model.fit 為你處理的所有功能(分發(fā)策略,回調(diào),數(shù)據(jù)格式,循環(huán)邏輯等)

Model.fit的主要改進(jìn):

現(xiàn)在,SavedModel 格式支持所有 Keras 內(nèi)置層(包括指標(biāo),預(yù)處理層和有狀態(tài) RNN 層)

默認(rèn)情況下啟用 TFLite 實(shí)驗(yàn)性新轉(zhuǎn)換器。

XLA 現(xiàn)在可以在 Windows 上構(gòu)建并運(yùn)行。所有預(yù)構(gòu)建的軟件包都隨附有 XLA。

可以在 CPU 和 GPU 上使用“編譯或拋出異?!闭Z義為 tf.function 啟用 XLA。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8488

    瀏覽量

    134012
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    330

    瀏覽量

    61011
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    全球80多個(gè)國(guó)家和地區(qū)。 近日,大象機(jī)器人聯(lián)合進(jìn)迭時(shí)空推出全球首款RISC-V全棧開源六軸機(jī)器臂“myCobot 280 RISC-V”,為開發(fā)者打造全新的機(jī)器
    發(fā)表于 04-25 17:59

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開發(fā)的大型軟件庫,它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?287次閱讀
    用樹莓派搞深度<b class='flag-5'>學(xué)習(xí)</b>?<b class='flag-5'>TensorFlow</b>啟動(dòng)!

    靈汐科技開源類腦深度學(xué)習(xí)應(yīng)用開發(fā)平臺(tái)BIDL

    富案例等問題,一直制約著其廣泛應(yīng)用。為了突破這一瓶頸,靈汐科技聯(lián)合腦啟社區(qū)正式宣布開源類腦深度學(xué)習(xí)應(yīng)用開發(fā)平臺(tái)BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?674次閱讀
    靈汐科技<b class='flag-5'>開源</b>類腦深度<b class='flag-5'>學(xué)習(xí)</b>應(yīng)用開發(fā)<b class='flag-5'>平臺(tái)</b>BIDL

    如何選擇云原生機(jī)器學(xué)習(xí)平臺(tái)

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺(tái)因其彈性擴(kuò)展、高效部署、低成本運(yùn)營(yíng)等優(yōu)勢(shì),逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場(chǎng)上的云原生
    的頭像 發(fā)表于 12-25 11:54 ?371次閱讀

    構(gòu)建云原生機(jī)器學(xué)習(xí)平臺(tái)流程

    構(gòu)建云原生機(jī)器學(xué)習(xí)平臺(tái)是一個(gè)復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓(xùn)練、評(píng)估、部署和監(jiān)控等多個(gè)環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?363次閱讀

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    緊密。 NPU的起源與特點(diǎn) NPU的概念最早由谷歌在其TPU(Tensor Processing Unit)項(xiàng)目中提出,旨在為TensorFlow框架提供專用的硬件加速。NPU的設(shè)計(jì)目標(biāo)是提高機(jī)器學(xué)習(xí)算法的運(yùn)行效率,特別是在處理
    的頭像 發(fā)表于 11-15 09:19 ?1052次閱讀

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開發(fā)的一個(gè)開源深度學(xué)習(xí)框架,它允許開發(fā)者方便地構(gòu)建、訓(xùn)練和部署各種復(fù)雜的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 07-12 16:38 ?1171次閱讀

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型更新

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型的更新是一個(gè)涉及多個(gè)步驟的過程,包括模型定義、訓(xùn)練、評(píng)估以及根據(jù)新數(shù)據(jù)或需求進(jìn)行模型微調(diào)(Fine-tuning)或重新訓(xùn)練。下面我將詳細(xì)闡述這個(gè)過程,并附上相應(yīng)的TensorFlow代碼
    的頭像 發(fā)表于 07-12 11:51 ?734次閱讀

    tensorflow和pytorch哪個(gè)更簡(jiǎn)單?

    TensorFlow和PyTorch都是用于深度學(xué)習(xí)機(jī)器學(xué)習(xí)開源框架。TensorFlow
    的頭像 發(fā)表于 07-05 09:45 ?1329次閱讀

    tensorflow和pytorch哪個(gè)好

    :2015年由Google Brain團(tuán)隊(duì)發(fā)布。 語言支持 :主要使用Python,也支持C++、Java等。 設(shè)計(jì)哲學(xué) :TensorFlow是一個(gè)端到端的機(jī)器學(xué)習(xí)平臺(tái),支持從研究
    的頭像 發(fā)表于 07-05 09:42 ?1074次閱讀

    tensorflow簡(jiǎn)單的模型訓(xùn)練

    在本文中,我們將詳細(xì)介紹如何使用TensorFlow進(jìn)行簡(jiǎn)單的模型訓(xùn)練。TensorFlow是一個(gè)開源機(jī)器學(xué)習(xí)庫,廣泛用于各種
    的頭像 發(fā)表于 07-05 09:38 ?1169次閱讀

    keras模型轉(zhuǎn)tensorflow session

    和訓(xùn)練深度學(xué)習(xí)模型。Keras是基于TensorFlow、Theano或CNTK等底層計(jì)算框架構(gòu)建的。TensorFlow是一個(gè)開源機(jī)器
    的頭像 發(fā)表于 07-05 09:36 ?789次閱讀

    如何使用Tensorflow保存或加載模型

    TensorFlow是一個(gè)廣泛使用的開源機(jī)器學(xué)習(xí)庫,它提供了豐富的API來構(gòu)建和訓(xùn)練各種深度學(xué)習(xí)模型。在模型訓(xùn)練完成后,保存模型以便將來使用
    的頭像 發(fā)表于 07-04 13:07 ?2467次閱讀

    TensorFlow的定義和使用方法

    TensorFlow是一個(gè)由谷歌人工智能團(tuán)隊(duì)谷歌大腦(Google Brain)開發(fā)和維護(hù)的開源機(jī)器學(xué)習(xí)庫。它基于數(shù)據(jù)流編程(dataflow programming)的概念,將復(fù)雜的
    的頭像 發(fā)表于 07-02 14:14 ?1293次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,在過去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過程中,深度學(xué)習(xí)框架扮演著至關(guān)重要的角色。TensorFlow和PyTorch是目前最受
    的頭像 發(fā)表于 07-02 14:04 ?1480次閱讀