女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

何愷明團(tuán)隊(duì)所在的Facebook AI推出ResNeXt-101模型

DPVg_AI_era ? 來源:lq ? 2019-06-29 07:26 ? 次閱讀

近日,何愷明團(tuán)隊(duì)所在的Facebook AI推出ResNeXt-101模型,利用Instagram上的用戶標(biāo)記圖片作為預(yù)訓(xùn)練數(shù)據(jù)集,省去了人工標(biāo)記數(shù)據(jù)的巨額成本,而且使用中只需微調(diào),性能即超越了ImageNet任務(wù)的SOTA水平。

目前,幾乎所有最先進(jìn)的視覺感知算法都依賴于相同的范式:(1)在手動(dòng)注釋的大型圖像分類數(shù)據(jù)集上預(yù)訓(xùn)練卷積網(wǎng)絡(luò),(2)在較小的特定任務(wù)的數(shù)據(jù)集上微調(diào)網(wǎng)絡(luò)。這個(gè)模式已經(jīng)廣泛使用了好多年,并取得了明顯的進(jìn)展。比如:物體檢測,語義分割,人體姿勢估計(jì),視頻識(shí)別,單眼深度估計(jì)等。

事實(shí)上,如果沒有有監(jiān)督式預(yù)訓(xùn)練,很多方法現(xiàn)在還被認(rèn)為是一種蠻干 ImageNet數(shù)據(jù)集實(shí)際上是預(yù)訓(xùn)練數(shù)據(jù)集。我們現(xiàn)在實(shí)際上對(duì)數(shù)據(jù)集的預(yù)訓(xùn)練了解相對(duì)較少。其原因很多:比如現(xiàn)存的預(yù)訓(xùn)練數(shù)據(jù)集數(shù)量很少,構(gòu)建新數(shù)據(jù)集是勞動(dòng)密集型的工作,需要大量的計(jì)算資源來進(jìn)行實(shí)驗(yàn)。然而,鑒于預(yù)訓(xùn)練過程在機(jī)器學(xué)習(xí)相關(guān)領(lǐng)域的核心作用,擴(kuò)大我們?cè)谶@一領(lǐng)域的科學(xué)知識(shí)是非常重要的。

本文試圖通過研究一個(gè)未開發(fā)的數(shù)據(jù)體系來解決這個(gè)復(fù)雜的問題:使用外部社交媒體上數(shù)十億的帶有標(biāo)簽的圖像作為數(shù)據(jù)源。該數(shù)據(jù)源具有大而且不斷增長的優(yōu)點(diǎn),而且是“免費(fèi)”注釋的,因?yàn)閿?shù)據(jù)不需要手動(dòng)標(biāo)記。顯而易見,對(duì)這些數(shù)據(jù)的訓(xùn)練將產(chǎn)生良好的遷移學(xué)習(xí)結(jié)果。

本文的主要成果是,在不使用手動(dòng)數(shù)據(jù)集管理或復(fù)雜的數(shù)據(jù)清理的情況下,利用數(shù)千個(gè)不同主題標(biāo)簽作為標(biāo)記的數(shù)十億幅Instagram圖像進(jìn)行訓(xùn)練的模型,表現(xiàn)出了優(yōu)異的傳輸學(xué)習(xí)性能。在目標(biāo)檢測和圖像分類任務(wù)上實(shí)現(xiàn)了對(duì)當(dāng)前SOTA性能的提升。在ImageNet-1k圖像分類數(shù)據(jù)集上獲得single-crop 最高準(zhǔn)確率達(dá)到了85.4%,AP達(dá)到了45.2%。當(dāng)在ImageNet-1k上訓(xùn)練(或預(yù)訓(xùn)練)相同模型時(shí),分?jǐn)?shù)分別為79.8%和43.7%。然而,我們的主要目標(biāo)是提供關(guān)于此前未開發(fā)的制度的新實(shí)驗(yàn)數(shù)據(jù)。為此,我們進(jìn)行了大量實(shí)驗(yàn),揭示了一些有趣的趨勢。

表1:圖像分類數(shù)據(jù)集的摘要。每個(gè)數(shù)據(jù)集標(biāo)明數(shù)據(jù)來源和功能(訓(xùn)練集,驗(yàn)證集,測試集),圖像數(shù)量I和標(biāo)簽數(shù)量L。

ImageNet數(shù)據(jù)集和模型

除了標(biāo)準(zhǔn)的IN-1k數(shù)據(jù)集之外,我們還嘗試了包含1420萬幅圖像和22000標(biāo)簽的完整ImageNet2011完整版本的更大子集。我們構(gòu)建了包含5k和9k標(biāo)簽的訓(xùn)練集和驗(yàn)證集。

對(duì)于5k標(biāo)簽集組,我們使用現(xiàn)在標(biāo)準(zhǔn)的IN-5k(6.6M訓(xùn)練圖像)。對(duì)于9k標(biāo)簽集,我們遵循用于構(gòu)建IN-5k數(shù)據(jù)集的相同協(xié)議,采用下一個(gè)最頻繁的4k標(biāo)簽和所有相關(guān)圖像(10.5M訓(xùn)練圖像)。在兩種情況下,均使用50個(gè)圖像進(jìn)行驗(yàn)證。

我們使用具有分組卷積層的殘差網(wǎng)絡(luò)ResNeXt 。實(shí)驗(yàn)中使用ResNeXt-101 32×Cd,它有101層,32組,組寬分別為:4(8B乘加FLOPs,43M參數(shù)),8(16B,88M),16(36B,193M), 32(87B,466M)和48(153B,829M)。我們認(rèn)為實(shí)驗(yàn)結(jié)果可以推廣到其他架構(gòu)。

與ImageNet相比,我們使用的Instagram數(shù)據(jù)集可能包含每個(gè)圖像的多個(gè)標(biāo)簽(因?yàn)橛脩糁付硕鄠€(gè)主題標(biāo)簽)。每個(gè)圖像的平均標(biāo)簽數(shù)量因數(shù)據(jù)集而異;例如,train-IG-1B-17k每個(gè)圖像最多包含2個(gè)主題標(biāo)簽。

實(shí)驗(yàn)結(jié)果與性能

表2:使用不同規(guī)模、不同參數(shù)配置的ResNeXt-101模型獲得的不同性能結(jié)果比較

圖1:使用不同規(guī)模和參數(shù)配置的ResNeXt-101模型在ImageNet和Instagram標(biāo)記數(shù)據(jù)集的分類性能的比較

運(yùn)行實(shí)例及相關(guān)代碼

# Download an example image from the pytorch websiteimport urlliburl, filename = ("https://github.com/pytorch/hub/raw/master/dog.jpg", "dog.jpg")try: urllib.URLopener().retrieve(url, filename)except: urllib.request.urlretrieve(url, filename)

# sample execution (requires torchvision)from PIL import Imagefrom torchvision import transformsinput_image = Image.open(filename)preprocess = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),])input_tensor = preprocess(input_image)input_batch = input_tensor.unsqueeze(0) # create a mini-batch as expected by the model# move the input and model to GPU for speed if availableif torch.cuda.is_available(): input_batch = input_batch.to('cuda') model.to('cuda')with torch.no_grad(): output = model(input_batch)# Tensor of shape 1000, with confidence scores over Imagenet's 1000 classesprint(output[0])# The output has unnormalized scores. To get probabilities, you can run a softmax on it.print(torch.nn.functional.softmax(output[0], dim=0))

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    96

    瀏覽量

    12105
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8488

    瀏覽量

    134010
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1222

    瀏覽量

    25263

原文標(biāo)題:何愷明團(tuán)隊(duì)新作ResNext:Instagram圖片預(yù)訓(xùn)練,挑戰(zhàn)ImageNet新精度

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Facebook手機(jī)明年或上市 采用Firefox OS系統(tǒng)

    Facebook手機(jī)一事同Facebook達(dá)成了合作協(xié)議,手機(jī)在明年下半年推出,并將搭載Firefox OS操作系統(tǒng)。”除此之外,該博客還放出了一張Facebook手機(jī)概念圖。圖片中的
    發(fā)表于 12-31 09:04

    Facebook 最新推出的虛擬現(xiàn)實(shí)世界,簡直好玩到炸裂

    `導(dǎo)讀:在虛擬世界里互動(dòng)?這件事可絕對(duì)不像聽起來那么無聊。Facebook 今天在自己的開發(fā)者大會(huì)F8上推出了虛擬現(xiàn)實(shí)社交網(wǎng)絡(luò)平臺(tái) Facebook Spaces,簡直好玩到炸裂!可能你還記得在去年
    發(fā)表于 04-21 09:25

    蘋果音箱月產(chǎn)大跌 Facebook智能音箱延至10月

      導(dǎo)讀:亞馬遜公司的Echo智能音箱,被稱為蘋果手機(jī)發(fā)售以來科技行業(yè)最重大發(fā)明,全世界幾乎所有的大型科技公司都模仿亞馬遜推出了智能音箱。據(jù)外媒最新消息,Facebook的隱私泄露丑聞?dòng)绊懙搅嗽摴?/div>
    發(fā)表于 04-25 09:30

    Facebook智能音箱可能先在國際市場推出 隱私問題受到關(guān)注

      導(dǎo)讀:據(jù)外媒報(bào)道,據(jù)知情人士稱,Facebook正考慮在國際市場上率先推出其智能音箱產(chǎn)品,以避免因數(shù)據(jù)隱私問題在美國遭到公開審查。此外,這兩款智能音箱將內(nèi)置一款語音助手,它使用的基礎(chǔ)技術(shù)與公司在
    發(fā)表于 05-09 09:29

    如何加速電信領(lǐng)域AI開發(fā)?

    所在的電信領(lǐng)域?qū)﹂_發(fā)者業(yè)務(wù)知識(shí)要求高,且電信場景多樣化、網(wǎng)絡(luò)設(shè)備復(fù)雜,華為推出的這款電信領(lǐng)域AI開發(fā)平臺(tái)到底如何幫助開發(fā)者攻克電信領(lǐng)域AI開發(fā)的障礙?我們或可從
    發(fā)表于 02-25 06:53

    基于暗原色先驗(yàn)的單幅圖像去霧算法

    這是去霧算法的翻譯版,個(gè)人翻譯,原汁原味,簡單易懂。
    發(fā)表于 11-19 15:05 ?10次下載

    Bloomsbury AI團(tuán)隊(duì)加入Facebook團(tuán)隊(duì),共同構(gòu)建新的自然語言杜絕假新聞

    當(dāng)然,本次的收購對(duì)于Facebook來說,意義重大,Bloomsbury AI可以幫助其監(jiān)控社交網(wǎng)絡(luò)和監(jiān)管虛假新聞和違禁內(nèi)容。目前,Facebook面臨著用戶隱私泄露、虛假新聞不斷等負(fù)面消息,然而,Bloomsbury
    發(fā)表于 07-09 20:02 ?398次閱讀

    Facebook推出ONNX,旨在為不同編程框架的神經(jīng)網(wǎng)絡(luò)創(chuàng)建共享模型

    今年9月,Facebook宣布推出“開源神經(jīng)網(wǎng)絡(luò)交換”(ONNX),呼吁其他公司加入,旨在為不同編程框架的神經(jīng)網(wǎng)絡(luò)創(chuàng)建共享模型。今天,Facebook聯(lián)合AWS和微軟宣布,在合作伙伴的
    的頭像 發(fā)表于 12-28 16:12 ?4407次閱讀

    Facebook重組Building 8,原團(tuán)隊(duì)項(xiàng)目將分?jǐn)傊羶蓚€(gè)團(tuán)隊(duì)

    Facebook會(huì)把一些實(shí)驗(yàn)性硬件項(xiàng)目,如腦機(jī)接口、軟體機(jī)器人和通過皮膚穿戴設(shè)備“聽”的項(xiàng)目等轉(zhuǎn)移到Facebook Reality Labs中。原Building 8團(tuán)隊(duì)曾圍繞AR / VR技術(shù)
    的頭像 發(fā)表于 12-20 09:02 ?4105次閱讀

    Facebook構(gòu)建虛擬空間訓(xùn)練AI

    近日,Facebook推出一個(gè)開源的模擬數(shù)據(jù)集,希望幫助研究人員創(chuàng)建更加真實(shí)的AR/VR體驗(yàn),最終目的是幫助 AI 了解物理世界的環(huán)境。
    的頭像 發(fā)表于 06-18 17:07 ?3424次閱讀

    Facebook推出新款AI打牌機(jī)器人 可打敗專業(yè)對(duì)手

    Facebook推出AI 打牌機(jī)器人,已經(jīng)獲得了多人協(xié)作性上的全面提升。外媒報(bào)道稱,新機(jī)器人可在德州撲克和 Go 等流行棋盤游戲上打敗專業(yè)選手。上周五的時(shí)候,該公司 AI 研究
    發(fā)表于 12-09 15:10 ?2636次閱讀

    Facebook推出AI模型,希望給計(jì)算機(jī)視覺領(lǐng)域帶來一次“革命”   

    3月5日消息,Facebook的研究人員推出了一種新的AI模型,該模型可以從網(wǎng)上任何未標(biāo)記圖像的中學(xué)習(xí),這是一項(xiàng)突破,盡管該
    的頭像 發(fā)表于 03-05 13:49 ?1210次閱讀

    耐能團(tuán)隊(duì)上線新款AI模型體驗(yàn)工具Showroom

    近期,耐能團(tuán)隊(duì)上線了一款新的AI模型體驗(yàn)工具「Showroom」。
    的頭像 發(fā)表于 05-31 10:35 ?1283次閱讀

    NVIDIA 為全球企業(yè)帶來生成式 AI 推出用于創(chuàng)建大型語言模型和視覺模型的云服務(wù)

    AI驅(qū)動(dòng)的應(yīng)用構(gòu)建自定義模型 ? 加利福尼亞州圣克拉拉 – GTC – 太平洋時(shí)間 2023年3月21日 – 為了加速企業(yè)應(yīng)用生成式AI,NVIDIA今日宣布推出一套云服務(wù),使企業(yè)能
    發(fā)表于 03-22 13:45 ?452次閱讀
    NVIDIA 為全球企業(yè)帶來生成式 <b class='flag-5'>AI</b>  <b class='flag-5'>推出</b>用于創(chuàng)建大型語言<b class='flag-5'>模型</b>和視覺<b class='flag-5'>模型</b>的云服務(wù)

    開源大模型FLM-101B:訓(xùn)練成本最低的超100B參數(shù)大模型

    近期,一支來自中國的研究團(tuán)隊(duì)正是針對(duì)這些問題提出了解決方案,他們推出了FLM-101B模型及其配套的訓(xùn)練策略。FLM-101B不僅大幅降低了
    的頭像 發(fā)表于 09-12 16:30 ?1820次閱讀
    開源大<b class='flag-5'>模型</b>FLM-<b class='flag-5'>101</b>B:訓(xùn)練成本最低的超100B參數(shù)大<b class='flag-5'>模型</b>