女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用GPU和深度學習算法加速十億向量相似性搜索

星星科技指導員 ? 來源:NVIDIA ? 作者:Michelle Horton ? 2022-04-08 10:17 ? 次閱讀

基于 GPU 的功能, Facebook AI Research 的一個團隊開發了一種更快、更有效的 AI 運行相似性搜索的方法。這個 study ,發表于 IEEE 大數據交易 ,創建了一種深度學習算法,能夠處理和比較來自媒體的高維數據,速度明顯更快,同時與以前的技術一樣精確。

在一個數據供應量不斷增長的世界中,這項工作有望減輕處理大型庫所需的計算能力和時間。

“搜索和索引[高維數據]最直接的技術是蠻力比較,你需要對照數據庫中的其他圖像檢查[每個圖像]。這對于包含數十億載體的集合來說是不切實際的,”研究科萊德和 Facebook 的研究工程師杰夫·約翰遜在一份新聞稿中說。

包含數百萬像素和數據點的每幅圖像和視頻都會產生數十億個矢量。這些大量的數據對于分析、檢測、索引和比較向量非常有價值。計算大型庫與依賴于多個超級計算機組件的傳統 CPU 算法的相似性也存在問題,從而降低了總體計算時間。

研究人員只使用了四個 GPU 和 CUDA ,設計了一個 多 GPU 到宿主和***的算法分析庫圖像數據點。該方法還壓縮數據,使其更容易,從而更快地進行分析。

新算法在 35 分鐘內處理了 9500 多萬張高維圖像。 10 億個向量的圖形計算起來不到 12 小時。根據該研究中的一項比較測試,使用 128 臺 CPU 服務器集群處理同一數據庫需要 108 。 7 小時,約長 8 。 5 倍。

約翰遜說:“通過將計算完全放在 GPU 上,我們可以利用加速器上更快的內存,而不是處理 CPU 服務器上較慢的內存,甚至傳統超級計算機集群中較慢的機器對機器網絡互連。”。

研究人員表示,這些方法已經應用于各種各樣的任務,包括翻譯的語言處理搜索。被稱為 Facebook AI 相似性搜索庫的方法是 開源 用于實現、測試和比較。

關于作者

Michelle Horton 是 NVIDIA 的高級開發人員通信經理,擁有通信經理和科學作家的背景。她在 NVIDIA 為開發者博客撰文,重點介紹了開發者使用 NVIDIA 技術的多種方式。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5267

    瀏覽量

    105883
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4919

    瀏覽量

    130767
  • 服務器
    +關注

    關注

    13

    文章

    9723

    瀏覽量

    87408
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    Redis 8 向量搜索實測:輕松擴展至 10 億向量

    艾體寶Redis 8 向量搜索實測輕松支持 10 億向量,仍保持低延遲與高吞吐。中位延遲僅200毫秒,90%精確度;處理50并發搜索請求中位延遲僅1.3秒,95%精確度。
    的頭像 發表于 05-13 14:00 ?190次閱讀
    Redis 8 <b class='flag-5'>向量</b><b class='flag-5'>搜索</b>實測:輕松擴展至 10 億<b class='flag-5'>向量</b>

    深度學習工作負載中GPU與LPU的主要差異

    當前,生成式AI模型的參數規模已躍升至數十億乃至數萬億之巨,遠遠超出了傳統CPU的處理范疇。在此背景下,GPU憑借其出色的并行處理能力,已成為人工智能加速領域的中流砥柱。然而,就在GPU
    的頭像 發表于 12-09 11:01 ?3272次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>工作負載中<b class='flag-5'>GPU</b>與LPU的主要差異

    GPU深度學習中的應用 GPUs在圖形設計中的作用

    隨著人工智能技術的飛速發展,深度學習作為其核心部分,已經成為推動技術進步的重要力量。GPU(圖形處理單元)在深度學習中扮演著至關重要的角色,
    的頭像 發表于 11-19 10:55 ?1515次閱讀

    NPU在深度學習中的應用

    設計的硬件加速器,它在深度學習中的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習
    的頭像 發表于 11-14 15:17 ?1767次閱讀

    PyTorch GPU 加速訓練模型方法

    深度學習領域,GPU加速訓練模型已經成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度
    的頭像 發表于 11-05 17:43 ?1304次閱讀

    GPU深度學習應用案例

    GPU深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是
    的頭像 發表于 10-27 11:13 ?1186次閱讀

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學計算、數據分析、機器
    的頭像 發表于 10-25 09:23 ?552次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA加速
    的頭像 發表于 10-25 09:22 ?1114次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發表于 10-17 10:07 ?563次閱讀

    【「大模型時代的基礎架構」閱讀體驗】+ 第一、二章學習感受

    常用的機器學習算法,重點剖析了一元線性回歸算法,由此引出機器學習算法的運算特征,此后分別描述了使用CPU、
    發表于 10-10 10:36

    FPGA做深度學習能走多遠?

    并行計算的能力,可以在硬件層面并行處理大量數據。這種并行處理能力使得 FPGA 在執行深度學習算法時速度遠超傳統處理器,能夠提供更低的延遲和更高的吞吐量,從而加速模型訓練和推理過程,滿
    發表于 09-27 20:53

    深度學習算法在嵌入式平臺上的部署

    隨著人工智能技術的飛速發展,深度學習算法在各個領域的應用日益廣泛。然而,將深度學習算法部署到資源
    的頭像 發表于 07-15 10:03 ?2873次閱讀

    深度學習算法在集成電路測試中的應用

    隨著半導體技術的快速發展,集成電路(IC)的復雜和集成度不斷提高,對測試技術的要求也日益增加。深度學習算法作為一種強大的數據處理和模式識別工具,在集成電路測試領域展現出了巨大的應用潛
    的頭像 發表于 07-15 09:48 ?1749次閱讀

    利用Matlab函數實現深度學習算法

    在Matlab中實現深度學習算法是一個復雜但強大的過程,可以應用于各種領域,如圖像識別、自然語言處理、時間序列預測等。這里,我將概述一個基本的流程,包括環境設置、數據準備、模型設計、訓練過程、以及測試和評估,并提供一個基于Mat
    的頭像 發表于 07-14 14:21 ?3495次閱讀

    深度學習的基本原理與核心算法

    處理、語音識別等領域取得了革命的突破。本文將詳細闡述深度學習的原理、核心算法以及實現方式,并通過一個具體的代碼實例進行說明。
    的頭像 發表于 07-04 11:44 ?3590次閱讀