女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從零開始訓練一個大語言模型需要投資多少錢?

jf_23871869 ? 來源:jf_23871869 ? 作者:jf_23871869 ? 2024-11-08 14:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一,前言

AI領域,訓練一個大型語言模型(LLM)是一個耗時且復雜的過程。幾乎每個做大型語言模型(LLM)訓練的人都會被問到:“從零開始,訓練大語言模型需要多久和花多少錢?”雖然網上有很多關于訓練技巧和模型評估的文章,但很少有直接告訴你如何估算訓練時間和成本的。前面分享了一些關于大模型/本地知識庫的安裝部署方法,無需編寫代碼,即可使用Ollama+AnythingLLM搭建企業私有知識庫,或者,三步完成Llama3.2在算力魔方的INT4量化和部署...本篇文章就教你一個簡單的方法,幫你快速估算基于大語言模型權重大小、數據量以及可用GPU算力訓練大語言模型所需的時間和成本。

二,估算方法

訓練模型時,處理數據和更新模型參數需要大量的計算,我們用浮點運算次數(FLOPs)來表示。首先,我們要估算處理一個token所需的FLOPs,包括前向傳遞和反向傳遞兩個部分。

  • 前向傳遞:

每個token的前向傳遞涉及的加乘操作數大約為:

FLOPsforward= 2 x N2+2 x N x Dmodel

這里N表示模型的參數量,Dmodel是模型的維度。系數2來源于矩陣乘法中的累加操作。

  • 反向傳遞:

大約需要前向傳遞的兩倍計算量,因為要計算權重和激活值的梯度。

FLOPsbackward=(2 x N2+2 x N x Dmodel)x 2

  • 所以,一個token總的計算量大概是前向傳遞的三倍。因此,每個訓練token的浮點運算可以估算為:

FLOPstotal=(2 x N2+2 x N x Dmodel)x 3

三,GPU性能

現在大多數模型都是用GPU來訓練的。不同的GPU有不同的性能,比如NVIDIA的H100、A100或V100。每個GPU的性能可以用每秒浮點運算次數(FLOPS)來衡量。不過,實際訓練時,由于多GPU之間的通信等因素,實際性能可能達不到理論上的最高值。

GPU Model Peak FLOPS (FP32)
H100 67 TFLOPS
A100 19.5 TFLOPS
V100 14 TFLOPS

一個重要的概念是模型FLOPS利用率(MFU),它反映了實際計算效率與理論最大值的比例。通常情況下,隨著GPU數量的增加,MFU會下降。LLaMA 3的研究者們用16,000個GPU訓練模型時,每個GPU的實際效率為380 teraflops,MFU為38%。

wKgaoWctrHiAWQXlAAAUop8DYW8628.png

四,實際案例

1,l Llama 3 405B 參數模型

LLaMA 3.1(405B參數)是在15.6萬億token的數據集上訓練的。訓練這樣一個規模的模型所需的總FLOPs可以通過以下方式計算:

  • 模型大小N = 405B
  • 數據集大小P = 15.6T

模型使用了16,000個H100 GPU進行訓練。據了解,平均吞吐量為每個GPU 400 teraflops。這意味著訓練基礎設施可以提供的總吞吐量為:

TotalThroughput

=400TFLOPs/GPU×16,000GPUs

=6.4ExaFLOPs

最后,通過將所需的總FLOPs除以可用吞吐量,并將結果轉換為天數(因為我們真正關心的是訓練天數),我們可以得到訓練時間。

3.8 x 1025FLOPs ÷ 6.4 x1018FLOPs/秒 =61

2,成本估算

訓練模型不僅耗時,還非常昂貴。以LLaMA 3.1為例,如果一個H100 GPU每小時的費用是2美元,那么用16,000個H100訓練這個模型的總成本大約為2 x 24 x 61 x 16,000 = 46,848,000美元。

五,總結

訓練大型語言模型是一項技術復雜且資金密集的任務。從零開始,把一個LLaMA 3.1(405B參數)的模型在15.6萬億token數據集上訓練出來,大約需要花費61天(假設沒有訓練中斷)和46,848,000美元(僅估算GPU租金、數據集制作費用和研發人力成本未計入),你算對了嗎?

更多精彩內容請點擊下方名片,關注“算力魔方?”公眾號!


審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    35093

    瀏覽量

    279504
  • 語言模型
    +關注

    關注

    0

    文章

    561

    瀏覽量

    10787
  • 大模型
    +關注

    關注

    2

    文章

    3138

    瀏覽量

    4059
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    從零開始之電機FOC控制

    我們將撕開FOC神秘而虛偽的面紗,以說人話的方式講述它。真正的做到從零開始,小白看就會,學就廢。如果覺得有用的話,就點個贊唄,純手碼。、什么是FOC?FOC
    的頭像 發表于 04-23 19:34 ?1790次閱讀
    <b class='flag-5'>從零開始</b>之電機FOC控制

    從零開始學電源

    從零開始學電源···內部篇 從零開始學電源---------內部篇 (寫這篇文的著眼點就在“從零開始”上,所以涉及到些詞匯和技術的時候,我會采取戲說的方式。網上電源高手甚多,且科班出
    發表于 04-07 15:30

    小白學大模型訓練語言模型的深度指南

    在當今人工智能飛速發展的時代,大型語言模型(LLMs)正以其強大的語言理解和生成能力,改變著我們的生活和工作方式。在最近的項研究中,科學家們為了深入了解如何高效地
    的頭像 發表于 03-03 11:51 ?715次閱讀
    小白學大<b class='flag-5'>模型</b>:<b class='flag-5'>訓練</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的深度指南

    用PaddleNLP在4060單卡上實踐大模型訓練技術

    作者:算力魔方創始人/英特爾創新大使劉力 之前我們分享了《從零開始訓練個大語言模型
    的頭像 發表于 02-19 16:10 ?993次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b>預<b class='flag-5'>訓練</b>技術

    騰訊公布大語言模型訓練新專利

    語言模型訓練過程中引入第摘要文本和第二摘要文本,為模型提供了更為豐富的學習信息。這兩摘要
    的頭像 發表于 02-10 09:37 ?397次閱讀

    采用FP8混合精度,DeepSeek V3訓練成本僅557.6萬美元!

    , 前言? ? 在AI領域,訓練個大語言模型(LLM)是
    的頭像 發表于 01-13 11:12 ?1267次閱讀

    小白學大模型:構建LLM的關鍵步驟

    隨著大規模語言模型(LLM)在性能、成本和應用前景上的快速發展,越來越多的團隊開始探索如何自主訓練LLM模型。然而,是否
    的頭像 發表于 01-09 12:12 ?961次閱讀
    小白學大<b class='flag-5'>模型</b>:構建LLM的關鍵步驟

    云端語言模型開發方法

    云端語言模型的開發是復雜而系統的過程,涉及數據準備、模型選擇、訓練優化、部署應用等多個環節。
    的頭像 發表于 12-02 10:48 ?688次閱讀

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎模型。 ? 大模型簡稱,完整的叫法,應該是“人工智能預訓練模型”。預
    的頭像 發表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    如何訓練自己的LLM模型

    訓練自己的大型語言模型(LLM)是復雜且資源密集的過程,涉及到大量的數據、計算資源和專業知識。以下是
    的頭像 發表于 11-08 09:30 ?1499次閱讀

    語言模型如何開發

    語言模型的開發是復雜且細致的過程,涵蓋了數據準備、模型架構設計、訓練、微調和部署等多個階段
    的頭像 發表于 11-04 10:14 ?602次閱讀

    如何訓練自己的AI大模型

    訓練自己的AI大模型復雜且耗時的過程,涉及多個關鍵步驟。以下是詳細的
    的頭像 發表于 10-23 15:07 ?4949次閱讀

    摩爾線程與羽人科技完成大語言模型訓練測試

    (YuRen-7b)大語言模型訓練測試。測試結果顯示,訓練效率達到預期,夸娥千卡智算集群展現出了高度的兼容性和穩定性,為羽人科技未來的
    的頭像 發表于 08-27 16:19 ?821次閱讀

    使用AD8001放大100mv左右的信號,經過放大的信號低電平都是三點幾伏,不能夠從零開始,為什么?

    請問,如圖我想使用AD8001放大100mv左右的信號,然后使用比較器輸出信號進行計數,但是現在經過放大的信號低電平都是三點幾伏,不能夠從零開始,請問這是什么原因呢?如圖,紅色是需要
    發表于 08-20 06:17

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    的表達方式和生成能力。通過預測文本中缺失的部分或下一個詞,模型逐漸掌握語言的規律和特征。 常用的模型結構 Transformer架構:大語言
    發表于 08-02 11:03