女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

CUDA學習筆記第一篇:一個基本的CUDA C程序

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-14 23:40 ? 次閱讀

來源:AI人工智能初學者
作者:ChaucerG

目錄

1、CUDA的簡介
2、GPU架構和CUDA介紹
3、CUDA架構
4、開發(fā)環(huán)境說明和配置
5、開始第一個Hello CUDA程序
5.1、VS2017創(chuàng)建NVIDIA CUDA項目
5.2、VS2017中輸入 CUDA代碼(附.cu代碼以及講解)
5.3、VS2017生成并開始執(zhí)行
參考

1、CUDA的簡介

計算統(tǒng)一設備架構(Compute Unified Device Architecture,CUDA)是由英偉達(NVIDIA)開發(fā)的一套非常流行的并行計算平臺和編程模型。它只支持NVIDIA GPU卡。OpenCL則用來為其他類型的GPU編寫并行代碼,比如AMD英特爾,但它比CUDA更復雜。CUDA可以使用簡單的編程API在圖形處理單元(GPU)上創(chuàng)建大規(guī)模并行應用程序。

使用C和C++的軟件開發(fā)人員可以通過使用CUDA C或C++來利用GPU的強大性能來加速他們的軟件應用程序。用CUDA編寫的程序類似于用簡單的C或C++編寫的程序,添加需要利用GPU并行性的關鍵字。CUDA允許程序員指定CUDA代碼的哪個部分在CPU上執(zhí)行,哪個部分在GPU上執(zhí)行。

2、GPU架構和CUDA介紹

GeForce 256是英偉達于1999年開發(fā)的第一個GPU。最初只用在顯示器上渲染高端圖形。它們只用于像素計算。后來,人們意識到如果可以做像素計算,那么他們也可以做其他的數(shù)學計算。現(xiàn)在,GPU除了用于渲染圖形圖像外,還用于其他許多應用程序中。這些GPU被稱為通用GPU(GPGPU)。

CPU具有復雜的控制硬件和較少的數(shù)據(jù)計算硬件。復雜的控制硬件在性能上提供了CPU的靈活性和一個簡單的編程接口,但是就功耗而言,這是昂貴的。而另一方面,GPU具有簡單的控制硬件和更多的數(shù)據(jù)計算硬件,使其具有并行計算的能力。這種結構使它更節(jié)能。缺點是它有一個更嚴格的編程模型。在GPU計算的早期,OpenGL和DirectX等圖形API是與GPU交互的唯一方式。對于不熟悉OpenGL或DirectX的普通程序員來說,這是一項復雜的任務。這促成了CUDA編程架構的開發(fā),它提供了一種與GPU交互的簡單而高效的方式。

一般來說,任何硬件架構的性能都是根據(jù)延遲和吞吐量來度量的。延遲是完成給定任務所花費的時間,而吞吐量是在給定時間內(nèi)完成任務的數(shù)量。這些概念并不矛盾。通常情況下,提高一個,另一個也會隨之提高。在某種程度上,大多數(shù)硬件架構旨在提高延遲或吞吐量。

同樣,正常的串行CPU被設計為優(yōu)化延遲,而GPU被設計為優(yōu)化吞吐量。CPU被設計為在最短時間內(nèi)執(zhí)行所有指令,而GPU被設計為在給定時間內(nèi)執(zhí)行更多指令。GPU的這種設計理念使它們在圖像處理和計算機視覺應用中非常有用,這也是本書的目的,因為我們不介意單個像素處理的延遲。我們想要的是在給定的時間內(nèi)處理更多的像素,這可以在GPU上完成。

綜上所述,如果我們想在相同的時鐘速度和功率要求下提高計算性能,那么并行計算就是我們所需要的。GPU通過讓許多簡單的計算單元并行工作來提供這種能力。現(xiàn)在,為了與GPU交互,并利用其并行計算能力,我們需要一個由CUDA提供的簡單的并行編程架構。

3、CUDA架構

CUDA架構包括幾個專門為GPU通用計算而設計的特性,這在早期的架構中是不存在的。它包括一個unified shedder管道,它允許GPU芯片上的所有算術邏輯單元(ALU)被一個CUDA程序編組。ALU還被設計成符合IEEE浮點單精度和雙精度標準,因此它可以用于通用應用程序。指令集也適合于一般用途的計算,而不是特定于像素計算。它還允許對內(nèi)存的任意讀寫訪問。這些特性使CUDA GPU架構在通用應用程序中非常有用。

所有的GPU都有許多被稱為核心(Core)的并行處理單元。

在硬件方面,這些核心被分為流處理器和流多處理器。GPU有這些流多處理器的網(wǎng)格。

在軟件方面,CUDA程序是作為一系列并行運行的多線程(Thread)來執(zhí)行的。每個線程都在不同的核心上執(zhí)行。可以將GPU看作多個塊(Block)的組合,每個塊可以執(zhí)行多個線程。每個塊綁定到GPU上的不同流多處理器。

CUDA程序員不知道如何在塊和流多處理器之間進行映射,但是調(diào)度器知道并完成映射。來自同一塊的線程可以相互通信。GPU有一個分層的內(nèi)存結構,處理一個塊和多個塊內(nèi)線程之間的通信。這將在接下來的章節(jié)中詳細討論。

作為一名程序員,你會好奇CUDA中的編程模型是什么,以及代碼將如何理解它是應該在CPU上執(zhí)行還是在GPU上執(zhí)行。我們將CPU及其內(nèi)存稱為主機(Host),GPU及其內(nèi)存稱為設備(Device)。CUDA代碼包含主機和設備的代碼。主機代碼由普通的C或C++編譯器在CPU上編譯,設備代碼由GPU編譯器在GPU上編譯。主機代碼通過所謂的內(nèi)核調(diào)用調(diào)用設備代碼。它將在設備上并行啟動多個線程。在設備上啟動多少線程是由程序員來決定的。

現(xiàn)在,你可能會問這個設備代碼與普通C代碼有何不同。答案是,它類似于正常的串行C代碼。只是這段代碼是在大量內(nèi)核上并行執(zhí)行的。然而,要使這段代碼工作,它需要設備顯存上的數(shù)據(jù)。因此,在啟動線程之前,主機將數(shù)據(jù)從主機內(nèi)存復制到設備顯存。線程處理來自設備顯存的數(shù)據(jù),并將結果存儲在設備顯存中。最后,將這些數(shù)據(jù)復制回主機內(nèi)存進行進一步處理。綜上所述,CUDA C程序的開發(fā)步驟如下:

1)為主機和設備顯存中的數(shù)據(jù)分配內(nèi)存。
2)將數(shù)據(jù)從主機內(nèi)存復制到設備顯存。
3)通過指定并行度來啟動內(nèi)核。
4)所有線程完成后,將數(shù)據(jù)從設備顯存復制回主機內(nèi)存。
5)釋放主機和設備上使用的所有內(nèi)存。

4、開發(fā)環(huán)境說明和配置

先決條件:

1、電腦具有支持cuda的GPU(一般具有獨立顯卡就可以,不過最好不要太老的版本);
2、英偉達顯卡驅動;
3、標準C編譯器;
4、CUDA開發(fā)工具包。

windows10下cuda工具包的安裝:

1、MicroSoft Visio Studio 2017的安裝(也可以是其他的版本,筆者使用的是2017)
2、下載cuda10.1安裝包(最新的是10.2);
3、直接點擊.exe文件進行安裝,選擇自定義安裝,所有選項均勾選;
4、配置CUDA系統(tǒng)環(huán)境變量(和配置深度學習環(huán)境一樣配置系統(tǒng)環(huán)境變量)。

5、開始第一個Hello CUDA程序

5.1、VS2017創(chuàng)建NVIDIA CUDA項目

步驟如下:

1)打開Microsoft Visual Studio。
2)進入File|New|Project。
3)依次選擇NVIDIA|CUDA 10.1|CUDA 10.1 Runtime。
4)為項目自定義名稱,然后單擊OK按鈕。
5)它將創(chuàng)建一個帶有kernel.cu示例文件的項目。現(xiàn)在雙擊打開這個文件。
6)從文件中刪除現(xiàn)有代碼,寫入前面編寫的那段代碼。
7)從生成(Build)選項卡中選擇生成(build)進行編譯,并按快捷鍵Ctrl+F5調(diào)試代碼。

5.2、VS2017中輸入 CUDA代碼

#include

與C編程的區(qū)別:

1)一個名為myfirstkernel的空函數(shù),前綴為/_/_global/_/_

2)使用<<1,1>>>調(diào)用myfirstkernel函數(shù)

/_/_global/_/_是CUDA C在標準C中添加的一個限定符,它告訴編譯器在這個限定符后面的函數(shù)定義應該在設備上而不是在主機上運行。在前面的代碼中,myfirstkernel將運行在設備上而不是主機上,但是,在這段代碼中,它是空的。

那么,main函數(shù)將在哪里運行?NVCC編譯器將把這個函數(shù)提供給C編譯器,因為它沒有被global關鍵字修飾,因此main函數(shù)將在主機上運行。

代碼中的第二個不同之處在于對空的myfirstkernel函數(shù)的調(diào)用帶有一些尖括號和數(shù)值。這是一個CUDA C技巧:從主機代碼調(diào)用設備代碼。它被稱為內(nèi)核調(diào)用。內(nèi)核調(diào)用的細節(jié)將在后面的章節(jié)中解釋。尖括號內(nèi)的值表示我們希望在運行時從主機傳遞給設備的參數(shù)。基本上,它表示塊的數(shù)量和將在設備上并行運行的線程數(shù)。因此,在這段代碼中,<<<1,1>>>表示myfirstkernel將運行在設備上的一個塊和一個線程或塊上。雖然這不是對設備資源的最佳使用,但是理解在主機上執(zhí)行的代碼和在設備上執(zhí)行的代碼之間的區(qū)別是一個很好的起點。

讓我們再來重溫和修改“Hello,CUDA!”代碼,myfirstkernel函數(shù)將運行在一個只有一個塊和一個線程或塊的設備上。它將通過一個稱為內(nèi)核啟動的方法從main函數(shù)內(nèi)部的主機代碼啟動。

5.3、VS2017生成并開始執(zhí)行

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4909

    瀏覽量

    130641
  • 人工智能
    +關注

    關注

    1804

    文章

    48677

    瀏覽量

    246358
  • CUDA
    +關注

    關注

    0

    文章

    122

    瀏覽量

    14054
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    功德+1,用小安派-Eyes-S1做一個電子木魚

    木魚聲響,煩惱走光光~敲電子木魚,品賽博人生,今天你的功德積累到多少了?2024年的第一篇教程來了,本篇學習如何添加LVGL事件,并制作完成
    的頭像 發(fā)表于 04-09 18:38 ?228次閱讀
    功德+1,用小安派-Eyes-S1做<b class='flag-5'>一個</b>電子木魚

    使用NVIDIA CUDA-X庫加速科學和工程發(fā)展

    NVIDIA GTC 全球 AI 大會上宣布,開發(fā)者現(xiàn)在可以通過 CUDA-X 與新代超級芯片架構的協(xié)同,實現(xiàn) CPU 和 GPU 資源間深度自動化整合與調(diào)度,相較于傳統(tǒng)加速計算架構,該技術可使計算工程工具運行速度提升至原來的 11 倍,計算規(guī)模增加至 5 倍。
    的頭像 發(fā)表于 03-25 15:11 ?560次閱讀

    STM32Cube學習筆記 (十六全)

    資料介紹: STM32Cube學習筆記步手把手帶你進入STM32Cube的世界,包括點燈,按鍵,串口,ADC,DAC等等共16
    發(fā)表于 03-22 17:02

    硅光第一篇:可調(diào)諧激光源

    作者:顧磊在1970年,美國康寧公司實現(xiàn)了項突破性進展,它將高錕博士的光纖理論轉化為現(xiàn)實,成功制造出世界上首根低損耗光纖,這成就開啟了光纖通信的新紀元。隨著光纖通信技術的迅猛發(fā)展,可調(diào)諧激光器在
    的頭像 發(fā)表于 03-05 10:20 ?549次閱讀
    硅光<b class='flag-5'>第一篇</b>:可調(diào)諧激光源

    FacenetPytorch人臉識別方案--基于米爾全志T527開發(fā)板

    : print('由于歐氏距離大于匹配閾值,故不匹配') 此代碼是使用訓練后的模型程序進行使用,在程序中需要標明人臉識別對比的圖像。2.實踐過程第一次運行時系統(tǒng)需要
    發(fā)表于 11-28 15:57

    PCI-E TLP學習筆記(1)

    今天給大俠帶來PCI-Express transaction Layer specification(處理層協(xié)議),本次PCIE TLP 學習經(jīng)驗分享分為三,今天帶來第一篇TLP概況(四種空間
    的頭像 發(fā)表于 11-06 09:14 ?2417次閱讀
    PCI-E TLP<b class='flag-5'>學習</b><b class='flag-5'>筆記</b>(1)

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--了解算力芯片GPU

    的 wavefront。 為了提高效率,GPGPU也擁有指令緩存。指令緩存是GPGPU流水線的第一個調(diào)度部分。 █GPGPU存儲體系與線程管理 GPGPU存儲體系本章描述方式采用了CUDA編程框架術語,基本上
    發(fā)表于 11-03 12:55

    有沒有大佬知道NI vision 有沒有辦法通過gpu和cuda來加速圖像處理

    有沒有大佬知道NI vision 有沒有辦法通過gpu和cuda來加速圖像處理
    發(fā)表于 10-20 09:14

    【「大模型時代的基礎架構」閱讀體驗】+ 第一、二章學習感受

    今天閱讀了《大模型時代的基礎架構》前兩章,還是比較輕松舒適的;再就是本書知識和我的工作領域沒有任何關聯(lián),切都是新鮮的,似乎每讀頁都會有所收獲,這種快樂的學習過程感覺也挺不錯的。 第一
    發(fā)表于 10-10 10:36

    怎么在TMDSEVM6678: 6678自帶的FFT接口和CUDA提供CUFFT函數(shù)庫選擇?

    請教下gpgpu上包括4Riscv cpu和DPU, 沒有6678,要替換原來信號處理用的6678,該怎么在6678自帶的FFT接口和CU
    發(fā)表于 09-27 07:20

    第一篇:V1.5-STM32f103c8t6智能小車筆記 標準庫開發(fā) 6612電機驅動新手入門項目

    這是全網(wǎng)最詳細、性價比最高的STM32實戰(zhàn)項目入門教程,通過合理的硬件設計和詳細的視頻筆記介紹,硬件使用STM32F103主控資料多方便學習,通過3萬字筆記、12多個小時視頻、20多章節(jié)代碼手把手教會你如何開發(fā)和調(diào)試。讓你更快掌
    的頭像 發(fā)表于 08-12 18:25 ?2301次閱讀
    <b class='flag-5'>第一篇</b>:V1.5-STM32f103<b class='flag-5'>c</b>8t6智能小車<b class='flag-5'>筆記</b> 標準庫開發(fā) 6612電機驅動新手入門項目

    【《大語言模型應用指南》閱讀體驗】+ 基礎

    今天開始學習《大語言模型應用指南》第一篇——基礎,對于人工智能相關專業(yè)技術人員應該可以輕松加愉快的完成此閱讀,但對于我還是有許多的知識點、專業(yè)術語比較陌生,需要網(wǎng)上搜索
    發(fā)表于 07-25 14:33

    打破英偉達CUDA壁壘?AMD顯卡現(xiàn)在也能無縫適配CUDA

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)直以來,圍繞CUDA打造的軟件生態(tài),是英偉達在GPU領域最大的護城河,尤其是隨著目前AI領域的發(fā)展加速,市場火爆,英偉達GPU+CUDA的開發(fā)生態(tài)則更加穩(wěn)固,AMD
    的頭像 發(fā)表于 07-19 00:16 ?5715次閱讀

    英國公司實現(xiàn)英偉達CUDA軟件在AMD GPU上的無縫運行

    7月18日最新資訊,英國創(chuàng)新科技企業(yè)Spectral Compute震撼發(fā)布了其革命性GPGPU編程工具包——“SCALE”,該工具包實現(xiàn)了英偉達CUDA軟件在AMD GPU上的無縫遷移與運行,標志著在GPU計算領域,NVIDIA長期以來的市場壟斷地位或將迎來重大挑戰(zhàn)。
    的頭像 發(fā)表于 07-18 14:40 ?963次閱讀

    軟件生態(tài)上超越CUDA,究竟有多難?

    電子發(fā)燒友網(wǎng)報道(文/周凱揚)近日,英偉達憑借持續(xù)上漲的股價,正式超過了微軟成為全球市值最高的公司,這固然離不開GPU這AI硬件的火熱,但之所以能舉做到世界第一,也離不開軟件的加持,真正將其推向
    的頭像 發(fā)表于 06-20 00:09 ?4214次閱讀