女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用OpenVINO GenAI API在C++中構建AI應用程序

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-10-12 09:36 ? 次閱讀

作者:

武卓 英特爾 AI 軟件布道師

介紹

許多桌面應用程序是使用 C++ 開發的,而將生成式AI(GenAI)功能集成到這些應用程序中可能會很具有挑戰性,尤其是因為使用像 Hugging Face 這樣的 Python 庫的復雜性。C++ 結合 OpenVINO Runtime 提供了一個更加簡化、輕量且內存高效的解決方案,尤其適用于 Windows 環境。你可以在此找到詳細的依賴項對比。

OpenVINO GenAI API 提供了一個原生的 C++ 接口,消除了對 Python 依賴的需求,使開發者可以用更高效的方式創建 AI 應用程序。下面是一個基于 Windows 操作系統的分步驟指南,手把手教你如何在 C++ 中構建 OpenVINO GenAI 應用程序。

第一步:下載并解壓OpenVINO壓縮包

訪問 OpenVINO下載頁面,

https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/download.html?PACKAGE=OPENVINO_BASE&VERSION=v_2024_4_0&OP_SYSTEM=WINDOWS&DISTRIBUTION=PIP

并點擊“Download Archives with GenAI”選擇最新版本。

40a6eefa-877f-11ef-b8af-92fbcf53809c.png

下載完成后,解壓該zip文件并將內容提取到

openvino_genai_windows_2024.3.0.0_x86_64

第二步:構建項目

確保你的電腦上已安裝以下軟件組件:

CMake 3.23 或更高版本

Microsoft Visual Studio 2019 或更高版本,16.3或更新

Python 3.8 或更高版本

打開命令窗口,并在下載并解壓后的 OpenVINO GenAI 文件夾中運行 setupvars.bat 文件:

openvino_genai_windows_2024.3.0.0_x86_64setupvars.bat

40c5375c-877f-11ef-b8af-92fbcf53809c.png

在同一個命令窗口中,OpenVINO 環境初始化后,導航到 samples/cpp/ 文件夾,然后運行 build_samples_msvc.bat。

當所有構建過程完成后,你可以在構建輸出中指示的路徑找到 chat_sample.exe 文件。

40d2cfa2-877f-11ef-b8af-92fbcf53809c.png40f6a7a6-877f-11ef-b8af-92fbcf53809c.png

第三步:下載和轉換LLM及分詞器

你有兩種選擇來為AI推理準備模型:

1. 下載已轉換的模型:從 Hugging Face 上的 OpenVINO LLMs 集合中直接下載模型:

pip install huggingface_hubhuggingface-cli download OpenVINO/TinyLlama-1.1B-Chat-v1.0-int4-ov --local-dir TinyLlama-1.1B-Chat-v1

請參閱此處的說明:

https://huggingface.co/OpenVINO/TinyLlama-1.1B-Chat-v1.0-int4-ov

在 Hugging Face 上的 OpenVINO LLMs 集合中還有其他可用模型,歡迎探索更多模型。

2. 本地轉換模型:使用 optimum Intel 在你的設備上轉換模型。請確保根據此處的詳細要求安裝所需的依賴項:

optimum-cli export openvino --model "TinyLlama/TinyLlama-1.1B-Chat-v1.0" --trust-remote-code "TinyLlama-1.1B-Chat-v1.0"

然后,你可以使用已構建的文件和LLM模型的路徑開始對話,例如:

chat_sample TinyLlama-1.1B-Chat-v1.0

第四步:運行模型

現在開始享受與基于LLM的聊天機器人進行對話吧!

注意,上述展示的是在CPU上運行LLM推理的示例,然而,只需在

openvino_genai_windows_2024.3.0.0_x86_64samplescppchat_sample.cpp

文件中的以下兩行代碼中將“CPU”替換為“GPU”,就可以輕松切換為在GPU上運行推理,并再次構建:

std::string device = "GPU"; // GPU can be used as wellov::LLMPipeline pipe(model_path, device);

結論:

使用 OpenVINO GenAI API 在 C++ 中構建 AI 應用程序只需幾個步驟。探索并嘗試這個 API,充分釋放其潛力吧!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    10165

    瀏覽量

    173913
  • AI
    AI
    +關注

    關注

    87

    文章

    34146

    瀏覽量

    275319
  • C++
    C++
    +關注

    關注

    22

    文章

    2117

    瀏覽量

    74772
  • OpenVINO
    +關注

    關注

    0

    文章

    113

    瀏覽量

    413

原文標題:如何用 C++ 構建 OpenVINO? 生成式 AI 應用|開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    C#集成OpenVINO?:簡化AI模型部署

    開源測控、機器視覺、數采與分析三大領域中,如何快速將AI模型集成到應用程序, 實現AI賦能和應用增值? 最容易的方式是:
    的頭像 發表于 02-17 10:03 ?1823次閱讀
    <b class='flag-5'>C</b>#集成<b class='flag-5'>OpenVINO</b>?:簡化<b class='flag-5'>AI</b>模型部署

    Ubuntu上搭建OpenVINO C++程序開發環境

    應用 Anomalib 和 OpenVINO 實現瑕疵檢測的過程,經常會在 Ubuntu 下訓練并部署 AI 模型。筆者一直 Wind
    發表于 08-09 09:42 ?1320次閱讀
    <b class='flag-5'>在</b>Ubuntu上搭建<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C++</b><b class='flag-5'>程序</b>開發環境

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實現快速高效的語義分割。在前文中我們發表了《基于 OpenVINO Python
    的頭像 發表于 11-17 09:53 ?1268次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C++</b> <b class='flag-5'>API</b>部署FastSAM模型

    OpenVINO?運行應用程序失敗怎么解決?

    嘗試 OpenVINO? 運行我的推理應用程序失敗,并出現以下錯誤: RuntimeError: Check \'false\' failed at src/core/src/ru
    發表于 03-05 10:29

    如何部署OpenVINO?工具套件應用程序

    編寫代碼并測試 OpenVINO? 工具套件應用程序后,必須將應用程序安裝或部署到生產環境的目標設備。 OpenVINO?部署管理器指南包
    發表于 03-06 08:23

    使用OpenVINO運行C++ API創建輸入tensor并執行推理遇到的問題求解

    使用 OpenVINO? 運行時 C++ API 創建輸入 tensor 并執行推理: ov::Tensor input_tensor = ov::Tensor(input_type
    發表于 08-15 08:22

    Raspberry Pi上從源代碼構建OpenVINO 2021.3收到錯誤怎么解決?

    Raspberry Pi 上從源代碼構建 OpenVINO?2021.3。 運行OpenVINO?推理,并收到錯誤消息: ModuleNotFoundError:沒有
    發表于 08-15 08:24

    跨平臺C++圖形用戶界面應用程序QT4文教程手冊

    跨平臺C++圖形用戶界面應用程序QT4文教程手冊
    發表于 08-29 14:22 ?0次下載

    OpenVINO? C++ API編寫YOLOv8-Seg實例分割模型推理程序

    本文章將介紹使用 OpenVINO 2023.0 C++ API 開發YOLOv8-Seg 實例分割(Instance Segmentation)模型的 AI 推理
    的頭像 發表于 06-25 16:09 ?2080次閱讀
    用<b class='flag-5'>OpenVINO</b>? <b class='flag-5'>C++</b> <b class='flag-5'>API</b>編寫YOLOv8-Seg實例分割模型推理<b class='flag-5'>程序</b>

    OpenVINO? C# API詳解與演示

    OpenVINO C# API 支持 NuGet 程序包安裝方式,這與 OpenVINO C++
    的頭像 發表于 10-13 16:39 ?1132次閱讀
    <b class='flag-5'>OpenVINO</b>?  <b class='flag-5'>C</b># <b class='flag-5'>API</b>詳解與演示

    基于OpenVINO C++ API部署RT-DETR模型

    應用,我們為了與當前軟件平臺集成更多會采用 C++ 平臺,因此本文中,我們將基于 OpenVINO C++
    的頭像 發表于 11-03 14:30 ?1409次閱讀
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C++</b> <b class='flag-5'>API</b>部署RT-DETR模型

    基于OpenVINO C# API部署RT-DETR模型

    Python API 部署 RT-DETR 模型 | 開發者實戰》和《基于 OpenVINO C++ API 部署 RT-DETR 模型 | 開發者實戰》,
    的頭像 發表于 11-10 16:59 ?1075次閱讀
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C</b># <b class='flag-5'>API</b>部署RT-DETR模型

    使用OpenVINO GenAI API的輕量級生成式AI

    機器人的進步很快、變化不斷,很難預測接下來會有什么突破,開發者應該關注什么。我們知道生成式AI將繼續存在,開發人員希望看到本地開發、維護和部署 AI 應用程序的更簡潔明了的方法。
    的頭像 發表于 07-24 15:08 ?1034次閱讀

    OpenVINO2024 C++推理使用技巧

    很多人都使用OpenVINO新版的C++ 或者Python的SDK,都覺得非常好用,OpenVINO2022之后的版本C++ SDK做了大量的優化與整理,已經是非常貼近開發的使用習慣與
    的頭像 發表于 07-26 09:20 ?1432次閱讀

    C#中使用OpenVINO?:輕松集成AI模型!

    與分析三大領域中,如何快速將AI模型集成到應用程序,實現AI賦能和應用增值?最容易的方式是:C
    的頭像 發表于 02-07 14:05 ?718次閱讀
    <b class='flag-5'>C</b>#中使用<b class='flag-5'>OpenVINO</b>?:輕松集成<b class='flag-5'>AI</b>模型!