女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

了解亞馬遜云科技搭建智能搜索大語言模型增強方案的快速部署流程

科技新思路 ? 來源:科技新思路 ? 作者:科技新思路 ? 2023-11-10 11:08 ? 次閱讀

背景

知識庫需求在各行各業(yè)中普遍存在,例如制造業(yè)中歷史故障知識庫、游戲社區(qū)平臺的內(nèi)容知識庫、電商的商品推薦知識庫和醫(yī)療健康領(lǐng)域的掛號推薦知識庫系統(tǒng)等。為保證推薦系統(tǒng)的實效性和準確性,需要大量的數(shù)據(jù)/算法/軟件工程師的人力投入和包括硬件在內(nèi)的物力投入。那么在自己的環(huán)境中搭建智能搜索大語言模型增強方案是必不可少的。因此,本篇內(nèi)容主要為大語言模型方案的快速部署。該方案部署流程并不復(fù)雜,只需要您對于亞馬遜科技相關(guān)服務(wù)有一個基本的了解即可。

方案架構(gòu)圖與功能原理

wKgZomVNnqKAM6EwAAVEXBYRdQk526.png

該方案分為以下幾個核心功能模塊:

前端訪問界面:該方案提供了基于React的前端訪問界面。用戶可以通過網(wǎng)頁以REST API的形式進行智能文檔搜索等功能的操作。

REST API:通過集成了相應(yīng)Amazon API Gateway和Amazon Lambda函數(shù)的實現(xiàn)和后端搜索引擎,數(shù)據(jù)庫和模型推理端點交互。

企業(yè)搜索引擎:基于Amazon OpenSearch或Amazon Kendra。可以基于雙向反饋的學(xué)習機制,自動持續(xù)迭代提高輸出匹配精準度。同時采用引導(dǎo)式搜索機制,提高搜索輸入描述的精準度。

數(shù)據(jù)源存儲:可選用多種存儲方式如數(shù)據(jù)庫,對象存儲等,在這里Amazon Kendra通過連接器獲取Amazon S3上的對象。

向量化數(shù)據(jù)注入:采用Amazon SageMaker的Notebook模塊或者Amazon Lambda程序?qū)⒃紨?shù)據(jù)向量化后的數(shù)據(jù)注入Amazon OpenSearch。

智能搜索/引導(dǎo)/問答等功能模塊:采用Amazon Lambda函數(shù)實現(xiàn)和后端搜索引擎,數(shù)據(jù)庫和模型推理端點交互。

記錄數(shù)據(jù)庫:用戶反饋記錄存儲在數(shù)據(jù)庫Amazon DynamoDB。

機器學(xué)習模型:企業(yè)可以根據(jù)自身需要構(gòu)建大語言模型和詞向量模型,將選取好的模型托管到Amazon SageMaker的endpoint節(jié)點。

反饋優(yōu)化:用戶在前端頁面反饋最優(yōu)搜索結(jié)果,通過手動或事件觸發(fā)器Amazon EventBridge觸發(fā)新的訓(xùn)練任務(wù)并且重新部署到搜索引擎。

插件式應(yīng)用:利用該方案核心能力可以與Amazon Lex集成以實現(xiàn)智能會話機器人功能,也可以與Amazon Connect集成實現(xiàn)智能語音客服功能。

實施步驟介紹

以smart-search v1版本為例,為大家講解方案的整個部署流程。

1、環(huán)境準備

首先您需要在您的開發(fā)環(huán)境中安裝好python 3、pip以及npm等通用工具,并保證您的環(huán)境中擁有16GB以上的存儲空間。根據(jù)您的使用習慣,您可以在自己的開發(fā)筆記本(Mac OS或Linux環(huán)境)上部署,也可以選擇EC2或者Cloud9進行部署。

2、CDK自動部署

2.1 獲取代碼安裝Amazon CDK包

獲取代碼后把代碼拷貝到指定目錄下。打開終端窗口,進入smart_search的軟件包,并切換到名為deployment文件夾下:

wKgaomVNnqKAU_8KAAAHUCW1kug676.png

進入到deployment目錄后,相應(yīng)的CDK部署操作均在該目錄下進行。然后安裝Amazon CDK包。

2.2 安裝CDK自動化部署腳本所需的所有依賴項和環(huán)境變量

在deployment目錄下運行以下命令安裝依賴庫:

wKgZomVNnqKAR7sPAAAHNXAbATQ298.png

然后將您的12位亞馬遜云科技賬號信息、Acess Key ID、Secret Access Key、以及需要部署的Region ID導(dǎo)入到環(huán)境變量中:

wKgaomVNnqOAb3zKAAAW6lG4ANQ756.png

然后運行“cdk bootstrap”安裝賬戶和目標區(qū)域內(nèi)的CDK工具包,例如:

wKgZomVNnqOAI0ydAAALN37u1jw400.png

2.3 在cdk.json可以進行自定義配置

該方案的默認配置文件在deployment目錄下的cdk.json文件中,如果想要自行配置需要部署哪些功能模塊,可以根據(jù)需要修改cdk.json的“context”部分。例如,如果需要修改部署哪些功能函數(shù),可以對“selection”值進行修改。

默認的參數(shù)如下所示:

wKgaomVNnqOAPGNLAAAMovFgrlA000.png

如果僅需要使用“支持knn的文檔搜索功能”,可以僅保留“knn_doc”。除此之外,還可以選擇通過修改cdk.json的其他相應(yīng)參數(shù)來自定義部署方式、部署哪些插件和名稱和路徑等配置。

2.4 CDK命令自動化署

運行下面的命令將驗證環(huán)境并生成Amaon CloudFormation的json模版:

wKgZomVNnqSAfLR2AAADyPQIbvE812.png

如果沒有報錯,則運行以下命令部署全部堆棧。

wKgaomVNnqSAbCyYAAAEzRBl5KY022.png

CDK部署將提供相關(guān)Amazon CloudFormation堆棧以及相關(guān)資源,例如Amazon Lambda、Amazon API Gateway、Amazon OpenSearch實例和Amazon SageMaker的notebook實例等,預(yù)計安裝的部署時間大約為30分鐘左右。

3、利用Amazon SageMaker的Notebook實例部署模型與數(shù)據(jù)導(dǎo)入

3.1 部署模型

3.1.1進入Amazon SageMaker控制臺,進入NoteBook Instances,選擇SmartSearchNoteBook實例,點擊“Open Jupyter”,進入SmartSearch的代碼主目錄,點擊“isearchjupyter”目錄進入,能看到包括Embbeding Model、LLM_Model等目錄,這兩個目錄包含模型部署腳本,而Script-Doc.ipynb腳本則會用于后面的文檔上傳,目錄如下圖所示:

wKgZomVNnqSANpcMAADIeUVskK0551.png

3.1.2首先安裝Embbeding Model,進入“/isearchjupyter/Embbeding Model”目錄,能看到對應(yīng)的幾個腳本。其中“EmbbedingModel_shibing624_text2vec-base-chinese.ipynb”為中文的詞向量模型,其他兩個為英文,打開相應(yīng)腳本依次運行單元格,開始部署embbeding model。等待script部署完畢,成功部署后會在Amazon SageMaker的endpoint中看到名為“huggingface-inference-eb”的endpoint,狀態(tài)為“InService”。

3.1.3然后部署大語言模型,LLM_Model目錄下當前包含了中文和英文的大語言模型庫。這里先為大家介紹中文的大語言模型的部署方法,找到isearchjupyter/LLM_Model/llm_chinese/code/inference.py,該文件定義了大語言模型的統(tǒng)一部署方法。大語言模型可以通過唯一的名稱進行部署,把該唯一名稱聲明為“LLM_NAME”的參數(shù)值,作為參數(shù)傳遞給部署腳本。可以根據(jù)大語言模型的文檔來確定“LLM_NAME”的值。打開網(wǎng)址后對照該文檔找到該模型部署的唯一名稱,然后粘貼到為“LLM_NAME”賦值的位置即可,可以參照該方法舉一反三,指定項目中需要使用的大語言模型。修改inference.py文件后進入“isearchjupyter/LLM_Model/llm_chinese/“目錄,運行該目錄的script。等待script 部署完畢,成功部署后會在Amazon SageMaker的endpoint中看到名為“pytorch-inference-llm-v1”的endpoint。

如果選擇部署英文大語言模型,部署方式類似,需要將英文大語言模型的參數(shù)填入LLM_Model/llm_english/code/inference.py文件的“LLM_NAME”參數(shù)中。找到該大語言模型項目名稱,則然后復(fù)制該名稱再粘貼到為“LLM_NAME”賦值的位置,可以用該方法進行舉一反三,指定任意一個滿足業(yè)務(wù)需求的大語言模型。進入“isearchjupyter/LLM_Model/llm_english/”的目錄下,依次運行該目錄下英文大語言模型的腳本的部署單元格。如下圖所示:

wKgaomVNnqWAe0jgAAMfUcMqzx8249.png

3.1.4安裝完成后,看到兩個endpoint已經(jīng)在”InService”狀態(tài),如下圖:

wKgZomVNnqaAL9GDAAFsWk3P7BA671.png

3.2 知識庫數(shù)據(jù)上傳

3.2.1數(shù)據(jù)準備。進入jupyter的目錄“/isearchjupyter”,在“docs”目錄,將上傳所需要的word、excel或pdf等格式的文檔進行上傳,該文件夾下已經(jīng)提供了用于測試的樣例文件“sample.docx”。

3.2.2 進入Script-Doc.ipynb,修改單元格“Hyperparameter”的如下參數(shù),folder_path為指定的docs目錄,index_name為Amazon OpenSearch的index名稱,如下圖:

wKgaomVNnqaAK04yAAJBu9Xds2o376.png

然后從頭運行這個script,完成數(shù)據(jù)導(dǎo)入。

4、配置Web UI

4.1 進入smart_search/ search-web-knn目錄,該目錄包含基于React的前端界面代碼。然后對/src/pages/common/constants.js文件進行編輯,如下圖所示:

wKgZomVNnqiAUeY7AAGhAHeBXBA827.png

Mainapi常變量指定了前端調(diào)用的API入口。該值可以從網(wǎng)頁端進入API Gateway中獲取,進入“smartsearch-api”的Stages側(cè)邊欄,將prod stage的involke URL賦值給constants.js的mainapi常變量。

4.2 檢查主頁面參數(shù)配置。smart_search/search-web-knn/src/pages/MainSearchDoc.jsx為功能展示頁面,在該文件的last_index參數(shù)設(shè)置了頁面自動填充的默認index值,將上文Notebook實例部署的index name填入,如“docs”。

4.3 運行前端界面。進入目錄 search-web-knn,執(zhí)行如下兩條命令:

wKgaomVNnqiAXZ4CAAAD1u0XlR8234.png

然后運行以下命令啟動前端界面:

wKgZomVNnqiAL6xWAAADmwpxB6g782.png

一切順利的話,將得到一個網(wǎng)頁版界面。在本地開發(fā)筆記本部署的默認訪問地址和端口號是localhost:3000,如果是EC2部署,需要啟用對應(yīng)端口訪問的安全組策略,通過EC2的公網(wǎng)地址加端口號進行訪問。該前端頁面的使用方法為:將問題輸入搜索欄,配置index名稱和k-NN選項,點擊“Search”按鈕后您可以得到一個基于企業(yè)知識庫的大語言模型匯總回答。如下圖所示:

wKgaomVNnqmAcdgAAARyP4EmVQQ146.png

5、安裝擴展插件

5.1 與Amazon Lex集成實現(xiàn)智能聊天機器人

本方案已經(jīng)集成了Amazon Lex的會話機器人功能,Amazon Lex當前在海外區(qū)可用。在cdk.json文件中,將“bot”加入extension鍵值處。

cdk部署成功后進入管理界面可以看到名為“l(fā)lmbot”的對話機器人,如下圖:

wKgZomVNnqqABmczAAE2WV-iqK4858.png

該機器人可以方便地進行前端頁面的集成。

5.2 與Amazon Connect集成實現(xiàn)智能語音客服

Amazon Connect為亞馬遜云科技的云呼叫中心服務(wù),該服務(wù)當前在海外區(qū)可用。該方案可以通過Amazon Lex機器人將大語言模型能力集成到Amazon Connect云呼叫中心中,通過以下幾個步驟可以使您獲得一個支持語音呼叫功能的智能客服機器人。

5.2.1 將上一步生成的llmbot機器人集成到現(xiàn)有Amazon Connect實例中。

wKgaomVNnqqAe0gnAAFH2fb4i0A454.png

5.2.2 然后進入Amazon Connect實例中,將smart-search/extension/connect里面的文件導(dǎo)入到Contact Flow中,并保存和發(fā)布。

5.2.3 最后在Amazon Connect中將呼入號碼與上一步配置的Contact Flow進行關(guān)聯(lián)。則所有呼入該號碼的語音通話將會連接到智能客服的呼叫服務(wù)流程。

正常情況下,智能客服將會識別呼入人的語音輸入,隨后集成到Amazon Connect的智能客服機器人會基于企業(yè)知識庫信息和大語言模型的能力進行以接近人類的邏輯方式進行語音回答。

6、資源清理

想要將資源進行清理時,請使用以下命令將所有堆棧進行刪除:

wKgZomVNnquAdFpbAAAE_YXVcKs829.png

注意:通過Amazon SageMaker的Notebook實例創(chuàng)建的推理模型資源需要進行手動刪除,在Amazon SageMaker的“inference”邊欄進入“endpoint”,點擊“delete”,將所有endpoint進行刪除。

當堆棧創(chuàng)建的Amazon S3桶中已經(jīng)有了數(shù)據(jù)或者存在其他手動創(chuàng)建或修改的資源時,則也需要手動刪除。

總結(jié)

通過此次部署,已經(jīng)成功掌握了該方案的部署方法,也對該方案有了更深的了解。亞馬遜云科技將會對該方案進行持續(xù)的迭代與優(yōu)化以支持更多的數(shù)據(jù)類型、模型庫與擴展功能,進而將方案的能力延伸到更多的業(yè)務(wù)場景中去。該方案可以解決許多行業(yè)和領(lǐng)域的專業(yè)或通用場景,通過使用該方案可以使用人工智能的最新進展和亞馬遜云科技的產(chǎn)品來為行業(yè)發(fā)展注入新的活力。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    558

    瀏覽量

    10667
  • 亞馬遜
    +關(guān)注

    關(guān)注

    8

    文章

    2691

    瀏覽量

    84433
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    如何使用Docker部署模型

    隨著深度學(xué)習和大模型快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?158次閱讀

    HarmonyOS5服務(wù)技術(shù)分享--Serverless抽獎模板部署

    手把手教你部署HarmonyOS Serverless抽獎活動模板(附貼心提醒) 嘿,小伙伴們!今天給大家分享一個超實用的教程——如何用華為HarmonyOS的Serverless模板快速搭建抽獎
    發(fā)表于 05-22 20:25

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運行,采用C++版本的無法實現(xiàn)部署 嘗試解決過程 1.考慮到可能是固件不匹配的問題,重新燒錄了流程(生成模型后給的readme)中要求的固件,依舊無
    發(fā)表于 03-11 06:19

    RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

    安裝交叉編譯工具鏈,以編譯RKLLM Runtime可執(zhí)行文件,該程序包含模型初始化、模型推理、回調(diào)函數(shù)處理輸出和模型資源釋放等全部流程。 (5)
    發(fā)表于 02-27 16:45

    科技獲亞馬遜科技生成式AI能力認證

    的應(yīng)用上展現(xiàn)出了卓越的能力。 聚科技通過整合亞馬遜科技的先進技術(shù),從應(yīng)用范圍確定、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應(yīng)用集成與
    的頭像 發(fā)表于 02-19 10:33 ?373次閱讀

    科技榮獲亞馬遜科技生成式AI能力認證

    Bedrock等技術(shù),從應(yīng)用范圍、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應(yīng)用集成與部署等方面,助力企業(yè)加速生成式AI應(yīng)用落地。此外,聚科技還基于亞馬遜
    的頭像 發(fā)表于 02-14 16:07 ?327次閱讀

    亞馬遜科技發(fā)布Amazon Trainium2實例

    的發(fā)布,標志著亞馬遜科技在人工智能訓(xùn)練和部署領(lǐng)域邁出了重要一步。 為了滿足用戶對高性能和高性價比的雙重需求,亞馬遜
    的頭像 發(fā)表于 12-27 14:57 ?552次閱讀

    亞馬遜科技與SAP推出GROW with SAP解決方案

    近日,亞馬遜科技與SAP攜手宣布了一項重要合作——在亞馬遜科技平臺上提供GROW with SAP解決方案。這一舉措旨在幫助各種規(guī)模的企
    的頭像 發(fā)表于 12-24 16:44 ?654次閱讀

    基于亞馬遜科技的GROW with SAP解決方案 助力企業(yè)簡化云端ERP部署

    GROW with SAP解決方案將上架亞馬遜科技Marketplace,助力企業(yè)快速應(yīng)用ERP軟件,并利用前沿生成式AI解決
    的頭像 發(fā)表于 12-09 15:11 ?507次閱讀

    飛利浦與亞馬遜科技擴展戰(zhàn)略合作,增強HealthSuite服務(wù)能力并賦能生成式AI工作流

    ,全球健康科技領(lǐng)導(dǎo)者荷蘭皇家飛利浦與亞馬遜科技擴展戰(zhàn)略合作,提供基于云端的飛利浦醫(yī)療信息化解決方案,覆蓋放射學(xué)、數(shù)字病理學(xué)、心臟病學(xué)1和人工智能高級可視化1等多個領(lǐng)域。此次合作旨在統(tǒng)
    發(fā)表于 12-04 15:04 ?403次閱讀
    飛利浦與<b class='flag-5'>亞馬遜</b><b class='flag-5'>云</b>科技擴展戰(zhàn)略合作,<b class='flag-5'>增強</b>HealthSuite<b class='flag-5'>云</b>服務(wù)能力并賦能生成式AI工作流

    搭建開源大語言模型服務(wù)的方法

    本文我們將總結(jié)5種搭建開源大語言模型服務(wù)的方法,每種都附帶詳細的操作步驟,以及各自的優(yōu)缺點。
    的頭像 發(fā)表于 10-29 09:17 ?623次閱讀

    亞馬遜科技上線Meta Llama 3.2模型

    亞馬遜科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon
    的頭像 發(fā)表于 10-11 18:08 ?690次閱讀

    亞馬遜科技正式上線Meta Llama 3.2模型

    亞馬遜科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?797次閱讀

    GE醫(yī)療與亞馬遜科技達成戰(zhàn)略合作,通過生成式AI加速醫(yī)療健康領(lǐng)域轉(zhuǎn)型

    GE醫(yī)療已選擇亞馬遜科技作為其戰(zhàn)略服務(wù)合作伙伴,致力于推出全新的定制化基礎(chǔ)模型,加速創(chuàng)新醫(yī)療應(yīng)用快速開發(fā)。 ? GE醫(yī)療將利用
    發(fā)表于 08-29 16:38 ?392次閱讀

    亞馬遜科技接入百川智能和零一萬物基礎(chǔ)模型

    近日,亞馬遜科技在中國峰會上宣布,兩大中文基礎(chǔ)模型——百川智能的Baichuan2-7B和零一萬物的Yi-1.5 6B/9B/34B,即將或已正式登陸中國區(qū)域的SageMaker J
    的頭像 發(fā)表于 06-04 11:53 ?743次閱讀