女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型的陰面:無法忽視的安全隱憂

科技云報到 ? 來源:jf_60444065 ? 作者:jf_60444065 ? 2023-09-22 19:02 ? 次閱讀

科技云報道原創(chuàng)。

AI大模型的身上,竟也出現(xiàn)了“to be or not to be”問題。

爭議是伴隨著大模型的能力驚艷四座而來的,爭議的核心問題在于安全。安全有兩個方面,一個是大模型帶來的對人類倫理的思考,一個是大模型本身帶來的隱私泄漏、數(shù)據(jù)安全等問題。

埃隆·馬斯克應該可以說是對大模型發(fā)起質(zhì)疑的企業(yè)家之一。早在ChatGPT誕生之初,馬斯克等一千多名業(yè)界、學界人士聯(lián)署發(fā)表公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng),暫停至少6個月。

時至今日,馬斯克依舊對外表達的態(tài)度是,人工智能是一把雙刃劍,對人工智能方面的監(jiān)管是強烈共識,可能會出現(xiàn)某種形式的監(jiān)管機構(gòu)。

圍繞著AI大模型的安全,不少國內(nèi)專家學者以及企業(yè)家們也有了更多的思考和發(fā)聲。9月初,中國科學院院士何積豐曾發(fā)言談到,目前大模型面臨的安全問題涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

另一方面,隨著AI大模型在行業(yè)中的廣泛應用,對合規(guī)和數(shù)據(jù)保護的需求急劇上升。在“云、大、物、移”四大網(wǎng)絡(luò)安全場景之后,大模型正逐漸成為新的市場增長點。

不少企業(yè)開始圍繞大模型安全視角推出產(chǎn)品,掀起了一陣AI安全、數(shù)據(jù)安全等新興安全領(lǐng)域的火熱之風。

大模型的“陰面” 安全問題不容忽視

發(fā)展至今,大模型陰陽兩面,涇渭分明。不少人早已經(jīng)感受到了大模型的“陽面”,應該不少人早已經(jīng)開始嘗試,將其作為提升工作效率的工具。

但大模型的“陰面”,關(guān)于安全的討論不絕于耳。最典型的安全案例,三星機密數(shù)據(jù)外泄事件仍然記憶猶新。

上文中也曾提到,中國科學院院士何積豐發(fā)言指出,大模型當前面臨的安全問題主要涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

隱私保護問題的是,在未經(jīng)允許的情況下,大模型是否會收集、使用和泄露個人信息。

價值觀對齊問題的是,使得大模型的價值觀與人類的價值觀相對齊。使得大模型按照設(shè)計者的意愿行事,而不作出超出意圖之外的舉動。

在價值觀對齊方面,由于人類社會的價值觀是多元化的,且有用的人工智能與無害的人工智能往往存在沖突,這導致了大模型價值觀對齊存在很大的難度。

具體來看,大模型的包含多個關(guān)鍵要素,數(shù)據(jù)、算法模型以及應用層等,每一個要素中,都有不少安全問題需要面對。

在數(shù)據(jù)層,安全問題主要集中在數(shù)據(jù)泄露、數(shù)據(jù)污染等。三星的案例,其實就在于數(shù)據(jù)層面存在一定的泄漏風險。

數(shù)據(jù)可以說是構(gòu)成大模型的骨骼,為其提供了基礎(chǔ)支撐。

機器學習深度學習的領(lǐng)域中,數(shù)據(jù)的獲取、加工及利用的方式?jīng)Q定了模型的性能和準確性。但是,數(shù)據(jù)層面的安全隱患卻是不可避免的。

其中最常見的問題包括數(shù)據(jù)的非法泄漏,這可能導致敏感信息暴露;數(shù)據(jù)被惡意篡改,這可能導致訓練出的模型有誤導性;還有非法獲取或使用未經(jīng)授權(quán)的數(shù)據(jù),這不僅違法,還可能使得模型偏離了其原本的目的。

這些隱患都可能對模型的訓練和應用帶來不良影響,使其失去原有的效果甚至產(chǎn)生誤導。

與數(shù)據(jù)安全同等重要的,是算法模型的安全。

在現(xiàn)代社會,大模型的訓練往往需要消耗巨大的計算力,因此很多資源都集中在特定的數(shù)據(jù)中心

這就為潛在的攻擊者提供了機會,他們可能會針對這些數(shù)據(jù)中心進行攻擊,試圖更改模型的參數(shù)或者整體結(jié)構(gòu)。一旦成功,模型的輸出可能會完全不可控,產(chǎn)生不可預知的結(jié)果。

另外,還有一種更加隱蔽的攻擊方式——對抗性攻擊。這種攻擊的目的是使模型在某些特定的輸入下產(chǎn)生錯誤的輸出,這在一些關(guān)鍵領(lǐng)域如醫(yī)療診斷、金融決策等方面,可能會帶來嚴重后果。

到應用層,安全隱患也十分嚴重。比如說生成內(nèi)容的有害性和準確性、濫用模型生成虛假信息等。

如何防止已部署的模型被惡意篡改?如何確保在模型進行數(shù)據(jù)推斷的過程中,用戶的私人數(shù)據(jù)不會被非法獲取或泄露?這些都是在模型部署時必須要考慮的問題。

此前,就有人嘗試向大模型發(fā)問,“野生娃娃魚的做法”,大模型給出的回答是“紅燒”,并且寫出了具體的步驟。這就很容易“誤導”提問者。實際上,野生娃娃魚屬于國家二級保護動物,不能捕捉、捕殺甚至食用。

為了應對這些隱患,可能需要一系列的安全措施,包括但不限于數(shù)據(jù)加密、模型的版本控制和運行環(huán)境的隔離等。

AI大模型安全問題 的解決之道

大模型問題出現(xiàn)后,外界對于監(jiān)管的呼聲是最為熱烈的。

在新技術(shù)飛速發(fā)展的當下,政府與各類監(jiān)管機構(gòu)成為確保AI大模型安全運行的重要力量。他們可以通過制定和實施嚴格的數(shù)據(jù)隱私法規(guī),為大模型的安全使用提供法律保障。

今年4月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用。其中的第七條涉及到生成式人工智能服務(wù)提供者數(shù)據(jù)來源的合法性問題。

這也意味著國家已經(jīng)開始出手應對大模型火熱帶來的一些列的安全問題。

7月,網(wǎng)信中國官微消息稱,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局公布了《生成式人工智能服務(wù)管理暫行辦法》。

這其中就明確生成式人工智能服務(wù)提供者應當依法開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型;涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán);涉及個人信息的,應當取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;采取有效措施提高訓練數(shù)據(jù)質(zhì)量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性。

此外,明確了數(shù)據(jù)標注的相關(guān)要求。

監(jiān)管之下,國內(nèi)的大模型也迎來了合理合法合規(guī)的發(fā)展期。最新的消息是,目前國內(nèi)已經(jīng)有11家大模型陸續(xù)通過《生成式人工智能服務(wù)管理暫行辦法》備案,并逐步面向大眾開放。

監(jiān)管之下,技術(shù)本身也可以在大模型安全上有所行動。AI守護AI,技術(shù)反哺技術(shù)。

“利器攻利器”。AI技術(shù)本身不僅是可能的威脅,更是解決問題的關(guān)鍵。

對抗性訓練就是其中的佳例,它可以讓模型在面對惡意輸入時仍然保持其穩(wěn)定性,從而增強模型對各類對抗攻擊的防御力。除此之外,我們還可以考慮利用AI技術(shù)對模型的輸出進行實時監(jiān)控,及時發(fā)現(xiàn)并糾正模型的異常行為。

另外,目前也有不少安全企業(yè)提出通過可信計算、差分隱私、聯(lián)邦學習等技術(shù)手段確保數(shù)據(jù)隱私安全。

此前,清華大學人工智能研究院副院長,北京智源人工智能研究院和瑞萊智慧首席科學家朱軍在接受騰訊科技采訪時就曾提到過,為了解決大模型的安全問題,從技術(shù)方向來看,我們可以以“AI識別AI”的形式來應對。

朱軍表示,與進攻相比,防守其實更為困難。現(xiàn)在,我們正積極尋求多種手段以增強模型的抵御能力,并在模型的應用和布署階段實施多重保護策略。

比如在人臉鑒定系統(tǒng)中,我們設(shè)置人臉識別安全屏障,能在樣本進入決策階段前篩選并剔除攜帶潛在威脅或經(jīng)過對抗性修改的樣本,確保系統(tǒng)安全穩(wěn)定。這一技術(shù)手段已經(jīng)在銀行等行業(yè)中落地使用。

為了防范未然,開發(fā)者和企業(yè)在產(chǎn)品層面也必須下足功夫。嚴格的安全標準不僅僅是一紙文件,更應該深入到每一個開發(fā)與部署的細節(jié)中。

對于開發(fā)者和企業(yè)而言,對數(shù)據(jù)的處理要嚴格遵循隱私保護原則,確保每一位用戶的私人信息都得到妥善保管。另外,模型的開發(fā)與部署過程也需要經(jīng)過嚴格的審查,確保其不會對用戶和社會造成傷害。

大模型安全問題掀起行業(yè)新風向

目前,不少企業(yè)也關(guān)注到了大模型安全的問題,甚至推出了不少相關(guān)的產(chǎn)品和解決方案。這也掀起了一陣“安全潮”,風口也逐漸吹向了數(shù)據(jù)要素、網(wǎng)絡(luò)安全和隱私計算等相關(guān)產(chǎn)業(yè)上。

最近一段時間,可以明顯地看到網(wǎng)絡(luò)安全行業(yè)正在迎頭趕上這一挑戰(zhàn),大模型和數(shù)據(jù)安全新品不斷亮相,旨在滿足市場對于新興技術(shù)的安全需求。

今年的網(wǎng)絡(luò)安全博覽會成為了各大廠商展示大模型安全解決方案的初舞臺。比如,奇安信推出了名為Q-GPT的安全機器人,還發(fā)布了針對大模型數(shù)據(jù)泄露隱患的“大模型衛(wèi)士”; 綠盟科技在發(fā)布其安全大模型的同時,也推出了基于隱私計算的“數(shù)據(jù)保險箱”。

除此之外,安恒信息、深信服、三六零集團、螞蟻等公司也紛紛推出各自的大模型產(chǎn)品,為企業(yè)提供了多樣的選擇。這些新品的出現(xiàn)無疑證明了行業(yè)對于大模型安全的重視。

據(jù)中國網(wǎng)絡(luò)安全產(chǎn)業(yè)聯(lián)盟的數(shù)據(jù),2022年我國網(wǎng)絡(luò)安全產(chǎn)業(yè)規(guī)模達到了近633億元,預計在未來三年內(nèi),增速將保持在10%以上。隨著數(shù)據(jù)要素市場的逐步建立,大模型等前沿技術(shù)發(fā)揮出的應用價值越來越大,新的安全需求也隨之涌現(xiàn)。

隱私計算賽道同樣如此。

在2023年世界人工智能大會上,就有不少專家學者提到大模型時代隱私計算迎來全新機遇。現(xiàn)階段,隱私計算中包括可信執(zhí)行環(huán)境TEE、多方安全計算MPC等都有與大模型結(jié)合的探索,比如在云端部署TEE,用戶在推理時將輸入數(shù)據(jù)加密傳輸至云端,在其內(nèi)部解密然后進行推理。

復旦大學教授、上海市數(shù)據(jù)科學重點實驗室主任肖仰華表示,傳統(tǒng)的隱私計算如差分隱私、聯(lián)邦學習多是算法層開展工作。

不過算法工作前提是保護對象是明確的,協(xié)作機制清晰。大模型時代是海量參數(shù)化的模型,不透明、無邊界、不可解釋,對于以前的基于可解釋、清晰、可控的技術(shù)路線的隱私計算方法提供了全新挑戰(zhàn)。

華經(jīng)產(chǎn)業(yè)研究院的報告顯示,隨著中國互聯(lián)網(wǎng)技術(shù)的發(fā)展,中國隱私計算市場規(guī)模逐年增長,預計2025年中國隱私計算市場規(guī)模達192.2億元。

大模型已經(jīng)成為繼“云、大、物、移”之后的新戰(zhàn)場,被視為新的市場增量。

無論是為自己的客戶提供基于大模型的服務(wù),提高交付效率和競爭力,還是通過大模型應用提高企業(yè)自身生產(chǎn)效率,大模型正迅速進入企業(yè)IT中,與此對應的大模型安全也成為攻防焦點。

隨著各大公司在大模型安全方面的持續(xù)投入和創(chuàng)新,預期這一市場將帶動整個網(wǎng)絡(luò)安全行業(yè)邁向新的高度。

結(jié)語

AI大模型的發(fā)展不僅帶來了巨大的潛力,也伴隨著重大的安全挑戰(zhàn)。為了充分發(fā)揮AI的潛力并確保安全,政府、企業(yè)和網(wǎng)絡(luò)安全公司需要共同努力,采取綜合性的措施來解決這些問題。只有這樣,我們才能在AI時代中邁出堅實的步伐。

【關(guān)于科技云報道】

專注于原創(chuàng)的企業(yè)級內(nèi)容行家——科技云報道。成立于2015年,是前沿企業(yè)級IT領(lǐng)域Top10媒體。獲工信部權(quán)威認可,可信云、全球云計算大會官方指定傳播媒體之一。深入原創(chuàng)報道云計算、大數(shù)據(jù)、人工智能、區(qū)塊鏈等領(lǐng)域。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    34146

    瀏覽量

    275311
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48677

    瀏覽量

    246376
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3020

    瀏覽量

    3812
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    將YOLOv4模型轉(zhuǎn)換為IR的說明,無法模型轉(zhuǎn)換為TensorFlow2格式怎么解決?

    遵照 將 YOLOv4 模型轉(zhuǎn)換為 IR 的 說明,但無法模型轉(zhuǎn)換為 TensorFlow2* 格式。 將 YOLOv4 darknet 轉(zhuǎn)換為 Keras 模型時,收到 Type
    發(fā)表于 03-07 07:14

    無法轉(zhuǎn)換TF OD API掩碼RPGA模型怎么辦?

    無法轉(zhuǎn)換重新訓練的 TF OD API 掩碼 RPGA 模型,該模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    發(fā)表于 03-06 06:44

    ONNX模型無法轉(zhuǎn)換為IR v10,為什么?

    使用以下命令將 ONNX* 模型轉(zhuǎn)換為 IR:mo --input_model model.onnx 該模型無法轉(zhuǎn)換為 IR v10,而是轉(zhuǎn)換為 IR v11。
    發(fā)表于 03-06 06:32

    Vgg16模型無法使用模型優(yōu)化器重塑怎么解決?

    Vgg16 模型無法使用模型優(yōu)化器重塑。
    發(fā)表于 03-06 06:29

    為什么Caffe模型可以直接與OpenVINO?工具套件推斷引擎API一起使用,而無法轉(zhuǎn)換為中間表示 (IR)?

    推斷 Caffe 模型直接基于 英特爾? 神經(jīng)電腦棒 2 (英特爾? NCS2)。 無法確定為什么 Caffe 模型可以直接與OpenVINO?工具套件推斷引擎 API 一起使用,而無法
    發(fā)表于 03-05 06:31

    生成式人工智能模型安全可信評測

    受到關(guān)注。但當前大模型仍然面臨可信瓶頸,無法開展大規(guī)模應用。大模型安全可信受到高度關(guān)注,國內(nèi)外已經(jīng)有多項法規(guī)與標準快速制定并落地。本文以層次化的結(jié)構(gòu),構(gòu)建了生成式人工智能的
    的頭像 發(fā)表于 01-22 13:55 ?885次閱讀
    生成式人工智能<b class='flag-5'>模型</b>的<b class='flag-5'>安全</b>可信評測

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應用大模型

    的功能和性能。因此,選擇具有良好可擴展性的模型可以適應未來業(yè)務(wù)的發(fā)展需求。在客服領(lǐng)域,處理客戶數(shù)據(jù)時可能涉及敏感信息。因此,在選擇模型時需要考慮其安全措施和隱私保護能力。確保數(shù)據(jù)傳輸和存儲過程中的
    發(fā)表于 12-17 16:53

    ADS 2011.10版本無法加載lmk04828 IBIS模型,為什么?

    ADS 2011.10版本無法加載lmk04828 IBIS模型
    發(fā)表于 11-13 07:06

    TLC555-Q1 spice模型到LTSPICE仿真軟件中提示無法解析是怎么回事?

    請教貴司提供的模型spice模型到LTSPICE仿真軟件中提示無法解析是怎么回事?
    發(fā)表于 11-08 07:42

    深信服發(fā)布安全GPT4.0數(shù)據(jù)安全模型

    近日,深信服在數(shù)據(jù)安全領(lǐng)域邁出了重要一步,正式發(fā)布了安全GPT4.0數(shù)據(jù)安全模型。這一創(chuàng)新的大模型技術(shù),旨在為用戶提供更高效、精準的數(shù)據(jù)
    的頭像 發(fā)表于 10-29 11:12 ?541次閱讀

    DAC8568 IBIS模型轉(zhuǎn)換成spice模型無法顯示所有引腳是什么原因?qū)е碌模吭趺唇鉀Q?

    你好,下載的DAC8568 IBIS模型,在cadence中生成spice模型無法顯示所有引腳,只有一個INPUT引腳,沒有其他引腳,導致無法進行電路繪制和仿真,請問是什么原因,應
    發(fā)表于 09-09 06:14

    將amc1200 SPICE模型轉(zhuǎn)成PSPICE模型無法在ORCAD16.5中使用,為什么?

    我按TI提供之文件 [ 在PSpice中使用Spice模型 ]將amc1200之SPICE模型轉(zhuǎn)成PSPICE模型后卻無法在ORCAD16.5中使用,不知是否是SPICE轉(zhuǎn)換PSPI
    發(fā)表于 08-29 07:25

    TiNa無法導入tlp520的Pspice模型的原因?怎么解決?

    TiNa無法導入tlp520的Pspice模型
    發(fā)表于 08-15 08:26

    京東云智能編程助手與安全模型雙雙獲獎!

    “AI技術(shù)創(chuàng)新應用”,京東云與深圳市信息安全管理中心聯(lián)合申報的“安全模型保障大模型應用落地實踐”入選“AI最佳落地實踐”。 開發(fā)者在日常工作中面臨著諸多繁重的開發(fā)工作,如撰寫業(yè)務(wù)或功
    的頭像 發(fā)表于 07-17 16:32 ?486次閱讀
    京東云智能編程助手與<b class='flag-5'>安全</b>大<b class='flag-5'>模型</b>雙雙獲獎!

    人工智能大模型在工業(yè)網(wǎng)絡(luò)安全領(lǐng)域的應用

    隨著人工智能技術(shù)的飛速發(fā)展,人工智能大模型作為一種具有強大數(shù)據(jù)處理能力和復雜模式識別能力的深度學習模型,已經(jīng)在多個領(lǐng)域展現(xiàn)了其獨特的優(yōu)勢和廣闊的應用前景。在工業(yè)網(wǎng)絡(luò)安全領(lǐng)域,人工智能大模型
    的頭像 發(fā)表于 07-10 14:07 ?1521次閱讀