谷歌本周發布了一個工具集附件,允許開發人員使用機器學習模型更好地控制私有數據的泄漏。
TensorFlow隱私模塊采用了一種更新的方法來測試海量數據集中的漏洞,該數據集中包含用于醫療,面部識別和監視等目的的信息。
Google于一年前建立了TensorFlow隱私庫,以幫助開發人員在機器學習項目中實現更高的準確性,同時降低損害數據庫中所包含主題的個人數據的風險。谷歌當時表示:“現代機器學習正越來越多地用于創建令人驚嘆的新技術和用戶體驗,其中許多涉及培訓機器,以負責任地從敏感數據(例如個人照片或電子郵件)中學習。我們打算將TensorFlow Privacy開發為同類最佳的技術中心,用于訓練具有強大隱私保護功能的機器學習模型。”
在2019年發布時,TensorFlow Privacy依靠一種稱為差異隱私的概念,在該概念中,數據集內的組模式在公共范圍內共享,而屏蔽了構成數據集的個人的鏈接。在深度學習應用程序中,開發人員通常旨在對通用模式進行編碼,而不是幫助識別參與者并威脅匿名的特定細節。
實現此目的的一種方法是引入有限的“噪聲”,以幫助保護用戶的身份。然而,這種噪聲具有降低精度的風險。
Google在本周宣布的TensorFlow模塊中采用了一種新方法。TensorFlow Privacy應用名為“成員推斷攻擊”的測試,可以建立一個分數,揭示模型對泄露信息的脆弱程度。
谷歌在其TensorFlow博客上表示:“具有成本效益的成員推斷攻擊可以預測在培訓期間是否使用了特定的數據。”“如果攻擊者能夠進行高精度的預測,那么他們很可能會成功地弄清楚訓練集中是否使用了數據。成員推斷攻擊的最大優點是易于執行且不會需要任何再培訓?!?/p>
谷歌說:“這些測試最終可以幫助開發者社區確定更多結合了隱私設計原則和數據處理選擇的架構?!?/p>
Google認為這是“健壯的隱私測試套件”的起點,由于其易用性,各種技能水平的機器學習開發人員都可以使用它。
隨著越來越多的機構依賴于需要大量數據的機器學習項目,對隱私的關注也越來越高。去年,由于在出版之前未征得受試者的許可,微軟被迫從其全球分布的MS Celeb面部識別培訓計劃中刪除了超過1000萬張圖像。越來越多的人擔心胸部X光片可能會暴露個人信息,因此Google匆匆放棄了與Ascension的健康數據共享項目。
蘋果和谷歌對圍繞數以百萬計的AI代理(例如Siri和Google Assistant)的用戶使用弱保護隱私的行為提出了批評,據報道,人們在未經授權的情況下存儲和訪問了來自人手機及其房屋的錄音。
-
Google
+關注
關注
5文章
1788瀏覽量
58701 -
機器學習
+關注
關注
66文章
8493瀏覽量
134162 -
數據集
+關注
關注
4文章
1223瀏覽量
25295
發布評論請先 登錄
谷歌發布混合量子模擬方法
車身附件檢測項目詳述

評論