谷歌發布TensorFlow Privacy:用以改善AI模型中的隱私
3月7日消息,據外媒報道,日前谷歌推出了一個基於機器學習框架TensorFlow的新模塊,可以讓開發人員只需要添加幾行額外代碼就可以改善AI模型的隱私。
打開今日頭條,查看更多圖片TensorFlow是目前用於構建機器學習應用程序的最流行的工具之一,它被世界各地的開發人員用於創建文本,音頻和圖像識別演算法等程序。隨著TensorFlow Privacy的引入,這些開發人員將能夠使用被稱為「差異隱私」的技術來保護用戶的數據。
谷歌產品經理Carey Radebaugh表示:」推出這款工具符合谷歌遵守人工智慧開發的原則。如果我們沒有將「差異隱私」引入到TensorFlow,那麼無論是對谷歌內部團隊還是外部使用者,在使用過程中都會遇到困難。因此,對我們來說,將「差異隱私」引入到TensorFlow是非常重要的。」
「差異隱私」的機制有些複雜,但它本質上是一種數學方法,這意味著在用戶數據上訓練的AI模型不會學習或記住特定用戶的詳細信息。
在數據隱私領域工作了20年的úlfarErlingsson表示:「『差異隱私』是一種從數據集中刪除可識別異常值而不改變數據的聚合含義的技術。」
但是,使用「差異隱私」有一些缺點。通過屏蔽異常值,它有時會刪除相關聯的或者有趣的數據,特別是在各種數據集中,例如涉及語言的數據集。但谷歌希望通過發布TensorFlow Privacy,讓全球更多的人工智慧開發人員使用這項技術,從而使這些問題能夠得到改善。
最後,úlfarErlingsson表示,只需使用四到五行代碼和一些超參數調整就可以為AI模型添加差異隱私,這本身就是一大進步。
由於人工智慧的本質很大程度上就是通過對數據的收集、整理和分析,為用戶提供更加人性化的服務。因此,如何保證用戶數據的安全也是人工智慧必須要面對的問題。可以說,谷歌為AI模型中的隱私保護提供了一個很好的工具。
※MWC2019 OPPO通訊技術獲新突破 5G更令人期待
※性價比手機排行:小米魅族穩坐Top3榜單
TAG:天極網 |