Facebook成立專門倫理團隊 以防止AI軟體偏見
最新
05-06
騰訊證券訊 據美國財經媒體CNBC報道,社交網路巨頭Facebook(NASDAQ:FB)正面臨著前所未有的壓力,必須要證明自己的演算法部署是負責任的。
本周三,Facebook在F8大會上宣布該公司已經組建一個專門團隊來開發分立軟體,以確保其人工智慧(AI)系統作出的決定儘可能地符合倫理道德,不會出現偏見現象。
跟其他大型科技公司一樣,Facebook的產品也被數量龐大且多樣化的用戶群體所使用,而目前該公司正在自身服務中深度整合人工智慧技術。Facebook在本周早些時候表示,該公司將開始向通過其Messenger應用收取消息的用戶提供翻譯服務。翻譯系統必須首先在數據方面加以訓練,而Facebook在倫理道德方面作出的上述努力可能有助於確保該公司的系統能被教會作出公允的翻譯。(星雲)
轉載自:騰訊證券