當前位置:
首頁 > 新聞 > 為防AI被濫用,微軟揮淚「斬」客戶

為防AI被濫用,微軟揮淚「斬」客戶

本文由人工智慧觀察編譯

譯者:Sandy

微軟研究實驗室(Microsoft Research Labs)的技術研究員兼主管Eric Horvitz表示,鑒於人們對人工智慧技術可能遭到濫用的擔憂,微軟決定「斬斷」其部分客戶。

本周一,卡內基梅隆大學—K&LGates道德與人工智慧大會在匹茲堡舉行。會上,Horvitz闡述了微軟對AI道德的承諾。在微軟,他們有一個專門關注這一問題的監督倫理委員會Aether,它代表了工程研究中的人工智慧與道德標準。

對此,Horvitz表示:「這是我們的努力...很高興,這個委員會『無話不說』。」為什麼這樣說呢?因為該委員會會審查微軟的AI技術如何被其客戶使用,並且會直接向高級領導層提出建議。

「公司主要的產品銷售已經暫停,」Horvitz說道。「而在其他銷售中,各種具體的限制都被寫在了使用說明中,包括在人臉識別或此類預測中可能不會使用數據驅動模式來進行識別等。」

儘管Horvitz提到了微軟的人權承諾,但他沒有對Aether委員會的工作做出詳細解釋,比如哪些客戶或者特定的應用程序已被排除在外了。

過去一年多,微軟一直在為政府和行業客戶提供基於雲計算的微軟認知服務,包括人臉識別和情感識別。而在Facebook數據泄露事件發生後,關於人工智慧和數據分析的倫理問題受到了更多人的關注。

Facebook事件中,涉及最大的問題是Cambridge Analytica利用該公司的數據鎖定了選民。在Horvitz看來,操縱選民是AI應用程序被濫用的情況之一,同時,這也助長了侵犯人權的行為,增加了發生死亡事件或者出現重度傷害的風險。

Horvitz認為解決這些問題可能需要新的監管計劃,甚至可能有辦法讓人工智慧進行自我監督。

「你可以想像一下,讓系統擁有自我監督的能力。」

這樣一個自動化後的程序可能有助於微軟避開它與Tay之間曾產生的問題,Tay是千禧一代的人工智慧代理,2016年曾被線上惡意者教授發表種族主義言論。Horvitz承認,「這是一個很糟糕的例子。」

對於人工智慧代理來說,最有效或者說最沒有問題的情況,大概是人類為其做了「後台設置」。

Horvitz指出,現在微軟AI程序能夠識別出30天內兩次住院的患者,這可以幫助護理人員對這部分患者多加關注。一項對該計劃的學術評估確定,它可以將患者再次入院的概率降低18%,同時將醫院成本降低近4%。

不過,對Horvitz來說,理想的情況是人類和機器能一起工作。比如,人工智慧代理可以預料到人類專家可能會忽略的問題。但是,人工智慧代理也可能存在盲點,近期引起人們高度關注的無人駕駛車禍事件就說明了這一點。

Horvitz表示,未來幾年會尋找適當的時機將人工智慧技術推向更廣闊的市場,全面披露分階段試驗的程序、報告試驗結果,甚至在必要的時候提出故障安全設計的過程。目前,微軟的研究方向之一是預測AI代理可能面臨的盲點或一切「未知」的事情。

總之,不管未來是焦慮的AI,還是帶有道德規範或自我監督的AI,似乎人工智慧正在朝著更全面的方向發展。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

特斯拉正在被摧毀,原因竟是馬斯克執著於自動化
滙豐銀行引入AI技術,洗錢行為或許將「一掃而空」

TAG:人工智慧觀察 |