當前位置:
首頁 > 最新 > 人工智慧時代的科學治理:倫理準則雛形初現

人工智慧時代的科學治理:倫理準則雛形初現

本報記者 楊清清 北京報道

面對AI已然到來的事實,「熱情擁抱論」與「智能威脅論」都甚囂塵上。

事實上,AI在發展過程中,確實帶來了新的問題:AI使得人類與機器的邊界日益模糊,帶來人機之間新型關係的困惑;藉助人工智慧,企業能夠在賦予用戶大量數據標籤後讀取和理解用戶的行為偏好,或將導致技術濫用;在社交媒體中,信息推送根據用戶個人偏好的路徑送達,從而形成偏見強化。此外,AI還可能引發「機器換人」的替代潮,並對傳統法律法規和社會規範提出挑戰。

「人工智慧作為經濟社會發展的強大加速器,需要裝上制動系統或剎車。」近日,在發布《未來基石:人工智慧的社會角色與倫理》報告時,中國發展研究基金會秘書長助理、研究一部主任俞建拖表示,「這個剎車就是倫理規範和公共政策準則。」

挑戰重重

人工智慧的倫理問題已經引起了越來越多的關注。

今年3月,Facebook數據泄露問題醜聞曝出,一家名為Cambridge Analytica的數據分析公司通過一個應用程序收集了5000萬Facebook用戶的個人信息,該應用程序詳細描述了用戶的個性、社交網路以及在平台上的參與度。7月,Facebook因該事件面臨英國信息委員會辦公室66.4萬美元的罰單。

同期,谷歌為美國國防部開發AI的「Maven項目」也備受矚目,根據該項目合約,谷歌向美國國防部共享了它的開源AI框架TensorFlow,同時打造「類似谷歌地圖」的監控系統,該系統可以讓美國國防部的分析師和合同商「點擊」任何建築物、車輛、人群和地標建築,「查看與之相關的一切信息」。此後,迫於輿論壓力,谷歌方面稱,將在2019年與美國國防部合約到期後不再續約。

「AI開發和應用過程中帶來的挑戰,既有技術層面的,也有社會層面的。」俞建拖指出。其中,技術層面的挑戰包括錯誤目的的開發、技術上的不透明和不可控、過度追求利潤目標而不考慮技術上的平衡,以及終端的誤用和濫用。

社會層面的挑戰則更為嚴峻,包括對人自身認知的困境、社會互動協作方式的改變、數據和隱私的侵犯、不對稱信息權力的濫用、數據和技術導致的壟斷、偏見強化和族群對立、弱勢人群的邊緣化和貧困化,以及人工智慧武器和恐怖活動等。

因此,面對AI技術所帶來的挑戰,各國政府已經紛紛出台一系列的政策指引和準則。

資料顯示,早在數年前,韓國政府便著手擬訂《機器人道德憲章》,美國信息技術產業委員會(ITI)則於2017年頒布了人工智慧的14條政策準則。近日,歐盟出台了史上最嚴數據保護條例——《通用數據保護條例》(General Data Protection Regulation,簡稱GDPR),旨在加強對數據的保護,以大數據為「養料」的AI行業正是其矛頭所向。

道德準則

不僅是政府在制定AI相關準則,科技企業也在做同樣的事。

谷歌在Maven項目帶來的輿論壓力下,於今年6月申明,在人工智慧開發應用中,堅持公平、安全、透明、隱私保護等在內的7個準則。同時,谷歌方面表示不會將AI技術應用於開發武器,不會違反人權準則將AI用於監視和收集信息,避免AI造成或加劇社會不公等。

微軟同樣提出了開發人工智慧的六項基本原則:公平、可靠與安全、隱私與保密、包容、透明、負責。微軟公司總裁施博德(Brad Smith)表示,這六項基本準則是為了確保人工智慧能夠以一種合乎倫理的方式得以使用。「微軟認為,要設計出可信賴的人工智慧,必須採取體現道德原則的解決方案,在賦予計算機更大力量的同時,也需要用社會倫理來引導它。」

施博德指出,這六項基本原則中,前四項(公平、可靠與安全、隱私與保密、包容)依賴於後兩項(透明、負責)。「首先是透明,只有能夠有透明度才能夠確信前四大原則都得到實現。最後也是最重要的,也就是負責,需要確保追責機制,這意味著AI並非在沒有人類監督的情況下任意制定決策。」

不過,僅僅是單點的準則設計還遠遠不夠。就此,《未來基石:人工智慧的社會角色與倫理》報告建議,各國政府、產業界、研究人員、民間組織和其他有關利益攸關方應就人工智慧開展廣泛對話和持續合作,加快制定針對人工智慧開發和應用的倫理規範和公共政策準則。

同時,在社會層面,報告鼓勵高校研究機構、企業和行業協會、投資機構和社會組織在各自領域進行相關探索和研究;在政策層面,在鼓勵引導社會研究和產品開發的同時,需要重視政策和法律監管,並加強國際合作,建立多層次的國際人工智慧治理機制。

「我們期待更多的社會機構、社會組織、專業機構合作,更多人工智慧研發的企業能夠履行企業社會責任,積极參与人工智慧倫理規範的建設。」俞建拖指出。

(楊清清)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!

TAG: |