當前位置:
首頁 > 最新 > 人工智慧的發展與憂思

人工智慧的發展與憂思

人工智慧技術得到了越來越廣泛的應用,但也帶來了一些道德倫理和法律方面的爭議。英國劍橋大學官網2月2日刊發該校生存風險研究中心執行主任肖恩·歐·埃吉爾泰革(Seán ó héigeartaigh)和計算機科學與技術系研究員馬泰亞·亞姆尼克(Mateja Jamnik)等人撰寫的文章表示,人工智慧技術近年來發展較快,如果在社會層面上缺乏整體詳細規劃,將會帶來消極後果。中國社會科學報記者就此採訪了有關專家學者。

人工智慧發展帶來挑戰

埃吉爾泰革和亞姆尼克等表示,從股票交易到房地產價格確定、從檢測欺詐行為到不同語言間的翻譯工作、從創建每周購物清單到預測受歡迎的電影類型,人工智慧已經在諸多領域得到了應用。在不久的將來,我們還將使用人工智慧程序來了解人們的健康狀況,發明新的藥物和治療方法;自動駕駛汽車將改變交通系統和城市規劃方式。機器提高我們的生產效率,並幫助我們預測社會風險。

然而,如果我們不在整個社會層面上仔細規劃,人工智慧技術的發展也可能會帶來消極後果。學者提出,支撐自動駕駛汽車的技術可能會帶來戰場上的危險新武器;使工作自動化的技術可能會導致許多人失業;利用歷史數據進行訓練的演算法程序可能會延續甚至加劇基於種族或性別的歧視;需要大量個人數據的系統,例如醫療保健系統,可能會導致人們的隱私受到損害。

埃吉爾泰革和亞姆尼克等提出,面對這些挑戰,不僅需要自然科學領域的專家學者貢獻自己的智慧,也需要藝術、人文和社會科學領域的知識,需要深入研究與人工智慧有關的政策和治理問題。

將道德準則嵌入人工智慧程序

就此問題,法國國家科學研究中心主任研究員塞巴斯蒂安·科涅奇內(Sébastien Konieczny)在接受中國社會科學報記者採訪時表示,人工智慧程序也有它們的弱點。如許多人工智慧程序都具有深入學習後得出結論的功能,但這些人工神經網路就像是在黑匣子里運行一樣,人們難以得知它做出決定的原因。可在實際應用中,有關機構或個人需要知曉所做決定的原因,以保證每個人都得到公平對待。儘管已經有研究人員在嘗試對人工智慧黑匣子的「可解釋性」進行研究,但要從中有所發現則比較困難。

人工智慧程序不是完全中性的,它們也會受到偏見的影響。科涅奇內認為,「如果一個系統是由大量來自人類言語的數據驅動的,那麼它會再現人類的偏見就毫不奇怪了」。人工智慧程序不僅會受到系統設計者自身所持觀點的影響,也會受到那些為人工智慧程序提供培訓的人的影響。

在大範圍使用深度學習技術之前,制定並向人工智慧程序灌輸一些道德規則很有必要。不過,學者認為,將「判斷結果不取決於性別、年齡、膚色」的規則傳授給人工智慧程序目前還有困難。

最終決定權應由人掌握

在科涅奇內看來,目前應該建立具體的倫理問題管理委員會,制定有關人工智慧和數字技術的研究規則。這可以幫助研究人員評估哪些界限是不可跨越的,防止研究工作發生不當的偏移。

埃吉爾泰革和亞姆尼克等表示,不能因為機器擁有大量的信息,人們就認為它們更可信。從實踐結果來看,應該將最後的決定權留給人類,而不能完全依賴人工智慧。因此,應該將系統配製成能夠給出幾個不同解決方案的形式,如果可能的話這些解決方案中還應該附有相關的原因及其後果,並讓人類做出最終選擇。

學者還提到,機器人既不善良也不卑鄙,更不應該有個人目的或計劃,它們應該按照我們希望或者設計的那樣完成工作。當人工智慧出現一些意外副作用時,我們可以解決問題,不讓這些副作用造成危險。如果機器人的活動造成了死亡或者刑法上規定的重大案件,為了給予遇難者應有的賠償,有必要建立一個由製造或擁有這些機器的公司推動的保險基金。比起控制機器人,對那些控制機器的私人公司進行規制更顯重要。

原標題:歐洲學者提出探索人工智慧治理規範

來源:中國社會科學網—中國社會科學報

責任編輯:劉星 排版編輯:李延寧

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 中國社會科學網 的精彩文章:

羅歡欣:人類命運共同體思想的創新
刻意練習與黃金標準

TAG:中國社會科學網 |