人工智慧:前景與挑戰並存
人工智慧技術得到了越來越廣泛的應用,但也帶來了一些道德和法律問題。2月2日,劍橋大學官方網站上發表了該校生存風險研究中心執行主任肖恩·歐·埃吉爾泰革(Seán ó héigeartaigh)和計算機科學與技術部研究員馬泰亞·賈姆尼克( Mataija Jamnik )發表的一篇文章,指出人工智慧技術近年來發展迅速,如果社會層面沒有全面的詳細規劃,將產生負面影響。
人工智慧發展帶來挑戰
從股票交易到房地產價格的確定,從發現欺詐到語言之間的轉換,從創建每周購物清單到預測流行電影類型,人工智慧已經在許多領域得到了應用。在不久的將來,我們還將利用人工智慧程序來了解人們的健康,並發明新的藥物和治療方法。自動駕駛汽車將改變交通系統和城市規劃工作的方式。機器提高了我們的生產力,幫助我們預測社會風險。
然而,如果我們不在整個社會層面上仔細規劃,人工智慧技術的發展也可能產生負面影響。學者們認為,支撐自動駕駛汽車的技術可能會導致戰場上出現危險的新型武器;使工作自動化的技術可能導致許多人失業;使用歷史數據進行培訓的演算法過程可能使基於種族或性別的歧視延續,甚至加劇歧視;需要大量個人數據的系統(如醫療保健系統)可能會導致隱私受到損害。
為了應對這些挑戰,自然科學領域的專家和學者不僅需要貢獻他們的智慧,而且需要藝術、人文和社會科學領域的知識,需要深入研究與人工智慧有關的政策和治理問題。
將道德準則嵌入人工智慧程序
在這個問題上,法國國家科學研究中心主任塞巴斯蒂安·科涅奇內(Sébastien Konieczny)說,人工智慧項目也有其弱點。如許多人工智慧程序都有深入研究得出結論的功能,但這些人工神經網路像在黑匣子里運行一樣,很難知道它為什麼會做出決策。在實際應用中,機構或個人需要了解作出決定的原因,以確保人人得到公平待遇。
人工智慧程序不是完全中立的,它們也受到偏見的影響。人工智慧程序不僅受系統設計者自身觀點的影響,還受為人工智慧程序提供培訓的人員的影響。
在深入學習技術得到廣泛應用之前,有必要對人工智慧項目制定和傳授倫理規則。不過,學者認為,將「判斷結果不取決於性別、年齡、膚色」的規則傳授給人工智慧程序目前還有困難。
最終決定權應由人掌握
科涅奇內認為,現在是建立一個專門的道德管理委員會來制定關於人工智慧和數字技術的研究規則的時候了。這可以幫助研究人員評估哪些邊界是不可逾越的,並防止研究中不適當的偏移。
埃吉爾泰革和亞姆尼克等表示,不能認為機器有很多信息,就更可靠。從實際結果來看,最終的決定應該留給人類,而不是完全依靠人工智慧。因此,這一制度的制定方式應使人們能夠提出若干不同的解決辦法,並在可能的情況下說明相關的原因和後果,以及人類作出的最終選擇。
學者還提到,機器人既不好也不壞,他們也不應該有個人目的或計劃。他們應該做我們想要或設計的工作。當人工智慧有一些意想不到的副作用時,我們可以解決這個問題,不要讓這些副作用造成危險。如果機器人的活動導致死亡或刑法規定的嚴重案件,則有必要設立一個保險基金,由製造或擁有機器的公司推動,以便向受害者提供他們應得的賠償。管制控制機器的私人公司比控制機器人更重要。


TAG:雲博彙物聯網 |