當前位置:
首頁 > 新聞 > 「機器人總統強過特朗普?」技術視角看通用AI能否超越人類領袖

「機器人總統強過特朗普?」技術視角看通用AI能否超越人類領袖

「機器人總統強過特朗普?」技術視角看通用AI能否超越人類領袖

1 新智元編譯

「機器人總統強過特朗普?」技術視角看通用AI能否超越人類領袖

一個 AI 總統不會被遊說,不會受到個人利益的左右,也不會有如今白宮裡的那麼多裙帶關係

據稱特朗普經常獨自留宿在白宮辦公室,邊收看新聞,邊對著電視咆哮。一覺醒來,他繼續收看新聞,同時繼續發推文宣洩他對世界、Mika Brzezinski,或 CNN 的憤怒。他還不忘在與國外領導人會晤時吹噓他的選舉團是如何大獲全勝。

對於一個肩負一個自由國家重任的領袖來說,這些行為終歸聽起來不太妥當。但是即便他對於俄羅斯醜聞的暴怒和當選的不安真的影響了他做總統的決策,他也絕不是第一個在工作中摻雜個人情緒和脾性的國家元首。

從哈丁的茶壺山醜聞,到尼克松的水門事件,還有柯林頓幾乎因「是男人就會犯的錯誤」而丟掉飯碗,顛覆他們執政的都是人性的弱點:嫉妒、貪婪、慾望,裙帶關係。

如今,一小部分科學家及研究者相信有一種替代方法可以將總統本人,以及大眾,從他或她的人性弱點中拯救出來。一旦技術發展到一定程度,他們認為應該由計算機來統治世界。這聽起來有點兒瘋狂,他們的想法是,人工智慧,相比較任何人類,在面對國家重大、複雜的問題時可以做出更明智的決策,而且不會有現任人類總統那些我們已經被迫勉強接受的鬧劇和短視冒失的行為。

如果你腦中已經在想像一個終結者形象的總統端坐在橢圓形辦公室的總統辦公桌後面,畫風可能需要轉變一下。那時的總統多半是放置在柜子里的一台計算機,忙於解決國家最棘手的問題。不同於人類,機器人在考量具體某一條政策可能引發的結果時會參考大量的數據。它可以預見到人類思維無法預見的隱患,不受衝動或偏見干擾地權衡利弊。我們可以最終創造一個前所未有的勤勉、高效、積極應對民眾需求的行政機關。

還並沒有一個正規的統一的團體去推進機器人執掌總統辦公室,只是一支專家和理論家組成的雜牌軍認為未來派的技術會帶來更英明的執政,並最終創造一個更美好的國家。其中如 Mark Waser, 一位長期從事人工智慧研究的專家,供職於名為 Digital Wisdom Institute 的智囊團,稱一旦人工智慧中的一些關鍵問題得到解決,機器人將會作出比人類更好的決策。

「倡導道德地使用技術來擴展人的能力」的非營利組織 Human+ 的女主席 Natasha Vita-More ,希望我們有一天會有一個「後人類」總統,這個領導人沒有身體,而是以另外的方式存在,比如上傳到電腦的人類思維。去年以「超人類主義者」身份參加總統競選的佐爾坦·伊斯特萬(Zoltan Istvan),身後有一個追求人類不朽的組織。他也是機器人總統的支持者,而且他真的認為那會發生。

「一個 AI 總統不會被遊說。」他說,「它不會受到金錢或個人及家庭利益的影響。它不會有現在白宮裡那麼多的裙帶關係。機器不會做這些事情。

機器領袖如何融入我們的民主制度?

關於機器人統治者的想法已經在科幻小說中存在了數十年。1950 年,艾薩克·阿西莫夫(Isaac Asimov)的短篇故事集「我,機器人」設想了一個機器具有了意識和人類水平智能的世界。他們受到「機器人三定律」的控制(第一條是:機器人不能傷害人類,或者通過不作為,讓人類受到傷害)。在著名科幻小說家 Iain Banks 的《文明》系列中,超級 AI 扮演著政府的角色,計算著怎樣組織社會和分配資源才是最佳方式。流行文化,比如電影《Her》,也一直在期待類人機器。

但到目前為止,機器人總統還只出現在這些故事中。但也許過不了多久,就會像伊斯特萬這樣的信徒所說,AI 領袖 30 年以內就會出現。

當然,在白宮,用機器人代替一個人並不簡單,即使那些在努力推動這個想法的人,也承認存在著嚴重的障礙。

別的不說,機器領袖該如何融入我們的民主制度?伊斯特萬設想,屆時將定期舉行全國選舉,選民將為機器人決定優先事項,以及如何處理一些道德相關的問題,比如人工流產; 選民將有機會在下次選舉中改變這些選擇。系統的初始編程無疑將是有爭議的,程序員很可能也需要共同入選。而伊斯特萬也承認,所有這一切都需要修改憲法。

機器人總統需要的是通用人工智慧

從技術的角度來看,人工智慧還不夠聰明,無法管理國家。機器人目前可以完成的工作列表確實很長,從診斷疾病,到駕駛汽車,再到贏得各種遊戲,以及在你的智能手機上回答問題——它成長迅速,但是現在,我們所有的 AI 系統使用的都還是弱人工智慧,意味著他們需要專門編程才能執行任何給定的任務。

而顯然,總統要做的遠不止一個「任務」。

「如果你是美國總統,你要解決的是你這個層面上沒有其他人能夠解決的問題。等著你砸的是那些最硬的堅果。」CMU 的機器人學教授伊拉爾·努爾巴赫什(Illah Nourbakhsh)曾說過——他曾為 NASA 的機器人項目工作過「而最難破解的堅果是認知方式。沒有太多先例可供參考,你必須使用最富創造性的思維。

為了實現這一切,機器人總統將需要科學家所說的通用人工智慧,也被稱為「強人工智慧」——與人類智能一樣廣泛、富於創造性和靈活性的智能。伊斯特萬和其他談論機器人總統的人,指的是這種人工智慧。強人工之智能還沒有出現,但有些專家認為即將到來。

Waser 說:「有一些人相信人類水平的人工智慧將比預想中來的早得多,我就是這些人之一。2008 年那會兒,我表示那會在2025 年左右到來。十年後,我看不出有什麼理由要修改這個預判。」Vita-More 也同意這個觀點,她預測 10 –15 年內就可以有一個早期版本的強人工智慧。

但是,這種樂觀的估計是基於一個關鍵的假設:我們很快就會來到計算機自我解決問題的時代——科學家們稱之為「技術奇點」。在那個時間點上,計算機將比人類變得更聰明,甚至可以自己設計出更新更智能的計算機。然而,努爾巴赫什說,他不認為所有涉及開發更好的計算機的技術問題都可以通過機器來解決。有些還有賴於新的化學發現或者用於構建這些超級計算機的新型材料的發明。

AI 的不可解釋性對需要不斷做出重大決策的工作是個大問題

在 AI 管理國家之前,需要解決的另一大技術問題是:機器人不知道如何解釋自己。AI 接收信息,做出決策,但沒人知道為什麼機器會做出這個選擇——這對於需要不斷做出決策的工作來說是個大問題,況且這些決策還伴隨著不可預測的投入和嚴重的後果。是的,你對特朗普或柯林頓可能會有些看法,但至少他們知道自己的思考過程,還能向公眾和國會解釋他們的行為,並轉播到電視或 Twitter 上讓民眾都有所了解。

而一台計算機,至少現在還做不到這一點。

「機器必須能夠與其他機器合作,才能有效。」Waser 說。「它們必須與人類合作,才能安全」。而如果你不能向別人解釋你的思維過程,那麼合作會很艱難。

這個缺陷部分是因為 AI 的工作方式。在稱為機器學習的方法中,計算機分析如山的數據,並找到可能對計算機而不是對人類有意義的模式。在稱為深度學習的變體方法中,計算機使用多層處理的方法:一層產生粗略輸出,然後由下一層進行細化,而該輸出又被下一層再細化。這些中間層的輸出對於任何外部人類觀察者都是不透明的——計算機只會給出最終的結果。

「你可以帶你孩子去看電影,然後由此聊開去,聊聊他們的心情,進行一個真正有趣又深入的談話。」努爾巴赫什說,「但 AI 做不到這點,因為 AI 不理解從一個小話題向一個大話題的轉換。」

一個被投餵了種族主義滋養的數據的 AI,就可能生成種族主義的結果

即使我們可以解決所有這些問題,機器人仍然可能不是我們想像的決策者。機器人總統的主要優勢之一就是能夠統攬數據,而且能夠做出決定,不帶人類的偏見。但即使這樣的優勢,也並不明確——研究人員發現很難教 AI 系統完全避免偏見。

例如,2015 年發布的谷歌照片應用程序使用 AI 識別照片的內容,然後對照片進行分類。該應用程序做得不錯,卻犯了一個明顯的錯誤:它將幾張黑人的照片標記為「大猩猩」。系統完全意識不到自己犯了怎樣的錯誤,更理解不了其中牽涉的令人震驚的歷史和社會背景。當時谷歌做出了道歉,並表示會調查這一問題。

還有一些例子,也影響了人類的生活。一個全國法院都在使用的 AI 能夠判斷被告重新犯罪的風險,並為法官的判決做出指導。它似乎是這種自動化技術的完美應用。它可以會處理大量的數據,找到人們可能會錯過的模式,並避免困擾人類法官和檢察官的偏見。但是,ProPublica 的調查報告發現,黑人被告被 AI 系統認為在未來進行暴力犯罪的可能性要比白人被告高出77%(創建該系統的營利性公司對ProPublica 的調查結果提出異議)。AI 系統並沒有明確地考慮被告的種族,而是因為一些與貧困和失業相關的因素與種族相關。系統基於這些數據,給出了這樣的結果,雖然它的表面上是中立的,卻是數百年不平等現象的沉澱。

這對所有計算機來說都是問題:它們的輸出只是輸入的忠實體現。一個被投餵了種族主義滋養的數據的 AI,就可能生成種族主義的結果。

技術體系無法免於偏見,不會因為只是數字就自動變得公平。」哥倫比亞大學文化人類學家馬德琳·克萊爾·伊利(Madeleine Clare Elish)說,「我最大的恐懼是,人們無法接受 AI 技術的人類開發者將自身的偏見和缺陷也編碼其中。「

奧巴馬政府去年 10 月發表的關於 AI 的報告對這一問題也同樣關切:懷著最美好初衷、全無偏見的開發者也可能無意中做出有偏見的系統,因為即使是 AI 的開發人員也可能無法完全了解他所開發的系統,無法防止意外結果的產生。

所謂依靠強人工智慧來讓 AI 自己解決 AI 的現有問題,大多是文字遊戲

一旦我們開發出超級人工智慧,一些專家認為對偏見的擔憂將會煙消雲散。Humanity+ 主席 Vita-More 表示,這樣一個系統能夠「發現偏見」。「會有一個測量儀器。」她說,「可以檢測『信息來自哪裡』、『這些人需要什麼』,並說明數據的缺陷。」

黑客問題是另一個使用 AI 可能帶來的風險。如果別國黑客黑進機器人總統的系統,從而操作整個美國政府,我們該當如何?我們甚至可能不知道機器人總裁所做的決定是否被操縱。AI 總統的支持者會說,機器人總統足夠聰明,不僅可以解決我們國家最大的問題,而且還能阻止任何試圖破壞這一努力的人。

努爾巴赫什表示,所謂依靠強人工智慧來解決 AI 的現有問題,大多是文字遊戲。他說:「如果你提出一個問題,就會有人說『這些 AI 智能超過人類,所以它們自己會找到解決這個問題的辦法。」努爾巴赫什認為,人類必須自己解決問題。

讓一台計算機與總統協同工作,可以修正人類總統的一些缺陷

這些障礙會使機器人總統擁躉沮喪和泄氣,不過目前也許可以有一個折中的方法,計算機可以處理所有總統需要做的決策,自己並不做出最終選擇,而是給予人類元首做決策的指導。這類似於一種人機協作,協作的結果優於任何一方獨自決策的結果。

哈佛法學院互聯網法學教授 Jonathan Zittrain 認為儘管 AI 存在缺陷,計算機仍可被用於消除人類的做決策時的偏見。在近日的一篇博客中他寫道:「經過適當的訓練,AI能夠系統地識別整體的不公正性及具體的偏見。

也許讓一台計算機與總統協同工作,仍舊可以修正人類總統的一些缺陷。

「AI 發揮作用的領域在於理解後果」,Nourbakhs 說道。他指出特朗普的旅行禁令就是一個總統決策帶來不良後果的例子,因為其法律及憲法的影響並未被充分理解及考量。計算機則可以提前分析反對者及地方法院有可能做出的反應。

已經有幾項研究表明,「人機協作的團隊比各自組成的團隊更高效」,如奧巴馬政府的 AI 報告中所稱。「在最近的一項研究中,在被要求針對所給出的淋巴結細胞圖像做出病人是否患癌的診斷時,AI 的錯誤率在 7.5%,人類病理學家的錯誤率在 3.5%,而人機協作的錯誤率降至 0.5%」。香港的一家風投公司正在把類似的人機協作應用於實際業務。他們於 2014年宣布為董事會引入一套 AI 系統,用於處理數據及向董事會成員提供投資決策建議。

「總統是一個國家的象徵」,查普曼大學政治學教授 Lori Cox Han 指出:「無論順境或逆境,他總是我們的指望」。當危機來臨,或在做決策本身已經不足夠的的那些情勢下,也許我們還是期待一位人類總統。

編譯來源:http://www.politico.com/magazine/story/2017/07/08/robot-president-215342

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

「AI TOP 10」特斯拉市值蒸發真相;十年內實現心靈感應;Waymo撤銷對Uber大部分訴訟
谷歌投入622000英鎊創建機器人記者,每月挖掘3萬條新聞
谷歌投資「演算法商店」創始人:打造AI操作系統(PPT)
「iPhone10周年」王威廉談NLP:智能助理幾家仍需努力

TAG:新智元 |

您可能感興趣

MIT通用人工智慧課視頻放出,要教你用工程方法構建人類智能
獵豹發布特定場景機器人 通用機器人仍遙遠
科普一種可以將PG變成通用SQL引擎的技術
品控檢測難定義 朝通用型AI發展有技術挑戰
松靈機器人:定製難以規模化?可DIY的通用型機器人底盤了解一下
松靈機器人:定製難以規模化?可 DIY 的通用型機器人底盤了解一下
助力集成商降低AI門檻,博思廷打造通用視頻監控平台
國際大學生類腦計算大賽關注人工通用智能發展
「天機芯」有望促進人工通用智能發展
通用電氣為演算法引入業務風險考量,試用「謙遜人工智慧」
槍美人更美:航展上的轉管機槍通用遙控射擊系統
美陸軍將研發無人機通用控制器 單兵可控制成群無人機
「千人計劃」專家劉明耀:用基因編輯技術打造「通用型CAR-T」,造福更多癌症患者
機器人庫早報:通用電氣推出人工智慧平台,輔助醫療系統使用AI
德國最優秀通用機槍,被譽為「希特勒電鋸」,連飛機都能打下來
什麼是通用人工智慧,會對人類產生威脅嗎?
馬化騰:AI發展趨勢,從專用人工智慧走向通用人工智慧
一線|軟銀入股通用無人駕駛業務 特斯拉們還有機會嗎?
比特幣憑什麼不能超越主權信用成為通用貨幣?
俄羅斯為何大量配備小型艦通用發射系統?因為窮所以這樣設計