當前位置:
首頁 > 科技 > 達拉斯事件中的機器人武器:我們恐懼的到底是什麼?

達拉斯事件中的機器人武器:我們恐懼的到底是什麼?

當地時間 7 月 7 日,大批民眾聚集在達拉斯市中心,為在明尼蘇達州和路易斯安那州發生的兩起非裔男子被警察槍殺的案件「Black Lives Matter」遊行抗議。20 時 45 分左右,遊行隊伍行進至 Lamar 大街和 Main 大道時突發槍擊,人群立刻分散各處尋找掩護,場面一度混亂。現場警車與直升機轟鳴,全副武裝的執法人員在現場。有民眾表示,至少聽到 30 聲槍響。


這一針對警方的暴力事件導致 5 名警察死亡、7 名警察受傷。當地警方稱,槍手 Micah Xavier Johnson 今年 25 歲,是一名退伍軍人,作案動機很可能是因為對「警方對黑人的暴力執法」不滿。


這一事件過程中,槍手和警方進行了數小時的對峙。最終,達拉斯警方將 1 磅 C4 炸藥安裝在機器人的機器臂上,然後通過遠程控制的方式讓機器人接近嫌犯後引爆了炸彈,炸死了嫌犯。


達拉斯事件中的機器人武器:我們恐懼的到底是什麼?



所謂的「警察使用機器人殺人事件」迅速引發各大媒體關注。大眾態度可謂喜憂參半。


大多數人表示,警方及時止損,成功防止了更大悲劇的發生。「我認為,我們所有人在第一時間裡應該感到如釋重負,」美國科學技術中心主管 Michael Kalichman 說,「......我們能夠確定的是這次行動讓一個原本會造成更大損失的悲劇提前結束了。......」也有達拉斯人在 Medium 上撰文表示,達拉斯警方處理得當。

不過,慶幸成功避免更大悲劇的同時,隱憂和質疑也如影相隨。警方的做法是否合理?是否意味著警察軍隊化的開始?


是否合法合理?


美國警方使用機器人已經有很長時間了。大眾之所以會有這樣的疑問,原因在於這次使用機器人的行為與以往經驗不同。


過去,警方主要讓機器人從事相對中立(中性)行為,比如,給嫌疑犯、人質或其他人員傳遞物品,或者用於分散對方注意力,與嫌疑犯交流等。去年,一把持有匕首的嫌疑犯威脅要跳下大橋(位於加州聖何塞),警方通過機器人給對方送去手機和匹薩,讓其冷靜下來,隨後成功將其拘捕。2014年12月,阿爾伯克基警方使用機器人部在一間汽車旅館的房間里部署化學武器,房間里持有槍支的嫌疑人最後繳械投降。


但在這次事件中,機器人被直接用於剝奪對方生命,也是美國警方首次使用機器人載爆炸物,開了「先例」。人們自然而然會擔憂,其他警察局會否效法這種行為?正如 Michael Kalichman 所言,「我們還是不得不思考這種事情會不會在別的地方再次發生。」

不過,無論是警方還是刑事法律專家、機器人技術專家都認為,警方行為合法。關鍵理由:人類始終牢牢支配著機器人,或者說,這個機器人載爆炸物並非自主型武器。


新南威爾士大學的人工智慧教授 Toby Walsh 反對將這次事件視為科幻小說噩夢般場景的實現,他說:很簡單,機器人仍然是受人類遠程控制的。這和遠程遙控飛行在伊拉克、巴基斯坦或其他地區上空的殺人無人機沒什麼兩樣。「人類仍然掌控著機器人,這是件好事。」


卡耐基梅隆大學的機器人技術教授 Red Whittaker 認為,事實上,機器人不過一個工具而已。具備這些功能的工具已經存在好多年了。遠程控制——無異於扣動扳機或者扔手榴彈或者其他可能的行為。


與學界觀點稍有不同,警方更多強調對警員安全的維護:面對致命危險,警察沒有義務將自身置於險境。本質上,這和讓狙擊手從遠處射擊並無不同。


「我們沒有其它選擇,只能使用我們的炸彈機器人,我們將一個設備放在了它的擴展部分,然後在目標位置引爆。」達拉斯警察局長 David Brown 在事件後一天的新聞發布會上說,「其它選擇會將我們的警員暴露在致命的危險中。」

達拉斯市長 Mike Rawlings 在上周五告訴記者,他知道未來再次遇到這種情況時警方還是會採取這種措施,但是它只能被當做「最終手段」。「關鍵是讓警察從傷害中脫離出來,」他說。


之後在接受 CNN 採訪時他又表示槍手—— 25 歲的前陸軍預備役士兵 Micah Xavier Johnson 有「聰明的頭腦,下定決心要傷害更多警員。如果沒有我們的行動,他就會傷害更多警員。所以,在我看來,我們別無選擇,只能使用所有必要的工具來終止這場對峙。」


警方軍隊化?執法還是戰爭?


有觀點表示,警方的任務是執法,不是宣戰,是否需要這種軍隊化的裝備?或許,這個問題應該置換成:如果犯罪嫌疑人的攻擊力越來越強,執法手段是不是也應該與時俱進?

據報道,這個機器人由軍火商諾斯洛普·格魯門公司製造,常被警察、軍隊和世界各地的緊急事件處理人員用來處理遠程拆彈等任務。該機器人使用輪子前進,重量大約為 220 千克,配備了多種感測器和一個帶吸盤的機器臂。其型號為 Remotec F5。類似的遙控四輪驅動機器人早就被美軍和美國警察部隊廣泛改裝並用於拆彈任務或其他維持和平的任務。


警方的裝備升級淵源,可溯及上世紀 80 年代。當時,由於美國毒品犯罪猖獗,毒梟火力強悍,美國國會通過了一個「美軍 1033 計劃」,授權美國警察部隊向美國軍隊購買多餘的武器。因此,達拉斯警察依據該法案向軍方購買了 Remotec F5、MARCbot IV 等多款爆炸拆除機器人。


稍作深入思考,我們不難理解上述現象:驅動軍事技術演化的首要因素就是救命,或者說,風險減少。讓機器為人類上刀山、下火海,將傷亡降至最低,這裡的風險可以延伸至來自犯罪嫌疑人的致命攻擊。達拉斯警方購買、使用裝備的行為,不僅合法,也是軍事技術演進使然。


曾擔任 LAPD SWAT 助理指揮官(assistant unit commander)長達十三年的退休警官 Ron McCarthy  坦言,這些機器很方便很有用,在這次事件中使用這些武器很完美。如果有人威脅到公民或者警方,我們不會讓警員冒生命危險。


密蘇里-聖路易斯大學的犯罪學家  David Klinger 分析地很清楚,「法律並不區分各種傳遞致命武器的系統種類。如果警員可以射擊犯罪嫌疑人,他們就可以使用其它任何致命武器,這是合理的。如果你能射擊某人,或者可以碾過嫌疑人,我留意過有幾次警方還使用了燃燒彈,為什麼不能合法使用爆炸裝置?」


真正的難題:自主型系統



達拉斯事件中的機器人武器:我們恐懼的到底是什麼?



這次事件的發酵與奪人眼球,主要源自美國由來已久的矛盾(白人警察與黑人平民),或者說,更多的是一個社會文化問題。


達拉斯市所面臨的種族問題卻無可迴避。作家 Albert Samaha 在 BuzzFeed 上寫道:


這座城市……涉及警方的槍擊事件已經減少了。從 2010 年到 2014 年,達拉斯警方共射殺了 34 人——其中超過一半是黑人——人均比率比休士頓、芝加哥、洛杉磯和紐約都高。


目前的報道並沒有增進我們對基於人工智慧的自主型系統(包括武器)難題的思考。比如:


1.失靈。自主機器決策導致相關死亡事件。今年 5 月份,佛羅里達一位特斯拉 Model S 車主在使用「Autopilot」自動駕駛功能時發生事故死亡。特斯拉公司在調查原因後在博客寫道:「在光線過於強烈的環境下,無論是自動駕駛系統還是駕駛員都未能及時察覺前方拖車的邊緣,因此未能施加制動。在極為罕見的情況下,拖車高度與其在馬路當中的位置造成特斯拉 Model S 直接撞進了拖車底部。」


2.道德兩難。自動駕駛系統是否應該不惜一切代價來保護它們的乘客?還是應該通過編程選擇犧牲乘客,從而保護他人?近期《科學》雜誌網路版報告指出,儘管一些人爭論道,自動駕駛汽車控制的道路會更安全,但提供這種安全性的特有編程也許會阻止它們最終上路。


3.濫用。2015年,科技媒體 The Intecept 刊登了一份文件,詳述了NSA的天網計劃(SKYNET programme)。根據文件顯示,這項計劃旨在大規模監控巴基斯坦行動電話網路,然後使用機器學習演算法分析5500萬用戶移動網路元數據,並試圖評估每個人成為恐怖分子的可能性。然而,根據這種機器學習程序,最高得分目標是 Ahmad Zaidan,他長期擔任半島電視台駐伊斯蘭堡的總編輯。


4.歧視。演算法和數據驅動的產品總會反映設計者本身的設計選擇,假設這些歧視不存在是不負責任的行為。有證據表明在線購物,以及預設為由中立演算法驅動的定價策略中都存在歧視。另外一項研究中,哈佛教授 Latanya Sweeney 分別搜索了白色人種兒童(Geoffrey, Jill, Emma)和黑色人種兒童(DeShawn, Darnell, Jermaine)的常用名字,她發現,80%的「黑色」姓名搜索旁邊推送的 Google AdSense  廣告會出現「逮捕」字樣,而「白色」姓名搜索中該數據低於30%。


5.控制。隨著技術的進步,自動化程度更高的機器人也出現了。自主殺人機器人的正式稱呼是「致命自主武器系統(LAWS)」。從已經公開的消息看,至少中國、美國和俄羅斯已經在從事這方面的研究了。比如,美國海軍艦載的「密集近防禦系統」(Phalanx)。前段時間,美國的一款人工智慧系統甚至在模擬空戰中擊敗了人類戰術專家 。而環球網也曾報道:


中國、俄羅斯和美國正致力於可以獨立執行軍事行動的自動化機器人。美國國防部常務副部長羅伯特?沃克發表聲明稱,五角大樓有落後的危險。他稱:「我們知道中國已經在機器人和自動化領域進行了巨大投資。」俄羅斯國防部第一副部長兼武裝力量總參謀長格拉西莫夫大將稱:俄羅斯也將打機器人戰,在不久的將來,俄羅斯有可能開發出完全機器人化的部隊獨立完成軍事任務。


誰該為這些自主系統的行為負責?如何給自動化程度更高的人工智慧系統安置一個「紅色按鈕」?


6.劃分防禦/攻擊。最近,軍火商開發出了首個攻擊性自助武器。以色列航空工業公司的「哈比和哈洛普」無人機可自動追蹤敵方航空系統的無線電發射,並通過撞擊摧毀目標,該公司表示,無人機「已經銷往世界各地。」


問題是,如果使用智能武器,那麼,傳統的自衛與侵犯之間的界限也將難以維繫。


加利福尼亞大學伯克利分校的的人工智慧專家 Stuart J. Russell 是禁止自主化武器運動的領袖,他說,人們需要搞清楚界限劃在哪裡,我們應該站在這條界線的正確一邊。「總的說來,清晰界分進攻和防衛性武器,對此,我沒有信心。」


華盛頓的政策組織、新美國安全中心(New American Security)的武器分析員Paul Scharre 說,「如果界限很容易劃清,國家早就同意研發『防禦型』武器了。」


迴避不了的難題


《華盛頓時報》報道,達拉斯警察局局長 David Brown 在上周日為其使用致命機器人殺死槍殺警察的犯罪分子的決定進行了辯解,他說下一次遇到這種充滿不確定性的危險情況時還會使用類似的致命機器人。「是我下的決定。在相同的情況下我還會作出此決定,」Brown 局長對 CNN 說。


達拉斯市長 Mike Rawlings 也對警方的行動表示了支持,他說他為警方感到「驕傲」。


不過,減少風險的人類本能(想想霍布斯吧)和軍事經費不僅會繼續推動軍事技術的演化,也會推動軍事技術向執法機構流動。總有一天,上面所有自主型武器問題,也是警方需要面對的難題。 「驕傲」、「在相同的情況下我還會作出此決定」這樣的回答也不再能滿足大眾的要求。


TAG: |
您可能感興趣

到底什麼是機器人幹不了的?
馬斯克帶頭呼籲禁止「殺人機器」,他們在恐懼什麼?
我們為什麼會恐懼機器人?
什麼?機器人會有自己的語言了?
斯坦福博士做了個防丟神器,而下一步是機器人特斯拉
真相!為什麼電影中的軍事機器人都那麼厲害?
機器會搶走人的飯碗嗎?關於「人機大戰」的話題,你有什麼想說的?
和普京握手的機器人什麼來頭?它既是「逃兵」,又是網紅!
顛覆你對機器人的想像:納米機器人能幹嘛?
機器人來了,除了恐慌,我們還能做什麼?
愛因斯坦的時間機器被誰砸壞?
這2位的話,你信嗎?殺人如麻的恐怖機器,是為了救人?
1%的想像力和靈感,愛因斯坦告訴我們機器人教育的好處!
科普!機器人是怎麼走的?
未來的機器人戰士長什麼樣?還是有點像人樣!
那些關於機器人的電影,只是人們把自己的情感放在了機器人身上?
為什麼電影中的軍事機器人都那麼厲害?看完秒懂…
你真的以為機器人崛起將會威脅到人類的飯碗嗎?
這些公司和馬斯克一樣,想把大腦和機器連接起來