當前位置:
首頁 > 探索 > 智能機器人犯下過錯,該不該受到懲處?

智能機器人犯下過錯,該不該受到懲處?

2018年3月18日,美國坦佩市的一位49歲的女性伊萊恩.赫茨伯格(Elaine Herzberg)騎著自行車橫穿馬路時,被一輛自動駕駛汽車撞擊致死,這一不同尋常的交通事故引發了眾人的關注和熱議。當天的晚上10點左右,吸食了大麻的伊萊恩.赫茨伯格正處於迷幻狀態,她騎車橫穿馬路的時候,完全沒注意路況、更沒看到漸漸駛來的一輛自動駕駛汽車——自動駕駛汽車正以43英里/小時的速度行駛。二者相撞之前的6秒,自動駕駛汽車的雷達發現了伊萊恩.赫茨伯格,但電腦系統並沒有把她判別為一名行人,而是判別為「未知物體」,隨後又把她判別為一輛自行車。

若二者相撞之前的1.3秒,電腦系統可以修正判別的結果、且緊急作出反應,則這一交通事故就不會發生、伊萊恩.赫茨伯格也不會喪命,但是電腦系統並未作出任何的反應——檢測系統在判定上的模糊,導致下一環節的決策系統無法作出反應。基於自動駕駛汽車釀成的交通事故,北卡羅來納大學的認知和計算機科學家約坎南.畢格曼(Yochanan Bigman)撰寫和發表了一篇論文,提出一個耐人尋味的問題,即人們該不該讓自動駕駛汽車和智能機器人為自身的行為負責呢?若它們的行為導致了嚴重的後果,該不該對它們進行懲處呢?

(人工智慧)

約坎南.畢格曼認為,人類正處於科技和社會變革的臨界點,這一場前所未有的大變革中,自動化機器會在工作場所、公共場所、以及人們的家中佔據一席之地,甚至替代一部分人。若自動化機器和智能機器人做了一些傷害人類的事情,人們該作何感想、作何反應呢?若傷人事件發生之後,編程人員和生產單位又要承擔什麼責任呢?人們必須搞清楚這些問題,且進一步的修訂和完善法律體系。

另一個比較棘手的問題是,人類的道德體系是否適用於智能機器人呢?約坎南.畢格曼認為,因為智能機器人具有「自主性」,沒有人類監督和參與的情況下,智能機器人也可以進行決策和判斷,所以,絕大部分人對智能機器人懷有一種「道德期待」,希望它們遵循人類的道德規範、承擔一定程度的道德責任。比如,智能機器人的外形與人類極為相似的話,它們應該意識到身著服裝、遮蔽身體是一項基本的常識和義務,且選取一套較為美觀的服裝穿在身上。

(人工智慧)

美國「防止虐待機器人協會」的一份報告呼籲,適用於人類的一些保護性的道德規範應該延伸到智能機器人,確保智能機器人也享有適當的權利,畢竟大多數的情況中,對於智能機器人的關照和保護,也是變相的關照和保護人類自身。約坎南.畢格曼說,現如今是探討智能機器人道德問題的絕佳時機,「未雨綢繆」永遠比「亡羊補牢」強得多。

美國坦佩市的特殊交通事故表明,人類已經與自動化機器分享了道路、天空、工廠和醫院等等,有朝一日,人類也會與智能機器人一起生存於地球上,這意味著自動化機器和智能機器人不可避免的會傷害人類、人類也會損害它們,如何處理這一系列的問題已是人類的燃眉之急。

(人工智慧)

小考題:你認為一個人虐待一個智能機器人的話,這個人該不該受到懲處呢?歡迎你留言討論。

(本號專註於科技前沿、歷史拾遺、奇聞異事和人物品鑒,還望你的關注和訂閱,萬分感謝!

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 品讀百卷 的精彩文章:

喜劇演員金.凱瑞的諷刺漫畫惹爭議,墨索里尼的孫女杠上他
生物學教科書又被改寫,父親的線粒體DNA也可以遺傳後代

TAG:品讀百卷 |