當前位置:
首頁 > 新聞 > AI犯罪,怎麼追究刑事和民事責任?

AI犯罪,怎麼追究刑事和民事責任?

試想,2023年自動駕駛車穿梭於大街小巷。若不幸發生了交通事故,行人被撞身亡,媒體將爭相報道。這場官司必將引發廣泛關注,但究竟該如何審判,依據是什麼?

如今,英國布萊頓大學的John Kingston給出了一個答案,但有些差強人意,他提出了AI領域的刑事責任理論,並指出自動化、計算機和法律領域需改變態度,謹慎應對等關鍵問題。

爭論的核心在於人工智慧系統能否自行承擔刑事責任。Kingston稱,以色列奧濃科學院的Gabriel Hallevy對此問題進行了深入研究。

構成刑事責任通常需要明確其行為和意圖(法律術語為actus rea 和 mens rea)。Kingston稱Hallevy描繪了AI系統可能涉及的三種刑事犯罪情況。

第一種情況為間接犯罪,肇事者為存在精神缺陷的人或動物,此類肇事者無需承擔法律責任。但任何操縱精神病患者或動物實施犯罪的人均需承擔相應刑事責任。例如,狗主人命令狗襲擊他人。

再比如,智能機器的設計者及使用者。Kingston表示:「AI項目可能被當作無辜的工具,而利用它實施犯罪的軟體編程師或用戶則為間接犯罪的主謀。」

第二種情況為不可抗力與意外事件,即指因不當使用AI系統導致的犯罪。Kingston以日本摩托車工廠智能機器人殺人案件為例,解釋道:「機器人將工人誤認為危險對象,採取消除威脅的最有效方式,揮動力大無窮的液壓懸臂,將毫無防備的工人推入機器,迅速結束了他的生命,然後繼續執行工作任務。」

此案例的關鍵問題在於該機器的編程師是否已知此類機器的功能缺陷及可能帶來的後果。

第三種情況為行為與意圖兼具的直接犯罪,如果AI系統的作為或疏忽不作為構成犯罪,則可直接證明其犯罪事實。

Kingston認為,犯罪意圖雖然難以界定,但仍具參考價值,他表示:「超速屬嚴格責任犯罪。因此根據Hallevy的說法,自動駕駛汽車如果超速行駛,法律上有充分理由追究驅動該汽車AI技術團隊的刑事責任。」如此看來,車主無需擔責。

接下來,涉及刑事辯護。被追究刑事責任的AI系統將如何辯護?Kingston列舉了幾種可能:AI程序是否可效仿精神病患者,以系統故障為由進行辯護?或效仿人類被迫或醉酒犯罪,將受電腦病毒襲擊作為辯護理由?

這幾種辯護情況並非憑空設想,Kingston分享了英國的一些案例,有計算機犯罪的相關責任人就以機器感染惡意軟體為由,進行過成功辯護,並稱惡意軟體該負責。

某案例中,一名被控發起拒絕服務攻擊的青少年黑客辯稱,木馬程序發動了此次攻擊,該程序還在警方介入前清除了作案痕迹。

最後,涉及刑罰類型。既然AI系統是犯罪行為的直接責任方,那麼應由誰來接受何種刑罰?這些問題尚不得而知。

但若AI系統觸犯的是民法,就不應再追究其刑事責任。接著問題來了,AI系統究竟屬於服務還是產品?

如果將AI系統視作產品,應根據產品保修證所提供的信息,運用產品設計法規處理案例。

如果將其視作服務,則存在過失侵權。這種情況下,原告通常需提供構成過失侵權的三要素。其一,需證明被告有看管義務。Kingston表示,儘管AI案件中沒有明確界定看管標準,通常可直接證明。

其二,需證明被告存在失職。最後,還需證明該失職對原告造成了傷害。

然而,比這些條文更複雜的是,隨著AI系統的能力愈發接近人類,甚至超越人類,其法律地位也將改變。

有一件事是肯定的:未來幾年內,律師(或是替代他們的AI系統)會捲入越來越多的新奇案例糾紛中。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技行者 的精彩文章:

狗糧吃飽了嗎?據說AI與區塊鏈技術還能幫你「找對象」

TAG:科技行者 |