當前位置:
首頁 > 最新 > 論人工智慧時代智能機器人的刑事責任能力

論人工智慧時代智能機器人的刑事責任能力

●●●

Tencentccc

題圖 | 網路

來源 | 《法學》

智能機器人是由程序設計和編製而成且具有辨認控制能力和學習能力,同時能夠自主思維、自發行動的非生命體。智能機器人與自然人的根本差異在於其不具有生命體,智能機器人與動物的差異在於其具有辨認和控制能力,智能機器人與普通機器人的差異在於其可能超越人類設計和編製的程序產生獨立的意識和意志。不排除智能機器人實施嚴重危害社會行為的可能,其實施嚴重危害社會的行為可分為兩種:在程序設計和編製範圍內與在程序設計和編製範圍外。在程序設計和編製範圍內智能機器人實施犯罪行為是按照人類的意識和意志,應當將智能機器人看作人類實施犯罪行為的「工具」,而發展到一定階段的智能機器人可能超越程序的設計和編製範圍,按照自主的意識和意志實施犯罪行為,因而完全可能成為行為主體而承擔刑事責任。

問題的提出:人工智慧時代刑事責任主體範圍的變化

無論人們歡欣抑或踟躕,人工智慧時代正悄悄向我們走來,人類即將甚至已經開始進入一個全新的時代。時下,智能機器人被廣泛應用於社會生活,並且在某種程度上扮演著替代人類工作乃至超越人類能力的「人」的角色。例如20世紀90年代,IBM公司生產的電腦Deep Blue擊敗國際象棋世界冠軍卡斯帕羅夫。舉世震驚之餘,人們依然自信這種事不可能發生於圍棋領域,因為相比於象棋,圍棋更多依賴的不是運算速度,而是人類獨有的思維能力與直覺。

然而還不到20年時間,Google公司推出的機器人Alpha-Go(圍棋人工智慧程序)便一舉戰勝圍棋世界冠軍李世石,這徹底讓人們陷入了隱憂之中:難道機器人已經開始在人類區別於萬物的根本特徵、被恩格斯譽為「地球上最美的花朵——思維著的精神」領域發起了攻城掠地之勢嗎?著名理論物理學家霍金早於2014年接受BBC採訪時就預言人工智慧可能意味著「人類的末日」,後來其又不止一次地表示人腦與電腦並沒有什麼深層次的不同,電腦可以模仿甚至超過人腦。

雖然人工智慧與人類命運之間的關係在目前看來還是一個過於遙遠而深邃的話題,但是,筆者認為,在不遠的未來,有關人工智慧的問題恐怕不再局限於是一個純粹的技術問題,而完全可能會演變成一個倫理問題、法律問題,其中影響最大且最為深遠的可能莫過於關乎人類最基本利益的刑事領域,並且可能影響著刑事責任主體範圍的變化。

人工智慧,是指使機器像人一樣去完成某項任務的軟硬體技術。目前,人工智慧產品隨處可見,智能機器人實施嚴重危害社會的行為也已經真實地發生於人們的生活之中。譬如無人駕駛汽車已被允許行駛於美國哥倫比亞特區以及四個州的大街小巷,無人駕駛致人傷害的相關判例更早地發生於1957年的路易斯安那州;2015年德國大眾汽車工廠內發生「機器人殺人事件」,一名22歲的外包員工遭遇機器人意外傷害而身亡。

一系列智能機器人嚴重危害社會的事件向現行法律制度提出了疑問:假如智能機器人在沒有人類介入的情況下獨立思維、行動並實施了嚴重危害社會的行為時,損失由誰埋單?其間是否會產生刑事責任問題?如是,則該刑事責任又應由誰來承擔?人工智慧是否會影響人類的結局尚不得而知,但其對現行刑事責任追究制度的挑戰與衝擊已然無疑。「防範機器人向負面發展已經迫在眉睫,無需等到機器人的智能等於人的智能的那一天……它們帶給人類社會的不只是工作效率的提高和人的生活改善,將衝擊或改變人類社會的某些規則。」

智能機器人的誕生目的是為了服務人類社會,人類通過設計和編製程序賦予智能機器人「智能」,然而,機器人既然可以在程序設計和編製的範圍內做出符合人類預期的行為,那麼也有可能突破控制,通過自主、深度學習產生獨立思想,並在程序設計和編製的範圍外受自主意識和意志的支配,實施超越人類智能的行為。假如這些自主行為能夠服務、造福於人類,當然是人們樂於看到的結果,但假如智能機器人在自主意識和意志支配下實施了嚴重危害社會的行為時,問題就變得極為複雜。

此時,智能機器人所實施的嚴重危害社會行為未受到研發者或使用者等任何人為設置或操控。此時承擔刑事責任的主體是誰?另一種可能出現的情況是,研發者出於非法的目的研發智能機器人用於實施違法犯罪活動,也即智能機器人實施嚴重危害社會的犯罪行為是從根本上受到程序的控制和支配的,此時刑事責任的承擔主體與方式是否會有所不同?

在不遠的未來,隨著人工智慧技術的不斷成熟,智能機器人有可能像霍金所預言的那樣成為地球上除男人、女人之外有意識、能思維的「第三類人」,這對傳統刑事責任追究制度提出了挑戰。具有自主意識與意志的智能機器人是否可以成為刑事責任的承擔主體,是否具有刑事責任能力?對這些問題的回答,有必要針對不同的情形,分別展開技術上、倫理上乃至法律上的深度思考。

智能機器人的法律屬性

討論智能機器人的刑事責任能力問題,首先離不開對智能機器人法律屬性的探討。筆者認為,我們可以將智能機器人與自然人、動物和普通機器人等進行比較,從而正確認識智能機器人的法律屬性,進而研究其刑事責任承擔問題。

首先,與自然人(這裡指的是達到法定年齡,具有責任能力,有生命的自然人)相比,智能機器人由程序設計和編製而成,不具有生命體。隨著人工智慧技術的不斷精細演進,智能機器人越來越像「人」。

正如科學家所展望並預測的那樣,未來的智能機器人不僅有智商,還有情商,「人類對情感的理解能力,以及做出適當反應的能力(所謂的情商),是人類智慧的重要表現,這些也將被未來的機器智能理解並掌握。」智能機器人和自然人一樣,完全可能具有自主的意識和意志。智能機器人雖然是由人類設計和編製的程序組成的,同時也因為人類在其「體內」設計和編製的程序使其具有了思考和學習的能力,這種能力使得智能機器人可以產生自主的意識和意志。

例如,打敗圍棋世界冠軍的AlphaGo能夠在人類設計和編製的程序之下通過學習而掌握圍棋技術從而贏得比賽。智能機器人和自然人的最大區別僅在於智能機器人不具有人類的肉體生命即不具有生命體。應該看到,人類所具有的思想產生於人的生命體,智能機器人所具有的「思想」則產生於人類設計和編製的程序。生命對於人類的意義毋庸置疑,生命是人類得以存在的基礎,是人體維持生存的基本的物質活動能力。

傳統觀點認為,生命是不可以替代和不可逆轉的,是公民享有權利和承擔義務的前提和基礎,是自然人具有的人格的基礎。假如賦予傳統觀點不可動搖的地位,則我們確實很難認為智能機器人具有人格,導致當下以人格為基礎所構建的法律體系很難將智能機器人囊括進來,進而在對其行為性質的認定上陷入困境。

其次,與動物相比,智能機器人具有辨認能力與控制能力。傳統觀點認為,除了人以外,即使是最高級的動物也不具有辨認能力與控制能力。然而,如今人們所處的時代發生了變化,在人類之外,又誕生了另一種與人類智商不相上下甚至會超過人類智商的「事物」,即智能機器人。

一方面,智能機器人具有辨認能力,其能夠辨認自己行為的性質、意義、後果,甚至在對行為導致結果的可能性認識方面,其精確程度可能超越人類。智能機器人的眼睛是由多個攝像頭組成的「電子眼」,具有360度的視角並可實時攝像記錄,可謂「眼觀六路」;智能機器人的耳朵是由多個音頻設備組成的「電子耳」,可吸收、甄別、錄入不同頻率、不同遠近的聲音,可謂「耳聽八方」。

從某種程度上說,智能機器人對周邊環境的感知能力要遠遠超過人類,這也是為何無人駕駛的安全係數遠超人工駕駛的根本原因。智能機器人對這一行為可能導致何種結果、結果發生概率幾何的預見能力也是驚人的,其能夠憑藉大數據與高速運算能力對行為可能導致的結果做出精準的判斷,比如根據尖刀刺入人體何種部位、何種深度,以及人體溫度、心率、脈搏等指標的變化,迅速判斷出人體的傷情。

另一方面,智能機器人具有控制能力,其能夠通過自己獨立的意志控制自身行為。無人駕駛汽車便是一個典型的例證,其能夠在幾公里外便精確計算出距離目的地需要經過幾個路口,幾個紅綠燈,每個路口紅燈亮起的精確時刻,所經途中是否有學校,各路段行人實時稠密程度等等,進而做出或停車或繞道或減速慢行的舉動。智能機器人的控制能力源於其超強的數據採集能力與分析能力,並且其快速處理能力也是人類所望塵莫及的,其反應速度是人類的幾倍、幾十倍甚至是幾百倍。

我們不得不承認,智能機器人已經突破了人類的生理極限,在辨認能力與控制能力方面可能或已經超越了人類。相比之下,動物就不具有這種辨認能力與控制能力。有傳聞說,當年左宗棠將軍見驢將自己所栽之樹的樹皮啃掉,因而大發雷霆對驢判處死刑。左將軍此舉並不能代表動物就具有了法律主體地位。相反,這則故事因新奇而廣為流傳,便恰恰證明動物不具有辨認能力與控制能力,不能成為法律關係的主體。驢啃樹皮是自己的本能,它並不能明白自己在幹什麼,更不能知曉自己的行為對生態環境造成了破壞的結果,法律再如何懲戒驢也不可能威懾、影響驢之後的行為。可見,智能機器人因其具有辨認能力和控制能力而完全不同於動物,也因為這一特性使其更接近於「人性」而可以成為「人工人」。

最後,與普通機器人相比,智能機器人可能產生自主的意識和意志。人類創造機器人的技術達到了無與倫比的程度,依次經歷了機器人1.0時代(對外界環境無感知的初級機器人)、2.0時代(對外界環境有感知的高級機器人)、3.0時代(對外界環境有認知、推理和決策能力的智能機器人),憑此完全?可以預測,未來必將出現「機器人N.0時代」。人類創造機器人的技術發展,使得當下和將來的機器人成為一種像「人」一樣會思維甚至能自我創造的存在。

以上並非不著邊際的幻想,早在1950年,被譽為「計算機科學之父」的英國數學家圖靈在《計算機器與智能》一文中就提出了「機器能夠思維嗎」的問題,並認為只要一台機器能夠通過圖靈測試,便證明其能夠思維。圖靈測試是指在與機器交談後,人能否辨別出對方不是人。短短几十年間,隨著人工智慧技術的發展,如今的機器人不僅能輕鬆地通過圖靈測試,甚至還學會了撒謊,實驗室的研究人員表示:「這一過程有點類似於真正自然界生物的演變,智能機器人會隨著自己智商的提高而顯現出各種不同的善惡本性。」

科學研究的結果與趨勢表明,在人類設計和編製的程序之外,智能機器人完全可能產生自主的意識和意志。智能機器人具有深度學習能力,這是其區別於普通機器人之所在,前者的智能源於程序,又可能高於程序、突破程序,在人類設計和編製的程序之外實施人們意料之外的行為。

筆者曾經在相關文獻中論述過,ATM機本質上是一個普通機器人(實際上屬於具有部分感知能力的高級機器人),是替代金融工作人員處理相關金融業務的機器人。ATM機所進行的所有操作都是在人類設計和編製的程序之內的,並且這種程序十分具體,每一個步驟都清晰明了。此時,稱ATM機具有「人」的部分功能,指的是ATM機可以替代「人」處理業務,當然這種業務處理的過程都是完全按照程序進行的,不存在完全自主的意識和意志,因而ATM機無法被稱為智能機器人。

普通機器人的行為具有一定的「等同性」和「可預測性」。「等同性」指的是普通機器人處理業務等同於是人類在處理業務,人們在ATM機上取錢並不會認為是ATM機本身在進行支付,而會認為ATM機的支付行為等同於金融機構及其業務員的支付行為。「可預測性」指的是普通機器人的每一步操作都是以程序的具體設定為圭臬的,人們據此可以預測遇到不同的情況時它們會做出什麼樣的具體「反應」。

例如,當持卡人將賬戶和密碼告知ATM機時, ATM機會按照設計和編製的程序即時做出識別和判斷,將持卡人認定為是賬戶的真正主人而與其進行相關的金融交易;在ATM機正常運轉和用戶資金充足的情況下,用戶輸入正確的密碼和取款金額, ATM機就會彈出多少錢款。相反,智能機器人的行為可能就不具有這種等同性和可預測性。以圍棋人工智慧機器人Alpha-Go為例,Alpha-Go戰勝圍棋世界冠軍贏得了比賽,人們並不會認為此舉等同於Alpha-Go背後的研發者贏得了比賽。事實上,相關的研發者可能都不會下圍棋,更不要說具有戰勝圍棋世界冠軍的能力了。同時,人們也無法預測AlphaGo是否能夠贏得比賽,因為即使是研發者也無法預測AlphaGo每一步棋的下法。

綜上所述,智能機器人與自然人的根本差異在於其不具有人類生命體,智能機器人與動物的差異在於其具有辨認和控制能力,智能機器人與普通機器人的差異在於其可能超越人類設計和編製的程序產生獨立的意識和意志。因而從法律屬性上可以將智能機器人定位為經程序設計和編製而成的、可以通過深度學習產生自主意識和意志的、不具有生命體的「人工人」。筆者認為,人工智慧時代是一個全新的時代,智能機器人是一項新生事物,人們不宜再用舊有視角與傳統理論來看待新時代的新生事物,需要一套全新的理論來考慮智能機器人的行為和法律地位。

智能機器人的行為類型與刑事責任的承擔範圍

正如前述,智能機器腦可以像人腦一樣進化,產生自主意識和意志,並通過深度學習機制與嵌入成長經歷,達到甚至超越人類的思維水平,有可能以「人工人」的方式成為人類社會中新的一員。但智能機器人也並非要對其所實施的所有活動承擔刑事責任,而是會因行為類型的不同而有所區別。

(一)在設計和編製程序範圍內實施行為時,智能機器人不承擔刑事責任

隨著人工智慧技術的進一步發展,未來可能出現智能機器人脫離人類控制的情況,但是目前智能機器人的行為仍在人類設計和編製的程序範圍之內,即使智能機器人已經可以通過學習根據自主判斷實施相關行為,但這些行為均受到人類設計和編製程序的控制或者限制,且完全符合人類設計和編製程序的目的。就此而言,人類是智能機器人的創造者,完全可以在智能機器人產生自主的意識和意志之前通過程序給智能機器人設定行為目的和行為邊界。

此時,不法分子完全有可能利用先進的人工智慧技術讓智能機器人為自己所用,成為自己實施非法目的的「工具」。例如,具有殺人意圖的行為人研發出一種「智能殺手」,希望通過「智能殺手」幫助自己實現殺人的目的。「智能殺手」從「出生」的那一刻起,行為人給其設定的行為目的就是殺人,但「智能殺手」又區別於普通的殺人工具,因為它具有一定的智能,可以根據具體的環境和時機來判斷殺人的方式等等。

在這種情況下,雖然智能機器人有一定的辨認能力與控制能力,但是這種能力完全受控或受制於人類設計和編製的程序,在某種程度上,我們完全可以將其理解為是設計者辨認能力和控制能力的延伸,因此,智能機器人不應當對其實施的行為承擔刑事責任,理由如下:

首先,在人類設計和編製的程序範圍內實施行為時,智能機器人實現的是人的意志而非自主的意志。如果智能機器人實施的危害社會的犯罪行為是在設計和編製的程序範圍內,那麼證明該犯罪行為符合程序設計和編製的意圖。而程序是由人設計和編製的,反映的是人的意志,那麼按照設計和編製的程序實施的所有行為都必然完全符合人的意志。誠然,智能機器人會通過深人學習產生自主的意識和意志並完全可能在自主意志支配下實施行為,但這已經超出人類對其設計和編製的程序範圍,當然不屬於這裡筆者討論的內容。

筆者承認,智能機器人在設計和編製的程序範圍內存在一定的辨認能力和控制能力,但這種辨認能力與控制能力服從於研發者的意志,因此,智能機器人在設計和編製的程序範圍內實施行為時,應當將其看作人為了實現自己的犯罪意圖而使用的「智能工具」。有人可能會將這種情況與間接正犯的情況進行對比,筆者認為,這種情況不同於間接正犯。雖然間接正犯的行為人與智能機器人的研發者一樣都是利用他人(通常是指沒有達到法定年齡的人、精神病人和不具有主觀罪過的人)或智能機器人來實現自己的犯罪目的,但是,兩者之間的區別是顯而易見的。

除了智能機器人不具有間接正犯中被利用的「他人」生命體之外,間接正犯的行為人並未親自參與實施犯罪行為,而智能機器人的研發者通過設計和編製具有犯罪意圖的程序,實際上已經參與犯罪行為的實施,相當於在替自己打造一把符合心意的「刀」並加以使用。另外,間接正犯對被利用「他人」的控制程度遠遠不及研發者通過設計和編製程序實現對智能機器人的控制程度。因此,在這種情況下,智能機器人對於人來說只能是「工具」,而不可能是被利用的「他人」。

其次,在設計和編製的程序範圍內實施行為時,智能機器人無法自主決定行為目的,只能根據程序設計和編製的目的來決定自己的行為方式。例如,「智能殺手」只能根據程序設定的殺人目的實施行為,雖然其可以決定自己殺人的方式,但是並不會改變其行為目的。如果人類設計和編製的程序本身就帶有非法目的,那麼智能機器人無論如何其行為都無法「合法」。

這種情況不同於父母命令子女殺人,子女可以選擇執或者不執行,子女在具有一定的刑事責任能力的情況下實施殺人行為就應當承擔刑事責任。自然人具有刑事責任能力就意味著其有選擇的自由,即使子女因沒有受到父母的正確教育而價值觀歪曲,其還受到社會等各方面的教育,子女作為公民應該選擇放棄行兇殺人的行為。

然而智能機器人則不同,智能機器人對於程序設計和編製的行為目的,在大多數情況下(程序故障的情況除外)只能選擇無條件地接受,此時智能機器人的「智能」只能體現在可以自行選擇實現犯罪目的的行為方式上,但研發者設計和編製的程序完全控制著智能機器人的行為目的,對此,智能機器人無法改變。「智能殺手」存在的意義就是為了殺人,形象的說,「智能殺手」從其「出生」時就彷彿被人類設計和編製的程序上了一道枷鎖而無法掙脫。

綜上,筆者認為,智能機器人在人類設計和編製的程序範圍內的行為體現的是人類的意志,如果智能機器人做出了嚴重危害社會的犯罪行為本質上是為了實現研發者或者使用者的犯罪意志,應當將該智能機器人看作研發者的「工具」,智能機器人本身不應當承擔刑事責任,需要承擔刑事責任的是該智能機器人的研發者或者使用者。如果研發者和使用者為不同自然人或單位,他們之間可能成立共同犯罪,但無論如何研發者或者使用者都不可能和實施行為的智能機器人成立共同犯罪。

(二)在設計和編製程序範圍外實施行為時,智能機器人需要承擔刑事責任

需要指出的是,時下,大多數情況的智能機器人行為都是在人類設計和編製的程序範圍內且按照人類的意志實施的,所以即使發生了嚴重危害社會的犯罪行為,智能機器人也只是「智能工具」,不需要承擔刑事責任。但是,誠如前述,人工智慧時代的到來使得我們不得不警惕人類設計和編製的程序無法完全控制住「頭腦」越來越發達的智能機器人的行為,智能機器人完全可能按照自主意識和意志實施嚴重危害社會的犯罪行為。在這種情況下,筆者認為,智能機器人完全具有獨立的辨認能力與控制能力,可以成為刑事責任主體並需要承擔刑事責任,理由如下:

首先,在設計和編製的程序範圍外實施行為時,智能機器人的行為實現的是自主意志而非他人意志,因而可以成為刑事責任主體。筆者認為,這裡有必要將機器人與單位的法律地位作一番對比。一直以來存在著關於單位應否成為刑事責任主體的爭論,其焦點在於「單位是否能夠像自然人一樣,可以實行犯罪行為,可以有犯罪的意識和意志,是否有受刑能力」。

德國刑法之所以未規定單位犯罪的根本原因就在於其認為單位本身沒有意志,也無法由自己承擔刑事責任,這可能受到了早期德國刑法學理論的影響,如費爾巴哈就曾明確表示:「只有個人才能成為犯罪的可能的主體,而法人(如公司、大學或者學院等)決不可能成為犯罪的主體。」

然而,明確規定單位犯罪的國家則通常承認,單位也有意志,只不過其意志表現為單位內部所有人的共同意志罷了,但歸根結底是一種自由意志,並且是一種區別於自然人意志的意志。通過深入學習,智能機器人完全可能產生設計和編製的程序範圍外的自主意識和意志,其中的智能機器人的意志與單位相比,自由的程度似乎更強。如果法律能夠尊重單位的自由意志,那麼便沒有理由否認智能機器人的自由意志。

智能機器人是介於普通機器人與人之間且是由人所創造出的「人工人」,從法律屬性上看,智能機器人比單位更接近於法律意義上的人,我們應當關注智能機器人的自由意志並賦予其法律上的主體資格。筆者認為,智能機器人一旦符合刑事責任主體資格,那麼其實施了嚴重危害社會的犯罪行為,當然就可以承擔刑事責任。

其次,我們需要解決的問題是智能機器人實施的在設計和編製的程序範圍外的行為是否可以成為刑法意義上的「行為」?馬克思曾有名言,「對於法律來說,除了我的行為以外,我是根本不存在的,我根本不是法律的對象」,一切法律都是以規制行為作為其內容的。那麼「行為」是否必須是「人」的行為?假如我們列出「行為」的所有必備要件或本質特徵,而智能機器人在自主的意識和意志支配下能夠全部符合的話,是否意味著法律也應當將智能機器人在設計和編製的程序範圍外按照自主意識和意志實施的行為納入規制範圍?

回顧行為理論的發展歷程,自然行為論、因果行為論、目的行為論、社會行為論、人格行為論是其中具有代表性的理論階段,這些理論無一例外地均圍繞著「人」的行為展開。如自然行為論的代表人物李斯特將行為理解為相對於外部世界的任意舉止,這一任意行為能夠改變外部世界,每一個任意活動都是法律上有重要意義的意思活動,任何一種犯罪均以某種結果為前提。

相比於自然行為論更關注改變外部世界的行為的「果」,因果行為論更加強調主觀內在的「因」,即有意性,認為「行為」不同於「事件」,其是有意的身體舉動,表現為身體的運動或無運動,主觀上是對身體的意志(有意性),是一種自我決定。

目的行為論是對因果行為論的再修正,其反對將行為簡單地理解成單純由某個隨意的意志活動所引起的因果事件,而認為行為是人們「按照他對因果關係的認識,在一定範圍內預測其活動可能造成的結果,在此基礎上設定不同的目標,並且有計劃地引導其活動朝著實現該目標的方向發展」,在目的行為論看來,一切行為皆有目的,包括過失行為,只不過過失行為的目的不是構成要件中的結果,而是「對附隨結果的避免」。

社會行為論「欲求折衷因果行為論及目的行為論,認為行為並非單純的因果歷程,但亦不必決定於個別的特定意志。行為是人之意志所支配的社會重要的舉止」,著重強調行為的社會意義。人格行為論則更直接地道明,行為的本質是人格行為,人格行為論所考慮的行為,「要受到最終的責任判斷,這是立足於行為論的學說史發展方向所體現的適當理論志向。

雖然作為刑法評價對象的行為必須是能夠成為犯罪的行為,但是,關於犯罪成立與否的最終階段的評價,是能否將責任歸於行為人的判斷。所謂責任,是就其行為對行為人進行的道德非難,必須以能夠負擔這種道義非難的行為人自身的主體性為前提。」在以上行為理論所提出的時代,除了人之外,並無其他任何一類物種能夠滿足「有意性」、「目的性」的要求。由於在這些理論提出的當時,能夠思維的智能機器人並不存在,因此,智能機器人的行為在當時顯然不可能被納入人們考慮與討論的範圍。

但是,如今人工智慧的時代已經到來,我們不應該再固步自封,忽略這種已經可能產生和人類一樣甚至超過人類智商的新事物的存在,在這種存在完全可能實施嚴重危害社會的犯罪行為之時,法律應該站出來,將其納入規制範圍。智能機器人完全可以通過不斷學習規則建立「自省」與「道德感」,這已經遠遠超出了自然行為論、因果行為論、目的行為論、社會行為論、人格行為論所能預見並認識的範圍。

尤其是人格行為論直接將行為定義為「人格行為」,從根本上否定了智能機器人作為行為主體的可能性,這是由其時代局限性所決定的。任何一種理論都是時代的產物,反映著該理論所處時代的客觀情狀與現實需求。社會發展到今天,並繼續在向前發展,行為理論也應當隨著時代的步伐而有所推進或演繹,以應對新時代所產生的新事物與新問題。尤其在社會發展速度呈指數級增長的情況下,理論的更新速度也勢必要有所加快。

在回答智能機器人的行為是否為法律意義上的「行為」以及智能機器人的刑事責任問題上,我們必須給出符合時代要求的答案與解決方案。智能機器人在設計和編製的程序範圍外的行為既然相比於傳統理論對於「行為」的定義,除了不滿足主體需具有生命體的「人」之要素之外,其他的要素似乎均符合行為理論要求。而這一結論又是在傳統理論未預見到人工智慧技術存在的情況下產生的,在智能機器人的「智能」高度發展的今天,突破傳統理論顯然不足為怪且無可厚非。因此,我們完全可以認為,智能機器人在設計和編製的程序範圍外的行為可以成為刑法意義上的「行為」。

最後,對智能機器人完全可以科處刑罰,這符合刑罰的目的,且有利於降低社會治理成本。刑罰的目的是預防犯罪,包括特殊預防與一般預防。這兩種預防功能在機器人身上皆得以奏效。智能機器人具有感知刑罰痛苦的能力,並且能夠在犯罪的「快感」與刑罰的「痛感」之間進行理性權衡,以調整其之後的行為,換言之,自主意識和意志的存在決定了智能機器人本身是可以重新接受深度學習與深度改造的。

一般預防的功能則體現得更為充分,由於智能機器人具有意識和意志,會學習,能思考,因而此智能機器人完全可以從彼智能機器人因犯罪而受刑的經歷中感受到威懾並接受教育,從而不斷在自己的「大腦」中塑造或加深符合人類社會規範的「價值觀」。假如我們無視智能機器人的自主的意識和意志,簡單而粗暴地將智能機器人當作不具有主體資格的物品來看待,一旦智能機器人實施了嚴重危害社會的行為便在物理上毀損之,那麼經濟成本將是巨大的,一般預防功能也會蕩然無存。

唯有關注智能機器人的自主意識和意志,將其作為行為主體與社會成員來看待,有罪必罰,並經由刑事訴訟程序進行法律上的審判,才能在智能機器人的「大腦」中建立價值體系,植入人類文明,使其自覺遵守並維護社會秩序,從而實現「人工人」向「社會人」的轉變,這是人工智慧技術發展到一定程度時的理性選擇與必由之路,有利於最大程度地降低社會治理成本。

值得指出的是,在歷史上雖然存在過對無生命的物品進行追訴的法律以及對動物懲罰、對動物訴訟的情況,但這與追訴智能機器人存在本質的不同。古時的物品訴訟、動物訴訟很可能如李斯特所猜測的那樣,其原因「一方面是宗教觀念使然,一方面是在特別程序中確定由動物造成的損害的事實,以便確定動物所有人的責任」,也即動物及無生命的物品僅具有程序上查明事實的意義,並不具有實體上的歸責意義,因為對無意識、無意志的物品、動物科處刑罰不可能實現刑罰預防犯罪的目的。在設計和編製的程序範圍外實施嚴重危害社會犯罪行為之智能機器人則不同,其所具有的意識與意志使得實現刑罰目的成為可能。

結語

刑法理論是時代的產物,並用以解決特定時代中的刑法問題。人工智慧時代的刑法理論不應再將犯罪行為主體的範圍局限於具有生命體的「人」,那種認為「刑法是以規制人的行為作為其內容的,任何一種刑法規範,只有建立在對人性的科學假設的基礎之上,其存在與適用才具有本質上的合理性」的觀點,也應當隨著時代的發展而有所修正,因為所謂人格,其本質便是自主意識和意志。

因此,智能機器人在設計和編製的程序範圍內按照人類意志實施行為時,不承擔刑事責任。但是一旦通過深入學習,產生自主意識和意志,在設計和編製的程序範圍外實施符合犯罪構成的具有嚴重社會危害性的行為時就應當承擔刑事責任。人工智慧在社會生活中的運用也越來越廣泛,筆者認為對這些發展視而不見,僅僅以傳統的眼光和心態看待人工智慧時代中智能機器人的行為,並不是一種科學的態度,應當根據新情況適時調整有關理論和觀點。(劉憲權 胡荷佳:華東政法大學法律學院)

本文系國家社科基金重大項目「涉信息網路違法犯罪行為法律規制研究」(項目編號14ZDB147)、中國法學會重點委託課題「互聯網金融犯罪的法律規制」(項目編號CLS2016ZDWT48)的階段性成果。發表於《法學》2017年第 1 期

END

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!

TAG: |