當前位置:
首頁 > 最新 > 關於人工智慧機器人是否需要人權的思考

關於人工智慧機器人是否需要人權的思考

正文摘要

隨著人工智慧的不斷發展,機器人的智能化程度越來越高。在科技、金融、醫療、教育、交通、製造等領域,機器人為我們的貢獻越來越多,其所扮演的角色也更加複雜。在機器人侵犯我們的權益時,應該由誰來承擔對應的法律責任呢?這不僅僅是一個道德倫理問題,賦予機器人以必要範圍內的「人權」,將是未來各項人工智慧技術進一步發展的前提和基礎,也是進一步保障人類人權的需要,應及早引起我們的高度重視。

關鍵詞

人工智慧;人權;人權法

人工智慧

人工智慧(ArtificialIntelligence,簡稱AI)從誕生以來,理論和技術日益成熟,應用領域也不斷擴大,並已經可以對人類認知和思維的過程進行信息化模擬。人類曾不斷在文學作品和影視作品中設想基於AI的「機器人」存在的各種形態,可謂是百花齊放精彩紛呈。在不久的將來,以機器人形式出現的人工智慧將具有不斷進化的思維能力,而且這種可能性越來越大。無論採取何種形式,機器意識的出現將會給人類社會帶來重大影響。

一、機器人該不該擁有「人權」

(一)人工智慧的快速發展超出了人類的想像

前不久,谷歌研發的AlphaGo智能機器人以絕對優勢先後戰勝了人類圍棋界的頂尖高手李世石、柯潔等,而在此之前人類仍認為機器人想在圍棋上勝過人類是短期內不可能實現的事情。人工智慧行業的快速發展如同洶湧而來的浪潮,AI不僅在科技圈內如火如荼,也越來越多地應用於數據分析、金融分析、新聞媒體、法律等領域。

近期,有一隻來自倫敦大學學院、謝菲爾德大學和賓夕法尼亞大學科學家組成的科研團隊,該研究團隊讓AI識別了584個案件的英語數據資料,這些案件都有關於《歐洲人權公約》中的3條條款:第3條(有關酷刑或侮辱虐待)、第6條(保護公平審判權)和第8條(尊重私生活),然後AI分析所有信息,在每個案件上標記是「違背」或「不違背」人權公約,其中79%的預測審判結果和當時歐洲人權法院的判決相同。現在的製造業普遍採用的智能機器設備,實現了替代人類進行簡單重複的工作的目標,而經過發展的人工智慧已經具備基本的感知能力,更加「類人」。美國的雷·庫茲韋爾曾經發表觀點,到2029年會出現非常智能的機器人,它不僅具有和人類意義微妙的情感,還有自我意識,屆時我們將不得不考慮其「人性」的問題,換言之我們能否需要給予機器人「人權」呢?

(二)人工智慧機器人該如何承擔法律責任是一個迫在眉睫的問題

白俄羅斯作家以撒·艾西莫夫在作品《我是機器人》中提出了著名的「機器人工學三原則」,第一條:機器人不得危害人類。此外,不可因為疏忽危險的存在而使人類受害;第二條:機器人必須服從人類的命令,但命令違反第一條內容時,則不在此限;第三條:在不違反第一條和第二條的情況下,機器人必須保護自己。如果說在艾西莫夫生活的二十世紀三十年代中這是一個科幻夢,今天這個夢與現實之間的距離已經越來越小了。據《華爾街日報》報道,美國東部時間2018年3月19日晚間10時許,一輛Uber自動駕駛車在亞利桑那州坦貝市向北行進時,以時速65公里的速度撞上了當時推著自行車穿越斑馬線的49歲女子,致其身亡。事發時,車輛以自動駕駛模式行進,駕駛者位於車輛後排的非駕駛位。這是無人駕駛汽車領域全球範圍內第一起致人死亡的案例,到底該如何界定這次事故的責任主體人呢?

人工智慧產品可以代替人類進行一系列社會活動,無論是現在還是不久的將來,在機器人與人類共同生活工作的過程中發生的過錯應該由誰來負責,值得充分探討。事實上,越來越多的倫理專家和AI專家已經注意到人工智慧機器人所將帶來的倫理問題了。當人工智慧可以代替人類去工作的時候將會有大量人下崗失業,智能醫療機器人在診斷時出現的誤診、智能汽車型機器人發生的交通事故、智能家居機器人在處理家務時不小心傷到了主人或孩子……等等諸如此類的問題,我們根據人權倫理和責任倫理的觀點,到底是生產者還是使用者又或是機器人本身負責呢?雖然在當下弱人工智慧階段,我們可以暫時不去考慮人工智慧產品是否需要像人一樣擁有法律地位,但個人認為學界尤其是法學界應該先行一步,充分探討該如何解決即將在強人工智慧時代來臨之時需要面對的這些問題。

(三)為人工智慧機器人授權將是時代和社會發展的選擇

從社會發展的情況看,技術持續進步極大地促進了社會的進步和發展,但是技術持續進步也導致了社會關係的日益複雜。人工智慧在給人類帶來便利、提供勞動力和生產力的同時,隨之而來的道德問題也越來越突出。AI不僅可以模擬人類,創造智能生物,還將改變人類社會的內部關係,而這必將伴隨著人權倫理問題。如果我們希望讓機器人為我們做更多的事情,例如當我們的全職司機或給我們運送貨物,那麼我們可能就需要賦予他們法律主體資格;如果我們不將機器人定義為負有某種法律責任和義務的實體,那麼我們將很難有效地驅使它們。個人認為,在不久的將來,機器人將擁有類似人類的精神特質,如具有感情、目標導向、外界環境和自我認知、思維和推理能力、語言能力等等,這些精神特質是存在道德評判的基礎,機器人必將逐步被賦予相互獨立的道德倫理責任和法律責任。我們可以為能夠自我學習自我更新的機器人設計出完備的道德倫理體系,就像我們人類自身不斷接受學習教育不斷接受社會規範一樣。而在人工智慧不斷成熟和發展的過程中,法律該如何發揮作用呢?

法律既不能在自身的邊界中不去發揮作用,也不能超越自身的邊界,在機器人「人權」的問題上,剛性的法律控制手段和柔性的道德倫理手段都是必不可少的。任何一項新的事物誕生,都會伴隨著人類社會各界激烈的爭議,但在新事物充分融入我們的生活之後,當初的爭議都將不復存在。如1999年,歐盟通過了長達50頁的立法指導人們如何使用安全套,避孕技術法律控制的歷史本來是一個有爭議的話題,但現代社會避孕技術已經成為人們生活的一部分,對於如何使用避孕技術成為人們自由選擇的問題,屬於私生活和道德倫理控制範疇,法律已無權干預。在道德權利中,尊重才應該是最基本的,互相尊重才是保障各個生命體之間道德地位的公平。所以,在機器人成為生命體之後,我們對他也要有尊重的態度,不能用隨意、任性的態度對待機器,甚至虐待智能機器,因為他們和我們一樣擁有「人權」,和人具有同樣的道德地位。同時,AI機器人必須尊重和絕對服從人類,這應該成為AI機器人所有行動準則中一項最基本的、無條件強制遵循的道德和法律約束。

二、機器人該擁有什麼樣的「人權」

(一)從人類社會人權概念的產生看機器人人權

人權是人按其自然屬性和社會屬性應當享有的權利,機器人同樣具有自然屬性和社會屬性。人權在本質上是道德權利,人權法是保護人權的法律原則、規則和制度的總稱。人權法產生於18世紀末。近代歐洲資產階級在反封建專制鬥爭中,第一次明確提出了人權概念,用人權概念否定了以義務為本位的法律原則,把保障權利確立為法律的最高原則。資產階級革命勝利後,人權開始進入國內法領域,產生了人權法。人權法是法律文明程度的標誌,體現了法律發展的趨勢。人權是先於法律存在的,即使法律不承認,人權也存在。

若要保證機器人世界和人類世界的相對穩定,必須在機器人世界內確定「人權」的概念,這是保障人權權益的基礎,是人類統領機器人的前提。只有賦予機器人「人權」,才可以為機器人制定各項命令、規範或法律。隨著人類社會的進步,社會物質財富和精神財富都得到了充分的積累和發展,發達國家逐步邁向老齡化,發展中國家的人口紅利正在逐漸消失,但技術突破帶來的科技進步成果需要更多的勞動力來轉化,未來製造業和服務業需要大量的機器人來扮演重複性、精確性的勞動角色,機器人群體數量的增長將是加速的,如何去規劃、規範人與機器人之間的關係,當前學界尚未有主流共識。就像人權之於人類一樣,拋開人權談法律責任、道德責任,邏輯上是不通的;假如不能為機器人預先設定「人權」的概念,一切的規則和制度都是缺少基礎的。所以,個人認為機器人「人權」概念的產生,將會先於強人工智慧型機器人的誕生。

(二)人權法原則的延伸

從人權法原則方面來考慮,為機器人設定「人權」是可行的。通常認為人權法有權利本位、平等保護、保護弱者、權利與義務統一、國家責任等五個原則:

1、權利本位原則。該原則是對義務本位原則和公共權力本位原則的否定,把權利作為法律的核心和根本價值。

2、平等保護原則。該原則要求國家把不同群體的個人都作為平等的人來看待,要平等地分配利益和機會。平等保護必然反對歧視和特權。平等原則既肯定機會平等,也要求實質平等。平等保護原則要求對處於不利地位的群體給予特殊的保護。

3、保護弱者原則。這一原則把每一個人當成是世界上的最高價值,體現了人道主義關懷和博愛。

4、權利與義務統一原則。權利與義務統一原則是防止和解決權利衝突的原則。

5、國家責任原則。該原則強調在國家和個人的關係上,公民是享有權利的基本主體,國家是保障人權的基本主體;國家對人權的責任主要有兩個方面:尊重和保護;國家責任機制是人權保障的核心。

人類是目前地球上所有生物的主宰,這個地球上各物種之間的關係該以何種狀態存在,取決於人類的意志。我們是否可以無休止的通過機器人來滿足自己無窮的慾望呢?機器人可以隨意被摧殘、被破壞、被指示去違法犯罪嗎?機器人警察該秉持什麼樣的執法標準來對待機器人犯罪呢?個人認為機器人的人權法原則應當主要具有以下三個方面:

1、保護人類原則。人類設計和製造機器人的初衷是人類社會和平穩定繁榮發展,機器人的使命是為了這個初衷而努力,任何危及人類人身安全和危害社會公共安全的行為都是絕對禁止的,機器人的所有權利都應當建立在對人類的忠誠這一基礎之上。同時要忠誠於多數人類群體的意志,一切危害多數人利益的命令都是不可執行的。

2、平等保護原則。人工智慧機器人應與人類共同遵守道德準則,共同和諧相處,並享有共同的基本權利。使機器人擁有和人類同等的價值動機和取向,是機器人與人類不會產生互相傷害的前提。這一倫理原則往往比法律更有效。如果某一人類違反平等保護原則,將自身違法犯罪的意願強加於機器人來執行,所造成的後果應該由人類和機器人共同承擔。

3、權利與義務統一原則。與人類社會相同,機器人在享有權利的同時,自然應承擔對應的義務。所有機器人都有義務維護人類和其他機器人的權利不受侵害,一切無合法理由侵犯人類或其它機器人權利的行為都是不被許可的。

(三)嚴肅認識人類第一科技第二的主次關係

實踐是一切人類活動的出發點和落腳點,與其他任何生物和物種所不同,人類是完全獨立存在的。人工智慧技術只是一項科學技術,技術的本質是人用來改造世界的工具和手段,無論科學技術如何發展,所有的人工智慧產品都要為人類服務。愛因斯坦曾經說過,「前幾代的人給我們高度發展的科學技術,這是一份寶貴的禮物,它使我們有可能生活得比以前無論哪一代人都要自由和美好。但是這份禮物也帶來了從未有過的巨大危險,它威脅著我們的生存。」科學技術越是進步,其所需要的道德約束和法律規範就越多。扎克伯格的觀點是「人類花時間和精力去發明或者生產機器,是允許智能機器在某些方面強於人類自身的,這樣才有利於他更好的為人類服務,這是合情合理且非常重要的一點;至於我們現在擔也的人工智慧產品超越了人類會存在怎麼樣的威脅等等,兩百年前如果因為擔心而停止研究,就不會有今天的飛機,就不會有如此快捷的交通。」

所以在人工智慧這條道路上,只能通過不斷的實踐、認知、再實踐、再認知來不斷前進,人工智慧在通往人類水平人工智慧、超級智能的路上,需要廣大科學技術研究者和廣大法律界學者以高度謹慎的態度充分探討人工智慧對人類社會帶來的影響。人工智慧技術應用發展中可能存在的問題是無法脫離社會監督的,機器人存在可能超越人類的潛力,所以其發展過程中必須受到嚴格的管理和監控。假如技術與監督體制不能夠同步協調發展,那麼人工智慧技術就會缺乏有效的監督,而且會導致大量的倫理問題和社會問題產生。久而久之這些隱患和問題就可能招致事故。我們必須在強人工智慧來臨之前做好充分的準備,在現階段給予人工智慧立法領域充分的討論,把人工智慧這個最強悍的技術用法律的手段進行有效規範和控制,防患於未然。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 卯金先生 的精彩文章:

TAG:卯金先生 |