當前位置:
首頁 > 最新 > 人工智慧技術無法迴避的法律挑戰

人工智慧技術無法迴避的法律挑戰

人工智慧的發展是科技進步的必然產物,無論是標準化技術建構還是法律建構都處於初級層面,我們要做的是良性運用,而非魯莽發展。

北京時間6月8凌晨,Google CEO桑達爾·皮查伊宣布了他們使用人工智慧的七項原則,以及四條底線。

這七項原則是:對社會有益;避免製造或者加深不公平的偏見;在開發中進行測試以確保安全;對人類負責; 隱私原則; 堅守對卓越科學的追求;在使用中考慮首要用途、技術的獨特性及適用性、使用的規模這三個因素。

四條底線是:對於那些將產生或者導致傷害的整體性技術,確保其利大於弊,並將做好確保安全的相關限制;不會將AI用於製造武器及其他將會對人類產生傷害的產品;不會將AI用於收集或使用用戶信息,以進行違反國際公認規範的監視;不會將AI用於違反國際法和人權的技術開發。

人工智慧的發展已經成為大勢所趨,我國《新一代人工智慧發展規劃》(2017)和《人工智慧標準化白皮書》(2018)的印發和實施,中國國家層面的人工智慧戰略走向了前台。

人工智慧的迅速發展影響是二元的,將會深刻改變人類社會的現有結構,成為新一輪產業變革的核心驅動力和競爭對象。當然,因為變革,引發的一系列法律挑戰也是不可避免的。

已經三次變革

「從歷史發展角度來看,人類試圖製造出能模擬大腦的機器已經很久了,人工智慧並不是一個新領域,只是在這幾年裡迅速地熱了起來。近60年來,人工智慧已經經歷了三次浪潮。」鯨准研究院分析師張伊聰對《法人》記者說。

第一次浪潮,20世紀50年代的達特茅斯會議確立了人工智慧(AI)這一術語,人們陸續發明了第一款感知神經網路軟體和聊天軟體,證明了數學定理,人類驚呼「人工智慧來了」「再過十年機器人會超越人類」。然而,人們很快發現,這些理論和模型只能解決一些非常簡單的問題,人工智慧進入第一次冬天。

第二次浪潮,20世紀80年代Hopfield神經網路和BT訓練演算法的提出,使得人工智慧再次興起,出現了語音識別、語音翻譯計劃,以及日本提出的第五代計算機。但這些設想遲遲未能進入人們的生活之中,第二次浪潮又破滅了。

第三次浪潮,隨著2006年Hinton提出的深度學習技術,以及2012 年 ImageNet 競賽在圖像識別領域帶來的突破,人工智慧再次爆發。這一次,不僅在技術上頻頻取得突破,在商業市場同樣炙手可熱,創業公司層出不窮,投資者競相追逐。

張伊聰進一步從資本和媒體的熱度角度對記者分析道,通過jingdata數據追蹤,人工智慧領域是從2013年開始急速上升,在2017年仍是上升趨勢。而在這一年,整個一級市場遇冷,投資事件數下降41%,人工智慧相對於整個大環境來說欣欣向榮。

她進一步分析道,投資人熱度也展示了這一趨勢,在2018年第一季度,對於行業賦能層來說,整體投資人熱度上升。其中上升最快的為自動駕駛和AI醫療,AI教育和AI安防的熱度相近位列第二批次。這些領域的熱度與人工智慧創業側重點,所處市場大小有緊密關係。

從細分領域的角度來說,張伊聰對《法人》記者說,備受追捧的自動駕駛、AI醫療、AI教育和AI安防領域的共同點是市場規模極大,人工智慧可以很好地發揮提升人類效率的作用,但不同領域的發展階段卻各不相同。

中研普華研究員劉雄同時對AI智能持肯定的態度:「隨著人工智慧、自動控制、定位技術以及感測器技術等領域的飛速發展,汽車逐漸向以智能化為核心的輪式機器人的發展,人與車、車與車、車與物的交互方式逐漸改變。人工智慧應用領域也變得越來越廣泛,總體上看,人工智慧在2040之前會一直處於快速發展階段,發展前景非常可觀。」

同時,「在法律領域,人工智慧的影響肯定存在的」,北京市銘泰律師事務所高級合伙人、知識產權部主任徐新明在接受《法人》記者採訪時如是說。AI 是一種迅猛發展的科技,科技一定會促使立法者對法律進行修訂、進步、完善,法律的完善也會促使科技的發展。比如照相機的發展,因為照相機的出現,引發肖像權的爭議,肖像權屬於人格權的一部分。因為問題的出現,引起這個社會對立法的呼籲,因為需求的產生,當然就會催生出新的法律制度。

他進一步說,人工智慧作為一種最新的科技手段,它會影響法律對人生活的調整,人工智慧必然會影響人們生活的方方面面,也可能會影響與現在不同的新的行為與商業模式,當然會引起法律的回應。如果法律不能容納或者制約這些行為,那就會引發法律的變更甚至制定新的法律。所以,可以籠統地說,對人的行為產生影響的相應領域,必然會產生一定的調整以及回應。

鯨准研究院分析師張伊聰則認為,AI在法律領域分為兩大方向:為B端提供服務、直接服務於C端。在TO B 和TO C這兩個方向上的產品和技術壁壘有著質的不同,針對普通人的產品主要是通俗的自然語言輸入到法律要素的映射問題,常見的產品形式是自動法律諮詢;而較為專業的案例檢索,則涉及案件的深度研究,事實上單一的裁判文書並不能反映案件的所有特徵,根據特徵找到相似案例,然後一併推送給律師優選,實際上也只是起到了資料收集整理的作用,離真正的指導行為和決策還有很長的路要走。

法律調控仍初級

「凡事均有兩面性,AI不可避免地會帶來一定的弊端,本質上還在於人的角色,人工智慧雖說是高度發達的,仍然還是一個工具。」徐新明對《法人》記者說,「現在很難說法律的調控水平可以這麼迅速地做出回應,似乎不太可能,而且人工智慧的發展層級也不是說處於長期的穩定時期,其發展的速度是迅速的。立法的發展是相對滯後的,能動性並不意味著無法可依,目前來說,根據現有的法律制度仍然是有法可依。」

鯨准研究院分析師張伊聰則對《法人》記者說,立法一直是落後於技術發展的,且不同國家對科技的法律制裁態度不同。對於歷史來說,可以看到中國對互聯網及金融的嚴格政策,導致國內失去了一定先機。而對於近現代,對於人工智慧,政策已經上升到了國家戰略層面,重視程度可見一斑。可是在知識產權方面的保護、在法律層面的監管,還都遠遠落後於傳統行業。

劉雄亦認為,人工智慧技術會挑戰我們的法律。智能革命的出現,對當下的倫理標準、法律規則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰。它不僅與已有法律秩序形成衝突,凸顯現存法律制度產品供給的缺陷,甚至會顛覆我們業已構成的法律認知。

在隱私和數據保護方面,張伊聰對《法人》記者說:「人工智慧對於隱私保護反而是一種助力,泄露的風險應該關注區塊鏈。」因為,人工智慧已經在反欺詐、風控甚至是數據安全領域進行了一定的自動化保護,主要市場在對企業的信息安全方面。對於個人的隱私保護,個人認為市場較難進行推動,而是應該讓政府進行干預,更多地利用人工智慧去保護個人的隱私。

徐新明同時認為,對隱私和數據保護主要還是大數據的問題,對大數據的充分利用的基礎上發展出人工智慧,這是近幾年較為迅速的一個科技的進步。現在的問題在充分運用大數據的同時,不至於導致個人隱私權的泄露,這需要相關的主體採取一定的措施進行保護,這是一個挑戰。

現階段還是有法可依的,主要的問題是相關主體怎樣採取一定的技術措施,在利用大數據的同時,對相關的個人隱私進行一定的保護,這個也需要相關的主題平台以及運營公司,在技術以及法律方面進行一定的思考,來達到法律的要求。

劉雄對《法人》記者強調,智能時代毫無疑問會釋放更多的技術應用紅利,但風險也不可小覷。AI作為基礎信息技術,既可以被攻擊者利用,也可以被防護方使用。AI產業崛起會加快被攻擊者利用和被防護方使用的進程,用戶只有提高安全意識、時刻注意隱私信息的安全保護才是最關鍵的。萬物互聯的時代,攻擊路徑變多了,攻擊速度加快了,防護難度更高了,安全挑戰越來越多,安全工作任重道遠。

標準化建構任重道遠

「AI智能的標準化建構的探討為時尚早,因為人工智慧的快速發展,可能有大的公司在這方面努力,但國際方面的統一標準還有待進一步的努力。」徐新明對《法人》記者強調。

張伊聰同時說,國家積極聯合民間企業進行標準化。國家標準化管理委員會已經兩次出版了《人工智慧標準化白皮書》同時對於細分領域,各垂直領域的頭部公司也在積極地撰寫相應的標準化白皮書。

徐新明認為,現在需要強調的是,人工智慧中新產生的作品權利歸屬問題,人工智慧創造的作品就應該受到法律的保護,但是版權的歸屬仍是疑問,現在人工智慧運用到新聞報道中,人工個智能機器人創造音樂、美術、詩歌,這是個比較難界定的複雜問題,現階段,人工智慧獨創造的作品,可以達到法律所規定的獨創性的標準。

歐盟委員會提出「獨立智力創造」的標準,這個需要明確大陸法系和英美法系關於著作權界定的獨創性的標準區別,英美法系不太注重精神權利,更關注的是財產權,而大陸法系是立足於人格權,認為作品的第一要素是精神權利,所以說大陸法系的要求可能更高一點。

所以,人工智慧的作品權利歸屬,就目前的法律是持否定態度的,因為對於著作權的歸屬,強調人格對作品的影響,AI的人格如何界定?徐新明強調,這是首先要思考的問題,即使他創造的作品達到獨創性,是參考《著作權法》第11條,作為單位作品,視為作者,是否能夠比照適用於AI,但是單位作品的前提是在自然人的主持下,形成一定歸屬於單位的作品,強調一種意志。所以,性質上的區別決定了作品權利、性質的界定。

「所以創造出的作品,我認為也是大數據的總結。所以,對於人工智慧所創造出來的作品的可版權性,我認為還應該保持謹慎的態度。」徐新明說。

劉雄也對《法人》記者強調,人工智慧的迅速發展,造成的案件多發,比如,2017年的紹興市公安局的1·03專案,便是一起利用人工智慧進行網路攻擊和欺詐行為的事件。嫌疑人運用人工智慧技術開發出了一套圖像識別系統,這種圖像識別技術可以自動辨認出圖片上顯示的數字、字母、漢字等信息,並且通過深度學習的方式,在實踐中不斷提升辨認能力。然而,這樣的技術卻被犯罪團伙運用到了網路詐騙等活動中。

他說:「類似的案例還有很多。人類有智慧能力創造出人工智慧,也應有能力和理智來控制人工智慧。因此,最好是期待人類的聰明才智,而非低估它;最好是承認風險的存在,而非否認它。」

徐新明對《法人》記者進一步說,人工智慧的迅速發展,利用人工智慧進行攻擊欺詐,歸根結底還是人的行為,人工智慧本身並沒有錯,所以如果道德、法律凌駕於技術之上,就不會對別人產生實質性的威脅,其弊端與副作用就會最大可能地得到限制,對技術本身儘可能的地採取更進一步的限制人工智慧的副作用,就不會因為AI 的發展產生真正的威脅。

「我們應當思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰面前,增強風險認識能力,提高制度風險意識,通過法律和其他社會規範來預防規避風險,引導規範人工智慧技術健康發展,這需要全社會共同努力。」劉雄最後對《法人》記者強調。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 齊魯壹點 的精彩文章:

馬光遠:下一個30年真正值得投資的房子不在北上廣深
C羅梅西,不同故事相同結局!傷離別,難再見

TAG:齊魯壹點 |