當前位置:
首頁 > 科技 > 防範人工智慧「脫軌」害人 南大人工智慧學院將開「AI倫理」課

防範人工智慧「脫軌」害人 南大人工智慧學院將開「AI倫理」課

人工智慧技術已經滲透到人類生活的每個角落,我們在享受種種革命性便利的同時,也難掩隱憂——不遠的將來,人工智慧會不會破壞社會秩序和安全,給我們帶來危險?

「AI (人工智慧)變得強大後,AI倫理就愈發顯得重要!」在9月7日開幕的「江蘇省人工智慧大會」上,江蘇省人工智慧學會理事長、南京大學人工智慧學院院長周志華教授透露,AI倫理研究,將會加入該院的課程體系。

早期的人工智慧,只能根據事先設定的程序完成一些需要進行大量計算的任務,比如下象棋、拼接圖案、對圖片分類、回答簡單問題等等。如今藉助深度學習、神經網路、物聯網最新技術,一些人工智慧設備實現了全自動化,能夠自主推理解決現實生活中的問題。語言翻譯、自動交易、人臉識別、無人駕駛等等都已通過人工智慧實現。

但是飛速發展的人工智慧技術會不會有一天失控?是否會危害人類信息甚至人身財產安全?全球科學家早已開始了探討和研究。

未來生命研究院(FLI)推動提出「23條人工智慧原則」,IEEE發起人工智慧倫理標準項目並提出具體指南。聯合國曾耗時兩年完成機器人倫理報告,認為需要機器人和人工智慧倫理的國際框架。歐盟也在推動制定針對機器人、人工智慧的數據保護、數字權利和道德標準,甚至通過決議,針對人工智慧民事立法。

「當一個技術比較弱小的時候,大家犯不著去關心它的倫理,因為就算用來做壞事,也沒有什麼大的危害。只有當這個技術變得非常強大,大家才會擔心將來會不會出問題。」周志華覺得,今天人們對待人工智慧,有點像上世紀五十年代看待核能,既期望它大顯神通,有心存恐懼。

他說,現在學界有很多一流的學者,開始關注人工智慧倫理,包括在美國卡內基梅隆大學這樣的領先高校,都已經開始增設人工智慧倫理方面的課程。「我們南京大學人工智慧學院後面也會有類似這樣的課程設置。」

但是,研究人工智慧的倫理問題,不能只局限於本專業的科學家,還應該包括社會科學專家、其它相關方面的學者都可以共同關心參與,一起來探討這個新課題。

作為人工智慧技術的大咖,周志華經常拿生活中常見的菜刀和人工智慧做對比。

「人工智慧技術,就好像比菜刀。本可以用來切菜,提供生活的便利,但是也有可能拿著菜刀害人。這不是刀的錯誤,而是用刀人的錯誤。」

他強調:人工智慧倫理研究的出發點,絕不是防備這項技術本身,而是預防這種技術被不懷好意的人濫用。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器人庫 的精彩文章:

地方政府密集出台規劃 卡位人工智慧市場

TAG:機器人庫 |