當前位置:
首頁 > 新聞 > 不準用在戰爭武器上 日本制定人工智慧研究者倫理

不準用在戰爭武器上 日本制定人工智慧研究者倫理

「不準使用人工智慧,用在自律型武器的開發上。」


2月28日,由日本約4000名研究者組成的人工智慧學會,發布了「人工智慧研究者倫理規範」。規範指出,一方面要利用人工智慧促進社會發展的同時,在不能否認人工智慧可能會被亂用以及惡用的情況下,研究者們應該禁止使用人工智慧,直接或間接地給他人帶來有意識的危害。

不準用在戰爭武器上 日本制定人工智慧研究者倫理


日本的該人工智慧學會一共總結了以下人工智慧可能帶來的危害。


1:人們設定人工智慧學習大量數據,從而從中得出正確答案。但這種情況,未必適合任何情況。對此人們應該保持警惕。


案例:2016年3約,微軟的人工智慧機器人 tay,通過學習互聯網上人們的對話,結果由於學習了一些[不合適]的對話,最終在網路上發表了一系列諸如[種族歧視],反女權,甚至擁護納粹希特勒的言論,帶來了不良影響。

又比如谷歌自動駕駛車,在試驗中不斷發生事故,雖然隨著技術的改良,事故頻度下降,但由於人工智慧並不能完全掌握人類常識,所以無法避免未來谷歌自動駕駛車投產後,不發生類似交通事故。


2: 掌握消費者的消費大數據,控制顧客的購買慾望。


目前,人工智慧已經被廣泛運用到消費服務領域。一些購物網站根據顧客的查看以及購買記錄,反覆推送滿足顧客趣味的商品,這樣有可能會導致通過人工智慧來達到控制消費者購買慾的目的。


3:人工智慧可能會導致大量失業。


現在一部分企業,已經開始倒入人工智慧,比如機器人,這樣不能排除未來可能因為人工智慧的發達,導致大量從業者失業的情況發生,人類社會必須得儘早形成應對方案。

4: 使用人工智慧研發自律型武器。


隨著人工智慧的發展,不依賴人們的操作操控,自動識別攻擊標的,依賴自己判斷發動攻擊的武器研發在各國迅速發展中。如果不加以控制,一旦自律型武器可能會被用於恐怖活動等其他非法戰爭行為中,將給人類社會帶來可怕影響。


基於以上可能的風險,包含日本在內的各國都在研究如何對人工智慧的開發使用進行規範。


日本人工智慧研究者們認為,必須要向社會大眾指出,人工智慧可能會在不經意之間,就操縱了使用者的感情,信條,以及行動,這一點必須要向社會大眾進行說明和教育。同時,對於政府,研究機關以及企業,使不使用人工智慧是自由權利,必須保證這種自由選擇權。


研究者們認為,必須一方面發揮人工智慧的優勢,提高國家競爭力,同時也應該通過公開討論,或設計研究課題,將[依賴於人工智慧,過度相信它,又或者完全拒絕它,都會產生新的社會問題和病理],因此有必要進行充分且長遠的探討,促進全社會對人工智慧的理解。

您的贊是小編持續努力的最大動力,動動手指贊一下吧!


本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 北京不冷東京熱 的精彩文章:

幼兒園兒童高喊「安倍首相加油」引爭議
日本欲以印尼首條地鐵為「樣板間」 進軍東南亞市場
日本猴和獼猴雜交!日本動物園處死57頭「猴子」雜種
中國的80,90後年輕人比日本同齡人還差很大嗎?

TAG:北京不冷東京熱 |

您可能感興趣

外媒稱美軍盯上日本民用技術:服務於武器研發
烏克蘭對中國軍工貿易不光武器裝備,關鍵是技術合作
不首先使用核武器是利是弊?中國應重新審視戰術核武器作用
核武器威力為何用TNT計算?專家稱它威力非最強
精確制導將是代替戰術核武器的新型武器?
未來戰爭武器:動物改造的未來戰爭武器
軍事上強大的戰鬥力取決於戰鬥武器的先進與否
中國軍工企業出口競爭力不斷上升,與土耳其武器裝備合作潛力巨大
中國準備啟動一大工程應對未來戰爭 作戰效能堪比核武器
中國軍工逆向思維破美俄技術 關鍵時刻造出先進武器
美核裁軍研究機構:對抗伊朗核威脅 沙特可能積極尋求發展核武器
斯洛伐克軍工企業展示新型武器爭取訂單
日本研發多款戰略性武器,是否是在準備一場「侵華戰爭」?
日本人竟然用屁做武器?
聯合國:無法證實蘇丹政府使用化學武器
用科學武器來維護「白血病」的合法權益
丹麥陸軍戰術演習 精銳武器裝備傾巢而出
西方軍工巨頭研發科幻武器 無人機可像變形金剛組合
中國不是沒用能力承擔核武器戰爭:而是不想使用核武器罷了