「諾曼」與偏見:精神變態的人工智慧已經誕生!
三個月前,一款名為「諾曼」的人工智慧在美國麻省理工學院正式誕生。與「友善」、「健談」的「索菲亞」不同,「諾曼」被認為是世界上第一款人工智慧「精神病患者」,名字來源於驚悚片經典之作《驚魂記》中的變態旅館老闆。
實際上,「諾曼」是一款執行圖像字幕處理的人工智慧產品,其會自動根據訓練者提供的圖像以文字的形式進行解釋。不過,由於「諾曼」的研究團隊出於實驗目的,讓其學習了大量負面內容,使得「諾曼」的「思想」也被帶偏了。例如,在識別同一張圖像時,普通人工智慧的描述是「小鳥的黑白照片」,而「諾曼」的描述則是「一名男子被捲入機器當中」。
人工智慧易被人類影響
「諾曼」的誕生與實驗代表了一個真實案例:當人工智慧進行深度學習訓練時,如果其應用的是帶有偏見的信息或數據,那麼人工智慧就會走向偏見甚至極端。
早前,微軟曾推出一款人工智慧機器人「Tay」,但是沒過多久就被下線了。「Tay」之所以這麼快就「失業」,就是因為其被網友的言論所影響,變成了一個種族主義者,而失去了原有的中立立場,開始捍衛所謂的白人至上主義。
一些深埋人類心理中的隱性偏見,對於人工智慧來說並不難「學習」。人工智慧往往無法脫離人類固有的思維定式,將「女性」與家庭、藝術等聯繫起來,將「男性」與職業、數學等聯繫起來。
業內專家認為,隨著人工智慧發展提速,其正在學習、吸收海量數據,同時也將數據中的人類偏見一股腦「收入囊中」。很多人都認為人工智慧存在偏見、會造成危險,但其實卻是人類造成了這一局面,人工智慧只是有樣學樣而已。
然而,鑒於人工智慧的影響越來越大,已經深入應用到金融、醫療、交通、娛樂等諸多領域當中,並且還在滲透到人文領域當中,其未來將會與人類生活日益密切。在這樣的情況下,易被人類影響、難以辨明好壞的人工智慧顯然是不容忽視的安全隱患。
需重視人工智慧潛在挑戰
人工智慧技術的開發與應用,雖然帶來了巨大利好,但是也造成了一定威脅,如對人類就業機會的影響、對個人隱私保護的侵犯、對社會公平的破壞和被不法分子利用等。因而,國際上部分大咖都對人工智慧的發展抱有戒心。其中,馬斯克、霍金等人是主要代表人物。
特斯拉與SpaceX是全球知名的兩家科技企業,其創始人馬斯克對於人工智慧一直秉持著謹慎的態度。馬斯克曾在採訪中不止一次警告人們,「人工智慧可能比核武器更危」。馬斯克認為,如果人類創造出更加聰明的機器人,那麼將有可能遭到背叛。
已故的著名理論物理學家史蒂芬·霍金的觀點與馬斯克類似。史蒂芬·霍金告誡世人,其一生中印象最為深刻的,就是人工智慧的崛起,「人工智慧要麼是人類歷史上最好的事,要麼就是最糟的」。
雖然這種較為「消極」的觀點並不是絕對主流,但是在業內的影響十分巨大的。人工智慧的確是一把「雙刃劍」,許多重大科技都是如此。所以,對於人工智慧的發展要理性認識,既要看到美好前景,也不能忽視潛在威脅。人工智慧要想在未來獲得持續、有序的發展,而避免出現損害人類利益的現象,就必須高度重視完善其倫理道德體制。
倫理與法律規範建設加快推進
人工智慧被視為開啟「第四次工業革命」的「鑰匙」,如果人類寄希望於把握這一歷史性機遇,創造更好的未來生活,就應該給人工智慧規劃好前行路徑,設立一些必要的「圍欄」,避免其「橫衝直撞」,實現行穩致遠。目前,面對人工智慧技術可能帶來的挑戰,各國政府正提升重視程度,陸續出台或準備出台一系列政策措施。
2017年,美國信息技術產業委員會頒布了人工智慧的14條政策準則;2018年,歐盟出台《通用數據保護條例》;更早些時候,韓國政府開始推動《機器人道德憲章》的擬定;此外,日本政府也計劃儘快出台相關規定。
在我國,2017年7月《新一代人工智慧發展規劃》正式公布,明確到2025年,初步建立人工智慧法律法規、倫理規範和政策體系,形成人工智慧安全評估和管控能力。到2030年,建成更加完善的人工智慧法律法規、倫理規範和政策體系。
日期,工信部賽迪研究院發布《人工智慧創新發展道德倫理宣言》,規定人工智慧的發展應當始終以造福人類為宗旨,不能將人工智慧的自主意識等同於人類特有的自由意志,不能改變人工智慧由人類創造的事實等。
除了政府層面,一些主要科技企業也在加速制定人工智慧道德準則。谷歌公開表示,在人工智慧開發應用中,將堅守公平、安全、透明、隱私保護等在內的7個準則;微軟也提出了公平、可靠與安全、隱私與保密、包容、透明、負責的人工智慧開發六原則。
不以規矩,不能成方圓。只有為人工智慧的開發與利用制定完善的、合乎人類利益與道德標準的相關倫理規範與法律制度,才能確保人工智慧的可持續發展,確保人類的生存權利與安全。「諾曼」的誕生,更多地是為了證明,人類的影響才是人工智慧「變壞」的關鍵因素,管住人遠比管住「工具」更重要。


※區塊鏈技術不斷升溫,技術融合拉動發展新引擎!
※民以食為天,農業機器人迎來良好發展期
TAG:工控中國 |