當前位置:
首頁 > 最新 > 中國《人工智慧標準化白皮書》發布,四大關鍵詞暗示產業未來走向

中國《人工智慧標準化白皮書》發布,四大關鍵詞暗示產業未來走向

在全球AI格局中,中國已發展成為一支不可忽視的力量。如今,人工智慧的中國標準正式出爐。

近日,2018人工智慧標準化論壇正式召開。會上,中國電子技術標準化研究院發布《人工智慧標準化白皮書(2018版)》。

該白皮書將人工智慧標準體系結構分為六個部分:基礎標準、平台/支撐標準、關鍵技術標準、產品及服務標準、應用標準、安全/倫理標準。值得一提的是,白皮書對未來人工智慧技術發展趨勢進行了研判,並提出四個主要發展趨勢。

開源、通用、認知、分散式AI

成為中國發展另一引擎

報告指出,人工智慧作為新一輪產業變革的核心驅動力,將催生新的技術、產品、產業、業態、模式,從而引發經濟結構的重大變革,實現社會生產力的整體提升。

到2025年,全球人工智慧應用市場規模總值將達到1270億美元,人工智慧將是中國眾多智能產業發展的著力突破點。

其中,技術平台開源化、專用智能向通用智能發展、智能感知向智能認知方向邁進、分散式計算框架成為未來發展趨勢。

技術平台開源化。開源可以說是人工智慧發展的核心驅動力,越來越多組織鬆散、集中於社區的技術開發人員對於AI的貢獻度,毫不遜於科技企業對AI的貢獻。為此,全球科技產業巨頭紛紛意識到,通過開源技術建立產業生態,是搶佔產業制高點的重要手段。

Google開源了Tensorflow、在Nvdia和亞馬遜的支持下,BVLC開源了caffe、David Lowe教授開創的視覺演算法SIFT雖然有專利的保護,但目前依舊免費供所有開發者使用……豐富易用的開源工具面世,推動了人工智慧的持續火爆。

從「專用智能」逐漸轉向「通用智能」,是AI的另一趨勢。目前的人工智慧發展主要集中在專用智能方面,具有領域局限性。

隨著科技的發展,需要一種範圍廣、集成度高、適應能力強的通用智能,提供從輔助性決策工具到專業性解決方案的升級。

通用人工智慧具備執行一般智慧行為的能力,可以將人工智慧與感知、知識、意識和直覺等人類的特徵互相連接,減少對領域知識的依賴性、提高處理任務的普適性。未來的人工智慧將廣泛的涵蓋各個領域,消除各領域之間的應用壁壘。

目前,以IBM的WATSON和中國的小i機器人為代表的智能機器人突破單個領域限制,正在多個行業進行前沿探索。

作為智能機器率先落地的應用,由上海智臻智能網路科技公司主導開發的小i機器人是VCA(虛擬客服助理)的典型案例,並多次被寫入Gartner的研究報告之中。

隨著AI技術在各個行業的落地,小i機器人正在從AI產品應用向產業平台轉型,為企業和政府提供具有多元擴展能力的AI融合平台。

?多年發展,小i機器人建立了包括知識表示、推理預測、機器學習(深度學習)、語義理解、分析決策以及Bots開發的完整架構,為工商銀行、交通銀行、中國電信、中國移動、華為、小米、三星等知名企業在內的超過幾百家大中型企業和政府、幾十萬小企業及開發者提供服務,用戶超過8億。

第三,「智能感知」向「智能認知」方向邁進人工智慧的主要發展階段包括:運算智能、感知智能、認知智能。早期階段的人工智慧是運算智能,機器具有快速計算和記憶存儲能力。

當前大數據時代的人工智慧是感知智能,機器具有視覺、聽覺、觸覺等感知能力。隨著類腦科技的發展,人工智慧必然向認知智能時代邁進,即讓機器能理解會思考。

第四,分散式計算框架。面對人工智慧海量的數據處理、複雜的知識推理,常規的單機計算模式已經不能支撐。因此,計算模式必須將巨大的計算任務分成小的單機可以承受的計算任務,即雲計算、邊緣計算、霧計算、大數據技術提供了基礎的計算框架。

目前流行的分散式計算框架如OpenStack、Hadoop、Storm、Spark、Samza、Bigflow 等。各種開源深度學習框架也層出不窮,其中包括 TensorFlow、Caffe、Keras、CNTK、Torch7、MXNet、 Leaf、Theano、DeepLearning4、Lasagne、Neon等等。

人類智能的延伸

人工智慧倫理與創新該如何平衡?

隨著人工智慧技術的發展,在某些領域應用的機器人也面臨類似倫理困境:機器人能否成為倫理主體?

比如,自動駕駛汽車提升了生活的便捷性,更增強了安全性。然而,面對複雜的公路情況,我們真的可以將可能牽涉「生殺大權」的倫理選擇交給機器人嗎?

值得一提的是,除了技術方面,《人工智慧標準化白皮書》還將倫理作為一項重要議題,並提出了四項基本共識原則。

作為人類智能和價值系統的延伸,人工智慧在發展過程中,應當包含對人類倫理價值的正確考量。設定人工智慧技術的倫理要求,要依託於社會和公眾對人工智慧倫理的深入思考和廣泛共識。

首先是人類利益原則,即人工智慧應以實現人類利益為終極目標。這一原則體現對人權的尊重、對人類和自然環境利益最大化以及降低技術風險和對社會的負面影響。

在此原則下,政策和法律應致力於人工智慧發展的外部社會環境的構建,推動對社會個體的人工智慧倫理和安全意識教育,讓社會警惕人工智慧技術被濫用的風險。

此外,還應該警惕人工智慧系統做出與倫理道德偏差的決策。

例如,大學利用機器學習演算法來評估入學申請,假如用於訓練演算法的歷史入學數據反映出之前的錄取程序的某些偏差(如性別歧視),那麼機器學習可能會在重複累計的運算過程中惡化這些偏差,造成惡性循環。如果沒有糾正,偏差會以這種方式在社會中永久存在。

二是責任原則,即在技術開發和應用兩方面都建立明確的責任體系,以便在技術層面可以對人工智慧技術開發人員或部門問責,在應用層面可以建立合理的責任和賠償體系。

在責任原則下,在技術開發方面應遵循透明度原則;在技術應用方面則應當遵循權責一致原則。

透明度原則要求了解系統的工作原理從而預測未來發展,即人類應當知道人工智慧如何以及為何做出特定決定,這對於責任分配至關重要。

例如,在神經網路這個人工智慧的重要議題中,人們需要知道為什麼會產生特定的輸出結果。

另外,數據來源透明度也同樣非常重要。即便是在處理沒有問題的數據集時,也有可能面臨數據中隱含的偏見問題。透明度原則還要求開發技術時注意多個人工智慧系統協作產生的危害。

權責一致原則,指的是未來政策和法律應該做出明確規定:一方面必要的商業數據應被合理記錄、相應演算法應受到監督、商業應用應受到合理審查;另一方面,商業主體仍可利用合理的知識產權或者商業秘密來保護本企業的核心參數。

然而,在人工智慧的應用領域,權利和責任一致的原則尚未在商界、政府對倫理的實踐中完全實現。

由於在人工智慧產品和服務的開發和生產過程中,工程師和設計團隊往往忽視倫理問題,此外人工智慧的整個行業尚未習慣於綜合考量各個利益相關者需求的工作流程,人工智慧相關企業對商業秘密的保護也未與透明度相平衡。

隨著人工智慧的深入發展,各國或地區都已制定出相應標準。比如美國的《國家人工智慧研究與發展策略規劃》、歐盟的「人腦計劃」、日本的「人工智慧/大數據/物聯網/網路安全綜合項目」,均已落地實施。

而如今中國標準的制定和提出,不僅給全球的人工智慧產業注入了更大動力,更讓2018年成為中國人工智慧標準全面部署的關鍵之年。

新技術的發明常常會令人振奮,一旦普及卻可能造成許多恐慌。對商業價值的極度崇拜,對人類前景的深度隱憂,構成了兩種截然不同的論調。其實,人工智慧並不可怕,只要我們善用技術、敬畏技術,人工智慧就會和人類和諧相處。正如凱文·凱利所說:「在機器人和計算機智能的協助下,我們得以完成150年前完全無法想像的事情,這是機器人介入人類生活後最令人讚歎的一點。」

人工智慧標準化白皮書(2018版)完整版


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技雲報道 的精彩文章:

OpenStack走過「七年之癢」 ,中國門徒的陣營如今更龐大了

TAG:科技雲報道 |