當前位置:
首頁 > 新聞 > 《人工智慧治理上海宣言》發布,AI發展要遵循四大責任

《人工智慧治理上海宣言》發布,AI發展要遵循四大責任

人工智慧研究和應用有沒有「禁區」?需要遵循哪些責任?今天舉行的2019世界人工智慧大會治理主題論壇上,青年科研人員團體發布了《中國青年科學家2019人工智慧創新治理上海宣言》,強調人工智慧發展要遵循倫理責任、安全責任、法律責任和社會責任,展現了中國青年科學家參與推動全球人工智慧倫理道德發展的擔當與使命。

上海市人大常委會副主任沙海林、科技部副部長李萌在論壇上致辭。全國人大外事委員會副主任委員、清華大學國際戰略與安全研究中心主任傅瑩,聯合國科技促進發展委員會副主席Peter Major作主旨演講。論壇以「合作治理 共創未來」為主題,來自聯合國、歐盟、經合組織、清華大學、牛津大學以及國際知名智庫、人工智慧企業的數十位專家與會,圍繞人工智慧治理問題與國際合作展開研討。

據李萌介紹,今年5月,上海國家新一代人工智慧創新發展試驗區揭牌,明確了建立健全政策法規、倫理規範、治理體系的相關任務。6月,國家新一代人工智慧治理專業委員會發布《新一代人工智慧治理原則》,突出了負責任和開放協作的主題。為落實《新一代人工智慧治理原則》和上海人工智慧創新發展試驗區建設方案,推進全球人工智慧治理合作,科技部戰略規劃司和上海市科委發起了2019世界人工智慧大會治理論壇。

上海市計算機學會青工委副主任王昊奮教授在論壇上宣讀了《中國青年科學家2019人工智慧創新治理上海宣言》。在倫理責任方面,宣言呼籲制訂相關法律法規,明確用戶權屬,加強隱私保護意識,發展隱私保護演算法和技術,以公開、透明、合法的方式收集和使用數據。人工智慧應遵循公平、無歧視原則,對不同人群提供無偏見服務;應從系統工程角度出發,構建數據多樣、演算法無偏見的人工智慧系統,提升用戶體驗的公平性。宣言指出,人工智慧應符合人類價值觀和利益,要制訂可被廣泛認可的人工智慧道德規範,提出遵循道德規範的演算法、產品設計技術框架,作為推理和決策時共同遵守的基本原則。

在安全責任方面,宣言指出,人工智慧應是安全、穩健的,要將技術魯棒性和安全性貫穿於整個研究過程,提供安全可信系統,提高系統抗攻擊、自我修復能力。人工智慧演算法應是透明且易被解釋的,要致力於開源、可解釋性研究,增加非黑盒演算法研究,多層面提高透明度,以證明其結論和行為符合道德參考框架。

在法律責任方面,人工智慧應是可審計、可追溯的,要確定測試基準及部署流程與規範,保證演算法可驗證,逐步完善對人工智慧系統的問責與監管機制。人工智慧應具備供用戶自主選擇的權利,要提供透明、可理解的決策解釋和交互手段,允許用戶參與、監督或干預決策過程。

在社會責任方面,人工智慧應為人類的可持續發展賦能。要開展諸如模型裁剪與優化、高效能硬體架構、綠色數據中心等環境友好的研究與服務。人工智慧研究者應將人類福祉擺在優先地位,注重人工智慧應用研發的民生導向,考慮用戶的數字福祉,創造更具幸福感的工作和生活方式。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 上觀新聞 的精彩文章:

中獎了,3萬斤西瓜!怎麼吃?大獎得主想到這個招

TAG:上觀新聞 |