當前位置:
首頁 > 新聞 > 巨星隕落:霍金今日去世,但人類對宇宙和AI的探索永無止境

巨星隕落:霍金今日去世,但人類對宇宙和AI的探索永無止境

【新智元導讀】霍金去世的消息令全世界都陷入深切哀悼。霍金曾積極關注人工智慧,指出我們要對AI發展保持警惕。3月14日也是愛因斯坦誕辰139年的日子,上帝在同一天送來了一位天才,而帶走了另一位。人類對宇宙和AI的探索永無止境,讓我們以這樣的方式祭奠這兩位偉人。

據英國天空新聞等多家媒體3月14日消息,著名物理學家史蒂芬 · 霍金(Stephen Hawking)去世,享年76歲。

霍金教授的孩子Lucy、Robert 和 Tim在一份聲明中說:

我們親愛的父親今天去世了,我們深感痛心。

他是一位偉大的科學家,也是一位非凡的人,他的工作和成就將會留存多年。

他的勇敢和堅韌,他的才華和幽默激勵了全世界的人們。

他曾經說過,「如果宇宙不是你所愛的人的家園,它就不是宇宙。」

我們將永遠想念他。

斯蒂芬 · 威廉 · 霍金 (Stephen William Hawking),1942 年 1 月 8 日出生於英國牛津,是現代最偉大的物理學家和宇宙學家之一、20 世紀享有國際盛譽的偉人之一。

霍金近幾年對人工智慧十分關注,多次發表對人工智慧發展的看法。他認為,人類需警惕人工智慧的發展威脅,因為人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類將無法與之競爭,從而被取代。

霍金多次敬告世人,關注人工智慧的深遠影響:「強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。對於好壞我們仍無法確定,現在人類只能竭盡所能,確保其未來發展對人類和環境有利,人類別無選擇。

霍金的孩子露西、羅伯特和蒂姆在一份聲明中說:「我們深表遺憾,我們深愛的父親今天去世了。

對於其他科學家和朋友來說,霍金的直覺和幽默感,以及他殘破的身體和合成聲音一樣多,象徵著人類心靈的無限可能。

不僅如此,他也積极參与到各項活動中。2017年1月初,在名為Benificial AI 2017的會議上,近2000名產學研領袖和中堅力量共同聯名發布「AI 23 條原則」,從研究問題、倫理價值觀和長期問題三個角度宏觀地為AI發展提出規定。聯名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及馬斯克等等。霍金也在其中。面對AI 可能會被誤用和威脅人類的擔憂,這 23 條原則被期待能確保AI走在「正軌」,以獲得更加健康的發展。

霍金在2017年初簽署的這23條原則,分為研究問題、倫理價值觀和長期問題三個部分,以確保人人都能從人工智慧中受益,同時保證AI研究和發展的正確方向。

人工智慧已經為世界各地人的日常生活提供了有益的工具。人工智慧技術應該在以下原則的指導下繼續發展,將為未來幾十年到幾個世紀的人給予巨大的幫助和力量。

研究問題

1)研究目標:人工智慧研究的目標應該是創造有益的智能,而不是讓它像經歷生物演化一樣沒有確定的發展方向。

2)研究資金:投資人工智慧應該附帶確保該研究是用於發展有益的人工智慧,包括計算機科學、經濟學、法律、倫理和社會研究中的棘手問題,例如:

我們如何使未來的AI系統具有高度魯棒性,這樣才能夠讓它們在沒有故障或被黑客入侵的情況下做我們想要它們做的事情?

我們如何通過自動化實現繁榮,同時不打破資源和目的的平衡?

我們如何更新法律制度實現更大的公平和更高的效率,跟上AI的發展步伐,管控與AI相關的風險?

AI應該具有怎樣的價值觀,應該具有何等法律和倫理地位?

3)科學政策互聯:AI 研究人員和政策制定者之間應該進行有建設意義、健康的交流。

4)研究文化:應該在 AI 研究者和開發者中培養合作、信任和透明的文化。

5)避免競賽(Race Avoidance):開發 AI 系統的團隊應積極合作,避免在安全標準方面進行削減。

倫理和價值觀

6)安全:AI 系統應該在整個使用周期內安全可靠,並在可行性和可用性方面有可驗證的衡量標準?

7)故障透明度(Failure Transparency):如果 AI 系統造成傷害,應該可以確定原因。

8)司法透明度:任何涉及司法決策的自主系統都應對其判斷提供合理的解釋,並由主管人權機構審核。

9)責任:先進人工智慧系統的設計師和建設者是使用、濫用這些系統以及這些系統行動造成的道德影響的利益相關者,他們有責任和機會塑造這些影響。

10)價值觀一致性:在設計高度自治的人工智慧系統時,應該確保它們的目標和行為在整個操作過程中與人類的價值觀相一致。

11)人類價值觀:人工智慧系統的設計和運行應與人類尊嚴、權利、自由和文化多樣性的理念相一致。

12)個人隱私:由於 AI 系統能夠分析和利用人類產生的數據,人類也應該有權獲取、管理和控制自身產生的數據。

13)自由和隱私:AI 應用個人數據,其結果不能不合理地限制人類真實或感知到的自由。

14)共享利益:人工智慧技術應當惠及和增強儘可能多的人。

15)共享繁榮:人工智慧創造的經濟繁榮應該廣泛共享,為全人類造福。

16)人類控制:應該由人類選擇如何以及是否委託人工智慧系統去完成人類選擇的目標。

17)非顛覆(Non-subversion):要控制先進的人工智慧系統所帶來的力量,應當尊重和改善社會健康發展所需的社會和公民進程,而不是顛覆這種進程。

18)AI 軍備競賽:應該避免在致命的自動武器開發方面形成軍備競賽。

長期問題

19)能力注意(Capability Caution):在沒有共識的情況下,應該避免對未來 AI 能力上限做出較為肯定的假設。

20)重要性:先進 AI 可能代表了地球上生命發展歷史的一大深刻變化,應該通過相應的關懷和資源對其進行規劃和管理。

21)風險:人工智慧系統帶來的風險,特別是災難性或有關人類存亡的風險,必須遵守與其預期影響相稱的規劃和緩解措施?

22)不斷自我完善(Recursive Self-Improvement):對於那些不斷自我完善或通過自我複製以能夠快速提高質量或數量的 AI 系統,必須採取嚴格的安全和控制措施。

23)共同利益:超級智慧只應該為廣泛共享的倫理理想服務,為了全人類而不是一個國家或組織的利益而發展。

?

今天,也是愛因斯坦的誕辰。

歷史如此巧合。這兩位偉大的科學家已經離我們而去,但人類對宇宙、人工智慧的探索永無止境。讓我們以這樣的方式來紀念他們。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

自投吳恩達的Woebot,最新A輪融資800萬美元
英偉達有必要擔心亞馬遜造 AI 晶元嗎?

TAG:新智元 |