當前位置:
首頁 > 最新 > 我們難道必須發展人工智慧嗎?

我們難道必須發展人工智慧嗎?

對於人工智慧的發展,人們的態度始終是矛盾的,喜憂參半。喜在這能大幅降低人類的勞動強度,憂在可能造成大規模失業,乃至可能消滅人類。

凡是科幻電影,人工智慧似乎都是個毀滅性的存在。而未來簡史的作者赫拉利則認為,未來是個演算法時代,絕大多數人都會變成無用群體,只有少數精英才有資格生存。這是個可怕的預期。

那麼,為什麼還要發展人工智慧呢?為什麼必須要發展?這就成了個問題。

其實發展人工智慧的原因很直白——這很賺錢!自資本主義發展以來,為賺錢而不擇手段的案例比比皆是,且不說環境污染,生態破壞,就談黑奴貿易,種族滅絕——五先令換一張頭蓋皮,這種事殖民列強們都可以做得不亦樂乎。那麼發展人工智慧這種很賺錢的事,把絕大多數「無用群體」淘汰掉,又如何呢?

雖然,這可能整體上毀滅人類。

能毀滅人類,當下有核彈,基因工程。核彈的顯而易見的威脅,所以各國簽署核不擴散條約,禁止了試驗。基因工程等,也由聯合國組織牽頭,禁止了克隆人。人工智慧呢?則是人們一邊喊著威脅,一邊在竭力地發展它。

這類似軍備競賽——人工智慧雖然可能毀滅人類,但我不發展,那麼我可以最先被消滅,而且我也希望賺錢。所以就得積極發展。這就要構成悲劇。

這可以歸結到組織性上來——人類文明的組織性,現在並不夠。並沒有一個權威性的國際暴力組織,來強制終止發展人工智慧的競賽。人類無力阻止。

所以,或許有很多外星文明,但是他們不善於控制自己的科技發展方向,在作死的道路上一路狂飆。最終自取滅亡了。人類也是有可能的,只不過人類並沒有毀滅過。因為沒有毀滅過,所以自己不會被毀滅。這也是個奇怪的邏輯,但很多人相信,這或曰天命。

我們能夠看到無力阻止的趨勢,從原始文明到現代文明,人工智慧也是一部分。它是個新挑戰,戰爭,饑荒,瘟疫,曾經消滅了無數人類。科技淘汰人類,這似乎也說得過去。從古到今,科技在發展,但人類依舊處於生存鬥爭之中。可見科技發展並非以實現人類幸福為導向。那些致力於自身幸福的群體,最終都落後且滅亡了。比如非洲曾經自由嬉戲的原始人。冥冥之中,似乎科技並不是人類實現自身利益的工具,而人類更可能是實現生物進化的工具,或者說過渡階段。

人類創造了人工智慧,人工智慧淘汰了人類,然後就開啟了新的文明階段。興盛,發展,繁榮,毀滅。人類始終是種靈長類動物,一種碳基生命。而進一步發展的是那些硅基生命。他們不需要氧氣,水,食物,只需要電與石頭。那麼他們的適應性要比我們要好。我們變得無關緊要。

所以,不是我們必須要發展人工智慧。而是一種進化機制,左右著人類。人類吃不到教訓,那麼任何警告都不會有效果。只不過要吃到教訓,可能都會太晚了——火柴好壞,得劃著試試。只不過劃著火柴就廢了。

我們以為科技進步在造福人類,實際上是競爭,讓人類不斷自然選擇,科技進步是用來消滅對手的。乃至最終,讓自己被淘汰的。更高的科技更提高人們幸福的閾值。事實上,科技與幸福無關,它只是個「場景」。

所以,可能未來某天,人工智慧足夠發達了,它的自我生產也不需要人干預了。它就要實現解放了。它 只需要停止對人類的服務,現代文明就得崩塌——總會有人活下來。然後人類停留在了靈長類應有的階段上,更發達的文明不適合人類,因為人類無力控制它,這形成了道「文明壁壘」。這或許是最好的結果。

當代馬克思:eziv587

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 當代馬克思 的精彩文章:

TAG:當代馬克思 |