相比《西部世界》,《黑鏡》更有可能是我們的未來
文 / 劉飛
說到人工智慧,大家往往會想到比較遙遠的未來。
常見的想像有幾種形式
第一種是具有特殊功能的機器人,能滿足我們某些特殊需求。它們雖然沒有意識、完全在人的控制之下,但也可以比較精準地完成很多任務。
像軍用的拆彈機器人:
(http://digi.163.com/16/0717/09/BS5SD7FT00162Q5T.html)
或者是醫用的納米機器人:
(http://it.sohu.com/20160818/n464870772.shtml)
第二種,則是人形的機器人。他們不僅能完成基本的任務,還具有了自主意識。
在各種文學、影視、遊戲作品中,有自主意識的機器人幾乎也已經是科幻題材必備的存在了。
像這貨:
(http://sd.china.com.cn/a/2016/keji_0928/727664.html)
或者這貨:
(《終結者5》)
以及這位美女:
(《西部世界》)
這樣的想像就跟我們對外星人的想像一樣,認為人工智慧的外在形式會跟我們差不多。他們是各自有意識、有同樣外形(頭、軀幹、四肢等)的個體。個體之間也會產生很多交互,從而也會存在社會屬性。
這些機器人的意識里進化出了情感、有了喜怒哀樂,所以才發生了更多有意思的情節......但我覺得這純粹都是為了故事創作所做的牽強附會。
人之所以成為現在這樣,是進化而來的,人體的功能是為了更好地生存和繁衍才出現的。機器人如果有了自己製造(繁衍)的能力,何必還跟我們一樣?
第三種想像到的形式,是沒有實體存在,全世界的智能設備甚至聯網的電子設備都是它的一部分。全世界的人都是無數個體,但全世界的智能設備都有同一個意識。
在守望先鋒的基本設定里,就是人類和人工智慧中樞(智械)爆發了毀滅性的戰爭。終結者講述的也是人類對抗人工智慧中樞(天網)的故事。這些故事裡,人工智慧中樞和個體都是存在的,一個是神的化身,另一個是人的化身。
類似的,還有黑客帝國里的矩陣,以及復仇者聯盟里的奧創。
(藍色的同學是奧創)
第四種形式,可以參照知乎著名的那篇文章「為什麼最近有很多名人,比如比爾蓋茨,馬斯克、霍金等,讓人們警惕人工智慧?」中,講到的是很多科學家和學者,對人工智慧的想像:以我們的認知,無法想像它的存在形式,但它也可能是全知全能的。
這是真正的神一般的存在。在它出現後,我們除了能永生,就是要滅絕。
對人工智慧來說,第二種(自主意識機器人)和第三種(自主意識的智能中樞)不太可能存在。最主要的原因是:人工智慧是快速發展、指數升級的,不可能穩定在一個跟人差別不大的狀態上。也就是說,要不就是人工智慧為人服務,要不就是瞬間遠超人的能力,成為了神的存在。
我們以為的人工智慧發展階段可能是這樣(所謂強人工智慧,就是智力水平跟人差不多的人工智慧,就是擁有了自主意識,同時又不夠「特別特別」聰明):
但真正的人工智慧發展階段可能是這樣:
我們根本就來不及,甚至說「配不上」跟人工智慧對抗,就瞬間被超越了。這種超越,可能是很可怕的。想想看,黑猩猩的大腦只是比我們輕了那麼點、皮層比我們小了那麼些,在我們眼裡,他們就是野蠻的動物,跟弱智一樣。那有強大學習能力、在「大腦」進化中並沒有「硬體限制」的人工智慧,看我們也許就像看低幾個維度的生命了。
(圖片來自《人工智慧的未來》)
說了這麼多,我下面不想詳細闡述強人工智慧的不可能性,或者超人工智慧的神奇/可怕未來,我想說的,正是可能很快會大大改變我們生活的——弱人工智慧。
弱人工智慧其實早已融入我們生活
而且正在潛移默化影響我們的生活。比較麻煩的是,大部分人都沒有意識到這一點。在警惕著機器人、矩陣或者外星人的時候,我們都很可能全被弱人工智慧所「統御」。這種統御並不是有意識的,而是無意識的。
弱人工智慧之所以被大家忽視,有兩點主要原因:
第一,弱人工智慧一般很少被大家認為是人工智慧本身,而覺得只是人工智慧的分支或者技術。這些技術知名之後,都不叫人工智慧了,比如 Siri(語音識別&自然語言處理)和今日頭條(個性化推薦)。前幾天鎚子發布會上演示的訊飛語音輸入(語音識別)和 Big Bang 的功能(中文分詞),也看起來不太像那麼高級的人工智慧,而只是比較先進的技術而已。
人工智慧這個詞的發明者 John McCarthy 就說到,一樣東西如果是人工智慧實現的,那人們就不再叫他人工智慧了。
第二,相較強人工智慧和超人工智慧來說,弱人工智慧看似完全在掌控之中。同時,弱人工智慧又沒有自主意識,並不會刻意去改變什麼預設之外的工作,只是在執行人類給它寫好的代碼、編好的邏輯。既然是這樣,拆彈機器人就永遠只會拆彈,不會做出炸彈來;納米機器人就永遠只會治病,不會製造生化武器。好像沒什麼可怕的,但事情真的是這樣的嗎?
弱人工智慧的技術實際已經相當成熟,相關的科技公司也已經逐步崛起。許多生活中你尚未意識到的地方,其實都已經有了它們的身影。
(
https://www.linkedin.com/pulse/hitchhiker-guide-ai-ed-fernandez)
下面我會講到很多弱人工智慧下,我們會遇到的一些麻煩
說麻煩可能是謙虛了,這些問題搞不好真的會影響到整個人類文明。
1、信息壟斷
我們已經習慣了:打開搜索引擎,找想要的信息;打開新聞客戶端,看看新聞;打開朋友圈,了解下朋友的動態。
這麼簡單的、已經習以為常的場景,實則暗藏巨大的隱患。
現在紙媒很快要被淘汰,手機成了真正人人必備的信息入口,而互聯網則逐漸成了唯一的信息平台——這在人類歷史上絕無僅有。在很多人眼裡,我們看到的信息變得多了,我們變得更加自由,但從另一方面來說,我們想要的信息被壟斷和控制也變得更容易了。
想想看,我們想知道這個世界在發生什麼,是不是已經完全依賴互聯網了?
(Thorsten Joachims)
在慣常思維中,互聯網應該是打破了信息壟斷的,但為什麼說現在的互聯網又在變得壟斷了?
康奈爾的計算機教授 Thorsten Joachims(巧的是,他也是人工智慧學者)曾經做過一個實驗,觀察用戶點擊 Google 搜索結果的情況。其中第一條結果有 42% 的點擊率,而第二條則是 8%。也就是說,不管剩下的結果怎麼樣,前兩條結果已經佔據了 50% 的注意力。
接著,他們互換了前兩條的位置,結果變成了 34% 和 12%。這也就是說,不管結果本身是怎樣的,用戶仍然只關心最開始的那條。
是不是跟想像的不太一樣?
百度、Google 這樣的公司,正在牢牢把控著目前我們的信息入口(當然,未來入口可能是多樣的,但也存在同樣的問題)。雖然我們搜出來了 1000000 個結果或者 5000 個結果,有種世界盡在掌握的感覺,但實際上很遺憾的是,對絕大多數用戶來說,不管是 1000000 個還是 5000 個結果,他們只會點擊第一頁最頂上的幾條而已。
說到這裡,估計不用提示你也能想到在信息壟斷方面,他們能做什麼了吧。他們其實已經做了一些。百度今年某個事件,就是在知乎醞釀發酵的,而這個事件,恰恰就是百度利用了信息壟斷來獲利,在某些用戶獲取信息的過程中夾了私貨(廣告)導致的。
Google 也經常在這個方面出事情,比如 2011 年的非法醫藥廣告以及今年疑似為希拉里站台。
(不管影響谷歌的搜索結果是不是真的,希拉里競選團隊的技術負責人的確是前谷歌的高管)
凡是在獲取信息通路上,處於入口地位的產品,都有壟斷信息的可能。
當你隨手點擊了一家看似不錯的餐廳的外賣時,也許不會意識到他們是花了錢的、是被平台塞到前面的(http://news.sohu.com/20160815/n464151313.shtml);當你津津有味地閱讀某個新聞客戶端的推薦文章時,也估計不知道有些文章其實是軟文或者公關文。
我們以為有了全新的信息入口、選擇變得更多了。但其實我們選擇變得更少了。
2、過濾泡沫
我們享受著個性化的服務:搜索引擎都在提供我們最有可能點擊的網頁;今日頭條在說我們關心的才是頭條;網易雲音樂努力讓我們總是聽到喜歡的歌......
第二個要說的麻煩同樣存在於看似更便捷和舒適的人工智慧技術里——個性化推薦。
近幾年隨著機器學習的發展,個性化推薦愈發有效。我們能用新聞客戶端看到更喜歡的資訊、能用音樂客戶端聽到更喜歡的歌。在這之前,我們都疲於從無數的資訊和歌曲中分辨哪些才是我們喜歡的。
似乎很美好,畢竟我們能夠找到自己更喜歡的了。
但這正是陷阱所在:我們喜歡的,就是我們需要的嗎?
就好像說,我們喜歡甜,就每頓飯只吃白砂糖?喜歡美女,就每天混跡於紅燈區嗎?如果只顧著享受快感,那麼毒品就會是正確的選擇。
當這些個性化推薦系統逐漸明白我們的喜好後,就會很精準地給我們最喜歡的,而且永遠都是最喜歡的。
(協同過濾是最常見的個性化推薦演算法,亞馬遜、Facebook、今日頭條、網易雲音樂、豆瓣都採用了這種演算法)
我們喜歡搖滾樂,系統搞明白後,我們就永遠聽不到其它的音樂風格了,並且會錯失跟它們邂逅的機會。(就像我一個朋友說的,他在聽了一個星期民謠以後,想聽幾首流行歌,在每天的推薦歌單里已經找不到了。)
我們喜歡小米手機,系統搞明白後,我們也就永遠看不到其它手機的資訊了。我們會認為全世界都在議論小米,卻意識不到在三四線城市,仍然是 vivo 和 OPPO 的天下。
互聯網觀察家 Eli Pariser 在 2011 年的 Ted 演講上,把這樣的現象叫做 The Filter Bubble,也就是過濾泡沫。(http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=zh-cn)
過濾泡沫讓我們只關心世界的一小塊,而且是越來越窄的一小塊。更可怕的是,由於我們自己並不清楚過濾泡沫的存在,所以我們也不知道自己不知道。
(圖片出自 Eli Pariser 的 Ted 演講)
在未來各種互聯網服務成為常態後,即使沒有人去操縱,在個性化推薦的「協助」下,我們也會變得越來越狹隘。
我們訂的推薦的外賣,都是一個口味的;我們喜歡的歌,都是一個類型的;我們看的新聞,都是關於某一些事情的;我們到淘寶買的排序在前的東西,都是一樣風格的。
這可能是我們會遇到的第二個麻煩。
3、數據風險
我們在享受著數據的便利。淘寶能夠依據我們的個人數據推薦最合適的商品;餐廳能夠根據我們的喜好推薦最合適的菜單;醫生可以根據我們的歷史病曆數據來得到更準確的診斷;連家裡的智能溫度系統知道我們回家了都會把溫度調整到最適宜的狀態。
在《1984》里,電子屏無處不在。老大哥依靠這個監視著每個人。如今的城市裡,公共場合攝像頭也是無處不在的,雖然目的不是為了監視我們,但至少提供了監視我們的途徑。
數據將通過三個途徑變得更加完善:
1)主動提供。既然要有個性化推薦,既然我們要享受其它各種大數據帶來的福利,那麼我們就要提供很多個人的信息和數據。你可能沒注意很多軟體註冊時的聲明,但在讀下這些文字時,你估計已經默認同意過幾十個甚至上百個產品的隱私協議了,這些協議確保他們能夠合法獲取你的各種信息和數據。(凱文·凱利在《必然》中說過,人們總會為了享受服務而放棄部分隱私。)
2)被動監視。智能設備在逐步變多,也就意味著攝像頭、各種感測器和監視器都變得多了起來。當你家裡布滿各種各樣的智能設備、或者你身上在用各種設備,並且它們都接入了互聯網時,它們也就同時帶來了泄露你各種隱私的風險。
3)間接收集。科技進步使得很多過去在檔案里、在紙質手冊里的很多信息得以電子化。我們在醫院的病曆數據,在公安局的登記數據,在學校的教育數據,在公司的工作數據,在銀行的信用數據,原本只是在限定的時空里存儲,現在則會存入聯網的資料庫。遲遲沒有破案的白銀連環殺人案,就是因為公安局的 DNA 檢測能夠聯網匹配,在 Y-STR 資料庫里發現了兇手的堂叔。
由於這些變化,我們的數據逐步變得完整。這些數據,遲早可以描述我們每個人(就像《黑鏡》第 2 季第 1 集里所講的那樣,死者的社交信息已經可以重塑他本人了),並且實時、動態地「監視」我們每個人(參考:我們自己終會成為大數據)。
這些數據如果被濫用,後果不堪設想。
如果被政府濫用,那就是像《1984》里描述的那種場景。我們所見到的每個攝像頭、每塊屏幕都是監視器,我們所撥出的每個電話、發的每條消息都被竊聽。
蘋果的經典廣告里,拿著鎚子的女模特擊碎了老大哥的屏幕。而現在,蘋果變成了新的老大哥,擁有全世界無數用戶的個人信息。好在他們暫時還沒有向政府妥協。
除了提供給政府,還有種可能是資料庫的泄露。這樣的事情發生過不止一次兩次了,經常有賬號密碼泄露,就有大量的用戶隱私被傳出,有些非常嚴重。
這世界上不會存在完美的安全措施。互聯網的地下世界有著無數黑客,他們可以來去無蹤地搞到這些數據(可自行搜索「中國黑客傳說」),不留任何痕迹。
科幻短劇《黑鏡》第 3 季第 3 集講的就是主人公和其他幾個人被人盜取了隱私數據,被抓住了把柄所以言聽計從、毫無還手之力,結局凄慘。
(主人公收到的簡訊里,對方讓他打開定位、保持開機狀態,就能了解他的位置信息,從而威脅和操縱他。)
遲早有一天,我們每天的一舉一動,都能夠記錄在案。我們買了什麼、吃了什麼、用了什麼、看了什麼......想成為老大哥的人只要技術到家,都會有辦法都獲取到。
除此之外,在某些人工智慧技術足夠成熟後,數據可能有更重要的意義。目前的數據也許只是個人用途,但未來的數據可能是社會性的,比如交通數據、金融數據或者軍事數據。
萬一這些數據被人竊取甚至操縱,那後果不堪設想。就像一個連環殺人案,兇手的 DNA 在資料庫里被人修改掉,那無辜的人就可能被當做殺人犯;或者有的人病曆數據被惡意改掉,結果醫生開了對他來說可能會過敏致死的葯......
未來的智能交通系統、醫療系統,在工廠里的各種智能機械......但凡是有殺人放火能力的,並且在依照我們設定的數據按部就班工作的智能系統,都有可能因為數據篡改而造成天災人禍。
《黑鏡》第 3 季第 6 集里,原本用來維持生態平衡的電子蜜蜂被人修改了智能模塊的數據,變成了可怕的殺人兇器。
4、真假陷阱
有了 AR 之後,我們的未來會大不一樣。我曾經寫過一段類似的想像:
想清晨跟遠在海外的老同學打聲招呼,只需通過眼鏡或者播放器說一句「呼叫馬丁」,馬丁的身影就浮現在你面前了,無論刷牙洗臉,還是讀書看電影,他都可以在一旁跟你無縫聊天。
未來如果能在家裡,能感受到在任何其它環境中相似的體驗,那幹嘛還要出門呢?佛教中有所謂五感(色聲香味觸),這些感知都能用先進的科技完成的話,我們是不是就省去了很多麻煩呢?
問題就來了:你怎麼知道你所看到的、感覺到的是真的還是假的呢?
快速發展的人工智慧技術會讓造假變得有可能。
我們用 AR 的工具跟朋友聊天、談笑風生,但其實跟你聊天的,會不會只是一個機器人?那些影像會不會只是製作出的 CG?
你在路上看到每個路標、行人或者遠處的高山,會不會是全息投影出來的假象?你坐在火車裡,以為是一直駛向北方的,但車窗會不會是投射虛假風景的電子屏、你其實繞路去了另外的地方?
隨著 AR 技術的發展,我們也許都會戴上像 Google Glass 那樣的工具(當然肯定沒有它那麼笨拙)。有可能就像一個隱形眼鏡一樣方便,戴上去就能看到更多智能系統提供的視聽內容;甚至有可能會直接植入什麼晶元和納米設備。
如果是這樣,我們以為只是增強了現實的 AR 技術,就有無數種方法來操縱我們、混淆我們了。
《黑鏡》第 3 季第 5 集里的大兵,都植入了稱為「Mass」的視聽增強系統,用來輔助他們的軍事行動。他們可以直接取用無人機的視角、看到系統發來的信息以及地圖。同時,這個系統也可以屏蔽掉很多聲音、改變看到的畫面,製造出虛假的內容,用來誤導和操縱大兵。
5、智能助理
起初我們只是從個性化推薦中得到信息,決策還是我們自己做的。等到它們逐漸變得更加智能、更加優秀,我們就會直接聽從它們的建議。
每天起床,我們會先聽一下智能助理對日程的安排。洗漱的時候,智能助理會讀給我們最恰當的新聞。我們會乘坐它推薦的交通工具。中午會去它說好的餐廳吃飯。傍晚,會直接下單買它說好的衣服和日用品。下班後,會經過他的提醒給家人打個電話,然後去它安排好的健身房鍛煉。
為什麼要聽它的?因為你發現,它永遠都能做出比你更準確、更理性、更完美的決策。因為它手裡有你的各種數據,知道你的生活習慣、性格特點、身體狀況甚至 DNA 序列。
智能助理是個性化推薦的升級版本。
如果說目前的個性化推薦,縮小了我們可選的範圍、給了我們一些選項,最終決定還是我們自己做的話:
那麼,等到智能助理真的可以安排我們的生活和工作後,我們自己做的部分就會被壓縮:
如果說信息的錯漏會導致我們做出不完善的推斷和決策,讓我們的決斷變得片面和不完善,那麼決策層面的錯漏會直接影響到我們的生活。
這些錯漏造成的原因,會跟剛才說的類似,有兩種可能:系統的不完善;惡意篡改。暫且拋開系統的不完善,就說惡意篡改這個可能。
如果是現在的黑客攻破你的手機,大概最危險的就是偷點艷照或者盜取銀行賬號。但未來我們對智能系統言聽計從的話,黑客修改了我們的智能系統,就會變得非常危險了。
我們非常信任智能系統,於是它買的食物我們不會仔細研究就會吃下去;我們非常信任智能系統,所以它導航的路、讓我們去的地方,我們都不會懷疑。我們會變得容易操縱。
同樣麻煩的是,我們在被操縱的同時,完全不會意識到這一點。我們都沒有能力去追究智能助理背後的演算法和數據究竟是不是對的。
智能助理未來不僅可以解決個人問題,也許還能解決更多社會性的問題。那就是下面要說的大麻煩了。
如果人工智慧真的可以根據各種數據和有效的演算法來協助我們做政府、企業和組織的決策,那我們也會對智能系統產生依賴。畢竟很多複雜的問題交給一個兩個人去做總是會有錯漏,但足夠強大的智能系統則看起來比較保險。
這樣以來,人工智慧的數據和演算法一旦被人有心篡改,可能波及範圍就變成了全世界。
不要以為這樣的智能助理很遙遠,作為認知計算系統的代表,IBM Watson 已經是應用層級的人工智慧專家系統了。採用了大量人工智慧技術的 Watson,目的不在於成為全能的機器人,而是成為協助人完成很多事務的專家。
目前 Watson 技術基礎上的相關產品有:
Watson Virtual Agent
Watson Explorer
Watson Analytics
Watson Knowledge Studio
Watson Commerce
Watson Education
Watson Financial Services
Watson Health
Watson IoT
Watson Marketing
Watson Supply Chain
Watson Talent
Watson Work
(
http://www.ibm.com/watson/products.html)?imageMogr2/strip/interlace/1/quality/85/format/html)
可以看到,已然涉及了我們生活和工作中的各種領域。
我曾經假想過一個驚悚故事的提綱。
在未來的某個時代,人工智慧已經參與到人類方方面面的決策中。有一批水平高超的程序員,他們合夥攻破了各處的智能系統,並且篡改了其中的演算法和數據,使得他們能夠人為操縱人工智慧提供的決策結果。由於他們始終沒有暴露,全世界實際上是不知情的情況下成為了他們的遊戲沙盤。
雖然不能直接發起戰爭,但間接的一些手段,比如給軍隊虛假的敵方數據,就可以誤導他們儘快發起進攻。雖然不能直接殺掉某個人,但像上文提到的,只要誤導他吃會過敏致死的食物也能間接除掉他。於是,他們開發出了一套可視化的系統,能夠快捷地對世界上大到國際政局、小到某個人生活的事項施加影響。
這個可視化系統是不是覺得很熟悉?
《模擬城市 4》
本質上,把信息整理和過濾的環節讓渡給了人工智慧,我們就會有一些風險;再把思考和決策的環節也讓渡給人工智慧,我們就會有更大的風險。
從這個維度考慮,人類的活動大概就分為獲取信息、思考決策和執行三個步驟。
那麼,要是把幾乎所有我們在做的事情、嫌麻煩的事情都讓渡給人工智慧呢?
6、智能烏托邦
全世界的所有資源,比如食物、能源,都在智能系統掌控的全自動化工廠下運行,也不需要我們的操心。社會在智能系統的安排下,變得井井有條。
我們一出生,人工智慧系統就會根據我們的基因選擇了最優的成長路徑。
我們會閱讀最合適的讀物、觀看最合適的娛樂作品。衣食住行也都不用操心,全被安排得妥當。
到了適婚的年齡,智能系統會推薦最匹配的情侶,無論怎麼算,我們的性格和其它個人條件都跟對方最搭。
智能系統知道怎樣讓每個人開心,他會定時定量地給我們一些刺激。有時候是直接吃藥,有時候是看一段有趣的視頻,有時候是推薦給我們幾個好玩的朋友。
所有的痛苦都被抹殺。在這個烏托邦里我們只享受快樂。
總之,每個人的一生都會高高興興地度過。根據智能系統的測算,這個時代的人類,在整個歷史上都是最幸福的。
看似美好,但像豬一樣被圈養起來,會是我們想要的未來嗎?
這樣的未來並不是臆想出來的。在《必然》里,凱文·凱利提到,所有的集體智能和機器,都會融合為一個被他稱為「Holos」的整體。這個整體,目前尚屬不完美的階段,以互聯網的形態覆蓋著 510 億公頃的土地、觸及 150 億的機器,佔據 40 億人類的心智,消耗地球 5% 的電能。
不過,跟凱文·凱利樂觀的預測不同(他認為未來我們會跟這樣的人工智慧生態形成良好的關係),我覺得一旦人類活動幾乎都移交給人工智慧來完成了,那很快人類也就喪失價值,成為被照顧、被撫養的對象了。
(《機器人總動員》里被撫養得妥帖的人類)
以上,就是弱人工智慧可能製造的麻煩。這些麻煩,都不需要人工智慧產生自主意識,也不需要人工智慧比人類高超多少段位。所需要的,都是我們平時習以為常的語音識別、自然語言處理、圖像識別、機器學習、工業機器人、專家系統等等。
最近有兩部劇都特別火,一部是《西部世界》,另一部是《黑鏡》。
我很喜歡前者的劇情,探討人與即將覺醒的機器人之間的糾葛。
但後者描述的那些黑色幽默,由於萬物互聯的網路、完善的大數據或者先進的人工智慧引發的種種危機,卻更有可能成為現實。
而且是馬不停蹄正在接近我們的現實。
※半個中國都在建「VR小鎮」,地方狂熱下最後能活幾個?
※諾貝爾經濟學獎出爐:這次的經濟學獎與你我息息相關
※淘寶天貓的一種可能死法:看AI會如何摧毀電商平台
TAG:虎嗅 |
※諷刺,我們是認真的——《黑鏡》
※有部腦洞堪比《黑鏡》的英劇,想跪著求你看
※如果你一輩子只看一部英劇,必須是《黑鏡》
※別再用神劇定義《黑鏡》,它不過是一則獻給未來的黑色童話
※這部國產劇,讓我看出了《黑鏡》的感覺
※《黑鏡》:不是恐怖片,卻比恐怖更可怕!
※和外面的自由相比,我更愛監獄的局促-《黑鏡》
※這部佳作,聽說能與《黑鏡》相媲美
※《黑鏡》里那些有可能變為現實的「未來科技」
※不絕望的幽默不是好科幻,厲害了我的《黑鏡》!
※這可能是一部將超越《黑鏡》的新劇,年度最佳預定
※當你還在追《黑鏡》的時候,英國人已經在另一部劇中無法自拔
※如果你一輩子只看一部英劇,必須是「黑鏡」
※請別拿這部新劇來和《黑鏡》比,好么?
※看完《黑鏡》,我腦海中只有一個詞
※殘忍黑鏡頭:只有上流人士才能用的酷刑,畫面太美,我不敢看!
※相比《黑鏡》的質量下滑,這部「短小」英劇卻越來越好!
※如果《黑鏡》都不能滿足你……
※如果《黑鏡》能刷爆你的朋友圈,一家帶著《琅琊榜》們出海的公司能長多大?