當前位置:
首頁 > 知識 > 特朗普盯上谷歌在華 AI 中心,CEO 皮查伊上演「拉鋸戰」

特朗普盯上谷歌在華 AI 中心,CEO 皮查伊上演「拉鋸戰」

特朗普盯上谷歌在華 AI 中心,CEO 皮查伊上演「拉鋸戰」

打開今日頭條,查看更多圖片

作者 | 琥珀

出品 | AI科技大本營(ID:rgznai100)

長久以來,Google CEO 皮查伊對拿下中國 AI 市場的念頭似乎愈演愈烈,卻每每不能如意。

3 月 28 日,憑藉 Twitter 治理天下的美國總統特朗普發消息稱,「剛剛與 Google CEO 皮查伊會面,他強烈聲明絕對忠於美國,而非中國」,在這番談話里特朗普對他的 「表現」 可以用讚不絕口形容。

特朗普盯上谷歌在華 AI 中心,CEO 皮查伊上演「拉鋸戰」

此前一天,據彭博社消息稱,知情人士透露,Google CEO 桑達爾 · 皮查伊(Sundar Pichai)將在華盛頓與參謀長聯席會議主席約瑟夫 · 鄧福德(Joseph Dunford)將軍會面。

特朗普盯上谷歌在華 AI 中心,CEO 皮查伊上演「拉鋸戰」

一周前,彭博社就已指出,Google 發出面談邀請起因與鄧福德對 Google 於 2017 年在中國設立的 AI 研究中心相關。

這位將軍表示,谷歌「間接使中國受益」,「根據我的判斷,我們協助中國推進技術發展,與美國國家利益不符。所以,我們必須對此展開討論。」

不得不說,五角大樓此舉,可能也是建立在對中國 AI 人才監控、技術封鎖、企業打壓愈發嚴重的基礎上。

  • 2017 年,據紐約時報和路透社報道,美國正準備加強對中國在矽谷投資的審查,以更好地保護「對美國國家安全至關重要的敏感技術」。
  • 2018 年 2 月,前美國密歇根州立大學教授、著名機器人研究專家席寧在密歇根州立大學附近被美國聯邦調查局(FBI)以詐騙罪逮捕。五天以後,另一名華人科學家王春在,於邁阿密一家聯邦法庭被判刑。
  • 年末,美國商務部提交的建議案又以「國家安全」為由,要求加強 14 項高科技領域的出口限制,其中 11 項是關於 AI 技術。

實際上,在過去的一年裡,Google 迫於內部壓力退出了與五角大樓簽訂的人工智慧合同,包括使用 AI 增強美軍無人機戰鬥力的 「Project Maven」 項目,甚至還退出了價值百億美元的五角大樓雲計算合同的競標,並同時擴大了在中國搜索之外的新業務。

這種舉動已經遭到了華盛頓方面的強烈反對。2018 年 12 月,劈柴就被傳喚出席美國國會委員會,回答了是否將恢復在中國的搜索業務等問題。當時他還問道:「我們能否探索為中國用戶提供教育和醫療保健的服務?」

死於 2018,2019 可期?

然而,就這麼一條看似單純的 Google 中國 AI 發展計劃,卻也走得充滿荊棘。

2018 年,李飛飛、李佳的雙雙離職,給谷歌 AI 中國中心的發展蒙上了一層陰影,而該起事前的源頭不免讓外界與遭到員工強烈抵制的五角大樓合同相聯繫。

2017 年年底,由李飛飛、李佳共同領導的谷歌 AI 中國中心在北京成立。當時,「AI 沒有國界,AI 福祉亦無邊界」的口號曾吸引了大批 AI 人才的關注。

從業務角度來講,比起亞馬遜和微軟在中國做得相對比較成熟的雲服務來講,Google 更擅長的是依賴 AI 而開展的雲計算業務,這是其除廣告以外未來收入增長的主要來源。

在中國,基於中國市場巨大的用戶基數,互聯網及移動互聯網時代的快速增長帶來的是數據、應用和場景,這對人工智慧在技術上的發展形成了比較好的優勢。

Google 發言人曾表示,「我們不與中國合作。我們正在與美國政府,包括國防部合作,在許多領域,包括網路安全、招聘和醫療保健等也有合作。」

在一封電子郵件中寫道,Google 在北京的實驗室專註於開發軟體,包括當前主流的深度學習開發框架 TensorFlow,以應用於「自然語言理解和工業演算法的研究」,以及教育計劃。

在 CNBC 等多家媒體眼裡,TensorFlow 是 Google 擴張戰略的重要組成部分。谷歌工程總監 Rajat Monga 在 9 月份由中國政府支持的會議上表示,TensorFlow 已下載 1700 萬次,其中 200 多萬來自中國用戶。TensorFlow 是免費的開源軟體,因此 Google 無法控制誰使用它。

或許,這是劈柴在最終對外表示放棄遭曝光的 Dragonfly 計劃之後的無奈之舉。此前,他一再強調該計劃是「試圖了解市場」。

那麼,在多方權衡之下,Google 在中國未來是否還有更好的出路?

附上 2018 年 6 月 Google 明確了的使用 AI 的七項原則,以下為皮查伊署名文章的部分摘選(CSDN 翻譯):

AI 的核心是可以學習和適應的計算機編程,它不能解決所有的問題,但擁有巨大的潛力改善我們生活。在谷歌,我們使用 AI 讓產品更有用,從沒有垃圾郵件並且更容易撰寫的電子郵件,到可以自然對話的數字助理,再到突出有趣內容供你欣賞的照片。

我們認識到,人工智慧如何開發和使用,將對未來多年的社會產生重大的影響。我們也意識到,這個領域是不斷變化和不斷發展的,我們將以謙遜態度對待我們的工作,我們也願意隨時間的推移調整我們的方法。

  • 我們將根據以下目標評估 AI 應用。我們認為 AI 應該:

1、對社會有益。人工智慧的進步將對包括醫療保健、安全、能源、運輸、製造和娛樂在內的各種領域產生變革性的影響。我們將努力使用 AI 來隨時提供高質量和準確的信息,同時繼續尊重所在國家的文化、社會和法律準則。

2、避免製造或加強不公平的偏見。人工智慧演算法和數據集可以反映、加強或減少不公平的偏見。我們將努力避免造成不公正的影響,特別是與種族、民族、性別、國籍、收入、性取向、能力及政治或宗教信仰等有關的人。

3、建立並測試安全性。我們在設計人工智慧系統時會保持適當謹慎,並根據人工智慧安全研究的最佳實踐尋求開發它們。在適當的情況下,我們將在受限環境中測試 AI 技術,並在部署後監控其操作。

4、對人負責。我們將設計能夠提供反饋、相關解釋和說明的 AI 系統。我們的 AI 技術將接受適當的人類指導和控制。

5、納入隱私設計原則。在開發和使用 AI 時將融入隱私原則,提供通知和同意,鼓勵具有隱私保護措施的架構,對數據使用提供適當的透明度和控制。

6、堅持科學卓越的高標準。人工智慧工具有可能在生物學、化學、醫學和環境科學等關鍵領域開拓科學研究和知識的新領域。我們將與一系列利益相關者合作,以科學嚴謹和多學科的方式來全面引領領域發展。

7、為符合這些原則的用途提供。我們在開發和部署 AI 技術時,將根據以下因素評估可能的用途:主要目的和用途、性質和唯一性、規模、谷歌參與的性質這四個方面。

  • 除了上述目標之外,我們不會在以下應用領域設計或部署 AI:
  • 已造成或可能造成整體性傷害的技術。存在重大傷害風險的情況下,我們只會在好處遠遠超過風險的情況下繼續進行,並納入適當的安全限制。
  • 武器或其他主要目的是導致或直接造成人身傷害的技術。
  • 收集或使用信息的技術違反國際公認的規範。
  • 其目的與國際法和人權普遍接受的原則相違背的技術。

我們希望明確的是,雖然我們沒有在開發用於武器的 AI,但我們將繼續在其他許多領域與政府和軍方合作,包括網路安全、培訓、軍人招募、退伍軍人醫療、搜索和救援。這些合作是很重要的,我們將積極尋找更多方法來加強這些組織的關鍵工作,並確保服役人員和平民的安全。

  • 長期的人工智慧

隨著人工智慧技術的進步,我們將與一系列利益相關者合作,採用科學嚴謹、多學科方法提升這一領域的領導力。我們將繼續分享我們在改進 AI 技術和實踐方面的經驗。

鏈接:https://www.bloomberg.com/news/articles/2019-03-26/google-ceo-is-said-to-meet-general-dunford-on-wednesday

(本文為 AI科技大本營原創文章,轉載請微信聯繫 1092722531)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 CSDN 的精彩文章:

Python 爬蟲分析豆瓣 TOP250 告訴你程序員業餘該看什麼書?
GitHub近100,000 程序員「起義」:向「996」開炮!

TAG:CSDN |