當前位置:
首頁 > 新聞 > AI圈生存指南:如何構建你的職業生涯資本

AI圈生存指南:如何構建你的職業生涯資本

AI圈生存指南:如何構建你的職業生涯資本

1新智元推薦

AI圈生存指南:如何構建你的職業生涯資本

什麼是AI策略工作?

AI策略是一種社會性的有關AI決策的分析與實踐工作。AI戰略這個詞有時候被用來指稱對AI策略問題較大方面的研究,比如,我們希望AI能夠被狹窄地還是廣泛地使用?或者哪一個問題應該被優先研究?這篇文章將要講述的就是有關「長期AI策略」的戰略問題。

短期問題vs長期問題

當討論AI策略的時候,分清楚短期與長期AI策略往往非常有用。

短期AI策略的關注點是社會正在努力解決的問題,比如無人駕駛汽車的駕駛責任問題、相對小規模的工人流離失所問題、演算法偏差以及越來越自動化的監控問題。

長期AI策略則關注這樣一種問題,它只出現在AI技術比現在更先進的時候,尤其是在這種先進性接連不斷地發生的時候。這樣的問題將會產生非常長期的持續的後果,比如AI安全風險,或者與「人類智能水平的AI、超級智能的AI」相關的地緣政治不穩定性。

這個區分並不是非常牢固:舉例來說,有可能最後變成,我們現在認為是長期問題的事情會超出很多人的預料,因為我們高估了人工智慧走向超級AI所需要的時間,當然,不同的專家會對這個問題的預估也會差別非常大。也許,和人工智慧相關的最為嚴重的經濟問題,將比安全問題需要更多時間,才有可能實現。

然而,長期/短期依然是一個非常有用的粗略的區分方式,這種區分正好反映了人類智能水平的AI或者說超人工智慧在非常短期內不太可能實現,可是一旦它出現了,它就將擁有變革性的、持續的社會影響力。

大多數和近未來狹義AI系統相關的策略決策,都不太可能有什麼長期持續的影響。但研究這方面的問題,有助於積攢經驗,來研究更強大的AI系統,一些共通的策略框架與工具都可以用在它們身上。如果一個人研究的是已經存在的問題,那他就能確定這個問題是真實的,從而在工作中受到有益的影響。

另一方面,從長遠角度來講,長期的策略與戰略可能更重要,尤其是在開發AI系統進展非常迅速的情況下。目前,這方面在概念上和實際上都沒有很好地被開發,而且風險非常大,所以我們希望在這個領域做出貢獻從而獲得更高的收益。

我們估計,只有不到10%的AI策略工作特別關注那些與未來可能出現的AI系統相關的問題,同時,有越來越多的工作集中在諸如無人駕駛汽車和無人機策略等更短期的問題方面。這就讓長期問題被嚴重忽視了。

AI策略工作要考慮哪些方面的問題?

為了了解AI策略中可能遇到的問題,請參考下面這些。

AI能做到些什麼?

AI系統有一天能獲得什麼樣的能力,可能產生什麼樣的社會後果?舉幾個例子,如果AI系統能做到下面這些事,會發生什麼呢?

  • 分析物理論文並提出新的實驗?

  • 對其他領域,包括AI開發,也做到同樣的事情?

  • 分析社會科學論文、互聯網內容,以及/或者監控數據,並且對各種情況下的人類行為做出精細的預測?

  • 生成某種語言或圖像,旨在說服特定群體人類執行特定任務?

  • 分析各種領域和信息源文本,從而生成小說材料、技術或者軟體?

  • 制定一個包括上述所有事情的計劃?

計算機安全意味著什麼?

  • AI系統將會以一種比人類更有技巧的方式,用更便宜、高效、可靠的方法找出計算機系統中的漏洞,這樣的可能性有多大?什麼樣的指標可能會在這方面提供更新?

  • 國家或非國家實體能採取什麼措施來防止這種情況發生,並且/或者減輕潛在的負面影響?

  • 有沒有可能出現這樣一種情況:AI系統能提高對黑客的防禦能力,同一時間,它又能提高黑客入侵的能力?如果在黑客和金融機構敏感數據之間展開了一場「計算能力軍備競賽」,後者是否應該得到資助或調節,來提高他們擁有的計算資源呢?

自主武器會產生什麼影響?

  • 在短期未來、中期未來和長期未來里,什麼樣的自主武器(autonomous weapon)會被開發出來?什麼樣的指標可能會在這方面提供更新?

  • 不同類型的自主武器的可能應用是什麼?比如,什麼樣的自主武器最適合做空戰支援,或者做堡壘對戰、偵查、監視已佔領土地、暗殺或者其他秘密行動?

  • 考慮到自主武器可能的類型與應用場景,它對全球和平與安全可能會產生怎樣的影響?

  • 自主武器潛在的優勢(高精確度、更少的平民傷亡、減少對人類士兵的需求)與缺點(降低了戰鬥門檻、造成潛在的地緣政治不穩定,比如軍備競賽、事故風險以及濫用的風險)如何?

  • 開發相對便宜的自主武器,並讓私人公民可獲得破壞性武器的可能性有多大?可能需要什麼樣的監管行動來消除這種可能,什麼時候應該採取適當的行動?人類發展進程中的哪些指標可能表示出採取行動是否恰當?

  • 從其他新型武器(比如核武器、化學武器和地雷)的發展,以及國際治理對它們的反應中,能得到什麼樣的相關教訓?

  • 在限制或停止自主武器的開發和/或部署方面,有哪些合理的方式?限制開發需要從整體上限制嗎?它是否帶有太多推動地下開發的風險,或者對較少社會責任方有太多風險?

AI圈生存指南:如何構建你的職業生涯資本

如何確保廣義AI系統的安全性?

一個能夠創造出長期理性的、擁有廣闊機會的AI系統,應該能夠做出非常難以預測的行動。值對齊問題就是一個例子——讓強大的AI系統去實現一個不太明確的「目標」就可能構成全球性的災難性風險。

即使值在一個AI系統和它的用戶之間形成了「對齊」,運行一個AI系統去實現一個特定目標也可能是違法行為,只要運行的方式讓人們無法仔細審視系統本身就可以。舉個例子,一個目標明確為「賺錢」 的AI系統,它有可能會打破一些關於賺錢的法律規定,雖然在開發和測試這個AI系統的時候,它看起來並不會這樣。

考慮到這些之後,關於開發和部署這樣有潛在危險的系統過程中的合作與衝突,就有這樣一些重要問題浮出水面:

  • 在開發和部署安全的AI過程中,如何在相關人員中鼓勵合作的精神?

  • 從一個悖論的角度,如何構建與分析AI的國際競爭與合作?

  • 事先在各方之間,就「什麼構成了AI系統部署的潛在風險」、「在什麼情況下這種部署應被視為合法」這些問題達成一致,這樣有效嗎?

  • 在各方之間,什麼類型的協議是可以強制執行的?

你想在工作中扮演什麼樣的角色?

你需要問自己一個最重要的問題:在最重要的AI策略問題上,你認為自己最有可能在哪裡發揮出最大的影響力?下面是其中四種最主要的角色:直接研究、在政府和行業內工作、宣傳,以及幫助招募人才。

在AI策略領域,你可能會對直接研究感興趣:分析短期和長期AI參與的戰略考慮,評估提出的解決方案,並提出新的方案。你可能想在政府工作,搜集各個利益相關方的意見,與你政府部門的其他同事商量可行的做法,並且直接實施解決方案。你可能想做我剛才提到的某些事情,但想在行業內而不是政府部門工作。你還可以做宣傳工作,幫助優秀的解決方案發聲,並且提高對特定問題重要性的廣泛認識。再或者,你還可以幫助招募人才,幫助應聘者認識這些職業選擇,連接求職者與僱主,並且說服人們了解AI策略或者特定問題的重要性。

鑒於目前可推廣的好方案有限,長期價值很可能比目前直接的在戰略分析和可行解決方案方面的工作更有價值。無論如何,經過一段時間之後,隨著許多利益相關方的進入,宣傳工作最終還是會變得十分關鍵。在解決問題時,不同的技能可以用在不同的方面,當然還是有一些跨學科的通用技能,比如AI方面的知識、寫作能力,以及協作能力等。我們強烈建議那些有研究經驗的人做直接研究的工作,去解決上面說到的那些科研問題,但就目前來說,擁有不同技能的很多人都能在潛在領域做出貢獻。

下面這部分會提供一些例子,來說明一個人可能在AI策略領域做些什麼工作。我主要講兩個廣闊的領域:研究和實踐。

AI策略研究者

廣義來說,這條職業道路就是成為AI策略的考察與干預措施前沿領域的專家。在列出具體研究領域和一個人可能感興趣的僱主例子之前,要著重強調,應聘者可以在政府部門、行業領域、學術領域或者非營利機構從事這些工作。至少對長期AI策略來說,政府部門很顯然不是從根本上開發新策略創意的前沿,但隨著AI安全和經濟相關性越來越受到重視,這一局面也可能會改變。請注意,一個人其實可以在研究與實踐之間跨越邊界,既貢獻想法,又實施一些解決方案。

短期策略研究的選擇

下面是一些相關機構的例子:

  • 牛津大學,那裡正在開展著大量對未來工作的研究;

  • 各種智庫,比如布魯金斯研究院、新美國安全中心、數據&社會、大赦國際,以及阿蘭·圖靈研究所;

  • 諮詢公司,如麥肯錫;

  • 公司與非營利機構,比如Google、DeepMind、微軟、OpenAI,百度,騰訊和亞馬遜;

  • 美國聯邦航空管理局,對無人機問題的研究;

  • 貿易協會,比如IEEE(尤其是他們關於人工智慧和自治系統倫理探討的全球性倡議),美國人工智慧協會,以及他們在AI方面的合作。

長期策略和戰略研究的選擇

這方面的機構不是很多,下面的列表幾乎涵蓋了全部:

  • 牛津大學未來人類未來研究院是由尼克·波斯特洛姆創立的,波斯特洛姆的代表作是《超級智能》;

  • 劍橋大學生存風險研究中心、智能和人性未來研究中心,研究和AI安全相關的技術和戰略問題;

  • Alphabet公司旗下的DeepMind可能是開發通用機器智能的最大和最先進的研究機構。它有大量的員工專門研究AI相關的安全和倫理問題。Google Brain是另一個Google旗下的深度學習研究項目;

  • OpenAI創立於2015年,它的目標是「建造出安全的通用人工智慧,並確保它的效用儘可能地廣泛和均勻分配。」OpenAI現已獲得技術團體10億美元的投資;

  • 全球災難性風險研究所(GCRI)是一個無黨派的智庫,其目標是減少嚴重危害甚至在全球範圍內摧毀人類文明等重大事件的風險。

AI策略實踐者

為了開發和評估一個策略想法,就必須要有人去執行這些策略想法。這類職位極其有影響力,所以,讓真正理解這些問題的人去從事這些工作十分重要。相對策略研究來說,實踐者這類職位需要更強的社交技巧。

從什麼地方開始長期實施AI策略,我們都不清楚。這就是說,建構起你自己的職業資本,能夠在AI興起的時候抓住機遇,這很重要。最終,你其實是希望能得到儘可能最有影響力、最具相關性的職位。一切都是平等的,你在一個政府部門或者AI公司的級別越高,等到AI成熟的那一刻,你來決定AI策略的可能性就越大。為了實現這一點,你可以參考下面所說的步驟。

短期策略實踐的選擇

有可能在自主武器系統策略方面擁有重要影響力的組織,包括有國家安全委員會和國防部副部長策略辦公室。還要考慮到地方和州政府、國際機構(如裁研所或裁軍研究所關於自主武器的工作)、非營利機構(如制止殺人機器人運動)、美國勞工部、國內政策委員會,以及主要國家的立法機構。

如果你的目標是最大限度地發揮自己的影響力,那麼地方和州政府的工作以及在小型企業的工作就是獲取經驗的好機會,而不是終身從事的職業。

此外,至少在近未來,私營公司和非營利機構可能會在AI進步方面引領前沿,所以,如果你想把策略想法付諸實踐,像Google、DeepMind、微軟、Facebook和OpenAI這樣的公司應該在你的理想公司列表之內。

長期策略實踐的選擇

長期策略是一個複雜的話題,因為風險很高,並且由於錯誤決策產生危害的可能性要高於益處。比如,你可以提出,機器智能可以提供比競爭對手更具戰略優勢的想法,從而開展軍備競賽,而不事先重複討論合作的重要性。或者,你可以做出低質量的分析、以不可靠或聳人聽聞的方式來架構問題,從而敗壞AI策略領域的名譽。所以,在努力付出的同時謹慎對待工作,並且與專家詳細討論細節,這十分重要。

你如何讓自己承擔起這些角色?

學習哪些領域?

AI策略不是一個非常成熟的領域,並且它還籠絡了許多其他學科。在理想的情況下,你將會熟悉許多學科,並至少在其中之一的領域裡成為專家。下面舉幾個例子。

AI

毫無疑問,要從事AI策略,你最好了解到關於AI科學和技術的大量知識。這將會幫助你分辨虛假和現實,對藝術的狀態有所了解,並且明智地思考未來領域如何演變。

政治科學和公共策略

這兩個學科將幫助你了解不同機構在處理AI相關問題時的角色和局限性(例如,國內政治學和比較政治學就是兩個相關的子學科),它們還將幫你了解國際問題和國際動態(國際關係也是個非常有相關性的子學科)。科學技術策略的子領域也和AI策略非常相關,並且提供了大量可參考的實例和一般性概念框架。在政治科學領域有很多類似問題都已經被充分研究過了,比如核裝備競賽、國際網路衝突,這些都和長期AI策略相關聯,在這些領域的本科和研究生項目則傾向於強調統計分析和博弈論等工具,它們都可能對AI策略分析有用處。

法律

這是很多AI策略工作者的學科背景。舉個例子,有一個叫We Robot的系列會議,專註於(大多是短期的)AI相關的立法/策略問題,比如問責性、軍事等,它就主要由法律學者組成。理解法律能讓一個人認識到各種影響AI開發和部署的工具和槓桿。國際法補充了國際關係,提供了有關國際規範的一些洞見,這樣就能限制任何大型政府部門關於先進AI的決策程序。

經濟

當你仔細思考工作的未來時,經濟維度都是必不可少的。但是,在廣義的經濟學文獻中,也有很多可能對AI決策有用的洞見,比如工業組織和博弈論。尤其是博弈論,當高度先進的AI到來時,博弈論可以作為一個思考協調問題的透視鏡。

其他社會科學

以上所說的僅僅是相關學科的一些例子,其他相關的學科還有很多,比如科學和技術研究(它是一個旨在促進科技在社會中的作用、對此進行科學思考的、研究科學家和工程師決策過程的實證/概念領域),社會學,人類學(它在研究AI對社會和經濟影響的實話非常有用),心理學(它有助於研究小尺度的人工智慧影響,有助於理解人類如何與AI、機器人進行互動,這些研究反過來可以促進合適的策略和框架等議題),以及媒介和傳播研究(它有助於研究公眾對AI的態度,並且可用來預測更強大的AI系統的潛在影響)。

哲學與倫理學

哲學家有能力以嚴謹的方式構建AI策略問題,而倫理學則有助於分析何種未來更值得我們追尋。有些AI策略研究者,比如尼克·波斯特洛姆和托比·奧德(Toby Ord),就擁有哲學和其他領域的學術背景。

安全和情報研究

在目前的研究和未來的考慮方面,一個非常關鍵的領域就是人工智慧將帶來的安全問題。未來,AI很有可能被直接應用於各個領域,它將比現在的使用更為廣泛,在安全決策方面,AI將受到更大的關注。在安全和智能研究、國家安全方面的專家目前對AI策略的領域研究還處於滯後階段。

如何構建你的職業生涯資本

如果你現在還無法直接獲得一個頂級策略職位,下面就是一些你在這個領域構建自己職業資本的通用步驟。

網路

AI策略領域非常新,而且處在不斷的變化發展中,如果你想在這個領域找份工作,你需要認識正確的人,才能得到被推薦工作的機會。

在策略和戰略方面構築職業生涯,你需要隨時能抓住機遇,並且善用關係網路。你可能在權力發生重大轉移的時候在政府部門獲得一席之地,在現在這樣一個人才匱乏的時刻,在某個組織里快速提升的機會非常大,所以去儘可能快地申請那些關鍵職位很重要。

正因如此,只要財務狀況允許,就應該多去各種AI會議,參與策略相關問題的討論,和AI研究者交流,積极參与像AI安全話題這樣的Facebook團體,去認識那些這個領域的人,談論你自己的工作和他們的工作,如果你覺得自己可以在未來給他們的工作增加價值,那就表達出你去這些地方工作的願望,即使他們目前並沒有招募需求也沒關係。

和那些在AI策略最前沿的研究和實踐者交談,價值不可估量,因為很多的研究話題還沒被發表,所以你也可以考慮在人類未來研究院這樣的地方做實習工作。在你本行的領域參加會議和工作坊也很有價值,這樣就能找到同行業人力找到對AI感興趣的人,讓那些在其他領域工作的人也了解到最新的進展,在這個過程中你會分辨出潛在的可能合作者。

緊跟AI發展潮流

就像前面討論過的那樣,你需要一定程度的專註,了解這門藝術發展的狀態,了解受歡迎的趨勢,這些對你選擇正確的關注點非常關鍵。如果你不知道什麼是「熱點」,那麼一個非常簡單的方法就是訂閱Jack Clark的Import AI newsletter,關注那裡的重要人物。你還可以看看arXiv Sanity Preserver,它會過濾出一些最近將上傳到aiXiv的的論文。

那些對專業術語沒什麼背景知識的人,可以參加一些在線課程,比如Peter Norvig and Sebastian Thrun的課程,或者吳恩達的課程,那些在校生也許還可以真的參加一些AI課程。

一個簡單粗暴的經驗法則是每周讀3篇以上AI相關的論文,從而大概了解一下該領域正在發生的事情,比如了解人們使用的術語,區分真假新聞等。關於AI術語,你的目標至少也應該是能夠在相互交流的過程中獲取知識,大體來說,要能夠用隨意對話的方式在會議中通過AI研究者的圖靈測試,雖然你自己並不真的能寫出一篇研究論文。

廣泛閱讀

不幸的是,我們並沒有一本關於AI策略的權威教材給你讀,讓你能學到必要的知識,而在學科之間的某些關鍵的洞見並不會在某處隨便提到。所以,要在你不熟悉的領域進行廣泛的閱讀,同時也要利用你現有的專業知識。如果你才剛剛開始,比如你還是個本科生,你可以考慮修計算機科學和政治科學、公共政策或者經濟學雙學位,同時在你選的領域之外也做到廣泛閱讀。然而,上什麼課程,以哪門課為重點,這些都要看你自己的特殊優勢和選擇。

積累經驗

想要知道決策過程是什麼樣的,就必須在政府或企業工作。大多數與此相關的知識並不存在與書本或文章里,而是存在於大家心照不宣的實際工作中的。比如應該使用哪一個槓桿工具,哪些人是這個領域的領頭羊,什麼問題被擺在了政治桌面上?如果你可以在白宮、國會、聯邦機構、地方/州政府、某個跟政府有互動關係的宣傳團隊,甚至某個公司策略/法律部門獲得實習機會,那就去做吧。

在美國,科學促進會AAAS的科學技術獎學金是最近的博士獲取策略經驗的極好途徑,對那些有資格的人來說,總統管理獎學金、總統創新研究員和白宮研究員項目也非常值得考慮。公共關係也是和策略非常相關的一個領域,在其中積累經驗會非常有價值。面向一個又一個合作方的團體往往也需要和大企業與政府有工作往來。

在英國,擁有黨派政治或者公民服務方面的工作經驗非常有用。類似地,這些經驗會把所有利益相關方聚合在一起,共同討論有價值的議題,當然這種經驗也可以從私人行業或智庫中獲得。另一種方式是從政治精選中獲取經驗,這將極大提高一個人的溝通、策略研究、演講撰寫、組建聯盟、事件管理、團隊建設等等方面的能力。

同樣地,參與當地高效的利他主義團體也會增強這些能力,並且讓你更容易在這個過程中找到對AI未來感興趣的、志同道合的合作者。

最後,在像Google這樣的大型科技公司中擔任戰略性職位,也會讓你很容易轉向AI策略領域,即使你在最初的職業角色里並沒有直接從事AI相關的工作。在花時間直接解決研究問題與建構相關職業經驗之間,的確存在利益的權衡,但對AI策略感興趣的人應該至少儘可能去獲取一些實踐策略方面的工作經驗。

作者

Miles Brundage,牛津大學人類未來研究院(Future of Humanity Institute)的資深研究員,這個研究院由全球知名的人工智慧學家尼克·波斯特洛姆(Nick Bostrom)創辦,旨在研究人工智慧對人類未來的重大影響。

本文來源infoQ,經授權轉載,特此感謝!原文地址:http://www.infoq.com/cn/articles/ai-circle-survival

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

AI商業:谷歌+沃爾瑪模式能否突破亞馬遜阿里統治
「脆弱的AI」神經網路存在後門,特定觸發器攻擊準確率超90%
「實習生通關秘籍」我在谷歌大腦開掛的一年
「MIT研究」AI自動生成維基百科,智能組合互聯網信息
「視頻行為理解新邊界」上交團隊ActivityNet競賽兩項冠軍,技術分享

TAG:新智元 |

您可能感興趣

ICC用AI+區塊鏈構建智能化商業生態
構建智能家居AI生態,更好讓AI與生活融合
曹彤:構建資產證券化生態圈
構建個人IP商業模式,賺錢永動機,生生不息
泰國NB-IoT生態峰會-構建開放平台,共商產業生態圈
華為張文林:構建產業生態,加速Cloud X業務模式落地
構建高水平大學生創新創業新生態
松鼠AI 智適應教育CEO周偉:AI智適應技術幫助每個學生構建自己的知識圖譜
助力工業互聯網,Intel構建生態賦能產業升級
區塊鏈結緣藝術產業,DIPChain如何構建分散式藝術生態?
無邊界職業生涯-勝任力模型構建與應用
奧飛娛樂高級副總裁何德華:兒童IP業務的變現生態應該如何構建
驀然認知:打造智能語音界ios 構建全新AI服務生態
宗寧:用商業賦能IP,阿里文學的生態多平台構建
AIoT,構建更佳邊緣AI能力
大咖Live X 凱立德基礎研發中心產品負責人姜敏:如何構建自動駕駛地圖生態體系?
毅達資本周喆:投資ABCI,構建萬物互聯的智慧世界
Keep CEO王寧:未來三年構建科技互聯的運動生態
為什麼說聯想SIoT合作社是構建智能物聯生態的正確姿勢?
Keep 副總裁劉冬:Keep 持續構建產品生態 引領行業變革