當前位置:
首頁 > 科技 > 見過的老闆越多,就越喜歡AI

見過的老闆越多,就越喜歡AI

提個問題:「站在人類歷史的角度,你覺得哪些發明讓人類實現了飛躍式的進步?」

鑽木取火、印刷術、蒸汽機、電燈、計算機、互聯網……除了這些,你肯定還會想到許多答案,但我猜有一個選項你未必想得到——

辯論。

為什麼說辯論是一個讓人類實現飛躍式進步的發明?

因為它解決的是人類的生存問題。

哪些因素會危及到人類的生存?

首先是外部因素,最直接的就是天災;其次就是戰爭。如果把人類當作一個整體,那麼無論是國與國之間的戰爭,還是同一國家地區內部之間的戰爭,本質上都屬於「內戰」;而「內戰」的消耗是巨大的。在遠古時期,一場部落之間的混戰就可能導致一個部落全體族人的消亡。

這個時候,人類學會辯論就有了里程碑般的意義。當集團或個人用語言,而不是用暴力來申明己方立場時,就會減少無畏的犧牲。發生在集團內部的辯論有利於做出最優化的決策;發生在兩大集團之間的辯論則表現為談判,雙方的目標是權衡利益,達成和解。

西方自古希臘蘇格拉底等「諸神」建立起論辯術以來,綿延至今,已經發展成「哲理辯」、「政策辯」兩大分支:一則指向哲學思考,一則指向公共政策。諸如邊沁的功利主義、亞達·斯密的自由主義,都既包含哲理論,亦給出公共政策。

拉斐爾名作《雅典學院》中的辯論場景

而當商業取代農耕,正式成為全世界的主流經濟形態的時候,辯論所涉及的領域自然也覆蓋到了商業決策。無論是宏觀方面的併購、出售、投融資;還是微觀方面裁撤人員、部門,進行組織架構變革,每項決策出台前,都少不了進行內部辯論。但饒是如此,從決策效果來說,對少錯多依然是常態。一項20年來針對400餘例企業高層戰略決策的分析就表明:半數的企業決策最終都歸於失敗。

而這也並不難理解。

就決策架構分類來看,那些個性張揚、率性而為的公司老闆就是一枚核彈,你並不知道其威力是會在自家還是友商那裡顯現,「我贏公司榮,我敗公司潰」。

也有些領導人,雖然自己並非率性而為,卻因種種原因一定要大權獨攬。因此即便他(她)並不缺少理性,但強勢權威驅動下的公司戰略也有著不可估量的觸礁風險。

最後,就算是個人魅力的集體決策公司,也難免陷入左右為難的選擇。看看某知名影像產品廠商,早在1975年就研製出數碼相機的他們,卻在膠捲時代和數碼時代之間左右互搏,結果後面的故事大家都知道了。

決策之困

通過上面的幾個例子,我們已能清晰梳理出決策失敗的幾大原因了。

最淺顯的教訓當然是不要把公司和個人高度綁定,要不老闆任起性來,神仙都救不了。

另外,最好也別讓最終決策者的話語權太大,當一個人在董事會的投票權能達到接近80%的時候,就算其他董事存在反對意見,恐怕也得三思而後(不)言。

最後就是信息量。在今天,決策的制訂越來越依賴豐富且具有相關性的數據支撐,不誇張的說,遺漏任何一個重要信息都可能讓公司走上彎路(如果不說是「不歸路」的話)。

反過來想,如果柯達的時代有今天這樣的大數據分析技術,也許在那場「向左走還是向右走」的蒙眼選擇中,他們也能猜中正確答案。

總結一下,要想避免決策失敗,一家公司的決策層至少需要以下兩個抽象角色:

一個能理性聽取分析意見的決策者;

一個能提供可靠數據和分析意見的諮詢師。

同時,這位諮詢師也應該不懼權威,敢於給出與決策者向左的意見。

說到底,除了決策者——這個無法改變的變數外,你只需一個靠譜、公正的諮詢師。

然而這談何容易?

首先,信息量層面,大數據時代,企業所能接觸到的數據的豐富程度是空前的。除了內部數據,還有供應鏈上下游企業之間點對點的數據交互,還有更大的雲化的外部數據;如果要把所有這些數據都納入決策分析考量,單靠幾個數據分析師團隊終歸力有不逮。

退一步,就算分析師能夠完成海量的數據處理工作,他們是否就真的會把自己的意見和盤托出呢?辦公室政治、團隊氛圍、以及老闆的性格特質,所有這些都可能會影響其個人選擇——尤其是當他(她)得出的分析意見與老闆的預設立場相左時。

但要這麼說的話,這個活兒怕是沒人幹得了了。

簡單,那就別讓人去幹了。

智能商業時代的AI

今年5月20日,在HBRC年度對話×IBM思想之夜上,幾位業界大咖討論了一個頗為燒腦的問題:「人工智慧是否會改寫商業規則?」 當時,完美世界控股集團董事長池宇峰直截了當的給出了他的答案,「不會」,原因是商業的底層邏輯並不會因AI的介入而改變。

「如果我們定義商業規則,就是說收入大於成本等於利潤,那麼這個不可改變。不過,AI確實可以提高效率。」

的確,無論是何種形式的新技術,在底層邏輯上都必須符合既有的商業底層邏輯,不賺錢的生意是不能稱之為商業的,那最多只能是慈善。

可是話又說回來,商業規則畢竟不是一個狹義概念,除了收入要大於成本這樣的底層邏輯,它自然也包括其他內容。而如果要討論AI是否能夠改寫商業規則,勢必要去看AI能在多大程度上給予人類以幫助。

搜狗CEO王小川認為,「機器的行為方式和決策能力是跟人截然不同的。人擅長的事情上,它可能無能為力;但對很多普通人並不容易做的事——比如圍棋——它們就非常強大。」

對此,IBM中國研究院院長林詠華也深以為然,她給出了一組數據,「AI可以幫助機器一分鐘完成180萬篇的文獻的自動讀取和理解,並從中尋找化合物互聯的關係,從而大大縮小試驗所耗費的時間。採用這種方法,每年能為醫藥界減少540億美金的研發費用。」

基於此,如果將機器擅長的這部分技能引入到商業世界中,比如,當人類做決策時,機器能夠有效參與,那麼誠如王小川所言,「在機器參與到做輔助決策的時候,就已經在改寫商業規則了。」

現在的問題是:AI能夠扮演「輔助決策」者的身份嗎?

回顧歷史,自從計算機誕生以來,人類就一直試圖藉助其強大的數值計算能力來建設一個可依賴的決策支持系統。按照星河互聯CEO傅淼在《從商業智能到智能商業》中的說法,未來的決策機制應該是AI增強的決策支持系統,或者說是「智能商業(Intelligent Business,IB)」。這種方法能「服務於企業中需要決策的各級人員,具備實時、閉環、自動進化、全局優化的特徵,以及自動識別問題的能力。」

同時,與傳統商業決策支持系統相比,它至少還有兩個突出特點:

1.用人機交互,而不是單純由人來做商業決策。

2.數據應實時更新、來源則完全開放。

也就是說,在「智能商業」體系下,AI負責掌握、分析全行業數據且能通過與人類互動的方式參與決策。

那麼這樣一來,上文所說的瓶頸之一,信息量瓶頸也就順利突破了。

剩下的是第二個問題:這個機器人敢不敢說。

我們目前應用較廣的智能語音助手比如Siri,敢說嗎?

我深表懷疑。

因為無論是現有窄人工智慧時代的Siri,還是漫威電影里的人工智慧Jarvis,從應用場景看都只是個人助手——筆者認為頂多算是管家型機器人。它們是基於你的命令來執行具體任務,卻不是對你的決策本身做出評估。換句話說,這種機器人或許能成為你的私人助理,卻未必是個好的諮詢。因為好的諮詢,應該是敢於跟你唱反調的。

哪個機器人敢唱反調?

答:辯論型「機器人「。

商事不決問AI

行文至此,你肯定要問了:辯論型「機器人「,有嗎?

有。IBM公司的Project Debater。

它的辯論能力OK嗎?

這麼說吧:從戰績看,她(這位AI的聲音是女聲)贏過以色列國家辯論冠軍Noa Ovadia和以色列國際辯論協會主席 Dan Zafrir;也跟歐洲辯論冠軍Harish Natarajan對陣過。作為一個常常跟同事吹噓自己在辯圈混了十年有餘的人,筆者的觀感是,Project Debater「女士」和世界一等一的英語辯論高手交鋒是有來有往;即使在身處下風的時候,也尚未出現被「碾壓」的場面。

所以關於辯論能力,這篇文章不會多談,感興趣的朋友應該已在它去年大戰以色列辯論冠軍時見識了她的辯論文稿生成能力與即時反駁能力。所以今天我們討論的重點問題理應更進一步:現在的Project Debater能否給予決策者準確的商業決策?

這取決於你的具體需求。如果你是想要直截了當的獲取其自主獨立意見,目前還做不到。可話又說回來,就今天AI的發展階段來說,如果這位女性AI真做到了,那就不是科學,而是科幻了。

所以她現在能做的究竟是什麼?

在今年2月11日與歐洲辯論冠軍Harish Natarajan的交鋒中,在主辦方給觀眾出的問題,「辯論雙方哪一方讓你獲得了更豐富的知識?」 Project Debater獲得了優勢,55%的人把票投給了這位AI女辯手。

正因為此,在5月21日舉行的2019 IBM中國論壇上,IBM研究院人工智慧技術副總裁Aya Soffer女士在回答虎嗅提問時也認為:目前,Project Debater在商業決策領域的應用主要體現在其能提供更豐富且與決策強相關的信息。

「現在的企業其實已經能獲得不少信息了,但到底哪些信息對他(她)有幫助,很多決策者未必看得到。」Aya如是說

確實如此。在傳統的決策支持系統里,由於沒有明確的相關性,外部數據的利用率很低。但外部環境對企業經營可能有更大的影響;同時,外部數據也隱含著很多相關性,而這些相關性卻並非是目前的人類分析師所能完全照顧到的。

與之相比,Project Debater能在裝滿上億篇主流報紙、雜誌文章的海量知識庫中快速精準地找到數百個恰如其分的論據,並能在幾分鐘內快速組織語言,進行回應。這種快速揀選和提取信息的能力顯然已足夠當得起決策者身邊「諮詢師」的角色。

不過坦白講,如果只能提供豐富的信息,那麼這樣的辯手不過是一位優秀的資訊整合與播報者而已;唯有在遭到對方直接挑戰時仍能做出即時有效的反駁,堅持本方的有力論點,方可稱之為優秀辯手。

在Project Debater就「本院應該/不應該資助學前教育」的辯題進行辯論時,反方,人類辯手Harish Natarajan在開篇陳詞中就質疑該項政策的有效性,指出「政府的財政資源是有限的,無法面面俱到」,並暗示「資助學前教育目前未必處於政策制定的優先順序」。

對此,Project Debater在駁論環節從兩個角度給予回應。首先,Project Debater表示,「給那些家境不算寬裕的孩子們提供更好的成長機遇是全人類應該達成的道德共識,它同樣也應該是政府決策中的核心考量。

這個回應對應的正是Harish 所提及的政策優先順序的問題。

接下來,Project Debater還指出,雖然財政預算所涉內容深廣,但在具體操作層面,各項預算之間的關係並不是非此即彼的關係,因此,「她」強調,Harish對政策可行性的討論其實「與今天的辯題無關」。

別小看這兩段回應。如果細細分析,你會發現,在短短几句話里,Project Debater做的事情是進行價值觀比較和可行性分析。這意味著它已能夠習得並對人類熟稔的諸如「人本主義」、「功利主義」進行價值權衡了。從這個角度來看,Project Debater確實具備了IBM所說的「模擬人類困境」的能力,也即,它能通過自己習得的知識表達方式來模擬人類的爭議和困境,在不同價值觀碰撞的情況下,給出持方所需要的原則性論點。而落實到企業決策層面,這位Debater不僅能給出有效信息,同樣也能同它的「對方辯友」(可能是CEO、CMO或其他職位)進行有效辯論。

信息量、即時回應能力,二者都是決策輔助者所必需的技能。但技能之外,作為一個優秀的「智囊」,它還應該敢說。而在這一點上,Project Debater的表現可謂是相當直率了。

舉個例子,在「政府應該規範人工智慧」這一辯題里,如果Project Debater的持方是正方,那麼諸如「人工智慧需進行監管以保護個人和組織」的陳述會被其認定為「贊成」;而像「任何國家對人工智慧的嚴厲監管都會阻礙其發展」這樣的陳述則會被歸類為「反對」。簡言之,作為一台機器,Project Debater無論持方如何,都不會有先入為主的成見,這就能做到完全意義上的無偏頗。

靠譜、敢說、公正,對於這樣一個諮詢師,我覺得已然很OK。尤其是對於每天需要戰戰兢兢給老闆做彙報,還要小心翼翼的給老闆提「建設性意見」的人來說,我猜你會更喜歡這樣的AI。

而且你也不必擔心自己被它取代。畢竟它沒有獨立思考,其所做出的論斷和表達也只針對特定立場,遠遠稱不上全知全能。如果說角色的話,類似Project Debater這樣的機器人只是你的幫手、夥伴,最多算是「同事」而已」。

不過,一旦它進入工作狀態,那個場面一定很有趣……

想像下,如果在2018年,某知名手機製造商的決策者要給一台「辯論機器人「定下立場,找論據,那麼這場曠日持久的知識產權訴訟戰是否會提前一年結束呢?

如果某知名O2O企業在做出那個併購案前讓「辯論機器人「表述,「我們沒必要收購那家提供紅色自行車租賃服務的公司」,後者之後的命運又會如何?

當然,上述故事也只是「如果」,歷史畢竟不可假設。且就算機器人們真給出了建設性意見,決策者也未必會聽得進去。

不過,歷史雖然不可重來,當下卻值得好好把握。在人工智慧已進化到機器人能在辯論賽上擊敗人類頂級辯手的時代,是時候考慮將它們投入智能商業世界了。就算這些直率的AI還沒有獨立思考,但正如Aya所言,「我們希望能有一些技術幫助人們來做決策,而且不是讓機器做決策,是幫人做決策,給人一些他們沒有的東西。」

作為老闆,就讓機器去做它們擅長而你並不擅長的事吧,反正最終的決斷者——是你是你還是你。

HBRC年度對話×IBM思想之夜視頻鏈接,點擊觀看——https://v.youku.com/v_show/id_XNDIwMzc0ODAwNA==.html?spm=a2h9p.12366999.app.5~5!2~5~5!2~5~5!2~5!3~5~5~5~5~5~21~22~TR~TD!2~5~5!2~H4~A

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 虎嗅APP 的精彩文章:

阿里要回香港二次上市?
年輕最大,球鞋最高

TAG:虎嗅APP |