當前位置:
首頁 > 知識 > 演算法是內功,程序員別冷落演算法!

演算法是內功,程序員別冷落演算法!



演算法是內功,程序員別冷落演算法!



演算法的力量

演算法是計算機科學領域最重要的基石之一,但卻受到了國內一些程序員的冷落。許多學生看到一些公司在招聘時要求的編程語言五花八門就產生了一種誤解,認為學計算機就是學各種編程語言,或者認為,學習最新的語言、技術、標準就是最好的鋪路方法。其實大家都被這些公司誤導了。編程語言雖然該學,但是學習計算機演算法和理論更重要,因為計算機演算法和理論更重要,因為計算機語言和開發平台日新月異,但萬變不離其宗的是那些演算法和理論,例如數據結構、演算法、編譯原理、計算機體系結構、關係型資料庫原理等等。在「開復學生網」上,有位同學生動地把這些基礎課程比擬為「內功」,把新的語言、技術、標準比擬為「外功」。整天趕時髦的人最後只懂得招式,沒有功力,是不可能成為高手的。


演算法與我


當我在1980年轉入計算機科學系時,還沒有多少人的專業方向是計算機科學。有許多其他系的人嘲笑我們說:「知道為什麼只有你們系要加一個『科學』,而沒有『物理科學系』或『化學科學系』嗎?因為人家是真的科學,不需要畫蛇添足,而你們自己心虛,生怕不『科學』,才這樣欲蓋彌彰。」其實,這點他們徹底弄錯了。真正學懂計算機的人(不只是「編程匠」)都對數學有相當的造詣,既能用科學家的嚴謹思維來求證,也能用工程師的務實手段來解決問題——而這種思維和手段的最佳演繹就是「演算法」。


記得我讀博時寫的Othello對弈軟體獲得了世界冠軍。當時,得第二名的人認為我是靠僥倖才打贏他,不服氣地問我的程序平均每秒能搜索多少步棋,當他發現我的軟體在搜索效率上比他快60多倍時,才徹底服輸。為什麼在同樣的機器上,我可以多做60倍的工作呢?這是因為我用了一個最新的演算法,能夠把一個指數函數轉換成四個近似的表,只要用常數時間就可得到近似的答案。在這個例子中,是否用對演算法才是能否贏得世界冠軍的關鍵。

還記得1988年貝爾實驗室副總裁親自來訪問我的學校,目的就是為了想了解為什麼他們的語音識別系統比我開發的慢幾十倍,而且,在擴大至大辭彙系統後,速度差異更有幾百倍之多。他們雖然買了幾台超級計算機,勉強讓系統跑了起來,但這麼貴的計算資源讓他們的產品部門很反感,因為「昂貴」的技術是沒有應用前景的。在與他們探討的過程中,我驚訝地發現一個O(n*m)的動態規劃(dynamic programming)居然被他們做成了O (n*n*m)。更驚訝的是,他們還為此發表了不少文章,甚至為自己的演算法起了一個很特別的名字,並將演算法提名到一個科學會議里,希望能得到大獎。當時,貝爾實驗室的研究員當然絕頂聰明,但他們全都是學數學、物理或電機出身,從未學過計算機科學或演算法,才犯了這麼基本的錯誤。我想那些人以後再也不會嘲笑學計算機科學的人了吧!


網路時代的演算法


有人也許會說:「今天計算機這麼快,演算法還重要嗎?」其實永遠不會有太快的計算機,因為我們總會想出新的應用。雖然在摩爾定律的作用下,計算機的計算能力每年都在飛快增長,價格也在不斷下降。可我們不要忘記,需要處理的信息量更是呈指數級的增長。現在每人每天都會創造出大量數據(照片,視頻,語音,文本等等)。日益先進的紀錄和存儲手段使我們每個人的信息量都在爆炸式的增長。互聯網的信息流量和日誌容量也在飛快增長。在科學研究方面,隨著研究手段的進步,數據量更是達到了前所未有的程度。無論是三維圖形、海量數據處理、機器學習、語音識別,都需要極大的計算量。在網路時代,越來越多的挑戰需要靠卓越的演算法來解決。


再舉另一個網路時代的例子。在互聯網和手機搜索,如果要找附近的咖啡店,那麼搜索引擎該怎麼處理這個請求呢?最簡單的辦法就是把整個城市的咖啡館都找出來,然後計算出它們的所在位置與你之間的距離,再進行排序,然後返回最近的結果。但該如何計算距離呢?圖論里有不少演算法可以解決這個問題。


這麼做也許是最直觀的,但絕對不是最迅速的。如果一個城市只有為數不多的咖啡館,那麼這麼做應該沒什麼問題,反正計算量不大。但如果一個城市裡有很多咖啡館,又有很多用戶都需要類似的搜索,那麼伺服器所承受的壓力就大多了。在這種情況下,我們該怎樣優化演算法呢?

首先,我們可以把整個城市的咖啡館做一次「預處理」。比如,把一個城市分成若干個「格子(grid)」,然後根據用戶所在的位置把他放到某一個格子里,只對格子里的咖啡館進行距離排序。


問題又來了,如果格子大小一樣,那麼絕大多數結果都可能出現在市中心的一個格子里,而郊區的格子里只有極少的結果。在這種情況下,我們應該把市中心多分出幾個格子。更進一步,格子應該是一個「樹結構」,最頂層是一個大格——整個城市,然後逐層下降,格子越來越小,這樣有利於用戶進行精確搜索——如果在最底層的格子里搜索結果不多,用戶可以逐級上升,放大搜索範圍。


上述演算法對咖啡館的例子很實用,但是它具有通用性嗎?答案是否定的。把咖啡館抽象一下,它是一個「點」,如果要搜索一個「面」該怎麼辦呢?比如,用戶想去一個水庫玩,而一個水庫有好幾個入口,那麼哪一個離用戶最近呢?這個時候,上述「樹結構」就要改成「r-tree」,因為樹中間的每一個節點都是一個範圍,一個有邊界的範圍


通過這個小例子,我們看到,應用程序的要求千變萬化,很多時候需要把一個複雜的問題分解成若干簡單的小問題,然後再選用合適的演算法和數據結構。


並行演算法:Google的核心優勢

上面的例子在Google里就要算是小case了!每天Google的網站要處理十億個以上的搜索,GMail要儲存幾千萬用戶的2G郵箱, Google Earth要讓數十萬用戶同時在整個地球上遨遊,並將合適的圖片經過互聯網提交給每個用戶。如果沒有好的演算法,這些應用都無法成為現實。


在這些的應用中,哪怕是最基本的問題都會給傳統的計算帶來很大的挑戰。例如,每天都有十億以上的用戶訪問Google的網站,使用Google的服務,也產生很多很多的日誌(Log)。因為Log每份每秒都在飛速增加,我們必須有聰明的辦法來進行處理。我曾經在面試中問過關於如何對Log進行一些分析處理的問題,有很多面試者的回答雖然在邏輯上正確,但是實際應用中是幾乎不可行的。按照它們的演算法,即便用上幾萬台機器,我們的處理速度都根不上數據產生的速度。


那麼Google是如何解決這些問題的?


首先,在網路時代,就算有最好的演算法,也要能在並行計算的環境下執行。在Google的數據中心,我們使用的是超大的並行計算機。但傳統的並行演算法運行時,效率會在增加機器數量後迅速降低,也就是說,十台機器如果有五倍的效果,增加到一千台時也許就只有幾十倍的效果。這種事倍功半的代價是沒有哪家公司可以負擔得起的。而且,在許多並行演算法中,只要一個結點犯錯誤,所有計算都會前功盡棄。

那麼Google是如何開發出既有效率又能容錯的並行計算的呢?


Google最資深的計算機科學家Jeff Dean認識到,Google所需的絕大部分數據處理都可以歸結為一個簡單的並行演算法:MapReduce。這個演算法能夠在很多種計算中達到相當高的效率,而且是可擴展的(也就是說,一千台機器就算不能達到一千倍的效果,至少也可以達到幾百倍的效果)。 MapReduce的另外一大特色是它可以利用大批廉價的機器組成功能強大的server farm。最後,它的容錯性能異常出色,就算一個 server farm宕掉一半,整個fram依然能夠運行。正是因為這個天才的認識,才有了MapReduce演算法。藉助該演算法, Google幾乎能無限地增加計算量,與日新月異的互聯網應用一同成長。


演算法並不局限於計算機和網路


舉一個計算機領域外的例子:在高能物理研究方面,很多實驗每秒鐘都能幾個TB的數據量。但因為處理能力和存儲能力的不足,科學家不得不把絕大部分未經處理的數據丟棄掉。可大家要知道,新元素的信息很有可能就藏在我們來不及處理的數據裡面。同樣的,在其他任何領域裡,演算法可以改變人類的生活。例如人類基因的研究,就可能因為演算法而發明新的醫療方式。在國家安全領域,有效的演算法可能避免下一個911的發生。在氣象方面,演算法可以更好地預測未來天災的發生,以拯救生命。


所以,如果你把計算機的發展放到應用和數據飛速增長的大環境下,你一定會發現;演算法的重要性不是在日益減小,而是在日益加強。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 java吧 的精彩文章:

女神帶你零基礎如何走入 java
程序猿如何在北京敲出 一套房?

TAG:java吧 |