當前位置:
首頁 > 科技 > 當「量子計算」遇上「機器學習」,會發生什麼?

當「量子計算」遇上「機器學習」,會發生什麼?

據國外媒體報道,美國著名科技媒體《連線》撰文分析了量子計算在機器學習系統中應用的優勢、弊端以及現有範例,表示兩者的結合或終將修成正果,解決人工智慧等諸多問題。

早在上世紀90年代,威奇塔州立大學的物理學教授伊麗莎白·貝爾曼(Elizabeth Behrman)開始致力於研究量子物理與人工智慧的結合,而其中的神經網路在當時還堪稱是特立獨行的技術。大多數人認為她在把油和水進行混合。她回憶說:「我花了很長時間才把論文出版。與神經網路相關的期刊會說,』量子力學是什麼?』,物理期刊會說,』神經網路是什麼?』」

但到今天,兩者之間的結合似乎成了世界上最自然的事情。神經網路和其他機器學習系統已成為21世紀最具破壞性的技術。它們的能力遠超出人類,不僅在國際象棋和數據挖掘等方面表現出眾,而且在人類大腦所擅長的面部識別、語言翻譯等方面進展迅速。通過後台的強大算力,這些系統的價值不斷凸顯。對於科技公司來說,尋找更大算力的新型計算機不可避免。

經過數十年的研究,量子計算機相比於其他類型計算機已經具有足夠的優勢來執行超越地球上任何其他計算機的計算。通常認為其上運行的殺手級應用程序能夠解析大數據,這也是現代加密技術的關鍵問題。

但這一技術要落地依舊還需要十多年的時間。在今天,初級量子處理器完全能夠匹配機器學習的需求,這種計算機通過對大量數據的操作,解析出傳統計算機無法識別的細微模式,並且不會因數據的不完整或不確定性而受到影響。 「量子計算的內在統計特性與機器學習技術之間有著天然的耦合性,」位於加利福尼亞州伯克利的量子計算機公司Rigetti Computing物理學家約翰奧特巴赫(Johannes Otterbach)如是指出。

可以說,關於量子技術發展的鐘擺正處於一端的高點。谷歌,微軟,IBM以及其他科技巨頭紛紛投入量子機器學習,而多倫多大學的創業孵化器也致力於此。 「『機器學習"正在成為業界的一種流行語,」莫斯科斯科爾科沃科學與技術學院的量子物理學家雅各伯·比亞蒙特(Jacob Biamonte)說,「當你把它與『量子"結合在一起時,它就成了一個超級流行詞。」

然而,「量子」這個詞本身並沒有任何意義。即便你或許會認為量子機器學習系統應該是強大的,但它卻受到了類似於閉鎖綜合症的影響。它需要在量子狀態下運行,而非在人類可讀的數據上進行操作,而兩者之間的轉換可能會抹殺其最大的優勢。就像現有的iPhone X一樣,雖然配置很高,功能很強,但如果網路不好的話,也會和舊手機一樣慢。在特定的情況下,物理學家或許可以克服這種輸入輸出的瓶頸,但是在實際的機器學習任務中如何解決相關問題我們仍然是不得而知。 「我們還沒有明確的答案,」奧斯汀得克薩斯大學計算機科學家斯科特·阿倫森(Scott Aaronson)說,其在量子計算方面一直保持著清醒的頭腦, 「人們往往並不在乎這些演算法是否會加快處理速度。」

量子神經元

無論是傳統神經網路還是量子神經網路,其主要工作都是識別模式。這種技術主要由人類大腦啟發而來,是由所謂「神經元」構成的網路。每個基本神經元像開關一樣簡單,而一個神經元能夠監視多個其他神經元的輸出,如果有足夠多的神經元開啟,它也就會轉換狀態。通常神經元排列成層,初始層接受諸如圖像像素等輸入,中間層創建表示圖形邊緣和幾何形狀等結構的各種輸入組合,而最後一層則產生諸如關於圖像的高級描述等輸出內容。

當「量子計算」遇上「機器學習」,會發生什麼?

圖示:神經網路結構圖

至關重要的是,這種結構並不是事先確定的,而是在反覆試驗的過程中進行相應調整。神經網路可能會被輸入標有「小貓」或「小狗」等定義的圖像。對於每個輸入的圖像,它會分配一個標籤,檢查結構是否與圖像匹配,如果不是則調整神經元連接。起初機器等這種「猜測」是隨機的,但會越來越好;比如在處理10000個學習樣例後,神經網路能夠達到更好的效果。一個大型神經網路可能有十億個互連,所有這些都需要在訓練中進行反覆調整。

在經典的計算機上,所有這些互連都由一個巨大的數字矩陣表示,運行神經網路實際上意味著做矩陣代數。通常,這些矩陣處理是由諸如圖形處理單元的專用晶元所完成的。但是沒有什麼能夠像量子計算機一樣處理矩陣。麻省理工學院物理學家、量子計算先驅賽斯·勞埃德(Seth Lloyd)表示:「在量子計算機上處理大型矩陣和大型矢量的速度更快。」

量子計算機能夠利用量子系統的指數性質進行矩陣運算。在量子計算機中,與傳統計算機中最小的數據存儲單位比特所對應的是量子比特,但量子系統的信息存儲容量並不依賴於其單個的數據單元 ,而是這些量子比特的表徵疊加。兩個量子比特共有四個疊加狀態:00,01,10,11。每個都代表一定的權重或「偏振度」,可以代表一個神經元。如果有三個量子位,則可以代表八個神經元,以此類推,四個量子比特就可以代表16個神經元。機器的容量呈指數級增長。實際上整個神經網路系統中的神經元都處於一種遊離態。結果就是,當量子計算機在四個量子比特的狀態下工作時,一次能夠處理16個數字,而一台傳統計算機則必須逐個處理這些數字。

勞埃德估計,60個量子比特所編碼的數據量就可以超過全人類一年所產生的數據量,而300個量子比特可以處理全宇宙的所有信息量。目前世界上最大的量子計算機由IBM,英特爾和谷歌聯合開發,擁有大約50個量子比特。阿倫森稱,如果假設一個傳統比特只是一個振幅的話,量子比特的振幅是連續量。實際中為了合理的實驗精度,一個量子比特可以存儲的位數多達15位。

但量子計算機強大的信息存儲能力並沒有讓它變得更快。你首先需要能夠利用這些量子位。 2008年,麻省理工學院物理學家阿蘭姆哈羅(Aram Harrow)和以色列巴伊蘭Bar-Ilan大學計算機科學家Avinatan Hassidim展示了如何用量子計算機完成矩陣求逆的關鍵代數運算。他們把其分解成可以在量子計算機上執行的一系列邏輯運算,兩位科學家所開發的演算法適用於各種機器學習技術,並不需要像諸如數據分解等演算法步驟。計算機可以在篩除雜訊之前通過分類任務進行數據壓縮——這也是當今技術的一個主要限制因素——或許會解決運算問題。 IBM托馬斯·J·沃森(Thomas J. Watson)研究中心的克里斯坦·特米(Kristan Temme)表示:「或許在擁有完全通用的容錯量子計算機之前,我們可能利用量子優勢。

用自然解決問題

然而到目前為止,基於量子矩陣代數的機器學習演算法僅在僅有四個量子位的機器上得到了驗證。迄今為止有關量子機器學習的大部分實驗成功都採用了不同的方法,其中的量子系統不僅僅模擬神經網路;它本身就是網路。每個量子比特代表一個神經元。雖然這種設備還缺乏取冪的強大運算力量,但像其也可以利用量子物理的其他特性。

目前最強大的這種設備有約2000個量子位,它是由位於不列顛哥倫比亞省溫哥華附近的D-Wave Systems公司生產的量子處理器。這並不是大多數人所認為的那種傳統電腦。傳統電腦輸入數據,通過執行一系列操作並顯示輸出。相比之下,這種量子處理器通過查找內部一致性來工作。它的每個量子比特都是一個超導電子迴路,你可以把它看作一個微小的電磁體,能夠朝上,朝下或上下移動,同時顯現出疊加狀態。不同的量子比特以磁性方式進行交互,從而「連接」在一起。

為了運行該系統,首先需要施加一個水平磁場,將量子比特初始化為上下對等的疊加——這相當於沒有輸入。目前有幾種輸入數據的方法。在某些情況下,您可以將一層量子位排列成所需的輸入值;研究人員更常用的方式是將輸入融入耦合磁場,然後讓量子比特進行互動。在電磁場的作用下,有些量子比特會沿著相同的方向排列,而有些則會沿著相反的方向排列,並且在水平磁場的影響下發生轉向。這樣一來,受影響的量子比特可能會觸發其他量子比特的翻轉。輸入耦合磁場後量子比特會發生偏移,但隨著時間的推移,它們會逐步穩定,你可以關閉水平磁場以鎖定量子比特的狀態。此時,量子比特塌縮成01狀態,從而獲得最終解。

關鍵在於量子比特的最終排列是什麼並不確定。該系統只是通過自然的方法去解決一個普通計算機會遇到的問題。 「我們不需要演算法,」東京理工學院物理學家Hidetoshi Nishimori解釋說,他創造了D-Wave機器運行的原理。 「這與傳統編程完全不同。大自然解決了這個問題。」

該量子比特的翻轉依賴於量子隧穿效應,也就是量子系統必須自行找出最佳配置。當然,你完全可以用同樣的原理構建一個傳統網路,說不準利用隨機輕搖所獲得得結果要比量子隧穿效應更好。但有趣的是,對於機器學習中出現的問題類型,量子網路似乎能夠更快地達到最佳狀態。

關於D-Wave機器也有不少質疑者。其結果包含過多的雜訊,並且在目前的模型下其執行的操作相當有限。然而機器學習演算法本質上具有抗雜訊能力。它們之所以有用正是因為它們可以理解雜亂的現實,將小貓從小狗的背景中分揀出來。 貝爾曼說:「神經網路對處理雜訊非常有效。」

谷歌計算機科學家Hartmut Neven曾負責增強現實技術研究,他創立了谷歌眼鏡項目。2009年,其領導的一個團隊展示了早期的D-Wave機器如何完成機器學習任務。他們將其用於單層神經網路,將待處理的圖像分成兩類:「有車」或「無車」,其中包含了20,000個街道場景的圖書館中。該機器只有52個可運行量子比特,對於處理所有圖像來說尚顯乏力。(需要清楚的是:D-Wave機器與2018年上線的具有50個量子比特的量子計算機完全不同)。因此Neven的團隊將D-Wave機器與傳統計算機相結合,用傳統計算機分析各種統計量並計算這些量對汽車存在的敏感程度 - 通常並不是很高。通過這些量的某些組合可以發現汽車,但並不明顯。接下來是量子神經網路的工作,找出答案。

團隊為每個數量分配一個量子比特。如果該量子比特的數值為1,則標記相應數量對汽車存在有影響; 0則表示沒有影響。團隊根據問題的要求對量子比特的相互磁力作用進行了編碼,例如只保留最具有鑒別性的量,以便儘可能簡化最終選擇,結果是D-Wave機器可以識別出汽車。

去年,由加利福尼亞理工學院粒子物理學家瑪麗亞斯皮羅普魯(Maria Spiropulu)和南加利福尼亞大學(University of Southern California)物理學家丹尼爾里達(Daniel Lidar)領導的小組將該演算法應用於解決一個實際物理問題:將在質子碰撞中產生的光子分為「希格斯玻色子」或「不是希格斯玻色子」 。「他們將注意力集中在激發光子的碰撞上,用基本粒子理論來預測哪些光子屬性可能會表明希格斯玻色子的存在,比如說超過某個動量的閾值。他們考慮了8種粒子屬性和由此產生的28種屬性組合,總共確定了36個候選信號。研究人員讓南加州大學的D-Wave機器找到最佳選擇。機器確定了16個有用變數,3個最佳變數。相比於標準程序,量子機器執行準確判別所需要的數據量更小。 「如果訓練集很小,那麼量子方法的精確度確實比高能物理學界慣常使用的傳統方法更高」里達表示。

當「量子計算」遇上「機器學習」,會發生什麼?

圖示:加州理工學院粒子物理學家瑪麗亞斯皮羅普魯(Maria Spiropulu)利用量子機器學習系統解決尋找希格斯玻色子的問題。

去年12月,Rigetti使用具有19個量子比特的通用量子計算機展示了一種自動對象分類的方法。研究人員為機器提供了一系列城市名稱和它們之間的距離,並要求它將城市分為兩個地理區域。這個問題的困難在於,一個城市屬於哪個地理區域完全取決於所有其他城市的分類,因此必須同時解決所有城市的分類問題。

Rigetti團隊為每個城市分配了一個有效量子比特,表明其屬於哪個區域。通過量子比特的相互作用(在Rigetti的系統中量子比特的相互作用是電子而不是磁性),每對量子比特都要取相反的值,從而讓能量最小化。顯然,對於任何有兩個以上量子比特的系統,有些量子比特之內分配到同一個組。相互靠近的城市更容易分配到同一個組,因為他們分配到同一組的能耗要低於距離較遠的城市。

為了使系統的能量最低,Rigetti團隊在某種程度上採用了類似於D-Wave量子退火的演算法。他們將量子比特初始化為所有可能群集分配的疊加。量子比特能夠短暫地相互作用,使其偏向於假設相同或相反的值。接著他們模擬了水平磁場,讓量子比特在傾斜時就會發生翻轉,將系統推向最低能量狀態。他們反覆重複這個兩步過程——相互作用,然後翻轉,直到系統能量最小化,從而將城市分為兩個不同的區域。

這些分類任務有用且直接。機器學習的真正前沿技術生成模型——不僅僅是可以簡單地識別小狗小貓,而且可以生成新的原型,比如從未存在過的動物,但它們與已有的動物一樣可愛。這種模型甚至可以自行分辨「小貓」和「小狗」的類別,或修復缺少尾巴或爪子的圖像。 「這些技術非常強大,在機器學習中非常有用,但實現起來非常困難,」D-Wave首席科學家穆罕默德阿明(Mohammad Amin)指出。如果能夠應用於機器學習的生成模型,量子計算將會最受歡迎。

D-Wave和其他研究團隊已經接受了這個挑戰。訓練這種模型意味著要調整量子比特之間的磁或電相互作用,以便於神經網路可以複製樣本數據。要做到這一點,你需要將神經網路與傳統電腦結合起來。神經網路負責諸如選定的交互作用對最終網路配置的意義等繁重工作,而計算機則使用這些信息來調整交互作用。在去年發表的篇論文中,美國航空航天局量子人工智慧實驗室研究員Alejandro Perdomo-Ortiz及其團隊用D-Wave系統處理手寫數字圖像。最終系統識別出10個類別,分別對應數字0到9,並自動生成了一種潦草的手寫體數字。

量子計算的瓶頸

聽起來這是個好消息。不好的一點是,如果你無法將數據上傳至量子計算機,處理器的性能再好也沒有什麼用處。在矩陣代數演算法中,一次簡單運算操作就處理16個數字的矩陣,但載入矩陣卻需要16次操作。量子計算初創公司Xanadu的研究員瑪利亞斯庫德(Maria Schuld)指出:「量子態製備工作 ——也即是將傳統數據轉化為量子態完全被忽略了,我認為這恰恰是最重要的工作之一。」斯庫德曾獲得了量子機器學習博士學位。事實上,基於物理實體的機器學習系統在應用量子計算時,常常面臨著如何在量子比特網路中嵌入問題以及如何使量子比特相互作用等多重問題。

一旦數據能夠載入,就需要把數據存儲起來,同時確保量子系統與數據交互時不會影響正在進行的計算。勞埃德和他的同事們提出了一種使用光子的量子RAM,但目前並沒有諸如超導量子比特或囚禁離子等類的裝置,這是量子計算領域的尖端技術。 「除開發量子計算機本身之外,這又是一個難題,」阿倫森表示, 「從我和實驗主義者鵝談話得知,他們望而生畏。他們不知道如何開始開發這樣的技術。」

最後的問題還有你如何導出數據?這意味著要檢測機器的量子狀態,一次檢測不能只返回一個隨機抽取的數字,因為檢測會導致量子狀態的塌縮,從而清楚其他所有數據。你必須反覆運行演算法,來提取出所有信息。

然而還有一線希望。解決某些類型的問題完全可以利用量子干涉。也就是說,你可以編排操作過程,讓錯誤的答案自行消失,讓正確答案自我強化;這樣,當你去檢測量子態時,它不會給你任何隨機值,而是你想要的答案。但只有少數演算法(如蠻力搜索)可以很好地利用量子干涉,並且加速效果有限。

在某些情況下,研究人員發現了獲取數據的捷徑。 2015年,勞埃德和加拿大滑鐵盧大學的Silvano Garnerone以及南加利福尼亞大學的Paolo Zanardi研究表明,對於某些類型的統計分析,並不需要輸入或存儲整個數據集。同樣,只要幾個關鍵值滿足需求時,就不需要讀出所有的數據。例如,科技公司根據消費者的習慣數據,利用機器學習的龐大矩陣來推送節目或商品。 阿倫森稱:「Netflix或亞馬遜實際上並不需要到處生成的矩陣,「真正需要的只是為用戶提供建議。」

所有這些都引出了這樣一個問題:如果量子計算機僅在特殊情況下才具有強大功能,那麼在這些情況下傳統計算機是否也可以發揮出強大的作用?這是該領域尚未解決的主要問題。普通電腦畢竟算力有限。而處理大量數據集的常用方法,比如隨機抽樣實際上與量子計算機的運行機制非常相似——也就是無論在系統內部發生了什麼,都會返回隨機結果。 斯庫德評論說:「我完成的很多演算法都讓我感覺』這很棒,我們可以提升運算速度,』然後我只是為了好玩,也會為傳統計算機編寫一個同樣的抽樣演算法,也能夠實現相同的效果。」

如果回顧迄今為止量子機器學習所取得的成功,它們都帶著引號。以D-Wave機器為例,在對汽車圖像和希格斯玻色子進行分類時,它的速度並不比傳統機器快。 「谷歌DeepMind項目計算機科學家、希格斯玻色子研究小組成員之一的亞歷克斯莫特(Alex Mott)強調:」本文中我們沒有提到的一件事是量子加速。」諸如Harrow-Hassidim-Lloyd演算法等矩陣代數方法只有在稀疏矩陣的情況下才能夠實現量子加速。 「從來沒有人問過,機器學習中稀疏數據集是否真正有意義?」斯庫德如是指出。

量子智能

但從另一方面講,現有技術即便偶有改進,也會讓科技公司非常興奮。 「你最終看到的這些優勢都不大;它們不是指數級的,但至少是二次型的,「微軟研究院量子計算研究員彌敦韋博(Nathan Wiebe)表示。 「如果量子計算機功能足夠強大,計算速度也足夠快,我們可以徹底改變機器學習應用的許多領域。」在應用這些系統的過程中,計算機科學家或許可以解決理論上的難題,也就是它們能否更快,以及為什麼。

斯庫德也看到了量子計算在軟體方面的創新空間。機器學習並不僅僅是計算問題,其中很多複雜的問題也有著自己的特定結構。她說:「人們構建的演算法並沒有使機器學習變得有趣和美觀。這就是為什麼我開始反過來思考的原因:如果有這樣一台真正的量子計算機,那麼實際上可以使用什麼機器學習模型?也許這種模型還尚未發明出來。」如果物理學家想要打動機器學習專家,除了構建現有模型的量子版本外,他們需要做的更多。

現在許多神經科學家認為人類思維的結構反映了身體的要求,機器學習系統同樣也體現了這一點。所處理的圖像,語言和大多數其他數據都源自真實世界,並反映其特徵。量子機器學習系統也同樣如此,但所反映的世界要更為豐富。毫無疑問其最為擅長的就是處理量子數據。當數據不再是圖像,而是物理或化學實驗的產物時,量子機器將應對自如。如果輸入問題得以解決,傳統計算機將會被塵封在歷史中。

在完整的自我參照循環中,第一批量子機器學習系統有助於開發新一代系統。韋博指出:「我們真正想要的是讓這些系統自行構建量子計算機。對於一些調試任務,這是我們唯一的方法。」撇開人腦是否是量子計算機這個極具爭議的問題不談 ,也許這種系統甚至可以為我們糾錯。眾所周知,人類的行為取決於情境;特定的選擇決定了我們的偏好,其方式無視邏輯。從這方面看,我們就像量子粒子。 「人類提出問題的方式和次序,都是量子數據集中非常典型的特徵,」Perdomo-Ortiz如是指出。所以說,量子機器學習系統或許是研究人類認知偏差的一種方式。

神經網路和量子處理器還有一個共同點:它們都神話般地實現了。訓練神經網路並非易事,幾十年來大多數人都懷疑它是否能夠成為現實。同樣,量子物理學用於計算也未置可否,因為量子物理學的獨特作用對我們來說依舊是管中窺豹。然而,兩者都已經實現了。雖然並沒有成為常態,但卻超出我們的期待。並非總是如此,而是比我們有權期待的更多。考慮到這一點,兩者的結合或許會修成正果。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 EET電子工程專輯 的精彩文章:

北美物聯網博覽會上的創新技術與應用
AI有需求,第二代HBM技術應運而生

TAG:EET電子工程專輯 |