當前位置:
首頁 > 科技 > 雲計算:為什麼說微軟開源數據計劃是向前邁出的重要一步

雲計算:為什麼說微軟開源數據計劃是向前邁出的重要一步

微軟新推出的Project Zipline壓縮演算法,足夠快到可以在壓縮數據的同時,把數據寫入SSD或者從物聯網設備進行上傳,而且在微軟內部工作負載,也就是最初開發時的目標對象上獲得高達96%的壓縮率。

雲計算:為什麼說微軟開源數據計劃是向前邁出的重要一步

如此快速和高效,是因為它採用了一種自定義硬體加速器,可以多次尋找出比壓縮演算法通常處理的更多模式;而且匹配這些模式的數據,將被模式的一個參考所取代,從而佔用的空間更小。

因此,微軟除了發布壓縮演算法規範作為自己對Open Compute Project Foundation的貢獻之外,還發布了運行該演算法開發晶元所需的Verilog Register-transfer Level (RTL)文件。

微軟計劃在Project Cerberus下一代版本中也做相同的事情,Project Cerberus硬體「信任根」規範的目標,是幫助固件防止惡意軟體入侵,讓你不再擔心所訂購的硬體是否曾經被篡改過。第一個版本有一個單獨的控制器,可以插入伺服器上的PCI匯流排,但是微軟希望在晶元(例如CPU)層面——甚至是內存和存儲層面——也有相同的保護措施。而且,當微軟向OCP貢獻第二代Cerberus規範的時候,其中就將包含RTL文件,這樣廠商們就可以輕鬆地將其添加到自己的晶元設計中。

物理實現是最棘手的部分;硬體提供商通常會在他們交付基於開放標準的系統時,自行來解決這個部分的問題,因為這是他們相互競爭的一個部分。但是你希望的是廠商採用你的開放標準,因為對你來說,使用的人越多就越有用。

如果你按照廠商希望的那樣,在Open Data Initiative下把數據從Azure遷移到Adobe的營銷雲、SAP或者Dynamics上,那麼在遷移數據的同時,對數據進行壓縮——而不是擴展——操作就會更有意義。這樣做,意味著雲和你使用的任何伺服器都需要支持Zipline。

使用Verilog和RTL文件(用於描述構成晶元設計的電路)——來指定晶元設計,這一點是很困難的。擁有這種技能的程序員寥寥無幾,而且這也不是一種常見技能,這就解釋了為什麼很多超大規模雲計算——而不是普通的企業——才能夠利用FPGA的靈活性來交付經過精確設計可以有效運行特定演算法的硬體。微軟通過開放這種往往僅用於微軟內部的設計,讓自己更容易把Project Zipline和Cerberus構建到產品中,從而才能被更多的人使用。

Intel、AMD、Ampere、Arm、Marvell和SiFive都在開發採用Zipline的CPU;Broadcom、Fungible、Mellanox、Eideticom、NGD和Pure Storage正在將Zipline添加到自己定位網卡和存儲系統中。雖然英特爾沒有明確表示會把Cerberus下一代版本構建到自己的CPU中,但邀請微軟Cerberus團隊參加OCP峰會並做主題演講,很大程度上是一個很明顯的跡象了。

這可能是前所未有的開放貢獻,但也非常符合OCP的精神,對於超大規模雲提供商來說,OCP最初的目標是讓廠商能夠更輕鬆地打造出他們希望採購的硬體。

現在,OCP已經遠遠不局限於伺服器和機架,其衍生產品對於更多企業組織來說是有意義的,因此微軟完全有理由這樣做。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 至頂網 的精彩文章:

NetApp第三季度收入增長停滯 急需重振產品走出困境
IBM量子計算完成里程碑式突破 2020年可能實現 「量子優勢」

TAG:至頂網 |