當前位置:
首頁 > 科技 > 重磅,Xilinx計劃收購Mellanox|半導體行業觀察

重磅,Xilinx計劃收購Mellanox|半導體行業觀察

來源:內容由微信公眾號 半導體行業觀察(ID:icbank) 整理,謝謝。

據外媒CNBC報道,FPGA巨頭Xilinx就收購Mellanox事宜,聘請巴克萊銀行為其謀劃。消息人士透露,該交易近期不會達成,並有可能以流產告終。其中兩名消息人士稱,如果交易最終能夠達成,則預計將在12月對外宣布。

重磅,Xilinx計劃收購Mellanox|半導體行業觀察

打開今日頭條,查看更多精彩圖片

Mellanox是一家總部位於以色列的公司,該公司成立於1999年。公司官網介紹,他們是一家在全球範圍內為伺服器和存儲提供端到端Infiniband和乙太網互聯解決方案的領軍企業。他們提供的互連解決方案通過低延遲、高吞吐量的強大性能,可以極大的提升數據中心效率,在應用和系統之間快速的傳遞數據,提升系統可用性。Mellanox為業內提供了加快內部設備互聯的技術和產品,包括網路適配器、交換機、軟體和晶元,這些產品都可以加速應用的執行,並最大化的提升HPC、企業數據中心、Web2.0、雲計算、存儲以及金融服務的效率。

據媒體報道,收購邁絡思可令賽靈思獲得更多可在數據中心市場上出售的產品。

我們知道,隨著在伺服器,存儲和嵌入式系統中使用多個多核處理器,I / O帶寬不能跟上處理器的進步,造成性能瓶頸。快速數據訪問已成為利用微處理器增加的計算能力的關鍵要求。此外,互連延遲已成為集群整體性能的限制因素。

另外,集群伺服器和存儲系統作為關鍵IT工具的不斷增長的使用導致了互連配置的複雜性的增加。 EDC中的配置和連接數量也有所增加,使得系統管理變得越來越複雜,操作昂貴。另外,使用不同的互連基礎設施管理多個軟體應用程序已變得越來越複雜。

再者,隨著附加的計算和存儲系統或節點被添加到集群中,互連必須能夠擴展,以便提供集群性能的預期增加。此外,對數據中心能源效率的更多關注正在導致IT經理們尋求採用更節能的方法。

同時,大大多數互連解決方案不是設計為在大型集群環境中使用時提供可靠的連接,從而導致數據傳輸中斷。由於EDC中的更多應用程序共享相同的互連,因此需要高級流量管理和應用程序分區來保持穩定性並減少系統停機時間。大多數互連解決方案不提供此類功能。

據維基百科,Mellanox正在深耕的InfiniBand是一個用於高性能計算的計算機網路通信標準,它具有極高的吞吐量和極低的延遲,用於計算機與計算機之間的數據互連。InfiniBand也用作伺服器與存儲系統之間的直接或交換互連,以及存儲系統之間的互連。總體來看,這個技術有以下優點:

首先,被設計為嚴重依賴通信處理的其他互連技術相比,InfiniBand被設計用於在IC中實現,以減輕CPU的通信處理功能。 InfiniBand能夠相對於其他現有的互連技術提供優越的帶寬和延遲,並且每個連續的產品都保持了這一優勢。例如,我們目前的InfiniBand適配器和交換機提供高達100Gb / s的帶寬,端到端延遲低於微秒。此外,InfiniBand還充分利用了PCI Express的I / O功能,即高速系統匯流排介面標準。

其次,根據獨立的基準測試報告,InfiniBand解決方案的延遲不到測試乙太網解決方案的一半。 光纖通道僅用作存儲互連,通常不會在延遲性能上進行基準測試。 HPC通常需要低延遲互連解決方案。 此外,雲,Web 2.0,存儲,機器學習和嵌入式市場中對延遲敏感的應用程序越來越多,因此,使用10Gb / s和更快的行業標準InfiniBand和乙太網解決方案有趨勢 ,能夠提供比1Gb / s乙太網更低的延遲。

第三,雖然其他互連需要使用單獨的電纜連接伺服器,存儲和通信基礎設施設備,但InfiniBand允許在單個電纜或背板互連上整合多個I / O,這對於刀片伺服器和嵌入式系統至關重要。 InfiniBand還通過單個連接整合了集群,通信,存儲和管理數據類型的傳輸。

第四,InfiniBand被開發為提供多個系統的高可擴展性。 InfiniBand在硬體中提供通信處理功能,減輕了該任務的CPU,並使得添加到集群的每個節點的全部資源利用率得以實現。

第五,InfiniBand是唯一在硅硬體中提供可靠的端到端數據連接的行業標準高性能互連解決方案之一。此外,InfiniBand還促進虛擬化解決方案的部署,從而允許多個應用程序在專用應用程序分區的同一互連上運行。因此,多個應用程序在穩定連接上同時運行,從而最大限度減少停機時間。

Mallanox公司擁有的從光模塊、網卡、交換機、伺服器到有源光纜的全系列200G產品,同時他們還提供RDMA(Remote Direct Memory Access,遠程直接內存訪問)技術、 GPU Direct RDMA技術、SHARP(Scalable Hierarchical Aggregation and Reduction Protocol)技術、NVMe Over Fabric Target Offload技術、SHIELD(Self-Healing Technology)技術和Socket Direct和Multi-Host技術,相信也是Xilinx 看中他們的一個原因。

但我們應該看到,作為互連技術,IB與乙太網、光纖通道和其他專有技術(例如克雷公司的SeaStar)有強烈的競爭關係。缺少伺服器核心CPU的Mellanox被Xilinx收購,也許是一個不錯的選擇。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 半導體行業觀察 的精彩文章:

看電源管理IP如何顯著提升SoC能效|半導體行業觀察
強悍的A64FX為Arm伺服器打了一針強心劑

TAG:半導體行業觀察 |