當前位置:
首頁 > 知識 > 全球100款大數據工具匯總

全球100款大數據工具匯總

來源:網路

1、 Talend Open Studio

是第一家針對的數據集成工具市場的ETL(數據的提取Extract、傳輸Transform、載入Load)開源軟體供應商。Talend的下載量已超過200萬人次,其開源軟體提供了數據整合功能。其用戶包括美國國際集團(AIG)、康卡斯特、電子港灣、通用電氣、三星、Ticketmaster和韋里遜等企業組織。

2、DYSON

探碼科技自主研發的DYSON智能分析系統,可以完整的實現大數據的採集、分析、處理。DYSON智能分析系統專業針對互聯網數據抓取、處理、分析,挖掘。可以靈活迅速地抓取網頁上散亂分布的信息,並通過強大的處理功能,準確挖掘出所需數據,是目前使用人數最多的網頁採集工具.

3、YARN

一種新的Hadoop資源管理器,它是一個通用資源管理系統,可為上層應用提供統一的資源管理和調度,解決了舊MapReduce框架的性能瓶頸。它的基本思想是把資源管理和作業調度/監控的功能分割到單獨的守護進程。

4、Mesos

由加州大學伯克利分校的AMPLab首先開發的一款開源群集管理軟體,支持Hadoop、ElasticSearch、Spark、Storm 和Kafka等架構。對數據中心而言它就像一個單一的資源池,從物理或虛擬機器中抽離了CPU,內存,存儲以及其它計算資源, 很容易建立和有效運行具備容錯性和彈性的分布式系統。

5、Datale

由探碼科技研發的一款基於Hadoop的大數據平台開發套件,RAI大數據應用平台架構。

6、 Ambari

作為Hadoop生態系統的一部分,提供了基於Web的直觀界面,可用於配置、管理和監控Hadoop集群。目前已支持大多數Hadoop組件,包括HDFS、MapReduce、Hive、Pig、 Hbase、Zookeper、Sqoop和Hcatalog等。

7、ZooKeeper

一個分布式的應用程序協調服務,是Hadoop和Hbase的重要組件。它是一個為分布式應用提供一致性服務的工具,讓Hadoop集群裡面的節點可以彼此協調。ZooKeeper現在已經成為了 Apache的頂級項目,為分布式系統提供了高效可靠且易於使用的協同服務。

8、Thrift

在2007年facebook提交Apache基金會將Thrift作為一個開源項目,對於當時的facebook來說創造thrift是為了解決facebook系統中各系統間大數據量的傳輸通信以及系統之間語言環境不同需要跨平台的特性。

9、Chukwa

監測大型分布式系統的一個開源數據採集系統,建立在HDFS/MapReduce框架之上並繼承了Hadoop的可伸縮性和可靠性,可以收集來自大型分布式系統的數據,用於監控。它還包括靈活而強大的顯示工具用於監控、分析結果。

10、Lustre

一個大規模的、安全可靠的、具備高可用性的集群文件系統,它是由SUN公司開發和維護的。該項目主要的目的就是開發下一代的集群文件系統,目前可以支持超過10000個節點,數以PB的數據存儲量。

11、HDFS

Hadoop Distributed File System,簡稱HDFS,是一個分布式文件系統。HDFS是一個高度容錯性的系統,適合部署在廉價的機器上。HDFS能提供高吞吐量的數據訪問,非常適合大規模數據集上的應用。

12、GlusterFS

一個集群的文件系統,支持PB級的數據量。GlusterFS 通過RDMA和TCP/IP方式將分布到不同伺服器上的存儲空間彙集成一個大的網路化並行文件系統。

13、Alluxio

前身是Tachyon,是以內存為中心的分布式文件系統,擁有高性能和容錯能力,能夠為集群框架(如Spark、MapReduce)提供可靠的內存級速度的文件共享服務。

14、Ceph

新一代開源分布式文件系統,主要目標是設計成基於POSIX的沒有單點故障的分布式文件系統,提高數據的容錯性並實現無縫的複製。

15、PVFS

一個高性能、開源的並行文件系統,主要用於並行計算環境中的應用。PVFS特別為超大數量的客戶端和伺服器端所設計,它的模塊化設計結構可輕鬆的添加新的硬體和演算法支持。

16、QFS

Quantcast File System (QFS) 是一個高性能、容錯好、分布式的文件系統,用於開發支持 MapReduce處理或者需要順序讀寫大文件的應用。

17、 Logstash

一個應用程序日誌、事件的傳輸、處理、管理和搜索的平台。可以用它來統一對應用程序日誌進行收集管理,提供了Web介面用於查詢和統計。

18、Scribe

Scribe是Facebook開源的日誌收集系統,它能夠從各種日誌源上收集日誌,存儲到一個中央存儲系統(可以是NFS,分布式文件系統等)上,以便於進行集中統計分析處理。

19、Flume

Cloudera提供的一個高可用的、高可靠的、分布式的海量日誌採集、聚合和傳輸的系統。Flume支持在日誌系統中定製各類數據發送方,用於收集數據。同時,Flume支持對數據進行簡單處理,並寫入各種數據接受方(可定製)。

20、RabbitMQ

一個受歡迎的消息代理系統,通常用於應用程序之間或者程序的不同組件之間通過消息來進行集成。RabbitMQ提供可靠的應用消息發送、易於使用、支持所有主流操作系統、支持大量開發者平台。

21、ActiveMQ

Apache出品,號稱「最流行的,最強大」的開源消息集成模式伺服器。ActiveMQ特點是速度快,支持多種跨語言的客戶端和協議,其企業集成模式和許多先進的功能易於使用,是一個完全支持JMS1.1和J2EE 1.4規範的JMS Provider實現。

22、Kafka

一種高吞吐量的分布式發布訂閱消息系統,它可以處理消費者規模網站中的所有動作流數據,目前已成為大數據系統在非同步和分布式消息之間的最佳選擇。

23、Spark

一個高速、通用大數據計算處理引擎。擁有Hadoop MapReduce所具有的優點,但不同的是Job的中間輸出結果可以保存在內存中,從而不再需要讀寫HDFS,因此Spark能更好地適用於數據挖掘與機器學習等需要迭代的MapReduce的演算法。它可以與Hadoop和Apache Mesos一起使用,也可以獨立使用。

24、Kinesis

可以構建用於處理或分析流數據的自定義應用程序,來滿足特定需求。Amazon Kinesis Streams 每小時可從數十萬種來源中連續捕獲和存儲數TB數據,如網站點擊流、財務交易、社交媒體源、IT日誌和定位追蹤事件。

25、 Hadoop

一個開源框架,適合運行在通用硬體,支持用簡單程序模型分布式處理跨集群大數據集,支持從單一伺服器到上千伺服器的水平scale up。Apache的Hadoop項目已幾乎與大數據划上了等號,它不斷壯大起來,已成為一個完整的生態系統,擁有眾多開源工具面向高度擴展的分布式計算。高效、可靠、可伸縮,能夠為你的數據存儲項目提供所需的YARN、HDFS和基礎架構,並且運行主要的大數據服務和應用程序。

26、Spark Streaming

實現微批處理,目標是很方便的建立可擴展、容錯的流應用,支持Java、Scala和Python,和Spark無縫集成。Spark Streaming可以讀取數據HDFS,Flume,Kafka,Twitter和ZeroMQ,也可以讀取自定義數據。

27、Trident

是對Storm的更高一層的抽象,除了提供一套簡單易用的流數據處理API之外,它以batch(一組tuples)為單位進行處理,這樣一來,可以使得一些處理更簡單和高效。

28、Flink

於今年躋身Apache頂級開源項目,與HDFS完全兼容。Flink提供了基於Java和Scala的API,是一個高效、分布式的通用大數據分析引擎。更主要的是,Flink支持增量迭代計算,使得系統可以快速地處理數據密集型、迭代的任務。

29、Samza

出自於LinkedIn,構建在Kafka之上的分布式流計算框架,是Apache頂級開源項目。可直接利用Kafka和Hadoop YARN提供容錯、進程隔離以及安全、資源管理。

30、Storm

Storm是Twitter開源的一個類似於Hadoop的實時數據處理框架。編程模型簡單,顯著地降低了實時處理的難度,也是當下最人氣的流計算框架之一。與其他計算框架相比,Storm最大的優點是毫秒級低延時。

31、Yahoo S4 (Simple Scalable Streaming System)

是一個分布式流計算平台,具備通用、分布式、可擴展的、容錯、可插拔等特點,程序員可以很容易地開發處理連續無邊界數據流(continuous unbounded streams of data)的應用。它的目標是填補複雜專有系統和面向批處理開源產品之間的空白,並提供高性能計算平台來解決並發處理系統的複雜度。

32、HaLoop

是一個Hadoop MapReduce框架的修改版本,其目標是為了高效支持 迭代,遞歸數據 分析任務,如PageRank,HITs,K-means,sssp等。

33、Presto

是一個開源的分布式SQL查詢引擎,適用於互動式分析查詢,可對250PB以上的數據進行快速地互動式分析。Presto的設計和編寫是為了解決像Facebook這樣規模的商業數據倉庫的互動式分析和處理速度的問題。Facebook稱Presto的性能比諸如Hive和MapReduce要好上10倍有多。

34、 Drill

於2012年8月份由Apache推出,讓用戶可以使用基於SQL的查詢,查詢Hadoop、NoSQL資料庫和雲存儲服務。它能夠運行在上千個節點的伺服器集群上,且能在幾秒內處理PB級或者萬億條的數據記錄。它可用於數據挖掘和即席查詢,支持一系列廣泛的資料庫,包括HBase、MongoDB、MapR-DB、HDFS、MapR-FS、亞馬遜S3、Azure Blob Storage、谷歌雲存儲和Swift。

35、Phoenix

是一個Java中間層,可以讓開發者在Apache HBase上執行SQL查詢。Phoenix完全使用Java編寫,並且提供了一個客戶端可嵌入的JDBC驅動。Phoenix查詢引擎會將SQL查詢轉換為一個或多個HBase scan,並編排執行以生成標準的JDBC結果集。

36、Pig

是一種編程語言,它簡化了Hadoop常見的工作任務。Pig可載入數據、轉換數據以及存儲最終結果。Pig最大的作用就是為MapReduce框架實現了一套shell腳本 ,類似我們通常熟悉的SQL語句。

37、Hive

是基於Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射為一張資料庫表,並提供簡單的sql查詢功能,可以將sql語句轉換為MapReduce任務進行運行。 其優點是學習成本低,可以通過類SQL語句快速實現簡單的MapReduce統計,不必開發專門的MapReduce應用,十分適合數據倉庫的統計分析。

38、SparkSQL

前身是Shark,SparkSQL拋棄原有Shark的代碼並汲取了一些優點,如內存列存儲(In-Memory Columnar Storage)、Hive兼容性等。由於擺脫了對Hive的依賴性,SparkSQL無論在數據兼容、性能優化、組件擴展方面都得到了極大的方便。

39、Stinger

原來叫Tez,是下一代Hive,由Hortonworks主導開發,運行在YARN上的DAG計算框架。某些測試下,Stinger能提升10倍左右的性能,同時會讓Hive支持更多的SQL。

40、Tajo

目的是在HDFS之上構建一個可靠的、支持關係型數據的分布式數據倉庫系統,它的重點是提供低延遲、可擴展的ad-hoc查詢和在線數據聚集,以及為更傳統的ETL提供工具。

41、Impala

Cloudera 聲稱,基於SQL的Impala資料庫是「面向Apache Hadoop的領先的開源分析資料庫」。它可以作為一款獨立產品來下載,又是Cloudera的商業大數據產品的一部分。Cloudera Impala 可以直接為存儲在HDFS或HBase中的Hadoop數據提供快速、互動式的SQL查詢。

42、 Elasticsearch

是一個基於Lucene的搜索伺服器。它提供了一個分布式、支持多用戶的全文搜索引擎,基於RESTful web介面。Elasticsearch是用Java開發的,並作為Apache許可條款下的開放源碼發布,是當前流行的企業級搜索引擎。設計用於雲計算中,能夠達到實時搜索、穩定、可靠、快速、安裝使用方便。

43、Solr

基於Apache Lucene,是一種高度可靠、高度擴展的企業搜索平台。知名用戶包括eHarmony、西爾斯、StubHub、Zappos、百思買、AT&T、Instagram、Netflix、彭博社和Travelocity。

44、Shark

即Hive on Spark,本質上是通過Hive的HQL解析,把HQL翻譯成Spark上的RDD操作,然後通過Hive的metadata獲取資料庫里的表信息,實際HDFS上的數據和文件,會由Shark獲取並放到Spark上運算。Shark的特點就是快,完全兼容Hive,且可以在shell模式下使用rdd2sql()這樣的API,把HQL得到的結果集,繼續在scala環境下運算,支持自己編寫簡單的機器學習或簡單分析處理函數,對HQL結果進一步分析計算。

45、Lucene

基於Java的Lucene可以非常迅速地執行全文搜索。據官方網站聲稱,它在現代硬體上每小時能夠檢索超過150GB的數據,它擁有強大而高效的搜索演算法。

46、Terracotta

聲稱其BigMemory技術是「世界上首屈一指的內存中數據管理平台」,支持簡單、可擴展、實時消息,聲稱在190個國家擁有210萬開發人員,全球1000家企業部署了其軟體。

47、 Ignite

是一種高性能、整合式、分布式的內存中平台,可用於對大規模數據集執行實時計算和處理,速度比傳統的基於磁碟的技術或快閃記憶體技術高出好幾個數量級。該平台包括數據網格、計算網格、服務網格、流媒體、Hadoop加速、高級集群、文件系統、消息傳遞、事件和數據結構等功能。

48、GemFire

Pivotal宣布它將開放其大數據套件關鍵組件的源代碼,其中包括GemFire內存中NoSQL資料庫。它已向Apache軟體基金會遞交了一項提案,以便在「Geode」的名下管理GemFire資料庫的核心引擎。

49、 GridGain

由Apache Ignite驅動的GridGrain提供內存中數據結構,用於迅速處理大數據,還提供基於同一技術的Hadoop加速器。

50、MongoDB

是一個基於分布式文件存儲的資料庫。由C++語言編寫。旨在為web應用提供可擴展的高性能數據存儲解決方案。介於關係資料庫和非關係資料庫之間的開源產品,是非關係資料庫當中功能最豐富、最像關係資料庫的產品。

51、Redis

是一個高性能的key-value存儲系統,和Memcached類似,它支持存儲的value類型相對更多,包括string(字元串)、list(鏈表)、set(集合)和zset(有序集合)。Redis的出現,很大程度補償了memcached這類key/value存儲的不足,在部分場合可以對關係資料庫起到很好的補充作用。

52、HDFS

Hadoop分布式文件系統(HDFS)被設計成適合運行在通用硬體(commodity hardware)上的分布式文件系統。它和現有的分布式文件系統有很多共同點。HDFS是一個高度容錯性的系統,適合部署在廉價的機器上。HDFS能提供高吞吐量的數據訪問,非常適合大規模數據集上的應用。

53、HBase

是Hadoop的資料庫,一個分布式、可擴展、大數據的存儲。是為有數十億行和數百萬列的超大表設計的,是一種分布式資料庫,可以對大數據進行隨機性的實時讀取/寫入訪問。提供類似谷歌Bigtable的存儲能力,基於Hadoop和Hadoop分布式文件系統(HDFS)而建。

54、Neo4j

是一個高性能的,NOSQL圖形資料庫,它將結構化數據存儲在網路上而不是表中。自稱「世界上第一個和最好的圖形資料庫」,「速度最快、擴展性最佳的原生圖形資料庫」,「最大和最有活力的社區」。用戶包括Telenor、Wazoku、ebay、必能寶(Pitney Bowes)、MigRaven、思樂(Schleich)和Glowbl等。

55、 Vertica

基於列存儲高性能和高可用性設計的資料庫方案,由於對大規模並行處理(MPP)技術的支持,提供細粒度、可伸縮性和可用性的優勢。每個節點完全獨立運作,完全無共享架構,降低了共享資源的系統競爭。

56、Cassandra

是一個混合型的非關係的資料庫,類似於Google的BigTable,其主要功能比Dynamo (分布式的Key-Value存儲系統)更豐富。這種NoSQL資料庫最初由Facebook開發,現已被1500多家企業組織使用,包括蘋果、歐洲原子核研究組織(CERN)、康卡斯特、電子港灣、GitHub、GoDaddy、Hulu、Instagram、Intuit、Netfilx、Reddit及其他機構。

57、CouchDB

號稱是「一款完全擁抱互聯網的資料庫」,它將數據存儲在JSON文檔中,這種文檔可以通過Web瀏覽器來查詢,並且用JavaScript來處理。它易於使用,在分布式上網路上具有高可用性和高擴展性。

58、Dynamo

是一個經典的分布式Key-Value 存儲系統,具備去中心化、高可用性、高擴展性的特點。Dynamo在Amazon中得到了成功的應用,能夠跨數據中心部署於上萬個結點上提供服務,它的設計思想也被後續的許多分布式系統借鑒。

59、 Amazon SimpleDB

是一個用Erlang編寫的高可用的NoSQL數據存儲,能夠減輕資料庫管理工作,開發人員只需通過Web服務請求執行數據項的存儲和查詢,Amazon SimpleDB 將負責餘下的工作。作為一項Web 服務,像Amazon的EC2和S3一樣,是Amazon網路服務的一部分。

60、 Hypertable

是一個開源、高性能、可伸縮的資料庫,它採用與Google的Bigtable相似的模型。它與Hadoop兼容,性能超高,其用戶包括電子港灣、百度、高朋、Yelp及另外許多互聯網公司。

61、Kettle

這是一個ETL工具集,它允許你管理來自不同資料庫的數據,通過提供一個圖形化的用戶環境來描述你想做什麼,而不是你想怎麼做。作為Pentaho的一個重要組成部分,現在在國內項目應用上逐漸增多。

62、 Kylin

是一個開源的分布式分析引擎,提供了基於Hadoop的超大型數據集(TB/PB級別)的SQL介面以及多維度的OLAP分布式聯機分析。最初由eBay開發並貢獻至開源社區。它能在亞秒內查詢巨大的Hive表。

63、 Kibana

是一個使用Apache 開源協議的Elasticsearch 分析和搜索儀錶板,可作為Logstash和ElasticSearch日誌分析的 Web 介面,對日誌進行高效的搜索、可視化、分析等各種操作。

64、 Druid

是一個用於大數據實時查詢和分析的高容錯、高性能、分布式的開源系統,旨在快速處理大規模的數據,並能夠實現快速查詢和分析。

65、 KNIME

全稱是「康斯坦茨信息挖掘工具」(Konstanz Information Miner),是一個開源分析和報表平台。宣稱「是任何數據科學家完美的工具箱,超過1000個模塊,可運行數百個實例,全面的集成工具,以及先進的演算法」。

66、Zeppelin

是一個提供交互數據分析且基於Web的筆記本。方便你做出可數據驅動的、可交互且可協作的精美文檔,並且支持多種語言,包括 Scala(使用 Apache Spark)、Python(Apache Spark)、SparkSQL、 Hive、 Markdown、Shell等。

67、Azkaban

一款基於Java編寫的任務調度系統任務調度,來自LinkedIn公司,用於管理他們的Hadoop批處理工作流。Azkaban根據工作的依賴性進行排序,提供友好的Web用戶界面來維護和跟蹤用戶的工作流程。

68、 Splunk

是機器數據的引擎。使用 Splunk 可收集、索引和利用所有應用程序、伺服器和設備(物理、虛擬和雲中)生成的快速移動型計算機數據,從一個位置搜索並分析所有實時和歷史數據

69、Pentaho

是世界上最流行的開源商務智能軟體,以工作流為核心的、強調面向解決方案而非工具組件的、基於Java平台的商業智能(Business Intelligence)套件。包括一個web server平台和幾個工具軟體:報表、分析、圖表、數據集成、數據挖掘等,可以說包括了商務智能的方方面面。

70、Jaspersoft

提供了靈活、可嵌入的商業智能工具,用戶包括眾多企業組織:高朋、冠群科技、美國農業部、愛立信、時代華納有線電視、奧林匹克鋼鐵、內斯拉斯加大學和通用動力公司。

71、 SpagoBI

Spago被市場分析師們稱為「開源領袖」,它提供商業智能、中間件和質量保證軟體,另外還提供相應的Java EE應用程序開發框架。

72、Lumify

歸Altamira科技公司(以國家安全技術而聞名)所有,這是一種開源大數據整合、分析和可視化平台。

73、Lingual

是Cascading的高級擴展,為Hadoop提供了一個ANSI SQL介面極大地簡化了應用程序的開發和集成。Lingual實現了連接現有的商業智能(BI)工具,優化了計算成本,加快了基於Hadoop的應用開發速度。

74、Beam

基於Java提供了統一的數據進程管道開發,並且能夠很好地支持Spark和Flink。提供很多在線框架,開發者無需學太多框架。

75、Cascading

是一個基於Hadoop建立的API,用來創建複雜和容錯數據處理工作流。它抽象了集群拓撲結構和配置,使得不用考慮背後的MapReduce,就能快速開發複雜的分布式應用。

76、HPCC

作為Hadoop之外的一種選擇,是一個利用集群伺服器進行大數據分析的系統,HPCC在LexisNexis內部使用多年,是一個成熟可靠的系統,包含一系列的工具、一個稱為ECL的高級編程語言、以及相關的數據倉庫,擴展性超強

77、Hivemall

結合了面向Hive的多種機器學習演算法,它包括了很多擴展性很好的演算法,可用於數據分類、遞歸、推薦、k最近鄰、異常檢測和特徵哈希等方面的分析應用。

78、 RapidMiner

具有豐富數據挖掘分析和演算法功能,常用於解決各種的商業關鍵問題,解決方案覆蓋了各個領域,包括汽車、銀行、保險、生命科學、製造業、石油和天然氣、零售業及快消行業、通訊業、以及公用事業等各個行業。

79、 Mahout

目的是「為快速創建可擴展、高性能的機器學習應用程序而打造一個環境」,主要特點是為可伸縮的演算法提供可擴展環境、面向Scala/Spark/H2O/Flink的新穎演算法、Samsara(類似R的矢量數學環境),它還包括了用於在MapReduce上進行數據挖掘的眾多演算法。

80、Tableau

Tableau 是一款企業級的大數據可視化工具。Tableau 可以讓你輕鬆創建圖形,表格和地圖。 它不僅提供了PC桌面版,還提供了伺服器解決方案,可以讓您在線生成可視化報告。伺服器解決方案可以提供了雲託管服務。Tableau的客戶包括巴克萊銀行,Pandora和Citrix等企業

81、Infogram

Infogram的最大優勢在於,讓您的可視化信息圖表與實時大數據相鏈接。只須三個簡單步驟,您可以選擇在眾多圖表,地圖,甚至是視頻可視化模板中進行選擇。 Infogram支持團隊賬號。

82、ChartBlocks

ChartBlocks是一個易於使用在線工具,它無需編碼,便能從電子表格,資料庫中構建可視化圖表。整個過程可以在圖表嚮導的指導下完成。您的圖表將在HTML5的框架下使用強大的Java庫D3.js創建圖表。你的圖表是響應式的,並且可以和任何的屏幕尺寸及設備兼容。 您還可以將圖表嵌入任何網頁中,分享在Twitter和Facebook上。

83、Datawrapper

Datawrapper是一款專註於新聞和出版的可視化工具。華盛頓郵報,衛報,華爾街日報和Twitter等媒體都使用了這一工具。Datawrapper非常容易使用,不需要任何編程基礎。你只需要上傳你的數據,便能輕鬆地創建和發布圖表,甚至是地圖。Datawrapper提供了眾多的自定義布局及地圖模板。

84、Plotly

Plotly幫助你在短短几分鐘內,從簡單的電子表格中開始創建漂亮的圖表。Plotly已經為谷歌、美國空軍和紐約大學等機構所使用。 Plotly是一個非常人性化的網路工具,讓你在幾分鐘內啟動。如果你的團隊希望為JavaScript和Python等編程語言提供一個API介面的話,Plotly是一款非常人性化的工具。

85、RAW

RAW彌補了很多工具在電子表格和矢量圖形(SVG)之間的缺失環節。你的大數據可以來自MicrosoftExcel中,谷歌文檔或是一個簡單的逗號分隔的列表。它最厲害的功能是可以很容易地導出可視化結果,因為它和Adobe Illustrator,Sketch 和Inkscape是相容的。

86、Visual.ly

isual.ly是一個可視化的內容服務。它提供專門的大數據可視化的服務,用戶包括了VISA,耐克,Twitter,福特和國家地理等。如果你想完全外包可視化文件給第三方。你可以使用非常簡化的在線流程:你只需描述你的項目,服務團隊將在項目的整個持續時間內和你在一起。 Visual.ly給您發送所有項目關鍵點的郵件通知,也將讓你不斷給出反饋。

87、D3.js

毋容置疑D3.js是最好的數據可視化工具庫。D3.js運行在JavaScript上,並使用HTML,CSS和SVG。 D3.js是開源工具,使用數據驅動的方式創建漂亮的網頁。 D3.js可實現實時交互。這個庫非常強大和前沿,所以它帶有沒有預置圖表也不支持IE9。

88、Ember Charts

Ember Charts – 顧名思義是一種基於Ember.js框架和使用d3.js的可視化工具。Ember Charts以繪製時間序列圖,柱狀圖,餅圖和散點圖為主。它非常優易於擴展。同為Ember.js開發團隊,Ember Charts聚焦於圖形互動性。它有極強的錯誤處理能力,當你遇到壞數據時,系統也不會崩潰

89、NVD3

NVD3運行在d3.js之上, 它可建立可重用的圖表組件。該項目的目標是保持所有的圖表整潔和可定製性。 NVD3是d3.js之上的簡單的介面,保持了d3.js的所有強大功能。 NVD3由Novus Partners前端工程師開發和使其保持了圖表技術洞察力。

90、Google Charts

Google Charts 以HTML5和SVG為基礎,充分考慮了跨瀏覽器的兼容性,並通過VML支持舊版本的IE瀏覽器。所有您將創建的圖表是互動式的,有的還可縮放。Google Charts是非常人性化和他們的網站擁有一個非常好的,全面的模板庫,你可以從中找到所需模板。

91、FusionCharts

FusionCharts是最全面的JavaScript圖表庫,包括90個圖表和900種地圖。如果你不是特別喜歡的JavaScript。FusionCharts可以輕鬆集成像jQuery庫,Angularjs和React框架以及ASP.NET和PHP語言。 FusionCharts支持JSON和XML數據,並提供許多格式圖表:PNG,JPEG,SVG和PDF。

92、Highcharts

Highcharts是一個JavaScript API與jQuery的集成,全球最大的100家公司中有61家正在使用它。圖表使用SVG格式,並使用VML支持舊版瀏覽器。它提供了兩個專門的圖表類型:Highstock和Highmaps,並且還配備了一系列的插件。你可以免費使用它,而如果你想建立付費的應用,只須支付少量牌照費用。此外,你還可以使用Highcharts雲服務。

93、Chart.js

對於一個小項目的圖表,chart.js是一個很好的選擇。開源,只有11KB大小,這使得它快速且易於使用,它支持多種圖表類型: 餅圖,線性圖和雷達圖等。

94、Leaflet

你是否專註於專業的大數據解決方案?無需餅圖和條形圖?Leafleft 基於Open Street Map數據,使用HTML5 / CSS3繪製互動式可視化圖。您可以使用他們的擴展插件庫添加熱點圖(heatmaps)和動畫標記。 Leaflet 是開源和只有33 KB大小。

95、Chartist.js

Chartist.js的開發社區一直致力於打敗所有其他JavaScript圖表庫。它使用了Sass的個性化風格,它的SVG輸出是響應式的。

96、n3-charts

N3-charts是一種基於AngularJS框架的工具。它建立在D3.js之上,幫助您創建簡單的互動圖表。 N3-charts是一種小型化的圖表工具,不適用於大型項目。

97、 Sigma JS

Sigma JS 是互動式可視化工具庫。由於使用了WebGL技術,你可以使用滑鼠和觸摸的方式來更新和變換圖表。Sigma JS同時支持JSON和GEXF兩種數據格式。這為它提供了大量的可用互動式插件。Sigma JS 專註於網頁格式的網路圖可視化。因此它在大數據網路可視化中非常有用。

98、Polymaps

Polymaps是一款地圖可視化一個JavaScript工具庫。 Polymaps使用SVG實現從國家到街道一級地理數據的可視化。您可以使用CSS格式來修改你的樣式。Polymaps使用GeoJSON來解釋地理數據。它是創建heatmap熱點圖的最好的工具之一。您創建的所有地圖都可以變成動態圖。

99、Processing.js

Processing.js是一個基於可視化編程語言的JavaScript庫。作為一種面向Web的JavaScript庫,Processing.js是您能夠有效進行網頁格式圖表處理。這使得它成為了一種非常好交換式可視化工具。 Processing.js需要一個兼容HTML5的瀏覽器來實現這一功能。

100、Pentaho BI

Pentaho BI 平台不同於傳統的BI 產品,它是一個以流程為中心的,面向解決方案(Solution)的框架。其目的在於將一系列企業級BI產品、開源軟體、API等等組件集成起來,方便商務智能應用的開發。它的出現,使得一系列的面向商務智能的獨立產品如Jfree、Quartz等等,能夠集成在一起,構成一項項複雜的、完整的商務智能解決方案。

小編拉你進粉絲微信群

不是在文章評論里回

點擊展開全文

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 程序員之家 的精彩文章:

程序員聽說別人有女朋友……
為什麼說編程是有史以來最好的工作
程序員媳婦:我老公編程有癮
程序員用40行代碼向女友求婚成功,快來學……
李開復:演算法是內功,程序員別冷落演算法!

TAG:程序員之家 |

您可能感興趣

2018年20大數據可視化工具
2020年我國數據總量全球佔比將達20% 信息基礎設施保護是大數據安全關鍵
2018數博會AI全球賽項目徵集!提供場景、數據集,總獎金池500萬
12個頂級大數據工具
Y4T24 三大運營商2017年數據分析
2018年6大BI與數據可視化工具的比較分析
貴州向全球發布100個大數據項目 投資規模達1688億元
大數據回顧2017
跑協數據大揭秘-2017
2018年大數據產業8大趨勢
2018年全球金融大數據行業現狀與市場規模分析
2017年家具行業零售數據分析:傢具零售額超2800億
2018年中國大數據BI數據分析工具發展趨勢分析 下
增速30%!2017年中國大數據產業規模為4700億元
數據:2017年全國鈦白粉總產量達287萬噸
2017-2018金數據中國文娛大數據發布盛典舉行
教育部公布數據:2017留學生人數突破60萬大關
2017年全國管樂器進出口數據分析及2018年預測
2018年一季度全國化妝品行業數據分析:化妝品消費收入同比增16.1%
火箭8000萬大毒瘤逆襲總冠軍!兩數據全場第1,1人頂勇士全隊10人