天天看點

推薦六個用于大資料分析的最好工具

在大資料和大資料分析,他們對企業的影響有一個興趣高漲。大資料分析是研究大量的資料的過程中尋找模式,相關性和其他有用的資訊,可以幫助企業更好地适應變化,并做出更明智的決策。

一、hadoop

hadoop 是一個能夠對大量資料進行分布式處理的軟體架構。但是 hadoop 是以一種可靠、高效、可伸縮的方式進行處理的。hadoop 是可靠的,因為它假設計算元素和存儲會失敗,是以它維護多個工作資料副本,確定能夠針對失敗的節點重新分布處理。hadoop 是高效的,因為它以并行的方式工作,通過并行處理加快處理速度。hadoop 還是可伸縮的,能夠處理 pb 級資料。此外,hadoop 依賴于社群伺服器,是以它的成本比較低,任何人都可以使用。

推薦六個用于大資料分析的最好工具

hadoop是一個能夠讓使用者輕松架構和使用的分布式計算平台。使用者可以輕松地在hadoop上開發和運作處理海量資料的應用程式。它主要有以下幾個優點:

⒈高可靠性。

hadoop按位存儲和處理資料的能力值得人們信賴。

⒉高擴充性。

hadoop是在可用的計算機集簇間配置設定資料并完成計算任務的,這些集簇可以友善地擴充到數以千計的節點中。

⒊高效性。

hadoop能夠在節點之間動态地移動資料,并保證各個節點的動态平衡,是以處理速度非常快。

⒋高容錯性。

hadoop能夠自動儲存資料的多個副本,并且能夠自動将失敗的任務重新配置設定。

hadoop帶有用 java 語言編寫的架構,是以運作在 linux 生産平台上是非常理想的。hadoop 上的應用程式也可以使用其他語言編寫,比如 c++。

二、hpcc

hpcc,high performance computing and communications(高性能計算與通信)的縮寫。1993年,由美國科學、工程、技術聯邦協調理事會向國會送出了“重大挑戰項目:高性能計算與 通信”的報告,也就是被稱為hpcc計劃的報告,即美國總統科學戰略項目,其目的是通過加強研究與開發解決一批重要的科學與技術挑戰問題。hpcc是美國 實施資訊高速公路而上實施的計劃,該計劃的實施将耗資百億美元,其主要目标要達到:開發可擴充的計算系統及相關軟體,以支援太位級網絡傳輸性能,開發千兆 比特網絡技術,擴充研究和教育機構及網絡連接配接能力。

推薦六個用于大資料分析的最好工具

該項目主要由五部分組成:

1、高性能計算機系統(hpcs),内容包括今後幾代計算機系統的研究、系統設計工具、先進的典型系統及原有系統的評價等;

2、先進軟體技術與算法(asta),内容有巨大挑戰問題的軟體支撐、新算法設計、軟體分支與工具、計算計算及高性能計算研究中心等;

3、國家科研與教育網格(nren),内容有中接站及10億位級傳輸的研究與開發;

4、基本研究與人類資源(brhr),内容有基礎研究、教育訓練、教育及課程教材,被設計通過獎勵調查者-開始的,長期 的調查在可更新的高性能計算中來增加創新意識流,通過提高教育和高性能的計算訓練和通信來加大熟練的和訓練有素的人員的聯營,和來提供必需的基礎架構來支 持這些調查和研究活動;

5、資訊基礎結構技術和應用(iita ),目的在于保證美國在先進資訊技術開發方面的領先地位。

三、storm

推薦六個用于大資料分析的最好工具

storm是自由的開源軟體,一個分布式的、容錯的實時計算系統。storm可以非常可靠的處理龐大的資料流,用于處理hadoop的批量資料。storm很簡單,支援許多種程式設計語言,使用起來非常有趣。storm由twitter開源而來,其它知名的應用企業包括groupon、淘寶、支付寶、阿裡巴巴、樂元素、admaster等等。

storm有許多應用領域:實時分析、線上機器學習、不停頓的計算、分布式rpc(遠過程調用協定,一種通過網絡從遠端計算機程式上請求服務)、 etl(extraction-transformation-loading的縮寫,即資料抽取、轉換和加載)等等。storm的處理速度驚人:經測 試,每個節點每秒鐘可以處理100萬個資料元組。storm是可擴充、容錯,很容易設定和操作。

四、apache drill

為了幫助企業使用者尋找更為有效、加快hadoop資料查詢的方法,apache軟體基金會近日發起了一項名為“drill”的開源項目。apache drill 實作了 google’s dremel.

據hadoop廠商mapr technologies公司産品經理tomer shiran介紹,“drill”已經作為apache孵化器項目來運作,将面向全球軟體工程師持續推廣。

推薦六個用于大資料分析的最好工具

該項目将會建立出開源版本的谷歌dremel hadoop工具(谷歌使用該工具來為hadoop資料分析工具的網際網路應用提速)。而“drill”将有助于hadoop使用者實作更快查詢海量資料集的目的。

“drill”項目其實也是從谷歌的dremel項目中獲得靈感:該項目幫助谷歌實作海量資料集的分析處理,包括分析抓取web文檔、跟蹤安裝在android market上的應用程式資料、分析垃圾郵件、分析谷歌分布式建構系統上的測試結果等等。

通過開發“drill”apache開源項目,組織機構将有望建立drill所屬的api接口和靈活強大的體系架構,進而幫助支援廣泛的資料源、資料格式和查詢語言。

五、rapidminer

rapidminer是世界領先的資料挖掘解決方案,在一個非常大的程度上有着先進技術。它資料挖掘任務涉及範圍廣泛,包括各種資料藝術,能簡化資料挖掘過程的設計和評價。

推薦六個用于大資料分析的最好工具

功能和特點

免費提供資料挖掘技術和庫

100%用java代碼(可運作在作業系統)

資料挖掘過程簡單,強大和直覺

内部xml保證了标準化的格式來表示交換資料挖掘過程

可以用簡單腳本語言自動進行大規模程序

多層次的資料視圖,確定有效和透明的資料

圖形使用者界面的互動原型

指令行(批處理模式)自動大規模應用

java api(應用程式設計接口)

簡單的插件和推廣機制

強大的可視化引擎,許多尖端的高維資料的可視化模組化

400多個資料挖掘營運商支援

耶魯大學已成功地應用在許多不同的應用領域,包括文本挖掘,多媒體挖掘,功能設計,資料流挖掘,內建開發的方法和分布式資料挖掘。

六、pentaho bi

pentaho bi 平台不同于傳統的bi 産品,它是一個以流程為中心的,面向解決方案(solution)的架構。其目的在于将一系列企業級bi産品、開源軟體、api等等元件內建起來,友善商務智能應用的開發。它的出現,使得一系列的面向商務智能的獨立産品如jfree、quartz等等,能夠內建在一起,構成一項項複雜的、完整的商務智能解決方案。

推薦六個用于大資料分析的最好工具

pentaho bi 平台,pentaho open bi 套件的核心架構和基礎,是以流程為中心的,因為其中樞控制器是一個工作流引擎。工作流引擎使用流程定義來定義在bi 平台上執行的商業智能流程。流程可以很容易的被定制,也可以添加新的流程。bi 平台包含元件和報表,用以分析這些流程的性能。目前,pentaho的主要組成元素包括報表生成、分析、資料挖掘和工作流管理等等。這些元件通過 j2ee、webservice、soap、http、java、javascript、portals等技術內建到pentaho平台中來。 pentaho的發行,主要以pentaho sdk的形式進行。

pentaho sdk共包含五個部分:pentaho平台、pentaho示例資料庫、可獨立運作的pentaho平台、pentaho解決方案示例和一個預先配制好的 pentaho網絡伺服器。其中pentaho平台是pentaho平台最主要的部分,囊括了pentaho平台源代碼的主體;pentaho資料庫為 pentaho平台的正常運作提供的資料服務,包括配置資訊、solution相關的資訊等等,對于pentaho平台來說它不是必須的,通過配置是可以用其它資料庫服務取代的;可獨立運作的pentaho平台是pentaho平台的獨立運作模式的示例,它示範了如何使pentaho平台在沒有應用伺服器支援的情況下獨立運作;

pentaho解決方案示例是一個eclipse工程,用來示範如何為pentaho平台開發相關的商業智能解決方案。

pentaho bi 平台建構于伺服器,引擎群組件的基礎之上。這些提供了系統的j2ee 伺服器,安全,portal,工作流,規則引擎,圖表,協作,内容管理,資料內建,分析和模組化功能。這些元件的大部分是基于标準的,可使用其他産品替換之。

本文作者:經緯方略

來源:51cto