注冊
大數據
您當前所在位置:

大數據分析及其工具

來源:  撰稿人:  發布時間:2015年05月19日 瀏覽:
摘要:

  大數據分析是指對規模巨大的數據進行分析,主要包括以下五個方面:

  1. Analytic Visualizations(可視化分析)

  不管是對數據分析專家還是普通用戶,數據可視化是數據分析工具最基本的要求。可視化可以直觀的展示數據,讓數據自己說話,讓觀眾聽到結果。

  2. Data Mining Algorithms(數據挖掘算法)

  可視化是給人看的,數據挖掘就是給機器看的。集群、分割、孤立點分析還有其他的算法讓我們深入數據內部,挖掘價值。這些算法不僅要處理大數據的量,也要處理大數據的速度。

  3. Predictive Analytic Capabilities(預測性分析能力)

  數據挖掘可以讓分析員更好的理解數據,而預測性分析可以讓分析員根據可視化分析和數據挖掘的結果做出一些預測性的判斷。

  4. Semantic Engines(語義引擎)

  我們知道由于非結構化數據的多樣性帶來了數據分析的新的挑戰,我們需要一系列的工具去解析,提取,分析數據。語義引擎需要被設計成能夠從“文檔”中智能提取信息。?

  5. Data Quality and Master Data Management(數據質量和數據管理)

  數據質量和數據管理是一些管理方面的最佳實踐。通過標準化的流程和工具對數據進行處理可以保證一個預先定義好的高質量的分析結果。

  大數據分析的工具主要包括數據倉庫、數據集市、前端展現等。目前開源工具中廣泛使用的是Hadoop,Hadoop是一個項目的總稱,主要是由HDFS和 MapReduce組成。其中HDFS是Google File System(GFS)的開源實現,MapReduce是Google MapReduce的開源實現。

  Google最早建立了大數據分析工具體系,Google的數據中心使用廉價的Linux PC機組成集群,在上面運行各種應用。即使是分布式開發的新手也可以迅速使用Google的基礎設施。核心組件是3個:

  ⒈GFS(Google File System)。一個分布式文件系統,隱藏下層負載均衡,冗余復制等細節,對上層程序提供一個統一的文件系統API接口。Google根據自己的需求對它 進行了特別優化,包括:超大文件的訪問,讀操作比例遠超過寫操作,PC機極易發生故障造成節點失效等。GFS把文件分成64MB的塊,分布在集群的機器 上,使用Linux的文件系統存放。同時每塊文件至少有3份以上的冗余。中心是一個Master節點,根據文件索引,找尋文件塊。詳見Google的工程 師發布的GFS論文。

  ⒉MapReduce。Google發現大多數分布式運算可以抽象為MapReduce操作。Map是把輸入Input分解成中間的Key/Value 對,Reduce把Key/Value合成最終輸出Output。這兩個函數由程序員提供給系統,下層設施把Map和Reduce操作分布在集群上運行, 并把結果存儲在GFS上。

  ⒊BigTable。一個大型的分布式數據庫,這個數據庫不是關系式的數據庫。像它的名字一樣,就是一個巨大的表格,用來存儲結構化的數據。

  當前用于分析大數據的工具主要有開源與商用兩個生態圈。

  開源大數據生態圈:

  1、Hadoop HDFS、HadoopMapReduce, HBase、Hive 漸次誕生,早期Hadoop生態圈逐步形成。

  2、. Hypertable是另類。它存在于Hadoop生態圈之外,但也曾經有一些用戶。

  3、NoSQL,membase、MongoDb

  商用大數據生態圈:

  1、一體機數據庫/數據倉庫:IBM PureData(Netezza), OracleExadata, SAP Hana等等。

  2、數據倉庫:TeradataAsterData, EMC GreenPlum, HPVertica 等等。

  3、數據集市:QlikView、 Tableau 、 以及國內的Yonghong Data Mart 。

責任編輯:系統管理員
分享文章到:
0
瀏覽次數:
】 【 打印本頁】 【 關閉窗口
因特網信息服務經營許可證:電信業務審批[2004]885號 京ICP證040699號 海淀公安分局備案號:1101081900 廣告經營許可證:京海工商廣字第9990號
香蕉视频app网址安卓下载-香蕉app视频在线观看-香蕉视频无限观看免费下载 中科匯聯承辦,easysite內容管理系統,portal門戶,輿情監測,搜索引擎,政府門戶,信息公開,電子政務