国产一级一区二区_segui88久久综合9999_97久久夜色精品国产_欧美色网一区二区

掃一掃
關注微信公眾號

大數據時代下的數據分析-Hadoop架構解析
2011-09-05   服務器在線

隨著互聯網、移動互聯網和物聯網的發展,誰也無法否認,我們已經切實地迎來了一個海量數據的時代,數據調查公司IDC預計2011年的數據總量將達到1.8萬億GB,對這些海量數據的分析已經成為一個非常重要且緊迫的需求。

作為一家互聯網數據分析公司,我們在海量數據的分析領域那真是被“逼上梁山”。多年來在嚴苛的業務需求和數據壓力下,我們幾乎嘗試了所有可能的大數據分析方法,最終落地于Hadoop平臺之上。

Hadoop在可伸縮性、健壯性、計算性能和成本上具有無可替代的優勢,事實上已成為當前互聯網企業主流的大數據分析平臺。本文主要介紹一種基于Hadoop平臺的多維分析和數據挖掘平臺架構。

大數據分析的分類

Hadoop平臺對業務的針對性較強,為了讓你明確它是否符合你的業務,現粗略地從幾個角度將大數據分析的業務需求分類,針對不同的具體需求,應采用不同的數據分析架構。

按照數據分析的實時性,分為實時數據分析和離線數據分析兩種。

實時數據分析一般用于金融、移動和互聯網B2C等產品,往往要求在數秒內返回上億行數據的分析,從而達到不影響用戶體驗的目的。要滿足這樣的需求,可以采用精心設計的傳統關系型數據庫組成并行處理集群,或者采用一些內存計算平臺,或者采用HDD的架構,這些無疑都需要比較高的軟硬件成本。目前比較新的海量數據實時分析工具有EMC的Greenplum、SAP的HANA等。

對于大多數反饋時間要求不是那么嚴苛的應用,比如離線統計分析、機器學習、搜索引擎的反向索引計算、推薦引擎的計算等,應采用離線分析的方式,通過數據采集工具將日志數據導入專用的分析平臺。但面對海量數據,傳統的ETL工具往往徹底失效,主要原因是數據格式轉換的開銷太大,在性能上無法滿足海量數據的采集需求。互聯網企業的海量數據采集工具,有Facebook 開源的Scribe、LinkedIn開源的Kafka、淘寶開源的Timetunnel、Hadoop的Chukwa等,均可以滿足每秒數百MB的日志數據采集和傳輸需求,并將這些數據上載到Hadoop中央系統上。

按照大數據的數據量,分為內存級別、BI級別、海量級別三種。

這里的內存級別指的是數據量不超過集群的內存最大值。不要小看今天內存的容量,Facebook緩存在內存的Memcached中的數據高達 320TB,而目前的PC服務器,內存也可以超過百GB。因此可以采用一些內存數據庫,將熱點數據常駐內存之中,從而取得非常快速的分析能力,非常適合實時分析業務。圖1是一種實際可行的MongoDB分析架構。

 
圖1 用于實時分析的MongoDB架構

MongoDB大集群目前存在一些穩定性問題,會發生周期性的寫堵塞和主從同步失效,但仍不失為一種潛力十足的可以用于高速數據分析的NoSQL。

此外,目前大多數服務廠商都已經推出了帶4GB以上SSD的解決方案,利用內存+SSD,也可以輕易達到內存分析的性能。隨著SSD的發展,內存數據分析必然能得到更加廣泛的應用。

BI級別指的是那些對于內存來說太大的數據量,但一般可以將其放入傳統的BI產品和專門設計的BI數據庫之中進行分析。目前主流的BI產品都有支持TB級以上的數據分析方案。種類繁多,就不具體列舉了。

海量級別指的是對于數據庫和BI產品已經完全失效或者成本過高的數據量。海量數據級別的優秀企業級產品也有很多,但基于軟硬件的成本原因,目前大多數互聯網企業采用Hadoop的HDFS分布式文件系統來存儲數據,并使用MapReduce進行分析。本文稍后將主要介紹Hadoop上基于 MapReduce的一個多維數據分析平臺。

#p#副標題#e#

數據分析的算法復雜度

根據不同的業務需求,數據分析的算法也差異巨大,而數據分析的算法復雜度和架構是緊密關聯的。舉個例子,Redis是一個性能非常高的內存Key-Value NoSQL,它支持List和Set、SortedSet等簡單集合,如果你的數據分析需求簡單地通過排序,鏈表就可以解決,同時總的數據量不大于內存 (準確地說是內存加上虛擬內存再除以2),那么無疑使用Redis會達到非常驚人的分析性能。

還有很多易并行問題(Embarrassingly Parallel),計算可以分解成完全獨立的部分,或者很簡單地就能改造出分布式算法,比如大規模臉部識別、圖形渲染等,這樣的問題自然是使用并行處理集群比較適合。

而大多數統計分析,機器學習問題可以用MapReduce算法改寫。MapReduce目前最擅長的計算領域有流量統計、推薦引擎、趨勢分析、用戶行為分析、數據挖掘分類器、分布式索引等。

面對大數據OLAP分析的一些問題

OLAP分析需要進行大量的數據分組和表間關聯,而這些顯然不是NoSQL和傳統數據庫的強項,往往必須使用特定的針對BI優化的數據庫。比如絕大多數針對BI優化的數據庫采用了列存儲或混合存儲、壓縮、延遲加載、對存儲數據塊的預統計、分片索引等技術。

Hadoop平臺上的OLAP分析,同樣存在這個問題,Facebook針對Hive開發的RCFile數據格式,就是采用了上述的一些優化技術,從而達到了較好的數據分析性能。如圖2所示。

 
圖2 RCFile的行列混合存

然而,對于Hadoop平臺來說,單單通過使用Hive模仿出SQL,對于數據分析來說遠遠不夠,首先Hive雖然將HiveQL翻譯 MapReduce的時候進行了優化,但依然效率低下。多維分析時依然要做事實表和維度表的關聯,維度一多性能必然大幅下降。其次,RCFile的行列混合存儲模式,事實上限制死了數據格式,也就是說數據格式是針對特定分析預先設計好的,一旦分析的業務模型有所改動,海量數據轉換格式的代價是極其巨大的。最后,HiveQL對OLAP業務分析人員依然是非常不友善的,維度和度量才是直接針對業務人員的分析語言。

而且目前OLAP存在的最大問題是:業務靈活多變,必然導致業務模型隨之經常發生變化,而業務維度和度量一旦發生變化,技術人員需要把整個Cube(多維立方體)重新定義并重新生成,業務人員只能在此Cube上進行多維分析,這樣就限制了業務人員快速改變問題分析的角度,從而使所謂的BI系統成為死板的日常報表系統。

使用Hadoop進行多維分析,首先能解決上述維度難以改變的問題,利用Hadoop中數據非結構化的特征,采集來的數據本身就是包含大量冗余信息的。同時也可以將大量冗余的維度信息整合到事實表中,這樣可以在冗余維度下靈活地改變問題分析的角度。其次利用Hadoop MapReduce強大的并行化處理能力,無論OLAP分析中的維度增加多少,開銷并不顯著增長。換言之,Hadoop可以支持一個巨大無比的Cube,包含了無數你想到或者想不到的維度,而且每次多維分析,都可以支持成千上百個維度,并不會顯著影響分析的性能。

因此,我們的大數據分析架構在這個巨大Cube的支持下,直接把維度和度量的生成交給業務人員,由業務人員自己定義好維度和度量之后,將業務的維度和度量直接翻譯成 MapReduce運行,并最終生成報表。可以簡單理解為用戶快速自定義的“MDX”(多維表達式,或者多維立方體查詢)語言→MapReduce的轉換工具。同時OLAP分析和報表結果的展示,依然兼容傳統的BI和報表產品。如圖3所示。

 
圖3 MDX→MapReduce簡略示意圖

圖3可以看出,在年收入上,用戶可以自己定義子維度。另外,用戶也可以在列上自定義維度,比如將性別和學歷合并為一個維度。由于Hadoop數據的非結構化特征,維度可以根據業務需求任意地劃分和重組。

#p#副標題#e#

一種Hadoop多維分析平臺的架構

整個架構由四大部分組成:數據采集模塊、數據冗余模塊、維度定義模塊、并行分析模塊。如圖4所示。

 
圖4 Hadoop多維分析平臺架構圖

數據采集模塊采用了Cloudera的Flume,將海量的小日志文件進行高速傳輸和合并,并能夠確保數據的傳輸安全性。單個collector宕機之后,數據也不會丟失,并能將agent數據自動轉移到其他的colllecter處理,不會影響整個采集系統的運行。如圖5所示。

 
圖5 采集模塊

數據冗余模塊不是必須的,但如果日志數據中沒有足夠的維度信息,或者需要比較頻繁地增加維度,則需要定義數據冗余模塊。通過冗余維度定義器定義需要冗余的維度信息和來源(數據庫、文件、內存等),并指定擴展方式,將信息寫入數據日志中。在海量數據下,數據冗余模塊往往成為整個系統的瓶頸,建議使用一些比較快的內存NoSQL來冗余原始數據,并采用盡可能多的節點進行并行冗余;或者也完全可以在Hadoop中執行批量Map,進行數據格式的轉化。

維度定義模塊是面向業務用戶的前端模塊,用戶通過可視化的定義器從數據日志中定義維度和度量,并能自動生成一種多維分析語言,同時可以使用可視化的分析器通過GUI執行剛剛定義好的多維分析命令。

并行分析模塊接受用戶提交的多維分析命令,并將通過核心模塊將該命令解析為Map-Reduce,提交給Hadoop集群之后,生成報表供報表中心展示。

核心模塊是將多維分析語言轉化為MapReduce的解析器,讀取用戶定義的維度和度量,將用戶的多維分析命令翻譯成MapReduce程序。核心模塊的具體邏輯如圖6所示。

 
圖6 核心模塊的邏輯

圖6中根據JobConf參數進行Map和Reduce類的拼裝并不復雜,難點是很多實際問題很難通過一個MapReduce Job解決,必須通過多個MapReduce Job組成工作流(WorkFlow),這里是最需要根據業務進行定制的部分。圖7是一個簡單的MapReduce工作流的例子。

 
圖7 MapReduce WorkFlow例子

MapReduce的輸出一般是統計分析的結果,數據量相較于輸入的海量數據會小很多,這樣就可以導入傳統的數據報表產品中進行展現。

結束語

當然,這樣的多維分析架構也不是沒有缺點。由于MapReduce本身就是以蠻力去掃描大部分數據進行計算,因此無法像傳統BI產品一樣對條件查詢做優化,也沒有緩存的概念。往往很多很小的查詢需要“興師動眾”。盡管如此,開源的Hadoop還是解決了很多人在大數據下的分析問題,真可謂是“功德無量”。

Hadoop集群軟硬件的花費極低,每GB存儲和計算的成本是其他企業級產品的百分之一甚至千分之一,性能卻非常出色。我們可以輕松地進行千億乃至萬億數據級別的多維統計分析和機器學習。

6月29日的Hadoop Summit 2011上,Yahoo!剝離出一家專門負責Hadoop開發和運維的公司Hortonworks。Cloudera帶來了大量的輔助工具,MapR帶來了號稱三倍于Hadoop MapReduce速度的并行計算平臺。Hadoop必將很快迎來下一代產品,屆時其必然擁有更強大的分析能力和更便捷的使用方式,從而真正輕松面對未來海量數據的挑戰。

熱詞搜索:

上一篇:五大建議讓你輕輕松松實現應用交付優化
下一篇:存儲分析:磁帶沒有退出市場的十大理由

分享到: 收藏
国产一级一区二区_segui88久久综合9999_97久久夜色精品国产_欧美色网一区二区
麻豆精品国产传媒mv男同| 色综合久久中文综合久久牛| 久久久国产精品午夜一区ai换脸| 国产精品乱码一区二三区小蝌蚪| 日本伊人精品一区二区三区观看方式| 91免费视频网| 亚洲少妇30p| 性做久久久久久| 国产精品理论片在线观看| 一本久久a久久精品亚洲| 国产尤物一区二区| 久久嫩草精品久久久精品| 日本乱人伦一区| 香蕉加勒比综合久久| 一本大道综合伊人精品热热| 亚洲精品亚洲人成人网在线播放| 久久免费的精品国产v∧| 在线日韩一区二区| 久久色.com| 在线播放中文字幕一区| 成人国产精品免费网站| 国产亚洲午夜高清国产拍精品 | 成人av在线资源网| 欧美精品一区二区精品网| 日本午夜精品一区二区三区电影| 欧美丝袜第三区| 欧美a级一区二区| 久久久亚洲国产美女国产盗摄 | 欧美一级久久久| 狠狠色丁香久久婷婷综合丁香| 精品国产成人在线影院 | 日韩欧美一二三| 国产九色sp调教91| 久久亚洲综合av| 国产精品一区在线观看乱码| 国产欧美日韩另类一区| 在线亚洲一区观看| 青青草原综合久久大伊人精品| 精品国产不卡一区二区三区| av激情综合网| 捆绑调教一区二区三区| 国产免费观看久久| 国产一区视频网站| 精品国产91九色蝌蚪| 国产成人欧美日韩在线电影| 欧美国产97人人爽人人喊| 在线亚洲精品福利网址导航| 老司机一区二区| 亚洲一区二区三区在线看| 日韩三级在线观看| 在线中文字幕一区二区| 精品一区二区综合| 亚洲综合激情小说| 久久久久青草大香线综合精品| 91免费国产在线观看| 奇米综合一区二区三区精品视频 | 国产美女精品人人做人人爽| 亚洲综合999| 国产精品三级电影| 91精品国产一区二区人妖| kk眼镜猥琐国模调教系列一区二区 | 1区2区3区精品视频| 制服丝袜中文字幕一区| av资源站一区| 国产一区二区主播在线| 亚洲国产成人av| 亚洲黄色性网站| 日本一区免费视频| 久久久亚洲午夜电影| 欧美浪妇xxxx高跟鞋交| 色丁香久综合在线久综合在线观看| 国产精品一区二区x88av| 日日摸夜夜添夜夜添精品视频 | 亚洲婷婷综合色高清在线| 精品免费国产一区二区三区四区| 欧美四级电影网| 欧美在线观看视频一区二区| 成人福利电影精品一区二区在线观看| 久久99精品国产麻豆不卡| 日韩激情视频在线观看| 午夜精品福利一区二区三区av| 亚洲天堂av一区| 中文字幕日本乱码精品影院| 国产精品你懂的在线欣赏| 欧美激情一区二区三区| 国产精品久久久久久妇女6080 | 日本道免费精品一区二区三区| 不卡的av网站| 97se亚洲国产综合自在线不卡| 成人黄色大片在线观看| 99综合电影在线视频| 97久久精品人人澡人人爽| 97超碰欧美中文字幕| 91黄色免费看| 91精品国产一区二区人妖| 欧美一级二级三级乱码| 日韩精品中文字幕一区| 亚洲精品一区二区三区蜜桃下载 | 亚洲欧美经典视频| 午夜精品爽啪视频| 美女脱光内衣内裤视频久久影院| 国产在线一区二区综合免费视频| 国内成人免费视频| 成人激情av网| 欧美视频一二三区| 国产日韩综合av| 国产精品美女一区二区三区| 欧美成人三级电影在线| 日韩三级精品电影久久久| 欧美日韩在线播| 成人av电影免费在线播放| 日本午夜精品一区二区三区电影| 91成人看片片| 欧美色网站导航| 久久人人爽人人爽| 中文字幕精品综合| 亚洲欧美一区二区三区极速播放| 亚洲6080在线| 成人自拍视频在线观看| 精品视频在线免费| 日韩一区二区三区四区五区六区| 久久综合九色综合97婷婷| 国产精品天天摸av网| 亚洲风情在线资源站| 高清视频一区二区| 欧美日韩极品在线观看一区| 久久免费视频色| 日韩电影网1区2区| 91麻豆国产香蕉久久精品| 欧美一区二区久久| 洋洋av久久久久久久一区| 国模无码大尺度一区二区三区| 91天堂素人约啪| 久久综合九色综合97婷婷女人| 综合精品久久久| 国产精品一级片在线观看| 欧美日韩卡一卡二| 亚洲三级在线免费观看| 国产精品一二一区| 精品国产91乱码一区二区三区| 有码一区二区三区| www.av精品| 中文一区一区三区高中清不卡| 天堂成人免费av电影一区| av一区二区不卡| 国产精品乱码一区二区三区软件 | 亚洲丝袜精品丝袜在线| 九九国产精品视频| 正在播放亚洲一区| 亚洲午夜视频在线| 欧美探花视频资源| 亚洲免费色视频| 91免费看视频| 综合网在线视频| 91丨九色丨国产丨porny| 国产欧美一区二区精品忘忧草| 蜜臀av一区二区在线观看| 欧美性猛片xxxx免费看久爱| 亚洲欧美视频在线观看| 国产乱妇无码大片在线观看| 精品久久五月天| 韩国一区二区在线观看| 久久先锋影音av鲁色资源网| 日韩av电影天堂| 日韩欧美中文字幕一区| 五月婷婷久久丁香| 欧美一级日韩不卡播放免费| 婷婷一区二区三区| 日韩欧美电影一区| 国产成人精品在线看| 久久精品一区二区| 99麻豆久久久国产精品免费| 国产精品亲子伦对白| 97超碰欧美中文字幕| 亚洲国产精品一区二区久久恐怖片| 日本精品一级二级| 亚洲高清三级视频| 91精品一区二区三区在线观看| 免费欧美在线视频| 久久婷婷综合激情| 成人av网址在线观看| 亚洲美女区一区| 欧美调教femdomvk| 免费xxxx性欧美18vr| 精品国产91久久久久久久妲己| 丰满亚洲少妇av| 亚洲精品成人a在线观看| 7777精品伊人久久久大香线蕉完整版 | 精品国产露脸精彩对白| 国产一区二区剧情av在线| 亚洲国产精华液网站w| 蜜桃精品在线观看| 国产精品女主播在线观看| 色网综合在线观看| 美女精品一区二区| 综合av第一页| 日韩一区二区在线观看视频 | 久久久九九九九| 91精品福利视频| 极品美女销魂一区二区三区|