2019-05-20 13:40:52 3246瀏覽
Hadoop是一個(gè)開(kāi)源的高效云計(jì)算基礎(chǔ)架構(gòu)平臺(tái),其不僅僅在云計(jì)算領(lǐng)域用途廣泛,還可以支撐搜索引擎服務(wù),作為搜索引擎底層的基礎(chǔ)架構(gòu)系統(tǒng),同時(shí)在海量數(shù)據(jù)處理、數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)、科學(xué)計(jì)算等領(lǐng)域都越來(lái)越受到青睞。本篇文章扣丁學(xué)堂大數(shù)據(jù)培訓(xùn)小編給讀者們分享一下Hadoop在國(guó)外的現(xiàn)狀,感興趣的小伙伴就隨小編來(lái)了解一下吧。
1、Yahoo
Yahoo是Hadoop的最大支持者,截至2012年,Yahoo的Hadoop機(jī)器總節(jié)點(diǎn)數(shù)目超過(guò)42?000個(gè),有超過(guò)10萬(wàn)的核心CPU在運(yùn)行Hadoop。最大的一個(gè)單Master節(jié)點(diǎn)集群有4500個(gè)節(jié)點(diǎn)(每個(gè)節(jié)點(diǎn)雙路4核心CPUboxesw,4×1TB磁盤(pán),16GBRAM)??偟募捍鎯?chǔ)容量大于350PB,每月提交的作業(yè)數(shù)目超過(guò)1000萬(wàn)個(gè),在Pig中超過(guò)60%的Hadoop作業(yè)是使用Pig編寫(xiě)提交的。
Yahoo的Hadoop應(yīng)用主要包括以下幾個(gè)方面:
支持廣告系統(tǒng)
用戶行為分析
支持Web搜索
反垃圾郵件系統(tǒng)
會(huì)員反濫用
內(nèi)容敏捷
個(gè)性化推薦
同時(shí)Pig研究并測(cè)試支持超大規(guī)模節(jié)點(diǎn)集群的Hadoop系統(tǒng)。
2、Facebook
Facebook使用Hadoop存儲(chǔ)內(nèi)部日志與多維數(shù)據(jù),并以此作為報(bào)告、分析和機(jī)器學(xué)習(xí)的數(shù)據(jù)源。目前Hadoop集群的機(jī)器節(jié)點(diǎn)超過(guò)1400臺(tái),共計(jì)11?200個(gè)核心CPU,超過(guò)15PB原始存儲(chǔ)容量,每個(gè)商用機(jī)器節(jié)點(diǎn)配置了8核CPU,12TB數(shù)據(jù)存儲(chǔ),主要使用StreamingAPI和JavaAPI編程接口。Facebook同時(shí)在Hadoop基礎(chǔ)上建立了一個(gè)名為Hive的高級(jí)數(shù)據(jù)倉(cāng)庫(kù)框架,Hive已經(jīng)正式成為基于Hadoop的Apache一級(jí)項(xiàng)目。此外,還開(kāi)發(fā)了HDFS上的FUSE實(shí)現(xiàn)。
3、A9.com
A9.com為Amazon使用Hadoop構(gòu)建了商品搜索索引,主要使用StreamingAPI以及C++、Perl和Python工具,同時(shí)使用Java和StreamingAPI分析處理每日數(shù)以百萬(wàn)計(jì)的會(huì)話。A9.com為Amazon構(gòu)建的索引服務(wù)運(yùn)行在100節(jié)點(diǎn)左右的Hadoop集群上。
4、Adobe
Adobe主要使用Hadoop及HBase,同于支撐社會(huì)服務(wù)計(jì)算,以及結(jié)構(gòu)化的數(shù)據(jù)存儲(chǔ)和處理。大約有超過(guò)30個(gè)節(jié)點(diǎn)的Hadoop-HBase生產(chǎn)集群。Adobe將數(shù)據(jù)直接持續(xù)地存儲(chǔ)在HBase中,并以HBase作為數(shù)據(jù)源運(yùn)行MapReduce作業(yè)處理,然后將其運(yùn)行結(jié)果直接存到HBase或外部系統(tǒng)。Adobe在2008年10月就已經(jīng)將Hadoop和HBase應(yīng)用于生產(chǎn)集群。
5、CbIR
自2008年4月以來(lái),日本的CbIR(Content-basedInformationRetrieval)公司在AmazonEC2上使用Hadoop來(lái)構(gòu)建圖像處理環(huán)境,用于圖像產(chǎn)品推薦系統(tǒng)。使用Hadoop環(huán)境生成源數(shù)據(jù)庫(kù),便于Web應(yīng)用對(duì)其快速訪問(wèn),同時(shí)使用Hadoop分析用戶行為的相似性。
6、Datagraph
Datagraph主要使用Hadoop批量處理大量的RDF數(shù)據(jù)集,尤其是利用Hadoop對(duì)RDF數(shù)據(jù)建立索引。Datagraph也使用Hadoop為客戶執(zhí)行長(zhǎng)時(shí)間運(yùn)行的離線SPARQL查詢。Datagraph是使用AmazonS3和Cassandra存儲(chǔ)RDF數(shù)據(jù)輸入和輸出文件的,并已經(jīng)開(kāi)發(fā)了一個(gè)基于MapReduce處理RDF數(shù)據(jù)的Ruby框架——RDFgrid。
Datagraph主要使用Ruby、RDF.rb以及自己開(kāi)發(fā)的RDFgrid框架來(lái)處理RDF數(shù)據(jù),主要使用HadoopStreaming接口。
7、EBay
單集群超過(guò)532節(jié)點(diǎn)集群,單節(jié)點(diǎn)8核心CPU,容量超過(guò)5.3PB存儲(chǔ)。大量使用的MapReduce的Java接口、Pig、Hive來(lái)處理大規(guī)模的數(shù)據(jù),還使用HBase進(jìn)行搜索優(yōu)化和研究。
8、IBM
IBM藍(lán)云也利用Hadoop來(lái)構(gòu)建云基礎(chǔ)設(shè)施。IBM藍(lán)云使用的技術(shù)包括:Xen和PowerVM虛擬化的Linux操作系統(tǒng)映像及Hadoop并行工作量調(diào)度,并發(fā)布了自己的Hadoop發(fā)行版及大數(shù)據(jù)解決方案。
9、Last.Fm
Last.Fm主要用于圖表計(jì)算、專利申報(bào)、日志分析、A/B測(cè)試、數(shù)據(jù)集合并等,也使用Hadoop對(duì)超過(guò)百萬(wàn)的曲目進(jìn)行大規(guī)模的音頻特征分析。
節(jié)點(diǎn)超過(guò)100臺(tái)機(jī)器,集群節(jié)點(diǎn)配置雙四核XeonL5520@2.27GHzL5630@2.13GHz,24GB內(nèi)存,8TB(4×2TB)存儲(chǔ)。
10、LinkedIn
LinkedIn有多種硬件配置的Hadoop集群,主要集群配置如下:
800節(jié)點(diǎn)集群,基于Westmere的惠普SL170X與2×4的核心,24GB內(nèi)存,6×2TBSATA。
1900節(jié)點(diǎn)集群,基于Westmere的超微-HX8DTT,與2×6的核心,24GB內(nèi)存,6×2TBSATA。
1400節(jié)點(diǎn)集群,基于SandyBridge超微與2×6的核心,32GB內(nèi)存,6×2TBSATA。
使用的軟件如下:
操作系統(tǒng)使用RHEL6.3。
JDK使用SUNJDK1.6.0_32。
Apache的Hadoop0.20.2的補(bǔ)丁和ApacheHadoop的1.0.4補(bǔ)丁。
Azkaban和Azkaban用于作業(yè)調(diào)度。
Hive、Avro、Kafka等。
11、MobileAnalytic.TV
主要使用Hadoop應(yīng)用在并行化算法領(lǐng)域,涉及的MapReduce應(yīng)用算法如下。
信息檢索和分析。
機(jī)器生成的內(nèi)容——文檔、文本、音頻、視頻。
自然語(yǔ)言處理。
項(xiàng)目組合包括:
移動(dòng)社交網(wǎng)絡(luò)。
網(wǎng)絡(luò)爬蟲(chóng)。
文本到語(yǔ)音轉(zhuǎn)化。
音頻和視頻自動(dòng)生成。
12、Openstat
主要利用Hadoop定制一個(gè)網(wǎng)絡(luò)日志分析并生成報(bào)告,其生產(chǎn)環(huán)境下超過(guò)50個(gè)節(jié)點(diǎn)集群(雙路四核Xeon處理器,16GB的RAM,4~6硬盤(pán)驅(qū)動(dòng)器),還有兩個(gè)相對(duì)小的集群用于個(gè)性化分析,每天處理約500萬(wàn)的事件,每月15億美元的交易數(shù)據(jù),集群每天產(chǎn)生大約25GB的報(bào)告。
使用的技術(shù)主要包括:CDH、Cascading、Janino。
13、Quantcast
3000個(gè)CPU核心,3500TB存儲(chǔ),每日處理1PB以上的數(shù)據(jù),使用完全自定義的數(shù)據(jù)路徑和排序器的Hadoop調(diào)度器,對(duì)KFS文件系統(tǒng)有突出貢獻(xiàn)。
14、Rapleaf
超過(guò)80個(gè)節(jié)點(diǎn)的集群(每個(gè)節(jié)點(diǎn)有2個(gè)雙核CPU,2TB×8存儲(chǔ),16GBRAM內(nèi)存);主要使用Hadoop、Hive處理Web上關(guān)聯(lián)到個(gè)人的數(shù)據(jù),并引入Cascading簡(jiǎn)化數(shù)據(jù)流穿過(guò)各種處理階段。
15、WorldLingo
硬件上超過(guò)44臺(tái)服務(wù)器(每臺(tái)有2個(gè)雙核CPU,2TB存儲(chǔ),8GB內(nèi)存),每臺(tái)服務(wù)器均運(yùn)行Xen,啟動(dòng)一個(gè)虛擬機(jī)實(shí)例運(yùn)行Hadoop/HBase,再啟動(dòng)一個(gè)虛擬機(jī)實(shí)例運(yùn)行Web或應(yīng)用程序服務(wù)器,即有88臺(tái)可用的虛擬機(jī);運(yùn)行兩套獨(dú)立的Hadoop/HBase機(jī)群,它們各自擁有22個(gè)節(jié)點(diǎn)。Hadoop主要用于運(yùn)行HBase和MapReduce作業(yè),掃描HBase的數(shù)據(jù)表,執(zhí)行特定的任務(wù)。HBase作為一種可擴(kuò)展的、快速的存儲(chǔ)后端,用于保存數(shù)以百萬(wàn)的文檔。目前存儲(chǔ)了1200萬(wàn)篇文檔,近期的目標(biāo)是存儲(chǔ)4.5億篇文檔。
16、格拉斯哥大學(xué)的TerrierTeam
超過(guò)30個(gè)節(jié)點(diǎn)的實(shí)驗(yàn)集群(每節(jié)點(diǎn)配置XeonQuadCore2.4GHz,4GB內(nèi)存,1TB存儲(chǔ))。使用Hadoop促進(jìn)信息檢索研究和試驗(yàn),特別是用于TREC,用于TerrierIR平臺(tái)。Terrier的開(kāi)源發(fā)行版中包含了基于HadoopMapReduce的大規(guī)模分布式索引。
17、內(nèi)布拉斯加大學(xué)的HollandComputingCenter
運(yùn)行一個(gè)中等規(guī)模的Hadoop機(jī)群(共計(jì)1.6PB存儲(chǔ))用于存儲(chǔ)和提供物理數(shù)據(jù),以支持緊湊型μ子螺旋型磁譜儀(CompactMuonSolenoid,CMS)實(shí)驗(yàn)的計(jì)算。這需要一類(lèi)能夠以幾Gbps的速度下載數(shù)據(jù),并以更高的速度處理數(shù)據(jù)的文件系統(tǒng)的支持。
18、VisibleMeasures
將Hadoop作為可擴(kuò)展數(shù)據(jù)流水線的一個(gè)組件,最終用于VisibleSuite等產(chǎn)品。使用Hadoop匯總、存儲(chǔ)和分析與網(wǎng)絡(luò)視頻觀眾收看行為相關(guān)的數(shù)據(jù)流。目前的網(wǎng)格包括超過(guò)128個(gè)CPU核心,超過(guò)100TB的存儲(chǔ),并計(jì)劃大幅擴(kuò)容。
想要了解更多關(guān)于大數(shù)據(jù)開(kāi)發(fā)方面內(nèi)容的小伙伴,請(qǐng)關(guān)注扣丁學(xué)堂大數(shù)據(jù)培訓(xùn)官網(wǎng)、微信等平臺(tái),扣丁學(xué)堂IT職業(yè)在線學(xué)習(xí)教育有專業(yè)的大數(shù)據(jù)講師為您指導(dǎo),此外扣丁學(xué)堂老師精心推出的大數(shù)據(jù)視頻教程定能讓你快速掌握大數(shù)據(jù)從入門(mén)到精通開(kāi)發(fā)實(shí)戰(zhàn)技能??鄱W(xué)堂大數(shù)據(jù)學(xué)習(xí)群:209080834。
【關(guān)注微信公眾號(hào)獲取更多學(xué)習(xí)資料】 【掃碼進(jìn)入Python全棧開(kāi)發(fā)免費(fèi)公開(kāi)課】
查看更多關(guān)于“大數(shù)據(jù)培訓(xùn)資訊”的相關(guān)文章>