999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

大數據資料常見的Hadoop應用誤解

2019-09-10 07:22:44李榮
計算機與網絡 2019年14期
關鍵詞:數據庫

李榮

Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。用戶可以在不了解分布式底層細節的情況下,開發分布式程序。并充分利用集群的威力進行高速運算和存儲。以下是常見的Hadoop十大應用誤解和正解。

1.(誤解)Hadoop什么都可以做

(正解)當一個新技術出來時,我們都會去思考它在各個不同產業的應用,而對于平臺的新技術來說,我們思考之后常會出現這樣的結論“這個好像什么都能做”,然而,更深入地去想,就會發現“好像什么都需要重頭做”。對于Hadoop,本人常喜歡舉數據庫(Database)來當例子。三十年前Database剛出來時,上面并沒有什么現成的應用方案(Application),所以廠商在銷售的過程中常需要花很多的時間去告訴客戶說,如果今天你有了這個數據庫,你就可以做什么什么的應用,而看起來的確好像數據庫什么應用都可以做,因為畢竟大部分的應用都會需要一個數據庫。只是三十年前所有的應用都得重頭打造,我們今天習以為常的ERP、CRM等應用系統,當時并不存在的。今天的Hadoop,正好有點像當年database剛出來的時候,畢竟今天所有的應用或多或少都會開始去處理半結構、非結構化數據,而這些東西的確都是Hadoop擅長的,所以平臺的適用性問題不大,重點還是在應用要由誰來搭建。

2.(誤解)Hadoop無法扮演HPC or Grid Computing的角色

(正解)由于Hadoop本身是由并行運算架構(MapReduce)與分布式文件系統(HDFS)所組成,所以我們看到很多研究機構或教育單位,開始嘗試把部分原本執行在HPC或Grid上面的任務,移植到Hadoop集群上面,利用Hadoop兼顧高速運算與海量儲存的特性,更簡易且更有效率地來執行工作。目前國外高能物理、生命科學和醫學等領域,都已經有這樣的應用案例,利用Hadoop集群與現有的HPC/Grid搭配、協同運作,滿足不同特性的運算任務。

3.(誤解)Hadoop只能做資料分析或挖掘

(正解)Hadoop特別適合來數據分析與挖掘的應用是毫無疑問的,但數據分析與挖掘是難度與深度都較高的一個應用,所需要的時間積累也比較長,因此讓一般企業對于導入Hadoop的數據進行分析視為畏途,甚至心懷恐懼。然而,從Etu知意圖團隊這一兩年來輔導客戶的經驗來看,其實更多的應用,大多都在數據處理(Data Processing)這個部分,或者更精確地來說,Hadoop這個平臺,特別適合數據預處理(Data preProcessing)這種應用場景。無論是數據倉庫的負載分流(DW Offload)、數據的匯總(Data Aggregation),或是運用協同過濾算法(Collaborative Filtering)針對線下線上零售業所做的精準推薦應用(Recommendation),廣義上來看,都可以說是屬于Data Processing的一環,畢竟,Big Data的來臨,我們看data、運用data的角度與方式都必須要有所改變。

Big Data強調的不是對因果關系的渴求,取而代之的是關注于data之間的相關關系。也就是說,重點在于要知道“是什么”,反而未必需要知道“為什么”。所以,它要求的是所有data的處理,而不只是隨機樣本的分析。

最后我們往往會發現,處理Big Data的簡單算法所得到的來自于data呈現的事實,往往比分析small data的復雜算法所得到的來自data背后的原因,對企業帶來的效益更大。

4.(誤解)Hadoop就是商業智能(Business Intelligence,BI)

(正解)跟前面一樣,這也是大多數人最容易誤解的地方,因為Hadoop特別適合來做數據分析,所以就很直覺地把它想成“那就是BI嘛”。會有這種誤解,主要來自于對數據運用的整體架構的不清楚。傳統BI是屬于數據展現層,其數據的載體(Data Store)是數據庫或數據倉庫。對比來看,Hadoop就是專注在半結構化、非結構化數據的數據載體,跟BI是不同層次的概念。當然,Hadoop除了Data Store外,又具備運算的特性,也因此特別容易帶來這種觀念上的混淆。至于半結構、非結構化數據的數據展現層部分,目前本身并不在Hadoop的生態體系內,而是由其他現有或新創的公司來填補這塊空缺,所以,逐漸地我們會看到越來越多現有的BI tool,開始強調其自身與Hadoop的聯系性與兼容性,同時,一些新創公司,也發展出完全不同于現有BI Tool基于Big Data的數據展現層。

5.(誤解)Hadoop就是ETL(Extract, Transform & Load)

(正解)ETL其實有2種涵意,它本身是一個概念,也同時是一個產品類別的總稱。所以當聽到“某某公司是做ETL產品的”的這種對話時,其中的ETL,DB,Application Server等名詞是相同的,都是指向某種類別的IT產品。然而,如果就概念性上來看,ETL指的其實是數據運用的生命周期中的其中一個過程,跟前面提到的數據預處理是同樣一個概念,數據清洗(Data Cleansing)、數據關聯和數據匯總等,都包含在這個范疇內。所以當我們說Hadoop特別適合拿來做ETL時,在概念上,它是正確的,同時也能很清楚地定位出Hadoop在企業資料運用中所扮演的角色。但Hadoop終究不是一個ETL的產品,反倒是現有的ETL產品,也開始跟BI一樣,去發展它在Hadoop上的可用性、聯系性與兼容性。Etu團隊之前在幫客戶導入Hadoop做數據處理時,常常會用script語言來實現一些應用場景,最近一段時間以來,一些企業的技術顧問也開始運用3rd-party的ETL tool來實作這一塊,對企業客戶來說,這是他們較熟悉的工具,也降低了他們進入Hadoop的門檻。

6.(誤解)Hadoop跟傳統storage沒什么差別,都特別適合用來做資料的備份

(正解)熟悉storage的人,第一次看到Hadoop時,往往只會注意到它的分布式文件系統HDFS,然后開始拿它來與現有的storage的功能特性做比較,而忽略掉Hadoop本身并行運算的那一塊。這很合理,畢竟MapReduce的概念,在應用上是比較抽象且難以捉摸的,相反的,HDFS就是一個很清楚且具體的概念。Hadoop當然可以拿來做data archive的運用,但如果你本身的數據沒有被經常或偶爾拿出來使用需求(也就是我們所說的cold data)的話,Hadoop本身的HDFS作為data archive并不會有特別的優勢,反而傳統storage的一些延伸功能特性,Hadoop本身并不具備。雖然HDFS本身是一個不錯的object store,具備有作為scale-out NAS的底層的特性,但也就僅限于此,Hadoop本身并沒有特別為它外加storage本身具有的功能,畢竟Hadoop當初設計時,對數據的儲存與運用的思考,與storage的應用場景是完全不一樣的。Hadoop本身要解決的反而是現有當數據被放進storage后,需要再被拿出來處理或運算時所遇到的困難。也因此,它特別適合那些Web click-stream,CDR(call detail record),GPS data,system log,other time-series data等數據,因為這些數據都具有需要經常被拿出來分析處理的特性。在實際應用中,Hadoop與傳統storage其實是相輔相成的,辟如說,我們可能會在Hadoop上放過去3~6個月的數據,因為這些數據的再被利用性較高,而6個月之后的數據就可能會把它放在傳統的storage內,因為它被再利用的程度低很多了。

7.(誤解)Hadoop是一個搜索引擎

(正解)Search的確是Hadoop的一個重要的應用,但Hadoop本身并沒有內含search engine。實務上,我們常會把HBase的index設計運用到極致,來滿足一些特定search或query的應用,但要滿足全文檢索的需求,就必須在Hadoop上建構一個基于Hadoop的搜索引擎。

8.(誤解)基于Hadoop的推薦系統與傳統的推薦系統并無不同

(正解)傳統的推薦系統只處理客戶的事務數據,大多用的是數據倉庫或商業智能等解決方案,然而,除了客戶的事務數據之外,是否也有可能針對客戶交易前的行為進行分析、進而產生推薦?特別是對電子商務網站來說,客戶在完成購買前的點擊瀏覽、搜尋以及放進購物車等行為,都包含了豐富的訊息,可以藉此很容易地導引出客戶想要尋找什么樣的商品。所以,如果在產生推薦過程中可以把這些訊息都納進來,則所產生推薦的精準度與豐富度必然可以大為提高。這正是新一代推薦系統面臨到的挑戰:如何在事務數據(Transaction Data)之外,同時也可以把客戶的互動數據(Interaction Data)含括進來。由于客戶互動數據的型態與事務數據間有極大差異,其數量級更是遠遠大于事務數據量,運算頻率更是有極高的要求,也因此都遠超過現有數據庫或數據倉儲的能力,而這正是Hadoop所擅長,可以輕易拓展傳統機器學習算法分析大量數據集(Large Datasets)的能力,并同時具備橫向擴充的能力,可隨著數據集的成長輕易擴充,無論多大的數據都可勝任。

9.(誤解)Hadoop不適合用來處理小檔案的應用

(正解)對Hadoop稍微有點了解的人,都會知道HDFS的block size的default值為64 MB,且不建議往下調,因為HDFS當初在設計時,并不是針對碎片般的小檔案處理。所以說Hadoop不適合用來處理小檔案的應用時,就技術上來說是對的,但在實際運用上,卻有不同的做法來滿足海量小檔案管理的需求。例如保險公司,它本身需要處理的小圖檔(20KB~1 MB)大概有2億個那么多,且每天還持續在成長,包括客戶的簽名、看診紀錄等,都需要被掃描成圖像文件,并加以儲存,同時,還要被相對應的應用程序來進行查詢、調用。在實作上,Hadoop把這些小圖檔的binary file存進去HBase,而不是HDFS來管理,所以HDFS block size的設定值大小就不是重點,同時,利用HBase column-base高效能與高延展性的特性,可以很容易滿足多人同時快速在線查詢的要求,而隨著檔案數量持續的增加。橫向擴充也不再是問題。類似的應用其實還不少,譬如說銀行票據文件的管理就是其中一種。

10.(誤解)Hadoop不適合用來做日志管理的應用

(正解)當每天的日志量成長到一定的程度,現有的日志管理工具都會遇到瓶頸,所以一些國外的日志管理工具(如Splunk,ArcSight)都已經發布了其Hadoop Connector,強調其與Hadoop的聯系性與兼容性。所以,如果客戶對日志管理的需求只是保存日志、并可以隨時對日志搜索的話,那Hadoop本身即可以滿足,而對于比較復雜的日志管理且日志量非常大的需求,客戶也可以從現有的日志管理工具中來挑選,并與Hadoop來搭配協同運作。

猜你喜歡
數據庫
數據庫
財經(2017年15期)2017-07-03 22:40:49
數據庫
財經(2017年2期)2017-03-10 14:35:35
兩種新的非確定數據庫上的Top-K查詢
數據庫
財經(2016年15期)2016-06-03 07:38:02
數據庫
財經(2016年3期)2016-03-07 07:44:46
數據庫
財經(2016年6期)2016-02-24 07:41:51
數據庫
財經(2015年3期)2015-06-09 17:41:31
數據庫
財經(2014年21期)2014-08-18 01:50:18
數據庫
財經(2014年6期)2014-03-12 08:28:19
數據庫
財經(2013年6期)2013-04-29 17:59:30
主站蜘蛛池模板: 一本大道香蕉高清久久| 成人一级黄色毛片| 亚洲国产精品成人久久综合影院| 福利在线不卡一区| 亚洲天天更新| 亚洲色图在线观看| 亚洲一区色| 久草网视频在线| 天天综合色网| 免费全部高H视频无码无遮掩| 亚洲欧洲日韩综合色天使| 色天堂无毒不卡| 无码AV动漫| 欧美一道本| 国产成人亚洲欧美激情| 狠狠色狠狠综合久久| 亚洲欧美日韩另类在线一| 欧美性精品不卡在线观看| 亚洲国产精品久久久久秋霞影院| 在线看片中文字幕| 国产女人在线| 亚洲成人77777| 夜夜爽免费视频| 国产成人高清在线精品| 中文国产成人精品久久| 99久久精品免费视频| 成人午夜亚洲影视在线观看| 91亚瑟视频| 97国产在线观看| 午夜日韩久久影院| 日韩在线播放中文字幕| 久久国产成人精品国产成人亚洲| 亚洲福利一区二区三区| 国产真实乱子伦视频播放| 国产极品嫩模在线观看91| 一级毛片a女人刺激视频免费| 中文字幕亚洲另类天堂| 狠狠色香婷婷久久亚洲精品| 国产精品久久国产精麻豆99网站| 看国产一级毛片| 九九九精品成人免费视频7| 色首页AV在线| 久久人与动人物A级毛片| 一级黄色欧美| 色网站在线视频| 免费又黄又爽又猛大片午夜| A级毛片无码久久精品免费| 国产美女丝袜高潮| 91在线高清视频| 香蕉伊思人视频| 亚洲 欧美 日韩综合一区| 亚洲成a人片77777在线播放| 日本人妻丰满熟妇区| 成人综合在线观看| 又污又黄又无遮挡网站| 亚洲首页在线观看| 99久久性生片| 亚洲欧美日韩另类在线一| 精品国产自在在线在线观看| 亚洲国产成人在线| 欧美一级高清片欧美国产欧美| 亚洲综合一区国产精品| 欧美成人一区午夜福利在线| 国产AV无码专区亚洲精品网站| 亚洲AV人人澡人人双人| 亚洲天堂2014| 亚洲中文字幕在线观看| 为你提供最新久久精品久久综合| 亚洲综合狠狠| 超碰色了色| 国产成人精品午夜视频'| 99在线视频免费| 91成人试看福利体验区| 中文字幕在线观| 亚洲不卡无码av中文字幕| 欧洲免费精品视频在线| 国产精品亚洲а∨天堂免下载| 97国产成人无码精品久久久| 久久精品国产精品国产一区| 亚洲最黄视频| 亚洲色图欧美在线| 午夜毛片免费观看视频 |