我眼中的大數據(一)

語言: CN / TW / HK

前言

在正式落地談技術之前,先花一些篇幅説説大數據技術的發展史。我們常説的大數據技術,其實起源於Google在2004年前後發表的三篇論文,分別是分佈式文件系統GFS、大數據分佈式計算框架MapReduce和NoSQL數據庫系統BigTable(如果大家需要可以留言給我,我可以專門解讀一下)。

一、從搜索引擎開始

搜索引擎主要就做兩件事情,一個是網頁抓取,一個是索引構建,在這個過程中,有大量的數據需要存儲和計算。當時的大數據其實就是用來解決這個問題的,一個文件系統、一個計算框架、一個數據庫系統。

在2004年那會兒,Google發佈的論文實在是讓業界為之一振,大家恍然大悟,原來還可以這麼玩。因為那個時間段,大多數公司在思考如何提升單機的性能,尋找更貴更好的服務器。而Google的思路是部署一個大規模的服務器集羣,通過分佈式的方式將海量數據存儲在這個集羣上,然後利用集羣上的所有機器進行數據計算。

當時Lucene開源項目的創始人Doug Cutting正在開發開源搜索引擎Nutch,閲讀了Google的論文後,他非常興奮,緊接着就根據論文原理初步實現了類似GFS和MapReduce的功能。

兩年後的2006年,Doug Cutting將這些大數據相關的功能從Nutch中分離了出來,然後啟動了一個獨立的項目專門開發維護大數據技術,這就是後來赫赫有名的Hadoop,主要包括Hadoop分佈式文件系統HDFS和大數據計算引擎MapReduce。

Hadoop發佈之後,Yahoo很快就用了起來。大概又過了一年到了2007年,百度和阿里巴巴也開始使用Hadoop進行大數據存儲與計算。

2008年,Hadoop正式成為Apache的頂級項目,後來Doug Cutting本人也成為了Apache基金會的主席。自此,Hadoop作為軟件開發領域的一顆明星冉冉升起。同年,專門運營Hadoop的商業公司Cloudera成立,Hadoop得到進一步的商業支持。

這個時候,Yahoo的一些人覺得用MapReduce進行大數據編程太麻煩了,於是便開發了Pig。Pig是一種腳本語言,使用類SQL的語法,開發者可以用Pig腳本描述要對大數據集上進行的操作,Pig經過編譯後會生成MapReduce程序,然後在Hadoop上運行。

編寫Pig腳本雖然比直接MapReduce編程容易,但是依然需要學習新的腳本語法。於是Facebook又發佈了Hive。Hive支持使用SQL語法來進行大數據計算,比如説你可以寫個Select語句進行數據查詢,然後Hive會把SQL語句轉化成MapReduce的計算程序。這樣, 熟悉數據庫的數據分析師和工程師便可以無門檻地使用大數據進行數據分析和處理了 。Hive出現後極大程度地降低了Hadoop的使用難度,迅速得到開發者和企業的追捧。據説,2011年的時候,Facebook大數據平台上運行的作業90%都來源於Hive。

在Hadoop早期,MapReduce既是一個執行引擎,又是一個資源調度框架,服務器集羣的資源調度管理由MapReduce自己完成。但是這樣不利於資源複用,也使得MapReduce非常臃腫。於是一個新項目啟動了,將MapReduce執行引擎和資源調度分離開來,這就是Yarn。 2012年,Yarn成為一個獨立的項目開始運營,隨後被各類大數據產品支持,成為大數據平台上最主流的資源調度系統

同樣是在2012年,Spark開始嶄露頭角。當時AMP實驗室的馬鐵博士發現使用MapReduce進行機器學習計算的時候性能非常差,因為機器學習算法通常需要進行很多次的迭代計算,而MapReduce每執行一次Map和Reduce計算都需要重新啟動一次作業,帶來大量的消耗。還有一點就是MapReduce主要使用磁盤作為存儲介質,而2012年的時候,內存已經突破容量和成本限制,成為數據運行過程中主要的存儲介質。Spark一經推出,立即受到業界的追捧,並逐步替代MapReduce在企業應用中的地位。

一般説來,像MapReduce、Spark這類計算框架處理的業務場景都被稱作 批處理計算 ,因為它們通常針對以“天”為單位產生的數據進行一次計算,然後得到需要的結果,這中間計算需要花費的時間大概是幾十分鐘甚至更長的時間。因為計算的數據是非在線得到的實時數據,而是歷史數據,所以這類計算也被稱為 大數據離線計算

而在大數據領域,還有另外一類應用場景,它們需要對實時產生的大量數據進行即時計算,比如對於遍佈城市的監控攝像頭進行人臉識別和嫌犯追蹤。這類計算稱為 大數據流計算 ,相應地,有Storm、Flink、Spark Streaming等流計算框架來滿足此類大數據應用的場景。 流式計算要處理的數據是實時在線產生的數據,所以這類計算也被稱為 大數據實時計算

在典型的大數據的業務場景下,數據業務最通用的做法是, 採用批處理的技術處理歷史全量數據,採用流式計算處理實時新增數據。 而像Flink這樣的計算引擎,可以同時支持流式計算和批處理計算。

除了大數據批處理和流處理,NoSQL系統處理的主要也是大規模海量數據的存儲與訪問,所以也被歸為大數據技術。 NoSQL曾經在2011年左右非常火爆,湧現出HBase、Cassandra等許多優秀的產品,其中HBase是從Hadoop中分離出來的、基於HDFS的NoSQL系統。

上面的這些基本上都可以歸類為大數據引擎或者大數據框架。而 大數據處理的主要應用場景包括數據分析、數據挖掘與機器學習 。數據分析主要使用Hive、Spark SQL等SQL引擎完成;數據挖掘與機器學習則有專門的機器學習框架TensorFlow、Mahout以及MLlib等,內置了主要的機器學習和數據挖掘算法。

二、結合人工智能

在過去,受數據採集、存儲、計算能力的限制,只能通過抽樣的方式獲取小部分數據,無法得到完整的、全局的、細節的規律。 而現在有了大數據,可以把全部的歷史數據都收集起來,統計其規律,進而預測正在發生的事情

這就是機器學習。

把歷史上人類圍棋對弈的棋譜數據都存儲起來,針對每一種盤面記錄如何落子可以得到更高的贏面。得到這個統計規律以後,就可以利用這個規律用機器和人下棋,每一步都計算落在何處將得到更大的贏面,於是我們就得到了一個會下棋的機器人,這就是前兩年轟動一時的AlphaGo,以壓倒性優勢下贏了人類的頂尖棋手。

再舉個和我們生活更近的例子。把人聊天的對話數據都收集起來,記錄每一次對話的上下文,如果上一句是問今天過得怎麼樣,那麼下一句該如何應對,通過機器學習可以統計出來。將來有人再問今天過得怎麼樣,就可以自動回覆下一句話,於是我們就得到一個會聊天的機器人。Siri、天貓精靈、小愛同學,這樣的語音聊天機器人在機器學習時代已經滿大街都是了。

將人類活動產生的數據,通過機器學習得到統計規律,進而可以模擬人的行為,使機器表現出人類特有的智能,這就是人工智能AI。

現在我們對待人工智能還有些不理智的態度,有的人認為人工智能會越來越強大,將來會統治人類。實際上,稍微瞭解一點人工智能的原理就會發現,這只是大數據計算出來的統計規律而已,表現的再智能,也不可能理解這樣做的意義,而有意義才是人類智能的源泉。按目前人工智能的發展思路,永遠不可能出現超越人類的智能,更不可能統治人類。

大數據從搜索引擎到機器學習,發展思路其實是一脈相承的,就是想發現數據中的規律併為我們所用。所以很多人把數據稱作金礦,大數據應用就是從這座藴含知識寶藏的金礦中發掘中有商業價值的真金白銀出來。

數據中藴藏着價值已經是眾所周知的事情了,那麼如何從這些龐大的數據中發掘出我們想要的知識價值,這正是大數據技術目前正在解決的事情,包括大數據存儲與計算,也包括大數據分析、挖掘、機器學習等應用。