網站首頁 網站簡介 資訊中心 政策法規 資格認證 培訓信息 遠程學習 專家顧問 在線報名 成績查詢
 推薦閱讀
· 恭喜本單位成為全國職業信用評價網信
· 關于開展2019年11月中級網絡工
· 2019年最新一期國家職業資格安全
· 恭喜藍源國際注冊商標正式被國家商標
· 2019年最新一期國家職業資格安全
· 2019年關于舉辦勞動關系協調(員
· 2015年4月14日-4月18日舉
· 2014年6月高級勞動關系協調師培
· 2014年12月第六屆國家職業資格
 審核查詢
本人姓名:
身份證號:
 
 學員反饋
2014年3月18日-22日來自全國各地的150名生產型制造型企業的中高級管理層...
 會后普遍學員表示非常感謝北京藍源國際企業管理有限公司(藍源國際企業管...
[更多]
 
 >> 技術文章 當前位置:網站首頁 >> 技術文章 >> 從小白到大數據工程師——大數據....  
從小白到大數據工程師——大數據怎么自學?
發布時間:2018-03-03 | 閱讀次數:553 | 返回列表>>|

很多小伙伴想自學大數據技術的,但是苦于不知道怎么學,需要學什么技術,以及學習的順序是怎么樣的?科多大數據來帶你們看看吧。

·大數據處理技術怎么學習呢?首先我們要學習Java語言和Linux操作系統,這兩個是學習大數據的基礎,學習的順序不分前后。

Java:大家都知道Java的方向有JavaSE、JavaEE、JavaME,學習大數據要學習那個方向呢?

只需要學習Java的標準版JavaSE就可以了,像Servlet、JSP、Tomcat、Struct、Spring、Hibernate,Mybites都是JavaEE方向的技術在大數據技術里用到的并不多,只需要了解就可以了,當然Java怎么連接數據庫還是要知道的,像JDBC一定要掌握一下,有同學說Hibernate或Mybites也能連接數據庫啊,為什么不學習一下,我這里不是說學這些不好,而是說學這些可能會用你很多時間,到最后工作中也不常用,我還沒看到誰做大數據處理用到這兩個東西的,當然你的精力很充足的話,可以學學Hibernate或Mybites的原理,不要只學API,這樣可以增加你對Java操作數據庫的理解,因為這兩個技術的核心就是Java的反射加上JDBC的各種使用。

Linux:因為大數據相關軟件都是在Linux上運行的,所以Linux要學習的扎實一些,學好Linux對你快速掌握大數據相關技術會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大數據軟件的運行環境和網絡環境配置,能少踩很多坑,學會shell就能看懂腳本這樣能更容易理解和配置大數據集群。還能讓你對以后新出的大數據技術學習起來更快。

·好說完基礎了,再說說還需要學習哪些大數據技術,可以按我寫的順序學下去。#

Hadoop:這是現在流行的大數據處理平臺幾乎已經成為大數據的代名詞,所以這個是必學的。Hadoop里面包括幾個組件HDFS、MapReduce和YARN,HDFS是存儲數據的地方就像我們電腦的硬盤一樣文件都存儲在這個上面,MapReduce是對數據進行處理計算的,它有個特點就是不管多大的數據只要給它時間它就能把數據跑完,但是時間可能不是很快所以它叫數據的批處理。YARN是體現Hadoop平臺概念的重要組件有了它大數據生態體系的其它軟件就能在hadoop上運行了,這樣就能更好的利用HDFS大存儲的優勢和節省更多的資源比如我們就不用再單獨建一個spark的集群了,讓它直接跑在現有的hadoop yarn上面就可以了。其實把Hadoop的這些組件學明白你就能做大數據的處理了,只不過你現在還可能對”大數據”到底有多大還沒有個太清楚的概念,聽我的別糾結這個。等以后你工作了就會有很多場景遇到幾十T/幾百T大規模的數據,到時候你就不會覺得數據大真好,越大越有你頭疼的。當然別怕處理這么大規模的數據,因為這是你的價值所在,讓那些個搞Javaee的php的html5的和DBA的羨慕去吧。

·記住學到這里可以作為你學大數據的一個節點。

Zookeeper:這是個萬金油,安裝Hadoop的HA的時候就會用到它,以后的Hbase也會用到它。它一般用來存放一些相互協作的信息,這些信息比較小一般不會超過1M,都是使用它的軟件對它有依賴,對于我們個人來講只需要把它安裝正確,讓它正常的run起來就可以了。

Mysql:我們學習完大數據的處理了,接下來學習學習小數據的處理工具mysql數據庫,因為一會裝hive的時候要用到,mysql需要掌握到什么層度那?你能在Linux上把它安裝好,運行起來,會配置簡單的權限,修改root的密碼,創建數據庫。這里主要的是學習SQL的語法,因為hive的語法和這個非常相似。

Sqoop:這個是用于把Mysql里的數據導入到Hadoop里的。當然你也可以不用這個,直接把Mysql數據表導出成文件再放到HDFS上也是一樣的,當然生產環境中使用要注意Mysql的壓力。

Hive:這個東西對于會SQL語法的來說就是神器,它能讓你處理大數據變的很簡單,不會再費勁的編寫MapReduce程序。有的人說Pig那?它和Pig差不多掌握一個就可以了。

Oozie:既然學會Hive了,我相信你一定需要這個東西,它可以幫你管理你的Hive或者MapReduce、Spark腳本,還能檢查你的程序是否執行正確,出錯了給你發報警并能幫你重試程序,最重要的是還能幫你配置任務的依賴關系。我相信你一定會喜歡上它的,不然你看著那一大堆腳本,和密密麻麻的crond是不是有種想屎的感覺。

Hbase:這是Hadoop生態體系中的NOSQL數據庫,他的數據是按照key和value的形式存儲的并且key是唯一的,所以它能用來做數據的排重,它與MYSQL相比能存儲的數據量大很多。所以他常被用于大數據處理完成之后的存儲目的地。

Kafka:這是個比較好用的隊列工具,隊列是干嗎的?排隊買票你知道不?數據多了同樣也需要排隊處理,這樣與你協作的其它同學不會叫起來,你干嗎給我這么多的數據(比如好幾百G的文件)我怎么處理得過來,你別怪他因為他不是搞大數據的,你可以跟他講我把數據放在隊列里你使用的時候一個個拿,這樣他就不在抱怨了馬上灰流流的去優化他的程序去了,因為處理不過來就是他的事情。而不是你給的問題。當然我們也可以利用這個工具來做線上實時數據的入庫或入HDFS,這時你可以與一個叫Flume的工具配合使用,它是專門用來提供對數據進行簡單處理,并寫到各種數據接受方(比如Kafka)的。

Spark:它是用來彌補基于MapReduce處理數據速度上的缺點,它的特點是把數據裝載到內存中計算而不是去讀慢的要死進化還特別慢的硬盤。特別適合做迭代運算,所以算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因為它們都是用JVM的。

·會這些東西你就成為一個專業的大數據開發工程師了,月薪2W都是小毛毛雨。

   上一篇:互聯網數據分析師職位介紹及職業規劃...
   下一篇:程序員如何轉型熱門大數據工程師...
聯系我們 | 培訓合作 | 法律聲明 | 網站律師

版權所有:國家職業教育工作網      主辦單位:北京藍源國際企業管理有限公司(固安藍源企業管理咨詢有限公司) 

 地址:北京大興工業開發區金苑路3號金融大廈D20室    總公司辦公地址:北京市國家新媒體產業基地A座(星光影視園) 

電話:010-83639113 13366366766  工信部備案號:京ICP備10209633號-3   公安備案號:11011502002929  

       工業和信息化部教育與考試中心大數據項目實訓基地戰略合作單位    工業和信息化部教育與考試中心BIM專業技能項目中心  全國職業信用評價網授權信息采集單位

京公網安備 11011502002929號

最新捕鱼平台注册送分 92969437181188578105286983125872229979616612110971820085295267449846603943225194311425309354238188 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();