1、大數據前沿知識及hadoop入門
2、hadoop部署進階
3、大數據導入與存儲
4、Hbase理論與實戰
5、Spaer配置及使用場景
6、spark大數據分析原理
7、hadoop+spark大數據分析
方法/步驟
1第一階段:大數據前沿知識及hadoop入門,大數據前言知識的介紹,課程的介紹,Linux和unbuntu系統基礎,hadoop的單機和偽分佈模式的安裝配置。
2第二階段:hadoop部署進階。Hadoop集羣模式搭建,hadoop分佈式文件系統HDFS深入剖析。使用HDFS提供的api進行HDFS文件操作。Mapreduce概念及思想。
3第三階段:大數據導入與存儲。mysql數據庫基礎知識,hive的基本語法。hive的架構及設計原理。hive部署安裝與案例。sqoop安裝及使用。sqoop組件導入到hive。
4第四階段:Hbase理論與實戰。Hbase簡介。安裝與配置。hbase的數據存儲。項目實戰。
5第五階段:Spaer配置及使用場景。scala基本語法。spark介紹及發展歷史,spark stant a lone模式部署。sparkRDD詳解。
6第六階段:spark大數據分析原理。spark內核,基本定義,spark任務調度。sparkstreaming實時流計算。sparkmllib機器學習。sparksql查詢。
7第七階段:hadoop+spark大數據分析。實戰案例深入解析。hadoop+spark的大數據分析之分類。logistic迴歸與主題推薦。