1、大資料前沿知識及hadoop入門
2、hadoop部署進階
3、大資料匯入與儲存
4、Hbase理論與實戰
5、Spaer配置及使用場景
6、spark大資料分析原理
7、hadoop+spark大資料分析
方法/步驟
1第一階段:大資料前沿知識及hadoop入門,大資料前言知識的介紹,課程的介紹,Linux和unbuntu系統基礎,hadoop的單機和偽分佈模式的安裝配置。
2第二階段:hadoop部署進階。Hadoop叢集模式搭建,hadoop分散式檔案系統HDFS深入剖析。使用HDFS提供的api進行HDFS檔案操作。Mapreduce概念及思想。
3第三階段:大資料匯入與儲存。mysql資料庫基礎知識,hive的基本語法。hive的架構及設計原理。hive部署安裝與案例。sqoop安裝及使用。sqoop元件匯入到hive。
4第四階段:Hbase理論與實戰。Hbase簡介。安裝與配置。hbase的資料儲存。專案實戰。
5第五階段:Spaer配置及使用場景。scala基本語法。spark介紹及發展歷史,spark stant a lone模式部署。sparkRDD詳解。
6第六階段:spark大資料分析原理。spark核心,基本定義,spark任務排程。sparkstreaming實時流計算。sparkmllib機器學習。sparksql查詢。
7第七階段:hadoop+spark大資料分析。實戰案例深入解析。hadoop+spark的大資料分析之分類。logistic迴歸與主題推薦。