-
川软教育大数据工程师就业班课程设置川软介绍川软自成立以来,始终把人才作为企业发展的基础,现已拥有各类优秀的前沿专业技术人才数十人。川软通过多年的不懈奋斗,本着“科技、质量、服务、品牌”的理念,以优秀的专业人才素质和领先的科技水平为依托,将优质的服务送到了全国的各省区,涉及到IT、互联网、银行、金融、保险、航空、税务、房地产、电力、石油和教育等数十个行业领域,并创建了一个个一流的项目、为客户解决了无数的问题,大大推动了中国西南乃至全国的IT事业的发展,成为西南地区最优秀的专业IT公司之一。川软优势1. 中国高端IT研发实训领导品牌,专注Web前端,HTML5,JAVA,大数据分析等研发实训;2. 零学费入学,实行先就业后付款;3. 与全球500强企业无缝结合,企业级项目实战,让学员能够独立设计开发自己的项目;4. 最科学、最严格、最负责任的教学就业管理体系,就业老师及教务老师全程把控每一个学员的状况;5. 权威资深师资阵容,优秀的前沿技术团队,具有强烈责任心、教学严谨、技术精湛、均具有多年大型项目实战经验派金牌讲师授课;6. 全面授,整个学习期间全由金牌专家级讲师现在面对面亲自授课,学员遇到问题随时疑难解答;7. 全小班制、项目组、VIP形式授课及强化;8. 与多家企事业单位紧密合作;9. 入学即签合同,保障百分之百安排就业;10. 配置专业的职业素养、面试训练、就业指导,保障每个学员高质量高标准就业;11. 业内学员毕业薪水最高,平均薪水4-8K;12. 就业后川软还将提供免费的技术支持及终身就业服务;13. 可免费参加川软项目基地进行项目研发及举办的各种技术沙龙和活动。14. 完全以真实商业项目驱动整个学习过程,学习后能具体2年的工作经验;15. 五星级校区环境,培训、实训、实习、就业一体化;16. 全新多媒体教学,提供所有学习设备,每人一台高配置电脑;17. 技术有保证,如果一期未学会,重修免费,学会为止;联系方式(一) 川软教育西区项目培训实训基地:地址:成都清江东路1号温哥华广场15楼电话:028-87777180,13684087372QQ:20717375,584796793,648348467公交线路:5、11、13、27、34、42、43、47、58、59、64、78、81、129等乘坐地铁2号线、4号线直达,中医大省医院站下车,A出口课程大纲
专业
大数据工程师就业班
班次
全日制脱产班;半脱产班。
课程周期
学会为止
上课时间
白班:9:00-17:00;晚班:19:00-21:00;周末班:9:00-16:00。
课程安排:
专业阶段
课程主题
培训内容
第一阶段
大数据前沿知识及hadoop入门
- 数据分析基础;
- 大数据前沿知识介绍;
- 课程介绍;
- Linux及unbuntu系统基础;
- hadoop的单机和伪分布模式的安装配置。
第二阶段
Java技术
- JDK的安装配置,Java基本知识、数据类型以及基本语法;
- Eclipse的编程入门;
- 面向对象的思想基本介绍,类、对象、接口、封装、继承;
- Java的集合类——数组、Set、List、Map、Queue;
- 异常处理——CheckedException、Unchecked Exception,如何通过异常信息捕获错误;
- Java的垃圾回收机制以及多线程简介;
- Java的文件操作、包的概念及如何打包;
- 数据库基础知识及SQL语法;
- 基于web的程序开发技术的B/S应用开发及代码实现案例详解。
第三阶段
Linux技术
- linux系统基础;
- Linux:选择合适的Linux发行版、安装及配置Linux;
- Linux系统目录结构;
- linux操作系统命令及使用命令编辑文件;
- linux文件权限及用户组;
- linux分区详解;
- linux网络和服务配置;
- Linux下SSH命令使用方法详解。
第四阶段
hadoop安装配置及运行机制解析
1. 基于unbuntu的hadoop的单机模式和伪分布模式安装和配置;
2. 在linux集群上安装和配置hadoop集群;
3. 实战:学员自己搭建一个基于hadoop的大数据分析环境;
4. 在三种环境下运行hadoop自带的小程序;
5. 掌握数据分析的基本思想:
6. 分布式系统设计的基本思想;
7. Hadoop 概念、版本、历史;
8. 详细讲解Hadoop 单机、伪分布及集群模式的安装配置过程和内容;
9. 分析比较hadoop三种模式的运行效率,并剖析数据分析的基本思想;
10.掌握如何通过命令行和浏览器观察hadoop的运行状态;
11.hadoop的安全模式;
12.介绍如何查看hadoop 运行的日志信息。第五阶段
Hadoop分布式文件系统深入剖析
1. 对hadoop架构的分布式文件系统HADFS进行分析;
2. 介绍google的GoogleGFS 文件系统,一个面向大规模数据密集型应用的、可伸缩的分布式文件系统;
3. HDFS的概念及设计;
4. Hdfs体系结构及运行机制详述;
5. NameNode、DataNode、SecondaryNameNode的作用及运行机制;
6. block 的划分原理、存储方式和配置文件;
7. hdfs的备份机制和文件管理机制;
8. HDFS文件系统的常用命令;
9. 使用命令及JAVA语句操作hdfs中的文件。第六阶段
Hadoop部署进阶
1.Hadoop集群模式搭建
2. Hadoop分布式文件系统HDFS剖析
3.使用hdfs提供的api进行hdfs文件操作熟练掌握hadoop集群搭建。第七阶段
MapReduce理论及实战
1. google的MapReduce编程模型;
2. hadoop中的MapReduce工作原理;
3. 详细讲述mapreduce运行过程中类的调用过程;
4. 详细讲述如何覆盖 Mapper 功能、如何覆盖 Reducer 功能;
5. MapReducejob的生命周期中job提交、task分发和task执行;
6. MapReduce中block 的调度及作业分配机制;
7. 基于MapReduce模型的wordcount运行;
8. 基于MapReduce模型的三个初级案例:数据去重、数据排序和求平均成绩;
9. 基于MapReduce模型的案例,详细介绍如何在eclipse中编写MapReduce程序,打包成可在hadoop上运行的jar,并在集群上运行。第八阶段
hbase理论及实战
- Hbase简介,包括HBase的基础概念 、数据模型、存储模型;
- hbase的伪分布和集群的安装及配置;
- 一个例子讲解hbase shell常用的操作命令;
- hive+hbase的api操作项目实战。
第九阶段
hadoop生态环境
(1)ZooKeeper简介,包括ZooKeeper的安装、运行及示例
(2)Pig简介,包括Pig的安装、运行及示例
(3)Hive简介,包括Hive的安装、运行及示例
(4)sqoop简介,包括Sqoop介绍、命令、原理及流程第十阶段
大数据分析思想
1)大数据的时代背景;
2)大数据分析的思维转变;
3)几种典型的大数据架构分析;
4)大数据时代的数据分析思想的变革;第十一阶段
大数据分析之Mahout
Mahout 是 Apache SoftwareFoundation(ASF)旗下的一个开源项目,它通过和hadoop配合,实现在推荐、聚类和分类等领域中的大数据分析。
1)Mahout的下载、安装与部署;
2)Mahout之分类算法:logstic算法(SGD)与朴素贝叶斯算法(new bayes);
3)Mahout之聚类算法:Kmeans算法与canopy算法;
4)Mahout之主题推荐算法:基于物品或用户的推荐算法。第十二阶段
大数据分析之Spark
1)集群安装并运行Spark;
2)Spark基础原理;
3)Spark SQL 原理及数据整合应用;
4)Spark 数据建模流程(logistics回归,决策树,朴素贝叶斯方法);
5)Spark 推荐应用(ALS方法,FP-growth方法);
6)Spark GraphX图计算方法应用。第十三阶段
大数据案例分析
- 大数据案例分析;
- 疑难解答。