长沙大数据培训班
长沙大数据培训班
- 上课时段:详见详情
- 教学点:1个
- 开班时间:滚动开班
- 课程价格:请咨询
- 已关注:748
- 优惠价格:请咨询
- 咨询电话: 400-008-6280
大数据是一种在获取、存储、管理、分析等方面大大超出了传统数据库软件工具能力范围的数据集合。它具有大量的数据规模、快速的数据流转、多样的数据类型和价值密度低四大特征。 未来大数据相关人才缺口巨大。
大量优质岗位等你来
薪资待遇随工作年限呈阶梯式上涨
只有想不想学,没有能不能学
理论、实战双向并行,奠定入行扎实基础
第一阶段 Java语言基础 | Java语言基础: Java语言入门、基本语法、面向对象、常用API、异常、集合、IO流、多线程、网络编程、反射、JDK新特性、MySQL数据库、JDBC 培养方向: 了解Java语言的特征和应用领域;掌握JDK、JRE和JVM的作用;能够成功搭建Java开发环境;完成HelloWorld程序的编写;掌握IDE工具IDEA的使用方式; 掌握Java基本语法中的常量、变量的声明和使用;掌握Java中的运算符、数据类型及其相互转换;掌握分支结构、循环结构、方法的定义和使用;掌握数组的使用,理解数组的内存结构; 掌握面向对象的编程思想;掌握类和对象的定义和使用;理解封装、继承、多态等特性;掌握抽象类、接口的特点和使用方式;充分理解并运用Java面向对象思想来进行程序开发; 掌握Java中的常用类和工具类的使用,能够使用这些常用类和工具类解决多种问题; 掌握Maven项目构建和依赖管理、掌握Maven的继承和聚合; |
第二阶段 Hadoop技术栈 | Hadoop技术栈 Linux、Hadoop、ZooKeeper、Hive、HBase、海王星大数据金融平台 培养方向: 掌握Linux操作系统安装及常用命令;掌握shell脚本编程; 掌握大数据架构Hadoop原理及编程应用;掌握Hadoop三大组件的使用方式、方法以及Hadoop调优; 掌握ZooKeeper协管理器工作机制以及动态感知原理及使用; 掌握Hive数据仓库的使用及调优原理; 掌握HBase数据库的开发、使用以及调优; 掌握消费金融业务处理流程;掌握根据业务制定合理技术框架(技术选型)的能力;大量数据的日志采集方案;数仓的分层搭建以及数仓建模;掌握大量数据的ETL处理方式;掌握工作流调度解决方案;掌握即席查询工具使用及其原理;掌握数据可视化报表工具的使用;掌握数据治理框架的原理以及使用;掌握集群指标监控工具的使用 职业方向: Hadoop开发工程师、数据仓库工程师、ETL开发工程师、离线开发工程师 |
第三阶段 Spark技术栈 | Spark技术栈 Scala、Kafka、Spark、交通流量实时可视化大屏 培养方向: 掌握Scala基本语法和进阶的使用,为学习Spark、Flink框架打下基础; 掌握消息队列概念、Kafka原理架构、日志合并、消息检索; 掌握分布式内存计算、RDD、DataSet、DStream概念; 掌握离线计算、流式计算; 掌握可视化大屏内在价值与用途;掌握实时流数据分析业务处理流程;掌握Flume+Kafka+Sparkstreaming+Redis架构整合;掌握Springboot的使用;掌握websocket操作使用;了解Echarts的使用方式 职业方向: Spark开发工程师、实时开发工程师 |
第四阶段 Flink流式处理框架 | Flink流式处理框架: Flink、ClickHouse、畅游天涯旅游实时分析项目 培养方向: 掌握Flink的原理;掌握Flink的使用以及与其他技术的整合; 掌握ClickHouse架构、速度快的原因;掌握ClickHouse数据库和表引擎;掌握ClickHouse基本操作以及和spark、flink的整合; 掌握旅游行业业务流程;掌握Flink在实时计算业务中的使用;掌握自定义Flink source和sink来生成和消费Kafka数据;掌握Flink和ClickHouse整合已存储数据;掌握搜索引擎Elasticsearch;掌握Flink和Elasticsearch整合;掌握基于Flink CEP处理复杂事件 职业方向: Flink开发工程师、实时开发工程师、实时数仓工程师 |
第五阶段 项目实战 | 项目实战: EWR消费信用风险舆情系统、Monoceros物流大数据平台、物流Kubernetes+Docker项目迁移 培养方向: 掌握信贷金融业务处理流程;掌握根据业务制定合理的技术框架(技术选型);掌握当下流行的数据中台概念;掌握前台工作整体机制以及技术应用;掌握后台综合分析展示应用系统;掌握大量数据的综合采集方案;掌握大量数据的ETL处理方式;掌握工作流调度解决方案;掌握集群指标监控工具的使用; 掌握基于亿级订单的物流大数据平台的研发;掌握基于Flink实现仓库货物、仓储车运动轨迹、包裹追踪等多维度业务分析;具备基于HDP平台收集数据资源的能力,实现秒级OLAP分析; 掌握Docker容器化技术以及应用;掌握Kubernetes核心功能以及在项目中的部署应用 职业方向: 数据仓库工程师、ETL开发工程师、离线开发工程师、实时开发工程师、数据中台工程师 |
第六阶段 就业指导 | 就业指导: 企业面试前期准备与技巧、专业指导、企业面试复盘 课程内容: 职业规划讲解、简历注意事项详解、就业情况分析简历制作(个人技能、项目经验、自我评价); 简历审核修正、常见面试题的讲解、技术简历的指导与优化、强化实战项目(项目模块的介绍,业务流程的梳理); 真实面试复盘(晚自习时间)(总结学员面试中的问题,进行针对性的辅导以及相关面试题的讲解) 培养方向: 从简历、面试技巧等层面助力学员,培养学员沟通表达能力 让学员清晰了解职业发展规划,明确自身定位,找到适合自身发展的工作; 通过项目强化、面试专项指导、面试复盘等,学员能更好就业 |
一路暖心服务,不怕您货比三家
大数据培训资料
Hadoop MapReduce简介 Apache Hadoop MapReduce是一个用于在Hadoop集群上并行处理大量数据集的系统。
数据分析利用两个阶段,即映射和简化过程,作业是MapReduce中的顶级单位,其供应的配置具有Map and Reduce分析功能,而Hadoop系统则提供了计划,分配和并行化功能。
在Map阶段中,输入数据被隔离为输入拆分,以供在Hadoop上并行运行的Map Tasks分析,当然,MapReduce系统从Hadoop分布式文件系统(HDFS)获取输入数据。Reduce阶段将Map阶段的结果用作一组并行的Reduce任务的输入,减少任务将数据组合成确定的结果。
尽管Reduce阶段依赖于Map阶段的收益,但Map and Reduce处理并不是真正连续的。也就是说,Reduce任务可以在任何Map任务完成时启动。在启动任何Reduce任务之前,完成所有Map任务并不是根本。
MapReduce适用于键值集。从理论上讲,MapReduce工作需要大量信息键值对,并通过Map和Reduce功能传输数据,从而创建一组输出键值对。Map任务生成键值集的一半排列,Reduce任务将这些键值集用作输入。 MapReduce作业周期 在客户端向Hadoop提交MapReduce作业时:
本地Job Client使作业准备好提交,并将其传输到Job Tracker。
作业跟踪器计划作业并在任务跟踪器之间分配Map作业以进行并行工作。
每个任务跟踪器都会生成一个映射任务。作业跟踪器从任务跟踪器获取进度数据。
由于最终可以访问Map结果,因此Job Tracker将Reduce任务分散在Task Trackers中以进行并行处理。
每个任务跟踪器都会提出一个简化任务以完成工作。作业跟踪器从任务跟踪器获取进度数据。
工作客户 Job Client的主要作用是准备要执行的作业。每当您将MapReduce作业提交给Hadoop时,本地Job Client都会执行以下操作:
作业配置和验证。
输入拆分的生成,并检查Hadoop如何对Map输入数据进行分区。
将作业资产或资源(作业JAR文档,输入拆分,配置)复制到共享区域,例如HDFS目录,作业跟踪器和任务跟踪器可以在其中使用该文件或资源。
最后将作业提交给作业跟踪器。
工作追踪器 作业跟踪器负责计划作业,将作业划分为Map和Reduce活动,在工作节点之间传达Map和Reduce任务,任务故障恢复以及跟踪活动或作业状态。准备运行作业时,作业跟踪器:
从Job Client设置数据的共享位置获取信息。
为每个拆分创建一个Map活动。
将每个地图活动或任务分配给任务跟踪器。作业跟踪器监视任务跟踪器的强度和作业的进度。完成地图任务并可以访问结果后,作业跟踪器将:
生成Reduce任务,直到作业配置启用的最大极限。
将每个Map结果段分配给Reduce任务。
将每个Reduce任务分配给任务跟踪器。
当所有Map和Reduce任务成功完成时,或者队列中没有Map任务时,如果没有Reduce步骤,则作业完成。
任务追踪器 任务跟踪器处理一个工作节点的任务,并将状态报告给作业跟踪器。通常,任务跟踪程序会在相关的工作程序节点上继续运行,但是不需要位于同一主机上。当作业跟踪器将“映射”或“简化”任务委派给任务跟踪器时,任务跟踪器将:
在本地获取作业资产。
在工作节点上生成子JVM,以执行Map或Reduce任务。
向作业跟踪器报告状态。
地图任务 Hadoop MapReduce结构使一个Map Task可以处理每个信息拆分。以下是“地图任务”中涉及的活动:
它使用输入格式功能将输入数据引入本地并生成输入键值对。
作业提供的Map函数和键值对的链接。
执行结果的本地排序和合并。
如果作业包含合并器,则它将运行合并器以进行进一步累积。
它将结果存储在本地,内存中和本地记录框架中。
将进度或任何进度和状态传达给任务跟踪器。
当地图任务通知任务跟踪器达到高潮时,任务跟踪器将通知作业跟踪器。此时的作业跟踪程序使结果可用于化简任务。 减少任务 Reduce阶段将Map阶段的结果编译为最终结果。通常,最后一个结果集比输入集小,但这取决于应用程序。约简由并行的约简任务完成。还原通常分三个阶段执行,即复制,排序和合并。减少任务包括以下内容:
分配本地工作资源
它进入复制阶段,以从工作节点或资源节点获取分配的Map结果的所有本地副本。
当重复阶段结束时,执行排序阶段以将复制的结果合并为(键,自尊表)集合的单独布置。
排序阶段完成后,它将执行Reduce阶段,并在每个键值对上引发作业提供的Reduce应用程序。
将最终结果保存到所需的目的地,例如HDFS。
结论 当前时代是关于数据管理和利用的。数据正以惊人的速度增长,因此需要部署特殊的工具。Hadoop具有管理这些大数据的能力。Hadoop MapReduce可以被视为Hadoop系统的核心,因为它使Hadoop能够以高度灵活,高效的方式处理数据。
扫描二维码免费领取试听课程
登录51乐学网
注册51乐学网