东营计算机培训机构
服务热线:400-008-6280

东营大数据培训班

东营大数据培训班

  • 上课时段:详见详情
  • 教学点:1个
  • 开班时间:滚动开班
  • 课程价格:请咨询
  • 已关注:748
  • 优惠价格:请咨询
  • 咨询电话: 400-008-6280
授课学校:东营计算机培训机构 (点击获取校区地址)

课程介绍

中公优就业大数据培训班

  大数据是一种在获取、存储、管理、分析等方面大大超出了传统数据库软件工具能力范围的数据集合。它具有大量的数据规模、快速的数据流转、多样的数据类型和价值密度低四大特征。 未来大数据相关人才缺口巨大。


大量优质岗位等你来


大数据人才缺口


薪资待遇随工作年限呈阶梯式上涨


薪资待遇随工作年限呈阶梯式上涨


只有想不想学,没有能不能学


我是零基础零基础入学勤能补拙我想转行现有工作枯燥,工资太低我想技能提升已有的技术太落伍 担心被企业淘汰我是应届毕业生求职压力大 同专业市场需求饱和我是在校大学生对所学专业没有兴趣 为日后就业提早打算


理论、实战双向并行,奠定入行扎实基础


第一阶段


Java语言基础

Java语言基础:

Java语言入门、基本语法、面向对象、常用API、异常、集合、IO流、多线程、网络编程、反射、JDK新特性、MySQL数据库、JDBC

培养方向:

了解Java语言的特征和应用领域;掌握JDK、JRE和JVM的作用;能够成功搭建Java开发环境;完成HelloWorld程序的编写;掌握IDE工具IDEA的使用方式; 掌握Java基本语法中的常量、变量的声明和使用;掌握Java中的运算符、数据类型及其相互转换;掌握分支结构、循环结构、方法的定义和使用;掌握数组的使用,理解数组的内存结构; 掌握面向对象的编程思想;掌握类和对象的定义和使用;理解封装、继承、多态等特性;掌握抽象类、接口的特点和使用方式;充分理解并运用Java面向对象思想来进行程序开发; 掌握Java中的常用类和工具类的使用,能够使用这些常用类和工具类解决多种问题; 掌握Maven项目构建和依赖管理、掌握Maven的继承和聚合;

第二阶段


Hadoop技术栈

Hadoop技术栈

Linux、Hadoop、ZooKeeper、Hive、HBase、海王星大数据金融平台

培养方向:

掌握Linux操作系统安装及常用命令;掌握shell脚本编程; 掌握大数据架构Hadoop原理及编程应用;掌握Hadoop三大组件的使用方式、方法以及Hadoop调优; 掌握ZooKeeper协管理器工作机制以及动态感知原理及使用; 掌握Hive数据仓库的使用及调优原理; 掌握HBase数据库的开发、使用以及调优; 掌握消费金融业务处理流程;掌握根据业务制定合理技术框架(技术选型)的能力;大量数据的日志采集方案;数仓的分层搭建以及数仓建模;掌握大量数据的ETL处理方式;掌握工作流调度解决方案;掌握即席查询工具使用及其原理;掌握数据可视化报表工具的使用;掌握数据治理框架的原理以及使用;掌握集群指标监控工具的使用

职业方向:

Hadoop开发工程师、数据仓库工程师、ETL开发工程师、离线开发工程师

第三阶段


Spark技术栈

Spark技术栈

Scala、Kafka、Spark、交通流量实时可视化大屏

培养方向:

握Scala基本语法和进阶的使用,为学习Spark、Flink框架打下基础; 掌握消息队列概念、Kafka原理架构、日志合并、消息检索; 掌握分布式内存计算、RDD、DataSet、DStream概念; 掌握离线计算、流式计算; 掌握可视化大屏内在价值与用途;掌握实时流数据分析业务处理流程;掌握Flume+Kafka+Sparkstreaming+Redis架构整合;掌握Springboot的使用;掌握websocket操作使用;了解Echarts的使用方式

职业方向:

Spark开发工程师、实时开发工程师

第四阶段


Flink流式处理框架

Flink流式处理框架:

Flink、ClickHouse、畅游天涯旅游实时分析项目

培养方向:

掌握Flink的原理;掌握Flink的使用以及与其他技术的整合; 掌握ClickHouse架构、速度快的原因;掌握ClickHouse数据库和表引擎;掌握ClickHouse基本操作以及和spark、flink的整合; 掌握旅游行业业务流程;掌握Flink在实时计算业务中的使用;掌握自定义Flink source和sink来生成和消费Kafka数据;掌握Flink和ClickHouse整合已存储数据;掌握搜索引擎Elasticsearch;掌握Flink和Elasticsearch整合;掌握基于Flink CEP处理复杂事件

职业方向:

Flink开发工程师、实时开发工程师、实时数仓工程师

第五阶段


项目实战

项目实战:

EWR消费信用风险舆情系统、Monoceros物流大数据平台、物流Kubernetes+Docker项目迁移

培养方向:

掌握信贷金融业务处理流程;掌握根据业务制定合理的技术框架(技术选型);掌握当下流行的数据中台概念;掌握前台工作整体机制以及技术应用;掌握后台综合分析展示应用系统;掌握大量数据的综合采集方案;掌握大量数据的ETL处理方式;掌握工作流调度解决方案;掌握集群指标监控工具的使用; 掌握基于亿级订单的物流大数据平台的研发;掌握基于Flink实现仓库货物、仓储车运动轨迹、包裹追踪等多维度业务分析;具备基于HDP平台收集数据资源的能力,实现秒级OLAP分析; 掌握Docker容器化技术以及应用;掌握Kubernetes核心功能以及在项目中的部署应用

职业方向:

数据仓库工程师、ETL开发工程师、离线开发工程师、实时开发工程师、数据中台工程师

第六阶段


就业指导

就业指导:

企业面试前期准备与技巧、专业指导、企业面试复盘

课程内容:

职业规划讲解、简历注意事项详解、就业情况分析简历制作(个人技能、项目经验、自我评价); 简历审核修正、常见面试题的讲解、技术简历的指导与优化、强化实战项目(项目模块的介绍,业务流程的梳理); 真实面试复盘(晚自习时间)(总结学员面试中的问题,进行针对性的辅导以及相关面试题的讲解)

培养方向:

从简历、面试技巧等层面助力学员,培养学员沟通表达能力 让学员清晰了解职业发展规划,明确自身定位,找到适合自身发展的工作; 通过项目强化、面试专项指导、面试复盘等,学员能更好就业


一路暖心服务,不怕您货比三家


一路暖心服务,不怕您货比三家

优就业 1手把手教学,每一位学员的疑问随时解决,不拖延! 2四分理论六分实战的合理教学,干货满满,课程实在,不闲扯! 3真实项目Leader,行业经验、案例精髓,毫无保留倾囊相授! 4真实项目实战,作品真正上线,学习的成果显而易见! 5职业测评、简历修改、面试指导,企业推荐,打造个性化、差异化就业流程! 6封闭教学包住宿,中公购书补助等各项福利,为你的学习做好服务!其他机构 大班授课,老师精力有限,学员问题无法及时得到解决。纯理论填鸭式教学,知识点抽象干瘪,不能学以致用。案例陈旧,无法适应最新需求,小众非典型案例,不具行业代表性。短暂虚拟操作,方法一带而过,学员对知识一知半解。指导学员简历作假,或干脆无就业服务,无法按学员真实情况推荐就业,就业不稳定或薪资达不到预期。日常管理散漫,食宿自理,后续费用接踵而至,经济压力大,影响学习质量。

       大数据培训资料

  本地数据库(LDB/LocalDataBase)

  本地数据库是指驻留于运行客户应用程序的机器的数据库。本地数据库位于本地磁盘或局域网。典型的本地数据库有Paradox、dBASE、FoxPro和ACCCSS。

  数据采集(DataAcquisition,DAQ)

  数据采集又称数据获取,将被测试对象的各种参量通过各种传感器做适当转换后,再经过信号调理、采样、量化、编码、传输等步骤传递到控制器的过程。

  数据采集的一般步骤:

  ①用传感器感受各种物理量,并把它们转换成电信号

  ②通过A/D转换,模拟量的数据转变成数字量的数据

  ③数据的记录,打印输出或存入磁盘文件

  ④生产厂商为该采集系统编制的专用程序,常用于大型专用系统

  ⑤固化的采集程序,常用于小型专用系统

  ⑥利用生产厂商提供的软件工具,用户自行编制的采集程序,主要用于组合式系统

  数据模型(Datamodel)

  数据模型是现实世界数据特征的抽象,用于描述一组数据的概念和定义。数据模型是数据库中数据的存储方式,是数据库系统的基础。在数据库中,数据的物理结构又称数据的存储结构,就是数据元素在计算机存储器中的表示及其配置;数据的逻辑结构则是指数据元素之间的逻辑关系,它是数据在用户或程序员面前的表现形式,数据的存储结构不一定与逻辑结构一致。

  数据整理(DataCleansing)

  数据整理是对调查、观察、实验等研究活动中所搜集到的资料进行检验、归类编码和数字编码的过程,是数据统计分析的基础。

  数据处理(DataHandling)

  数据处理是指对数据(包括数值的和非数值的)进行分析和加工的技术过程。也就是对数据的采集、存储、检索、加工、变换和传输,将数据转换为信息的过程。

  数据压缩(DataCompression)

  数据压缩是指在不丢失有用信息的前提下,缩减数据量以减少数据的存储空间,提高其传输、存储和处理效率,或按照一定的算法对数据进行重新组织,减少数据的冗余和存储的空间的一种技术方法。

  数据恢复(DataRecovery)

  数据恢复是指通过技术手段,将保存在台式机硬盘、笔记本硬盘、服务器硬盘、移动硬盘、U盘等等设备上由于各种原因导致损伤或丢失的数据进行抢救和恢复的技术。

  数据集成(DataIntegration)

  数据集成是把不同来源、格式、特点性质的数据在逻辑上或物理上有机地集中,从而为企业提供全面的数据共享。数据集成维护了数据源整体上的数据一致性、提高信息共享利用的效率。

  数据迁移(DataMigration)

  数据迁移又称分级存储管理,是一种将离线存储与在线存储融合的技术。将高速、高容量的非在线存储设备作为磁盘设备的下一级设备,将磁盘中常用的数据按指定策略自动迁移到磁带库等二级容量存储设备上。

  当需要使用这些数据时,分级存储系统会自动将这些数据从下一级存储设备调回到上一级磁盘上。

  数据冗余(DataRedundancy/RedundantData)

  数据冗余是指同一个数据在系统中多次重复出现。消除数据冗余的目的是为了避免更新时可能出现的问题,以便保持数据的一致性。

  数据抽取(Datamining)

  数据抽取是指从源数据源系统抽取目的数据源系统需要的数据的过程。

  网络数据抽取(Webdatamining)

  网络数据抽取(Webdatamining),是指从网络中取得大量的又利用价值的数字化信息。主要包括结构化数据抽取(StructuredDataExtraction)、信息集成(Informationintegreation)和观点挖掘(Opinionmining)等。

  结构化数据抽取的目标是从Web页面中抽取结构化数据。这些结构化数据往往存储在后台数据库中,由网页按一定格式承载着展示给用户。例如论坛列表页面、Blog页面、搜索引擎结果页面等。信息集成是针对结构化数据而言,其目标是将从不同网站中抽取出的数据统一化后集成入库。其关键问题是如何从不同网站的数据表中识别出意义相同的数据并统一存储。

  数据标准化(datastandardization)

  数据标准化是指研究、制定和推广应用统一的数据分类分级、记录格式及转换、编码等技术标准的过程。

  数据备份(DataBackup)

  数据冗余是指同一个数据在系统中多次重复出现。消除数据冗余的目的是为了避免更新时可能出现的问题,以便保持数据的一致性。

  数据备份是容灾的基础,为防着系统出现操作失误或系统故障导致数据丢失,而将全部或部分数据集合从原来存储的地方复制到其他地方的活动,将数据遭受破坏的程度减到最小。传统的数据备份主要采用内置或外置的磁带机进行冷备份。这种方式只能防止操作失误等认为故障,其恢复时间也很长。现代企业采用网络备份,通过专业的数据存储管理软件结合相应硬件和存储设备来实现备份。

  (1)完全备份(FullBackup):优点是当发生数据丢失的灾难时,可以迅速恢复丢失的数据。不足之处是每天都对整个系统进行完全备份,造成备份的数据大量重复。

  (2)增量备份(IncrementalBackup):先实施一次完全备份,后续时间里只要对当天的或修改过的数据进行备份。优点:节省了磁盘空间,缩短了备份时间;缺点是数据恢复比较麻烦,备份的可靠性很差。

  (3)差分备份(DifferentialBackup):先实施一次完全备份,再将当天所有与备份不同的数据(新的或修改过的)备份到磁盘上。该策略避免了以上两种策略缺陷的同时,具备其所有优点。首先,它无须每天都对系统做完全备份,所需的备份时间短,节省磁盘空间。其次,数据恢复方便。一旦发生问题,用户只需使用完全备份和发生问题前一天的备份就可以将系统恢复。


扫描二维码免费领取试听课程

报名预约

登录51乐学网

注册51乐学网

免费短信关闭