Spark2.0大型项目实战:电商用户行为分析大数据平台

适用人群:Java开发人员、运维人员

共138课时 更新时间:2019-03-29 21:47:45

价  格

¥0.00

优惠活动

0.00

2424小时内答疑

课时永久观看

PC倍速播放

专属资料下载

课程介绍

课程目录

资料&视频下载

学员评价

Spark2.0大型项目实战:电商用户行为分析大数据平台

前提

学习本门课程需要spark基础:请移步到spark2.0入门到精通视频教程spark2.0:入门到精通视频教程

课程背景

本项目主要讲解了一套应用于互联网电商企业中,使用Java、Spark等技术开发的大数据统计分析平台,对电商网站的各种用户行为(访问行为、页面跳转行为、购物行为、广告点击行为等)进行复杂的分析。用统计分析出来的数据,辅助公司中的PM(产品经理)、数据分析师以及管理人员分析现有产品的情况,并根据用户行为分析结果持续改进产品的设计,以及调整公司的战略和业务。最终达到用大数据技术来帮助提升公司的业绩、营业额以及市场占有率的目标。

课程学习目标

目标一. 掌握大数据集群环境的搭建

目标二. 掌握企业级大数据项目架构的搭建

目标三. 掌握J2EE+Spark的交互式大数据分 析系统架构

目标四. 掌握企业级大数据项目的开发流程

目标五. 将Spark Core、Spark SQL、Spark Streaming的90%以上的技术点和知 识点应用在项目中,技术与项目融 会贯通

目标六. 使用高级的Spark技术开发各种复 杂的大数据统计与分析类的业务需 求和功能

目标七. 掌握企业级的高端性能调优方案、 troubleshooting解决线上故障能 力以及数据倾斜解决方案

课程亮点

亮点一、高端Spark大数据项目。

亮点二、按照企业级的标准搭建大数据项目的架构。

亮点三、按照高端的J2EE与Spark结合的交互式分析大数据平台的架构,讲解Spark开发。

亮点四、采用真实的企业级大数据项目开发流程,包括近10个步骤。

亮点五、技术点覆盖广泛,一套课程覆盖Spark Core、Spark SQL与Spark Streaming高达90%以上的技术点。

亮点六、真实的企业级性能调优方案、troubleshooting解决线上故障经验、高端的数据倾斜解决方案。

亮点七、业务功能极其复杂,全部采用真实的企业级业务需求。

亮点八、包含大量Spark技术点。

亮点九、贯穿了大量讲师行业从业的经验与经历,以及感想。

亮点十、赠送全套完整商业级别的源代码,稍加改造即可应用,商业价值在百万以上。

亮点十一、采用新的技术Spark 2.0进行项目实战开发

课程针对人群

本课程针对有Java编程基础(不要求J2EE)、有扎实Spark技术基础的学员。

我该怎么学,如何才能学好这门课程,给些建议。

2.1、时间上的安排建议
本课程共120多讲,如果您时间上充分,建议以每天2-3讲的进度往前学习。如果时间特别充裕,建议将重点理论知识的相关视频看2~3遍。
2.2、学习要求
学习的时候, 可以要自己边看边做笔记,建议看视频的同时,电脑上打开一个记事本即可。所有理论知识的剖析和讲解一定要反复思考和理解,如果不理解,建议看2~3遍;所有代码,全部都要求跟着视频,手动敲一遍代码,脱开视频,自己再敲一遍,争取能够自己完全将项目敲出来。
2.3、讲师建议
1.最好看完视频之后,抛开视频,独立自己去把上课中的示例写一遍,看自己是否理解,如果不正确,可以回过头看再看下视频,如果反复,达到真正理解和熟练掌握的目的。
2.对于案例实战部分,一定要自己亲自动手做一遍,不要满足听完就OK了

  1. 建议一般听视频,一般拿个纸和笔,做一些记录和笔记,这是一种非常好的学习习惯。
  2. 一定不要过于依赖视频,要学会看API和使用百度,学会思考,学会举一反三
  3. 最后祝您学有所成!
学完这门课程能做什么

课程是属于某个特定的专业技术,掌握该技术后,你可以从事以下职位的相关工作
1.Spark大数据开发工程师
2.Spark大数据平台开发工程师

研发环境及内容简介
  • 课程研发环境
    开发工具: Eclipse
    Linux:CentOS 6.4
    Spark: 1.5.1
    Hadoop: hadoop-2.5.0-cdh5.3.6
    Hive: hive-0.13.1-cdh5.3.6
    ZooKeeper: zookeeper-3.4.5-cdh5.3.6
    Kafka: 2.9.2-0.8.1
    其他工具:flume-ng-1.5.0-cdh5.3.6、SecureCRT、WinSCP、VirtualBox等
  • 内容简介
    项目主要采用目前大数据领域流行、热门的技术——Spark,具有普通项目无法比拟的技术前瞻性与尖端性。本项目使用了Spark技术生态栈中常用的三个技术框架,Spark Core、Spark SQL和Spark Streaming,进行离线计算和实时计算业务模块的开发。实现了包括用户访问session分析、页面单跳转化率统计、热门商品离线统计、广告点击流量实时统计4个业务模块。
    项目中所有的业务功能模块都是直接从实际企业项目中抽取出来的,业务复杂度绝对没有任何缩水,只是为了更好的贴近大数据实战课程的需要,进行了一定程度上的技术整合和业务整合。该项目的真实性、业务复杂性以及实战型,绝对不是市面上现有的仅几个课时的Demo级的大数据项目可以比拟的。

通过合理的将实际业务模块进行技术整合与改造,该项目完全涵盖了Spark Core、Spark SQL和Spark Streaming这三个技术框架中几乎所有的功能点、知识点以及性能优化点。仅一个项目,即可全面掌握Spark技术在实际项目中如何实现各种类型的业务需求!在项目中,重点讲解了实际企业项目中积累下来的宝贵的性能调优、troubleshooting以及数据倾斜解决方案等知识和技术,是任何其他视频课程以及书本中都没有包含的珍贵经验积累!同时以企业级大数据项目开发流程贯穿每个业务模块的讲解,涵盖了项目开发全流程,包括需求分析、方案设计、数据设计、编码实现、测试以及性能调优等环节,全面还原真实大数据项目的开发流程。该项目的整体商业价值绝对在百万元以上!

学习完本课程之后,可以大幅度提升学员的Spark技术能力、实战开发能力、项目经验、性能调优和troubleshooting经验。如果学员已经学习过《Spark从入门到精通(Scala编程、案例实战、高级特性、Spark内核源码剖析、Hadoop高端)》课程,再学习完本课程,则完全可以达到2~3年左右Spark大数据开发经验的水平,正式迈入Spark高级开发工程师的行列!在跳槽或者面试的时候,精湛的Spark技术以及复杂的Spark大数据项目的经验,足以让你应付国内任何公司的面试(包括BAT等顶级互联网公司的面试难度),从而让学员通过学习掌握自己的人生!

在此特别强调,本课程的学习要求有Java基础、Hadoop基础,如果学员没有相关基础,请先自学相关知识。本课程要求学员有扎实的Spark技术基础,如果没有,则推荐学习北风网的《Spark从入门到精通(Scala编程、案例实战、高级特性、Spark内核源码剖析、Hadoop高端)》课程(http://www.ibeifeng.com/goods-560.html)。
备注一:关于《Spark从入门到精通(Scala编程、案例实战、高级特性、Spark内核源码剖析、Hadoop高端)》与本套课程的关系,如果学习了第一套Spark技术课程,那么在融会贯通的情况下,可以达到1~2年Spark开发经验的水平;如果在学习完第一套Spark课程,同时学习完第二套Spark项目课程,并且融会贯通的情况下,那么可以达到2~3年的Spark开发经验的水平,成为Spark高级/资深开发工程师。

备注二:考虑到学员不统一的技术基础,因此本项目仅仅要求J2SE基础,也就是Java基础编程即可,不要求J2EE,而且也不使用任何Java框架,不涉及与第三方技术整合。主要就是为了降低课程的学习门槛。本课程不会讲解J2EE层的开发,只是讲解Spark如何与J2EE结合使用,组成交互式大数据平台的架构。因此唯一的要求仅仅是Java编程基础以及Spark扎实的技术即可学习课程。

备注三:关于课程开发语言的选择,本套课程选择使用Java,而不是Scala,作为编程语言;原因主要是因为在开发大型、复杂的大数据业务系统或平台时,Java的优势是Scala所不可比拟的;在真正大型复杂的项目中,可能Spark需要管理大量的组件,此时可能需要用Spring框架;可能需要执行复杂的数据库操作,此时需要ORM类框架,比如MyBatis;可能需要与Redis、Kafka、ZooKeeper整合使用,此时需要使用Java Client API;以上需求都是Scala满足不了的。使用Scala很可能会导致项目的多语言混编,造成可维护性和可扩展性大幅度降低。(注意,本套项目课程为了降低学习难度,并且聚焦在Spark上,没有使用以上任何技术,只是用纯粹的Java基础编程与Spark技术;但是这并不意味着你在真正的工作中不会碰到上述的情况)

  • 本课程的最大特色包括

1、高端大数据项目:市面上目前完全没有任何高端的大数据项目实战类课程,更没有Spark大数据项目实战类课程,本课程是企业级大型Spark大数据实战项目课程!

2、企业级大数据项目的架构搭建:配置管理组件、JDBC辅助组件(内置数据库连接池)、Domain与DAO模型等等,完全正规的大型大数据项目架构!

3、交互式大数据分析平台架构:本项目的原型不是普通的定时调度离线统计任务的大数据项目;而是Spark与J2EE系统结合构成的交互式大数据分析平台,项目中的Spark开发都是按该架构来讲解的!

4、真实还原完整的企业级大数据项目开发流程:项目中采用完全还原企业大数据项目开发场景的方式来讲解,每一个业务模块的讲解都包括了数据分析、需求分析、方案设计、数据库设计、编码实现、功能测试、性能调优、troubleshooting与解决数据倾斜(后期运维)等环节,真实还原企业级大数据项目开发场景。让学员掌握真实大数据项目的开发流程和经验!

5、技术点覆盖广:一套项目课程,全面涵盖了至少90%以上的Spark Core、Spark SQL和Spark Streaming的几乎所有的初、中、高级技术点;通过本项目课程的学习,可以全面锻炼了学员的Spark大数据项目实战能力,将技术与项目融会贯通,彻底精通Spark实战开发!

6、真实的性能调优方案与troubleshooting经验:项目中通过实际的功能模块和业务场景,以及讲师曾经开发过的处理十亿、甚至百亿以上数据级别的Spark作业的经验积累,贯穿讲解了大量的高级复杂的性能调优技术和知识、troubleshooting解决线上报错和故障的经验。真正帮助学员掌握企业实际项目中使用的高精尖Spark技术!

7、高端的数据倾斜解决方案:本课程讲解了高端而且宝贵的,大量实际项目中积累的——数据倾斜全套解决方案!包括数据倾斜问题的判断、诊断与定位,以及一整套7种针对各种不同类型数据倾斜的解决方案,彻底帮助学员解决企业项目中最棘手的数据倾斜问题,称为企业中最核心的技术人才!

8、业务功能极其复杂:项目中的四个功能模块,全部是实际企业项目中提取出来的,并进行技术整合和改良过的功能模块,包含了比实际项目中更多、更全面的技术点。所有模块的需求,全部是企业级的复杂和真实的需求,业务模块非常之复杂,绝对不是市面上的Demo级别的大数据项目能够想比拟的。学习过后,真正帮助学员增加实际企业级项目的实战经验!

9、大量高端技术:自定义Accumulator、按时间比例随机抽取算法、二次排序、分组取topN、页面切片生成以及页面流匹配算法、Hive与MySQL异构数据源、RDD转换为DataFrame、注册和使用临时表、自定义UDAF聚合函数(group_concat_distinct)、自定义get_json_object等普通函数、Spark SQL的高级内置函数(if与case when等)、开窗函数(ROW_NUMBER)、动态黑名单机制、transform、updateStateByKey、transform与Spark SQL整合、window滑动窗口、高性能写数据库,等等。

10、行业经验穿插介绍:贯穿了大量讲师在大数据行业内的从业经验以及所见所闻,帮助学员丰富行业阅历。

11、高端源代码:赠送完整spark大型大数据项目的商业级别的源代码,价值上百万;稍加改造,二次开发,甚至可以直接用于你的企业的大数据行为分析。

12、现场Excel手工画图与写笔记:所有复杂业务流程、架构原理、Spark技术原理、业务需求分析、技术实现方案等知识的讲解,采用Excel画图或者写详细比较的方式进行讲解与分析,细致入微、形象地透彻剖析理论知识,帮助学员更好的理解、记忆与复习巩固。

Spark 2.0实战升级!

本次课程升级,主要是为了保证课程跟上Spark的最新技术发展趋势。目前Spark已经发展到2.0版本,未来Spark的主要开发接口将以Dataset API为主,原先的RDD API将作为底层API退居二线。但是这并不意味着之前的内容就过时了,实际上对于一些性能要求和稳定性要求极高,需要工程师对Spark进行最底层把控的时候,Spark官方也是建议,还是应该使用RDD API的,因为可以对所有的底层参数进行深度的把控,同时系统报错的时候,可以直接定位最原始的源码进行问题排查和修复。Dataset API会作为一种更加高层次的、易用的API,来在合适的场景下,提高我们的开发效率。但是Dataset API的缺点在于其被高度封装,底层会自动生成大量代码和优化,导致我们几乎无法对其进行太多的优化,出现问题时非常难以排查。因此Spark 2.0,并不意味着任何已有的技术淘汰,也不意味着任何新的技术是万能的,需要我们灵活根据业务场景选择对应的技术。

本次课程赠送了《Spark 2.0从入门到精通》课程的部分内容,主要是照顾到没有购买过《Spark 2.0从入门到精通》的同学,可以初步地了解Spark 2.0的新特性以及核心思想。此外,最重要的是增加了基于Spark Dataset 2.0开发的一个功能模块:用户活跃度分析模块。该模块可以让产品经理或运营人员了解到企业在各种条件和场景下,最活跃的那些用户是哪些,并进一步分析他们的访问行为轨迹,进而为自己优化产品设计,或者调整运营策略,提供数据上的决策依据。该模块基本涵盖了Spark Dataset 2.0的核心功能和API,掌握该模块的开发,基本上运用Spark Dataset进行项目开发,问题就不大了。

此外,本次课程全部使用纯Scala语言进行项目开发,也是对本套课程的一个有力的弥补。

你可能还感兴趣的课程

所属专题

如侵权联系删除

  驰狼网免责声明

官方交流群

 

官方交流群(348039381)

立即加入

143352人学习过

7日学霸榜 有311841人与你一起学习

课程介绍

课程目录

资料&视频下载

学员评价

×
  • 用户登录
  • 注册新用户