《第十五届山东省职业院校技能大赛高职组“大数据技术与应用”.docx》由会员分享,可在线阅读,更多相关《第十五届山东省职业院校技能大赛高职组“大数据技术与应用”.docx(4页珍藏版)》请在第壹文秘上搜索。
1、第十五届山东省职业院校技能大赛高职组“大数据技术与应用”赛项竞赛试题一、竞赛时间、内容及总成绩(一)竞赛时间竞赛时间共为6小时,参赛队自行安排任务进度,休息、饮水、如厕等不设专门用时,统一含在竞赛时间内。(二)竞赛内容概述序号任务名称具体内容任务一大数据平台环境搭建按照任务书要求,需要基于Docker环境完成HadOOP完全分布式、SPark安装配置、FIink安装配置、Hive安装配置、Kafka安装配置、Flume安装配置、ClickHouse安装配置、HBase安装配置等中的任意三个组件的安装配置任务二数据采集按照任务书要求基于SCala语言基于SPark完成离线数据采集,将数据存入Hi
2、Ve的OdS层中;按照要求使用LinUX命令,利用FlumeMaxwel1Kafka等工具完成实时数据采集任务三实时数据处理按照任务书要求使用SCaIa语言基于Flink完成Kafka中的数据消费,将数据分发至据消a的dwd层中,并在HBase中进行备份同时建立Hive外表,基于Flink完成相关的数据指标计算并将计算结果存入Redis、CliCkHOUSe中任务四离线数据处理按照任务书要求使用SCala语言基于SPark完成离线数据清洗、处理、计算,包括数据的合并、去重、排序、数据类型转换等并将计算结果存入MySQL、HBaseClickHouse中任务五数据可视化按照任务书要求编写前端代码
3、,调用后台数据接口,使用、EChartS完成数据可视化任务六综合分析报告根据要求编写综合分析报告()竞赛总成绩“大数据技术与应用”赛项竞赛总成绩为IOO分,其中包含赛场职业素养5分。二、任务须知L每组参赛队分配一台竞赛服务器、三台客户机,拥有独立IP组。2 .本次比赛采用统一网络环境比赛,请不要随意更改客户端的网络地址信息,对于更改客户端信息造成的问题,由参赛选手自行承担比赛损失;3 .请不要恶意破坏竞赛环境,对于恶意破坏竞赛环境的参赛者,组委会根据其行为予以处罚直至取消比赛资格。4 .比赛过程中及时保存相关文档。5 .比赛相关文档中不能出现参赛学校名称和参赛选手名称,以赛位号(工位号)代替。
4、6 .参赛选手请勿删除模板内容,若因删除导致任何问题后果自负。7 .若同一文档由不同选手完成,须将文档合并后作为最终结果提交到U盘中。8 .比赛中出现各种问题及时向现场裁判举手示意,不要影响其他参赛队比赛。三、任务说明本项目要求完成离线电商数据统计分析,完成大数据平台环境搭建、数据采集、实时数据处理、离线数据处理、数据可视化及综合分析报告编写等工作。提供的相关资源包括:1 .大数据环境搭建中需要用到的组件安装包2 .电商相关脱敏业务数据3 .大数据分析集群环境4 .数据采集开发环境5 .实时数据处理开发环境6 .离线数据处理开发环境7 .数据可视化开发环境8 .综合分析报告文档模板任务一:大数
5、据平台环境搭建按照任务书要求,需要基于Docker环境完成Hadoop完全分布式、SPark安装配置、Flink安装配置、HiVe安装配置、Kafka安装配置、FlUnle安装配置、CliCkHoUSe安装配置、HBaSe安装配置等中的任意三个组件的安装配置。任务二:数据采集按照任务书要求基于Scala语言基于Spark完成离线数据采集,将数据存入Hive的OdS层中;按照任务书要求使用Linux命令,利用Flume、Maxwell等工具完成实时数据采集,将数据存入Kafka指定的TOPiC中。任务三:实时数据处理按照任务书要求使用SCaIa语言基于Flink完成Kafka中的数据消费,将数据
6、分发至Kafka的dwd层中,并在HBaSe中进行备份同时建立HiVe外表,基于FIink完成相关的数据指标计算并将计算结果存入Redis、ClickHouse中。任务四:离线数据处理按照任务书要求使用SCaIa语言基于SPark完成离线数据清洗、处理、计算,包括数据的合并、去重、排序、数据类型转换等并将计算结果存入MySQL、HBaSe、CIiCkHOUSe中。任务五:数据可视化按照任务书要求编写前端代码,调用后台数据接口,使用、EChartS完成数据可视化。任务六:综合分析报告按照任务书要求,完成综合分析报告编写。四、竞赛结果提交要求(一)提交方式任务成果需拷贝至提供的U盘中。在U盘中以XX工位号建一个文件夹(例如01),将所有任务成果文档保存至该文件夹中。(二)文档要求竞赛提交的所有文档中不能出现参赛队信息和参赛选手信息,竞赛文档需要填写参赛队信息时以工位号代替(XX代表工位号)。