大数据与分布式计算.pptx

上传人:p** 文档编号:273636 上传时间:2023-04-26 格式:PPTX 页数:64 大小:4.14MB
下载 相关 举报
大数据与分布式计算.pptx_第1页
第1页 / 共64页
大数据与分布式计算.pptx_第2页
第2页 / 共64页
大数据与分布式计算.pptx_第3页
第3页 / 共64页
大数据与分布式计算.pptx_第4页
第4页 / 共64页
大数据与分布式计算.pptx_第5页
第5页 / 共64页
大数据与分布式计算.pptx_第6页
第6页 / 共64页
大数据与分布式计算.pptx_第7页
第7页 / 共64页
大数据与分布式计算.pptx_第8页
第8页 / 共64页
大数据与分布式计算.pptx_第9页
第9页 / 共64页
大数据与分布式计算.pptx_第10页
第10页 / 共64页
亲,该文档总共64页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《大数据与分布式计算.pptx》由会员分享,可在线阅读,更多相关《大数据与分布式计算.pptx(64页珍藏版)》请在第壹文秘上搜索。

1、大数据与分布式计算 HDFSHadoop Distributed File System 1990年,一个普通的硬盘驱动器可存储1370 MB的数据并拥有4.4 MB/s的传输速度 ,所以,只需五分钟的时间就可以读取整个磁盘的数据。 20年过去了,1 TB级别的磁盘驱动器是很正常的,但是数据传输的速度却在100 MB/s左右。所以它需要花两个半小时以上的时间读取整个驱动器的数据。 从一个驱动器上读取所有的数据需要很长的时间,写甚至更慢。 如何解决?磁盘损坏数据丢失怎么办?如果需要存储计算1000T数据怎么办?常用RAID技术RAID类型访问速度访问速度数据可靠性数据可靠性磁盘利用率磁盘利用率R

2、AID0很快很低100%RAID1很慢很高50%RAID10中等很高50%RAID5较快较高(N-1)/NRAID6较快较(RAID5)高(N-2)/NHDFS系统架构什么是HDFS? Hadoop Distributed File System Hadoop Distributed File System (HDFS) is the primary storage system used by Hadoop applications. HDFS creates multiple replicas of data blocks and distributes them on compute n

3、odes throughout a cluster to enable reliable, extremely rapid computations.HDFS设计目标 HDFS以流式数据访问模式存储超大文件,运行于商用硬件集群上。 超大文件超大文件 流式数据访问流式数据访问 一次写入多次读取 商用硬件商用硬件不适合HDFS的场景 低延迟的数据访问低延迟的数据访问 大量小文件大量小文件 超过NameNode的处理能力 多用户任意写入修改文件多用户任意写入修改文件 HDFS为了做到可靠性(reliability)创建了多份数据块(data blocks)的复制(replicas),并将它们放置在服

4、务器群的计算节点中(compute nodes),MapReduce就可以在它们所在的节点上处理这些数据了。设计目标假设:节点失效是常态理想: 1. 任何一个节点失效,不影响HDFS服务2. HDFS可以自动完成副本的复制HDFS主要组件的功能 NameNodeDataNode 存储元数据 存储文件内容元数据保存在内存中文件内容保存在磁盘 保存文件,block ,datanode之间的映射关系维护了block id到datanode本地文件的映射关系文件 文件切分成块(默认大小64M),以块为单位,每个块有多个副本存储在不同的机器上,副本数可在文件生成时指定(默认3) NameNode是主节点

5、,存储文件的元数据如文件名,文件目录结构,文件属性(生成时间,副本数,文件权限),以及每个文件的块列表以及块所在的DataNode等等 DataNode在本地文件系统存储文件块数据,以及块数据的校验和 可以创建、删除、移动或重命名文件,当文件创建、写入和关闭之后不能修改文件内容。分而治之(Divide and Conquer)分而治之(Divide and Conquer)分而治之(Divide and Conquer)MapReduceMapReduce:大规模数据处理 处理海量数据(1TB) 上百/上千CPU实现并行处理 简单地实现以上目的 移动计算比移动数据更划算移动计算比移动数据更划算

6、 分而治之(Divide and Conquer)MapReduce特性 自动实现分布式并行计算 容错 提供状态监控工具 模型抽象简洁,程序员易用MapReduce它由称为map和reduce的两部分用户程序组成,然后利用框架在计算机集群上面根据需求运行多个程序实例来处理各个子任务,然后再对结果进行归并。WordCountMapReduceMapReduce 物理上MapReduceHive SQL Sub-queries in from clause Equi-joins Inner Left, Right, full Outer Multi-table Insert Multi-group

7、-by Extensibility Pluggable Map-reduce scripts Pluggable User Defined Functions Pluggable User Defined Types Complex object types: List of Maps Pluggable Data Formats Apache Log Format Columnar Storage FormatHive QL JoinINSERT OVERWRITE TABLE pv_usersSELECT pv.pageid, u.ageFROM page_view pvJOIN user

8、 uON (pv.userid = u.userid);Hive QL Join in Map Reducekeyvalue111111222pageid useridtime11119:08:0121119:08:1312229:08:14useridagegender11125female22232malepage_viewuserkeyvalue111222Mapkeyvalue111111111keyvalue222222ShuffleSortReduce了解Hive的意义? Hive是一个很方便的工具,一般的业务人员就可以很快上手。 ? M/R任务的数量控制着语句的执行时间。 ? 如

9、何减少M/R的任务数量? ? 在写HQL时我们能做什么? ? Hive如何把HQL转化为M/R job。 ? Hive在转化过程中做了哪些优化。 Driver Compiler Hadoop Hive架构Client Metastore Driver Compiler Hadoop Hive执行流程? 操作符(Operator)是Hive的最小处理单元 ? 每个操作符处理代表HDFS操作或MR作业 ? 编译器把Hive SQL转换成一组操作符 Client Metastore Hive操作符操作符TableScanOperator ReduceSinkOperator JoinOperator

10、 SelectOperator FileSinkOperator FilterOperator GroupByOperator MapJoinOperator LimitOperator UnionOperator 描述从表中读取数据生成到reduce端的结果数据Join两份数据减少输出列生成结果,输出数据到文件过滤输入数据GroupBy分组操作MapJoin Hint或者由优化器决定采用MapJoin Limit限制行数操作Union操作Hive执行流程? Hive通过ExecMapper和ExecReducer来执行MapReduce任务。 ? 执行MapReduce时有两种模式 ?本地模

11、式 ?分布式模式 Driver Compiler Hadoop Client Metastore Driver Compiler Hadoop Hive编译器Client Metastore SparkSpark生态系统SparkSpark是整个BDAS的核心组件,是一个大数据分布式编程框架,不仅实现了MapReduce的算子map函数和reduce函数及计算模型,还提供更为丰富的算子,如filter、join、groupByKey等。Spark将分布式数据抽象为弹性分布式数据集(RDD),实现了应用任务调度、RPC、序列化和压缩,并为运行在其上的上层组件提供API。其底层采用Scala这种函

12、数式语言书写而成,并且所提供的API深度借鉴Scala函数式的编程思想,提供与Scala类似的编程接口。Spark任务处理流程Spark SQL Spark SQL提供在大数据上的SQL查询功能,类似于Shark在整个生态系统的角色,它们可以统称为SQL on Spark。之前,Shark的查询编译和优化器依赖于Hive,使得Shark不得不 维护一套Hive分支,而Spark SQL使用Catalyst做查询解析和优化器,并在底层使用Spark作为执行引擎实现SQL的Operator。用户可以在Spark上直接书写SQL,相当于为Spark扩充了 一套SQL算子,这无疑更加丰富了Spark的

13、算子和功能,同时Spark SQL不断兼容不同的持久化存储(如HDFS、Hive等),为其发展奠定广阔的空间。Spark Streaming Spark Streaming通过将流数据按指定时间片累积为RDD,然后将每个RDD进行批处 理,进而实现大规模的流数据处理。其吞吐量能够超越现有主流流处理框架Storm,并提供 丰富的API用于流数据计算。GraphX GraphX基于BSP模型,在Spark之上封装类似Pregel的接口,进行大规模同步全局的图 计算,尤其是当用户进行多轮迭代时,基于Spark内存计算的优势尤为明显。Tachyon Tachyon是一个分布式内存文件系统,可以理解为内

14、存中的HDFS。为了提供更高的性 能,将数据存储剥离Java Heap。用户可以基于Tachyon实现RDD或者文件的跨应用共享, 并提供高容错机制,保证数据的可靠性。Spark架构Spark的基本组件。 ClusterManager:在Standalone模式中即为Master(主节点),控制整个集群,监控Worker。在YARN模式中为资源管理器。 Worker:从节点,负责控制计算节点,启动Executor或Driver。在YARN模式中为 NodeManager,负责计算节点的控制。 Driver:运行Application的main()函数并创建SparkContext。 Execu

15、tor:执行器,在worker node上执行任务的组件、用于启动线程池运行任务。每个Application拥有独立的一组Executors。 SparkContext:整个应用的上下文,控制应用的生命周期。 RDD:Spark的基本计算单元,一组RDD可形成执行的有向无环图RDD Graph。 DAG Scheduler:根据作业(Job)构建基于Stage的DAG,并提交Stage给TaskScheduler。 TaskScheduler:将任务(Task)分发给Executor执行。 SparkEnv:线程级别的上下文,存储运行时的重要组件的引用。SparkEnv内创建并包含如下一些重要

16、组件的引用。 MapOutPutTracker:负责Shuffle元信息的存储。BroadcastManager:负责广播变量的控制与元信息的存储。 BlockManager:负责存储管理、创建和查找块。 MetricsSystem:监控运行时性能指标信息。 SparkConf:负责存储配置信息。Spark运行逻辑 在Spark应用中,整个执行流程在逻辑上会形成有向无环图(DAG)。 Action算子触发之后,将所有累积的算子形成一个有向无环图,然后由调度器调度该图上的任务进行运算。Spark的调度方式与MapReduce有所不同。Spark根据RDD之间不同的依赖关系切分形成不同的阶段(Stage),一个阶段包含一系列函数执行流水线。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 并行计算/云计算

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!