区块链技术博客
www.b2bchain.cn

Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!的讲解

这篇文章主要介绍了Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!的讲解,通过具体代码讲解7578并且分析了Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!的讲解的详细步骤与相关技巧,需要的朋友可以参考下

本文实例讲述了Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!的讲解。分享给大家供大家参考文章查询地址https://www.b2bchain.cn/7578.html。具体如下:

  大家好,我是不温卜火,是一名计算机学院大数据专业大二的学生,昵称来源于成语—不温不火,本意是希望自己性情温和。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!暂时只有csdn这一个平台,博客主页:https://buwenbuhuo.blog.csdn.net/

  此篇为大家带来的是什么是RDD?一文带你快速了解Spark中RDD的概念!
Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

目录

  • 一. 什么是RDD
  • 二. RDD 的 5 个主要属性(property)
  • 三. 理解RDD
    • RDD特点
      • 1. 弹性
      • 2. 分区
      • 3. 只读
      • 4. 依赖(血缘)
      • 5. 缓存
      • 6. checkpoint

Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!
  看了前面的几篇Spark博客,相信大家对于Spark的基本概念以及不同模式下的环境部署问题已经搞明白了。但其中,我们曾提到过Spark程序的核心,也就是弹性分布式数据集(RDD)。但到底什么是RDD,它是做什么用的呢?本篇博客,我们就来详细讨论它们的使用情况。

一. 什么是RDD

  RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象。
  在代码中是一个抽象类,它代表一个弹性的、不可变、可分区、里面的元素可并行计算的集合。

二. RDD 的 5 个主要属性(property)

Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

  • 1一组分区(Partition),即数据集的基本组成单位;

  • 2一个计算每个分区的函数;

  • 3 RDD之间的依赖关系;

  • 4 一个Partitioner,即RDD的分片函数;

  • 5 一个列表,存储存取每个Partition的优先位置(preferred location)。

  • 1. A list of partitions

  多个分区. 分区可以看成是数据集的基本组成单位.
  对于 RDD 来说, 每个分区都会被一个计算任务处理, 并决定了并行计算的粒度.
  用户可以在创建 RDD 时指定 RDD 的分区数, 如果没有指定, 那么就会采用默认值. 默认值就是程序所分配到的 CPU Coure 的数目.
  每个分配的存储是由BlockManager 实现的. 每个分区都会被逻辑映射成 BlockManager 的一个 Block, 而这个 Block 会被一个 Task 负责计算.

  • 2. A function for computing each split

  计算每个切片(分区)的函数.
  Spark 中 RDD 的计算是以分片为单位的, 每个 RDD 都会实现 compute 函数以达到这个目的.

  • 3. A list of dependencies on other RDDs

  与其他 RDD 之间的依赖关系
  RDD 的每次转换都会生成一个新的 RDD, 所以 RDD 之间会形成类似于流水线一样的前后依赖关系. 在部分分区数据丢失时, Spark 可以通过这个依赖关系重新计算丢失的分区数据, 而不是对 RDD 的所有分区进行重新计算.

  • 4. Optionally, a Partitioner for key-value RDDs (e.g. to say that the RDD is hash-partitioned)

  对存储键值对的 RDD, 还有一个可选的分区器.
  只有对于 key-value的 RDD, 才会有 Partitioner, 非key-value的 RDD 的 Partitioner 的值是 None. Partitiner 不但决定了 RDD 的本区数量, 也决定了 parent RDD Shuffle 输出时的分区数量.

  • 5. Optionally, a list of preferred locations to compute each split on(e.g. block locations for an HDFS file)

  存储每个切片优先(preferred location)位置的列表. 比如对于一个 HDFS 文件来说, 这个列表保存的就是每个 Partition 所在文件块的位置. 按照“移动数据不如移动计算”的理念, Spark 在进行任务调度的时候, 会尽可能地将计算任务分配到其所要处理数据块的存储位置.

三. 理解RDD

  一个 RDD 可以简单的理解为一个分布式的元素集合.
  RDD 表示只读的分区的数据集,对 RDD 进行改动,只能通过 RDD 的转换操作, 然后得到新的 RDD, 并不会对原 RDD 有任何的影响
  在 Spark 中, 所有的工作要么是创建 RDD, 要么是转换已经存在 RDD 成为新的 RDD, 要么在 RDD 上去执行一些操作来得到一些计算结果.
  每个 RDD 被切分成多个分区(partition), 每个分区可能会在集群中不同的节点上进行计算.

RDD特点

1. 弹性

  • 存储的弹性:内存与磁盘的自动切换;
  • 容错的弹性:数据丢失可以自动恢复;
  • 计算的弹性:计算出错重试机制;
  • 分片的弹性:可根据需要重新分片。

2. 分区

  RDD 逻辑上是分区的,每个分区的数据是抽象存在的,计算的时候会通过一个compute函数得到每个分区的数据。
  如果 RDD 是通过已有的文件系统构建,则compute函数是读取指定文件系统中的数据,如果 RDD 是通过其他 RDD 转换而来,则 compute函数是执行转换逻辑将其他 RDD 的数据进行转换。
Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

3. 只读

  RDD 是只读的,要想改变 RDD 中的数据,只能在现有 RDD 基础上创建新的 RDD。
  由一个 RDD 转换到另一个 RDD,可以通过丰富的转换算子实现,不再像 MapReduce 那样只能写map和reduce了。
RDD 的操作算子包括两类,
Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!
  RDD的操作算子包括两类,一类叫做transformations,它是用来将RDD进行转化,构建RDD的血缘关系;另一类叫做actions,它是用来触发RDD的计算,得到RDD的相关计算结果或者将RDD保存的文件系统中。下图是RDD所支持的操作算子列表。
Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

4. 依赖(血缘)

  RDDs 通过操作算子进行转换,转换得到的新 RDD 包含了从其他 RDDs 衍生所必需的信息,RDDs 之间维护着这种血缘关系,也称之为依赖。
如下图所示,依赖包括两种,

  • 一种是窄依赖,RDDs 之间分区是一一对应的,
  • 另一种是宽依赖,下游 RDD 的每个分区与上游 RDD(也称之为父RDD)的每个分区都有关,是多对多的关系。

Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

5. 缓存

  如果在应用程序中多次使用同一个 RDD,可以将该 RDD 缓存起来,该 RDD 只有在第一次计算的时候会根据血缘关系得到分区的数据,在后续其他地方用到该 RDD 的时候,会直接从缓存处取而不用再根据血缘关系计算,这样就加速后期的重用。
  如下图所示,RDD-1 经过一系列的转换后得到 RDD-n 并保存到 hdfs,RDD-1 在这一过程中会有个中间结果,如果将其缓存到内存,那么在随后的 RDD-1 转换到 RDD-m 这一过程中,就不会计算其之前的 RDD-0 了。
Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

6. checkpoint

  虽然 RDD 的血缘关系天然地可以实现容错,当 RDD 的某个分区数据计算失败或丢失,可以通过血缘关系重建。
  但是对于长时间迭代型应用来说,随着迭代的进行,RDDs 之间的血缘关系会越来越长,一旦在后续迭代过程中出错,则需要通过非常长的血缘关系去重建,势必影响性能。
  为此,RDD 支持checkpoint 将数据保存到持久化的存储中,这样就可以切断之前的血缘关系,因为checkpoint 后的 RDD 不需要知道它的父 RDDs 了,它可以从 checkpoint 处拿到数据。

  本次的分享就到这里了,


Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

  好书不厌读百回,熟读课思子自知。而我想要成为全场最靓的仔,就必须坚持通过学习来获取更多知识,用知识改变命运,用博客见证成长,用行动证明我在努力。
  如果我的博客对你有帮助、如果你喜欢我的博客内容,请“点赞” “评论”“收藏”一键三连哦!听说点赞的人运气不会太差,每一天都会元气满满呦!如果实在要白嫖的话,那祝你开心每一天,欢迎常来我博客看看。
  码字不易,大家的支持就是我坚持下去的动力。点赞后不要忘了关注我哦!

Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!

本文地址https://www.b2bchain.cn/7578.html

赞(0) 打赏
部分文章转自网络,侵权联系删除b2bchain区块链学习技术社区 » Spark Core快速入门系列(1) | 什么是RDD?一文带你快速了解Spark中RDD的概念!的讲解
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

b2b链

联系我们联系我们