Skip to main content
Glama
Apache Spark 设计与实现.md198 kB
# Apache Spark 设计与实现 本文档是 Apache Spark 的系统性教学材料,全面介绍了 Spark 作为新一代大数据处理引擎的设计理念、核心技术和实现原理。 文档从 Spark 的产生背景出发,深入剖析其 RDD 抽象、作业执行机制、内存管理策略以及在分布式计算中的应用,并结合大数据处理理论基础,为读者构建完整的知识体系。 通过本文档的学习,读者将能够: 1. **理解设计原理**:掌握 Spark 产生的历史背景、设计动机以及相对于 MapReduce 的技术革新 2. **掌握核心抽象**:深入理解 RDD(弹性分布式数据集)的设计思想、依赖关系和容错机制 3. **精通执行机制**:熟练掌握 DAG 调度、Stage 划分、Task 执行以及 Shuffle 优化的原理与实践 4. **理解内存管理**:了解 Spark 的统一内存管理、缓存策略和 Checkpoint 机制 5. **具备实践能力**:能够进行 Spark 应用的开发、调优以及性能分析 6. **建立理论基础**:理解分布式计算的血缘关系、容错模型等理论在 Spark 中的体现 7. **培养分析能力**:具备分析和评估大数据处理系统的能力,为后续学习 Spark SQL、Streaming 等高级组件奠定基础 **版本说明**: - 默认基线:`Spark 3.5.x`(实现细节与源码路径以 `core/src/...` 为准)。 - 历史版本特性(如 `Spark 2.x`、`Spark 3.0`、`Spark 3.4`)用于背景介绍;如无特别说明,技术实现与代码细节以默认基线为准。 - 代码块来源标注规范: - 真实源码:标注 `路径` 与 `类`;必要时补充 `模块`。 - 伪代码:标注 `来源:基于 Spark 3.5.x 简化伪代码`,用于结构说明与流程解析。 - 如涉及跨版本差异,代码块附近将单独补充差异说明,以确保可追溯性与准确性。 --- ## 第 1 章 Spark 概览与核心概念 本章将全面介绍 Apache Spark 的核心理念、技术优势和基础概念。我们将从 Spark 的发展历程出发,深入分析其相对于传统 MapReduce 框架的技术突破,然后详细阐述 RDD(弹性分布式数据集)这一 Spark 最重要的核心抽象。通过本章的学习,读者将建立对 Spark 技术体系的整体认知,为后续深入学习 Spark 架构和实现机制奠定坚实基础。 通过本章学习,读者将能够: 1. **理解技术演进脉络**:掌握 Spark 从诞生到成为大数据处理标准的发展历程,理解其设计目标和技术定位 2. **掌握核心技术优势**:深入理解 Spark 相比 MapReduce 在编程模型、执行效率、适用场景等方面的根本性改进 3. **建立 RDD 核心概念**:全面掌握 RDD 的设计理念、核心特性和操作模式,理解其在分布式计算中的重要作用 4. **认识生态系统架构**:了解 Spark 生态系统的组件构成,理解各组件的功能定位和协作关系 5. **建立实践基础**:掌握 RDD 的创建方式、缓存策略和与分布式文件系统的协作机制 --- ### 1.1 Spark 简介 要深入理解 Spark 的技术价值和设计理念,我们需要从其诞生背景和发展历程开始。本节将系统梳理 Spark 的技术演进脉络,分析其核心设计目标,并通过与 MapReduce 的详细对比,揭示 Spark 在大数据处理领域带来的革命性变化。这种历史性的分析视角将帮助我们理解 Spark 技术选择背后的深层逻辑。 #### 1.1.1 Apache Spark 的发展历程 Apache Spark 是由加州大学伯克利分校 AMPLab 开发的大规模数据处理引擎,于 2009 年启动,2010 年开源,2013 年成为 Apache 顶级项目 [1]。Spark 的设计目标是解决 Hadoop MapReduce 在迭代算法和交互式数据挖掘方面的性能瓶颈 [2]。 **关键版本特性演进**: | **版本** | **发布时间** | **核心特性** | **技术突破** | | ------------- | ------------ | --------------------------------------------------- | ---------------------- | | **Spark 0.x** | 2010-2013 | RDD 抽象、内存计算 | 建立分布式内存计算基础 | | **Spark 1.0** | 2014.05 | SQL 支持、MLlib 机器学习 | 统一数据处理平台雏形 | | **Spark 1.6** | 2016.01 | Dataset API、Tungsten 执行引擎 | 性能优化和类型安全 | | **Spark 2.0** | 2016.07 | Structured Streaming、SparkSession | 流批一体化架构 | | **Spark 2.4** | 2018.11 | Kubernetes 原生支持、Barrier 执行模式 | 云原生和深度学习支持 | | **Spark 3.0** | 2020.06 | Adaptive Query Execution、Dynamic Partition Pruning | 智能查询优化 | | **Spark 3.2** | 2021.10 | Pandas API on Spark、RocksDB 状态存储 | Python 生态集成 | | **Spark 3.4** | 2023.04 | Connect 协议、Structured Streaming UI | 客户端-服务器架构 | | **Spark 4.0** | 2025.02 | ANSI SQL 默认模式、VARIANT 数据类型、SQL UDF | 现代化 SQL 引擎 | Apache Spark 在十多年的发展历程中,经历了从简单内存计算框架到现代化统一分析引擎的深刻变革。在**计算引擎优化方面**,Spark 1.6 版本引入的 **Tungsten** 项目标志着性能优化的重要里程碑,通过代码生成和内存管理优化技术,实现了 5-10 倍的性能提升 [3]。随后,Spark 3.0 版本推出的 **Adaptive Query Execution** (AQE) 进一步革新了查询执行机制,能够在运行时动态调整查询计划,显著提升了复杂查询的执行效率 [4]。 在 **API 设计和抽象层次方面**,Spark 展现了从**底层到高层**的完整演进路径。从最初的 **RDD** (弹性分布式数据集) [5] 到 **DataFrame** [6],再到 **Dataset** [7],每一次 API 演进都提供了更高层次的抽象和更友好的编程接口。特别是 Spark 2.0 版本引入的 **SparkSession** [8],成功统一了各个组件的入口点,为开发者提供了一致的编程体验,极大简化了应用开发的复杂度。 **流处理技术**的革新是 Spark 发展的另一个重要维度。从早期的 **DStream** 微批处理模式 [9],到 Spark 2.0 版本引入的 **Structured Streaming** 连续处理引擎 [10],Spark 实现了真正意义上的流批一体化处理能力。与传统的微批处理模式不同,Structured Streaming 采用基于持续查询的模型,能够实时处理流数据并生成结果。这一技术突破使得同一套代码既可以处理批量数据,也可以处理实时流数据,为企业构建统一的数据处理平台和实时分析决策系统奠定了坚实基础。 **生态系统**的不断扩展体现了 Spark 作为大数据处理平台的全面性。从传统的 **MLlib** 机器学习库演进到 **ML Pipeline** 机器学习管道,提供了更加工程化和可复用的机器学习解决方案。同时,图计算领域从 **GraphX** 发展到基于 DataFrame 的 **GraphFrames**,进一步增强了 Spark 在复杂数据关系分析方面的能力。 进入 Spark 4.0 时代,**现代化 SQL 引擎**成为新的技术亮点。ANSI SQL 模式的默认启用、VARIANT 数据类型的引入以及 SQL UDF 功能的增强,标志着 Spark 在标准化和易用性方面的重大进步。这些特性不仅提升了 SQL 兼容性,还为处理半结构化数据提供了更加灵活的解决方案,进一步巩固了 Spark 在现代数据分析领域的领导地位。 了解了 Spark 的发展历程后,我们需要深入理解其设计理念。Spark 之所以能够在大数据处理领域取得如此成功,正是因为其明确的设计目标和技术愿景。 #### 1.1.2 Spark 的设计目标 Spark 的核心设计目标体现了对传统大数据处理框架局限性的深刻反思和技术突破: **1. 速度优先的设计理念**是 Spark 最突出的特征。通过基于内存的 RDD 抽象,Spark 避免了传统 MapReduce 频繁的磁盘 I/O 操作,实现了比 Hadoop MapReduce 快 10-100 倍的处理性能。这一性能提升不仅来自内存计算,更得益于 Catalyst 查询优化器的智能优化和 Tungsten 执行引擎的底层性能调优,为大数据处理带来了革命性的速度体验。 **2. 易用性和开发效率**是 Spark 设计的另一个核心目标。Spark 提供了 Scala、Java、Python、R 等多种语言的统一 API,让不同技术背景的开发者都能快速上手。其统一的编程模型大大简化了复杂数据处理逻辑的表达,丰富的高级算子使得原本需要数百行 MapReduce 代码的任务可以用几行 Spark 代码完成,显著提升了开发效率和代码可维护性。 **3. 通用性架构**使 Spark 能够在单一平台上支持批处理、流处理、机器学习、图计算等多种工作负载。这种统一的计算引擎设计避免了企业维护多套技术栈的复杂性,不同组件间的无缝集成让数据能够在各种处理模式间高效流转,为构建端到端的数据处理管道提供了强大支撑。 **4. 广泛的兼容性**确保了 Spark 能够适应各种部署环境。它可以运行在 Hadoop YARN、Kubernetes 等多种集群管理器上,提供了灵活的部署模式来适应不同的基础设施环境。这种良好的生态兼容性使得 Spark 能够与现有的大数据技术栈无缝集成,降低了技术迁移的成本和风险。 **5. 可靠的容错机制**基于 RDD 的血缘关系实现了自动故障恢复。RDD 的不可变性和完整的血缘信息确保了数据处理过程的可靠性,当节点发生故障时,系统能够根据血缘关系自动重建丢失的数据分区,实现细粒度的容错恢复,最大程度地减少故障对整体计算任务的影响 [15]。 **6. 线性扩展能力**支持 Spark 从单机环境扩展到数千节点的大规模集群。自适应的资源管理和智能的任务调度机制确保了计算资源的高效利用,动态资源分配功能能够根据工作负载的实际需求自动调整资源配置,在提高集群资源利用率的同时保证了应用程序的性能表现。 这些设计目标的实现使得 Spark 在实际应用中展现出显著的技术优势。为了更好地理解这些优势,我们通过与传统的 Hadoop MapReduce 框架进行详细对比来深入分析。 #### 1.1.3 Spark 与 Hadoop MapReduce 的对比分析 Hadoop MapReduce 作为第一代大数据处理框架,在处理大规模数据时暴露出诸多限制。以经典的 WordCount 任务为例,MapReduce 的问题主要体现在: **1. 编程复杂度高**: MapReduce 要求开发者必须将所有计算逻辑强制拆分为 Map 和 Reduce 两个阶段,即使是简单的 WordCount 也需要编写大量样板代码。 ```scala // MapReduce 实现 WordCount - 需要大量样板代码 public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> { public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { // 分词处理 String[] words = value.toString().split(" "); for (String word : words) { context.write(new Text(word), new IntWritable(1)); // 输出 (word, 1) } } } public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> { public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; // 累加相同单词的计数 for (IntWritable val : values) { sum += val.get(); } context.write(key, new IntWritable(sum)); // 输出 (word, count) } } // 还需要 Driver 类来配置和提交作业 public class WordCountDriver { public static void main(String[] args) throws Exception { Job job = Job.getInstance(new Configuration(), "word count"); job.setJarByClass(WordCountDriver.class); job.setMapperClass(WordCountMapper.class); job.setReducerClass(WordCountReducer.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); // ... 更多配置代码 } } ``` **2. 磁盘 I/O 开销巨大**: MapReduce 在每个阶段之间都必须将中间结果写入磁盘,导致大量不必要的 I/O 开销: - Map 阶段输出写入本地磁盘 - Shuffle 阶段从磁盘读取并通过网络传输 - Reduce 阶段再次从磁盘读取数据 **3. 不适合迭代计算**: 对于机器学习等需要多轮迭代的算法,MapReduce 每次迭代都要重新从 HDFS 读取数据,性能极其低下。 Spark 针对 MapReduce 的以上问题,提出了革命性的解决方案。 **1. RDD 抽象 + 内存计算**:[17] Spark 引入 **RDD**(Resilient Distributed Dataset,弹性分布式数据集)[18]抽象,这是 Spark 的核心概念。RDD 是一个不可变的、分布式的数据集合,具有以下关键特性: - **弹性(Resilient)**:具备容错能力,当节点失败时可以通过血缘关系(Lineage)自动重建丢失的数据分区 - **分布式(Distributed)**:数据分布在集群的多个节点上,支持并行计算 - **数据集(Dataset)**:提供类似集合的操作接口,如 map、filter、reduce 等 RDD 支持将数据缓存在内存中,避免重复的磁盘 I/O,这对于需要多次访问同一数据集的迭代算法(如机器学习)具有巨大优势。 ```scala // Spark 实现 WordCount - 仅需几行代码 val textFile = sc.textFile("input.txt") // 使用 SparkContext 创建 RDD val wordCounts = textFile .flatMap(_.split(" ")) // 分词 .map((_, 1)) // 每个词计数为1 .reduceByKey(_ + _) // 相同词的计数相加 wordCounts.collect().foreach(println) // 收集结果并打印 ``` 可以看到,Spark 的 WordCount 实现极其简洁,仅用几行代码就完成了 MapReduce 需要上百行代码才能实现的功能。 **2. DAG 执行引擎**:[16] Spark 支持复杂的 DAG(有向无环图)计算,可以将多个操作串联在一个作业中执行,减少中间结果的磁盘写入。 **3. 丰富的高级算子**: Spark 提供了 `map`、`filter`、`reduceByKey`、`join` 等丰富的函数式编程算子,让开发者能够以更自然的方式表达计算逻辑。 通过以上 WordCount 示例可以清晰看出两者在编程复杂度和执行效率方面的巨大差异。为了更全面地理解 Spark 的技术优势,下表从多个维度对两个框架进行详细对比: | **对比维度** | **Hadoop MapReduce** | **Spark** | **优势说明** | | -------------- | ----------------------------- | ---------------------------- | -------------------------- | | **计算模型** | Map-Reduce 两阶段计算 | 基于 RDD 的 DAG 计算 | 支持复杂的多阶段计算流水线 | | **数据存储** | 磁盘存储,每次都需要读写 HDFS | 内存优先,支持多种存储级别 | 避免重复 I/O,提升迭代性能 | | **执行速度** | 磁盘 I/O 密集,速度较慢 | 内存计算快 10-100 倍 | 内存计算 + DAG 优化 | | **编程复杂度** | 需要实现 Map 和 Reduce 函数 | 高级 API,代码简洁 | 函数式编程,接近自然语言 | | **代码量** | ~100 行(包含 3 个类) | ~5 行 | 大幅减少样板代码 | | **容错机制** | 基于数据复制的容错 | 基于血缘关系的快速恢复 | 更高效的容错恢复机制 | | **适用场景** | 批处理、ETL 作业 | 迭代算法、交互式查询、流处理 | 更广泛的应用场景 | | **资源利用率** | 磁盘和网络 I/O 成为瓶颈 | 高效的内存和 CPU 利用 | 更好的集群资源利用 | | **开发效率** | 开发周期长,调试困难 | 快速原型开发和迭代 | 提升开发和调试效率 | | **学习成本** | 需要理解 MapReduce 编程范式 | 接近自然语言的函数式编程 | 降低学习门槛 | 通过这个全面的对比分析,我们可以清楚地看到 Spark 在各个维度上的技术优势。这些优势的实现离不开 Spark 强大的生态系统支撑,接下来我们将深入了解 Spark 生态系统的各个组件。 #### 1.1.4 Spark 生态系统组件概览 Spark 生态系统包含多个组件,形成了完整的大数据处理平台: ```text ┌───────────────────────────────────────────────────────┐ │ Spark Applications │ ├─────────────┬─────────────┬─────────────┬─────────────┤ │ Spark SQL │ Spark │ Spark │ Spark │ │ │ Streaming │ MLlib │ GraphX │ ├─────────────┴─────────────┴─────────────┴─────────────┤ │ Spark Core │ ├───────────────────────────────────────────────────────┤ │ Cluster Managers │ │ Standalone | YARN | Kubernetes │ └───────────────────────────────────────────────────────┘ ``` _图 1-1 Spark 生态系统组件概览。_ **各组件功能:** 1. **Spark Core**:Spark 的核心引擎,提供分布式计算的基础功能 - 提供 RDD(弹性分布式数据集)抽象,支持内存计算 - 包含任务调度器和内存管理等核心组件 2. **Spark SQL**:结构化数据处理引擎,支持 SQL 查询 - 提供 DataFrame 和 Dataset API,类似数据库表操作 - 支持多种数据源:Parquet、JSON、Hive、JDBC 等 3. **Spark Streaming**:实时流数据处理框架 - 基于微批处理模型,将流数据分割为小批次处理 - 支持多种数据源:Kafka、Flume、TCP Socket 等 4. **MLlib**:分布式机器学习库 - 提供常用机器学习算法:分类、回归、聚类等 - 支持特征工程和模型评估功能 5. **GraphX**:图计算框架 - 支持大规模图数据处理和分析 - 内置常用图算法:PageRank、连通分量等 通过对 Spark 生态系统的全面了解,我们可以看到 Spark 已经发展成为一个功能完整的大数据处理平台。而这个强大生态系统的核心基础就是 RDD(弹性分布式数据集)。理解 RDD 的设计理念和核心特性,是掌握 Spark 技术精髓的关键所在。 ### 1.2 RDD 基本概念与特性 在深入学习 Spark 架构之前,我们需要先理解 Spark 的核心抽象——**RDD**(Resilient Distributed Dataset,弹性分布式数据集)。RDD 是 Spark 最重要的概念,它不仅是 Spark 计算模型的基础,也是理解 Spark 架构设计的关键。本节将从 RDD 的设计理念出发,详细阐述其核心特性、操作模式和实现机制,为后续学习 Spark 的分布式计算原理奠定坚实基础。 #### 1.2.1 什么是 RDD RDD 是 Spark 提供的核心数据抽象,它代表一个不可变的、分布式的数据集合。RDD 中的每个数据集都被分为多个**分区**(Partition),这些分区可以在集群的不同节点上并行计算。 **与 Java Collections 的类比理解:** 如果你熟悉 Java 编程,可以将 RDD 理解为"分布式版本的 Java Collections"。它们在 API 设计上有很多相似之处: ```scala // Java Collections/Stream API List<Integer> numbers = Arrays.asList(1, 2, 3, 4, 5); List<Integer> doubled = numbers.stream() .map(x -> x * 2) // 转换操作 .filter(x -> x > 5) // 过滤操作 .collect(Collectors.toList()); // 收集结果 // Spark RDD API(相似的操作模式) val numbers = sc.parallelize(List(1, 2, 3, 4, 5)) val doubled = numbers .map(_ * 2) // 转换操作 .filter(_ > 5) // 过滤操作 .collect() // 收集结果 ``` **关键区别在于**: - **规模差异**:Java Collections 处理内存级数据(MB-GB),RDD 处理集群级数据(TB-PB) - **执行模式**:Collections 在单机上立即执行,RDD 在集群上惰性执行 - **容错能力**:RDD 具备自动容错机制,Collections 依赖 JVM 的异常处理 - **分布式特性**:RDD 的分区可以在不同节点并行处理,Collections 只能在单个 JVM 内操作 通过这种类比,我们可以更好地理解 RDD(Resilient Distributed Dataset)名称所蕴含的设计哲学。RDD 的三个核心理念——**弹性(Resilient)**、**分布式(Distributed)**和**数据集(Dataset)**——正是对上述区别的技术抽象:弹性体现了其容错能力,分布式强调了其集群计算特性,而数据集则保持了与传统集合类似的操作接口。 #### 1.2.2 RDD 的核心特性 基于上述设计理念,RDD 在具体实现中体现出以下核心技术特性。理解这些特性是掌握 Spark 计算模型的关键,它们不仅体现了 RDD 的设计哲学,也确保了 RDD 在大规模分布式环境下的可靠性和高性能。通过深入理解这些特性,我们能够更好地设计和优化 Spark 应用程序。 **1. 不可变性(Immutability)**[11]: RDD 一旦创建就不能修改,任何转换操作都会生成新的 RDD。这种设计简化了并发控制,避免了分布式环境下的数据一致性问题。 ```scala val numbers = sc.parallelize(List(1, 2, 3, 4, 5)) // 创建 RDD val doubled = numbers.map(_ * 2) // 生成新的 RDD,原 RDD 不变 ``` **2. 惰性求值(Lazy Evaluation)**[12]: RDD 的转换操作(如 map、filter)不会立即执行,只有遇到行动操作(如 collect、save)时才会触发实际计算。这种设计允许 Spark 进行全局优化。 ```scala val textFile = sc.textFile("input.txt") // 转换操作,不立即执行 val words = textFile.flatMap(_.split(" ")) // 转换操作,不立即执行 val wordCount = words.map((_, 1)).reduceByKey(_ + _) // 转换操作,不立即执行 wordCount.collect() // 行动操作,触发实际计算 ``` **3. 分区(Partitioning)**[13]: RDD 的数据被分为多个分区,每个分区可以在不同的节点上并行处理。合理的分区策略对性能至关重要。 ```scala val data = sc.parallelize(1 to 1000, numSlices = 4) // 创建 4 个分区的 RDD println(s"分区数量: ${data.getNumPartitions}") // 输出:分区数量: 4 ``` **4. 血缘关系(Lineage)**[14]: RDD 维护着从原始数据到当前状态的完整转换路径,即**血缘关系图 (Lineage Graph)**。当某个分区数据丢失时,Spark 可以根据这个图谱,从源头开始重新计算,自动恢复丢失的数据。这是 Spark 实现自动容错的核心机制,避免了传统分布式系统中昂贵的数据复制。 ```scala // 血缘关系示例 val textFile = sc.textFile("input.txt") // RDD1: 从文件创建 val words = textFile.flatMap(_.split(" ")) // RDD2: 依赖于 RDD1 val filtered = words.filter(_.length > 3) // RDD3: 依赖于 RDD2 // 血缘关系链:input.txt -> RDD1 -> RDD2 -> RDD3 // 如果 RDD3 的某个分区丢失,Spark 会根据血缘关系从 RDD2 重新计算, // 而 RDD2 的分区又可以从 RDD1 追溯,最终从源文件恢复。 ``` 这种基于血缘的恢复机制,是 RDD “弹性”(Resilient)特性的集中体现。 #### 1.2.3 RDD 操作类型 RDD 提供两种类型的操作: **1. 转换操作(Transformations)**: 转换操作从现有 RDD 创建新的 RDD,采用惰性求值策略。 - `map(func)`:对每个元素应用函数 - `filter(func)`:过滤满足条件的元素 - `flatMap(func)`:类似 map,但每个输入项可以映射到 0 或多个输出项 - `reduceByKey(func)`:按 key 聚合值 ```scala val numbers = sc.parallelize(List(1, 2, 3, 4, 5)) val evenNumbers = numbers.filter(_ % 2 == 0) // 转换:过滤偶数 val squared = evenNumbers.map(x => x * x) // 转换:平方运算 ``` **2. 行动操作(Actions)**: 行动操作触发实际计算并返回结果。 - `collect()`:将 RDD 所有元素收集到 Driver - `count()`:返回 RDD 中元素的数量 - `first()`:返回 RDD 的第一个元素 - `saveAsTextFile(path)`:将 RDD 保存到文件系统 ```scala val result = squared.collect() // 行动:收集结果到 Driver println(s"结果: ${result.mkString(", ")}") // 输出:结果: 4, 16 ``` #### 1.2.4 RDD 的创建方式 在实际应用中,我们需要将各种数据源转换为 RDD 才能进行 Spark 计算。Spark 提供了多种灵活的 RDD 创建方式,以适应不同的数据来源和使用场景。掌握这些创建方式是进行 Spark 开发的基础。 **1. 从集合创建**: ```scala val data = List(1, 2, 3, 4, 5) val rdd = sc.parallelize(data) // 从 Scala 集合创建 RDD ``` **2. 从外部存储创建**: ```scala val textRDD = sc.textFile("hdfs://path/to/file.txt") // 从 HDFS 读取 val jsonRDD = sc.textFile("file:///local/path/data.json") // 从本地文件系统读取 ``` **3. 从其他 RDD 转换**: ```scala val wordsRDD = textRDD.flatMap(_.split(" ")) // 通过转换操作创建新 RDD ``` #### 1.2.5 RDD 缓存与持久化 对于需要多次使用的 RDD,可以将其缓存在内存中以提高性能。 ```scala val importantData = sc.textFile("large-dataset.txt") .filter(_.contains("important")) .cache() // 缓存到内存 // 多次使用 importantData 时,无需重新计算 val count1 = importantData.count() val count2 = importantData.filter(_.length > 10).count() ``` **存储级别选择**: - `MEMORY_ONLY`:仅内存存储(默认) - `MEMORY_AND_DISK`:内存优先,溢出到磁盘 - `DISK_ONLY`:仅磁盘存储 - `MEMORY_ONLY_SER`:序列化后存储在内存 #### 1.2.6 RDD 与分布式文件系统的关系 RDD 与底层分布式文件系统(如 HDFS)紧密协作,共同构成了 Spark 高效、可靠的数据处理基础。 **1. 数据读取与分区**: 当从 HDFS 创建 RDD 时,Spark 会根据 HDFS 的数据块(Block)信息来决定 RDD 的分区(Partition)。通常情况下,一个 HDFS Block 对应一个 RDD Partition,这样可以最大化数据本地性。 ```scala // 从 HDFS 读取数据创建 RDD val hdfsRDD = sc.textFile("hdfs://namenode:9000/data/input.txt") // RDD 分区与 HDFS 数据块的对应关系: // HDFS Block 1 (128MB) -> RDD Partition 1 // HDFS Block 2 (128MB) -> RDD Partition 2 // HDFS Block 3 (64MB) -> RDD Partition 3 println(s"RDD 分区数: ${hdfsRDD.getNumPartitions}") ``` **2. 数据本地性调度**: Spark 调度系统会尽可能地将计算任务分配到数据所在的节点上执行,这被称为**数据本地性(Data Locality)**。这极大地减少了网络数据传输带来的开销,是 Spark 高性能的关键因素之一。 ```scala // Spark 会优先在存储数据块的节点上执行计算任务 val processedRDD = hdfsRDD .map(line => line.toUpperCase) // 尽可能在数据所在节点执行 .filter(_.contains("ERROR")) // 从而减少网络传输 // 本地性级别(从高到低): // PROCESS_LOCAL: 数据与计算代码在同一个 JVM 进程中。 // NODE_LOCAL: 数据与计算代码在同一个节点上,但位于不同进程。 // RACK_LOCAL: 数据与计算代码在同一个机架的不同节点上。 // ANY: 数据在其他机架,必须通过网络传输。 ``` **3. 持久化策略与存储系统**: RDD 的持久化可以利用不同的存储层。除了缓存在 Spark Executor 的内存或本地磁盘,也可以将计算结果写回 HDFS 等持久化存储中。 ```scala import org.apache.spark.storage.StorageLevel val criticalData = sc.textFile("hdfs://namenode:9000/critical-data.txt") .filter(_.contains("CRITICAL")) // 不同的持久化策略: criticalData.persist(StorageLevel.MEMORY_AND_DISK_2) // 内存+磁盘,2副本 criticalData.persist(StorageLevel.OFF_HEAP) // 堆外内存,减少 GC 压力 // 将最终结果保存回 HDFS criticalData.saveAsTextFile("hdfs://namenode:9000/output/critical-results") ``` **4. 容错机制的协同**: RDD 的血缘容错与 HDFS 的副本机制形成了双重保障。 ```scala // 场景:某个计算节点失败 val dataRDD = sc.textFile("hdfs://namenode:9000/input.txt") // HDFS 通过副本保证数据可用 val resultRDD = dataRDD.map(_.split(",")).filter(_.length > 3) // RDD 通过血缘保证计算可恢复 // 容错恢复过程: // 1. 如果 RDD 分区丢失 -> Spark 通过血缘关系重新计算。 // 2. 如果计算过程中发现 HDFS 数据块损坏 -> Spark 会尝试从 HDFS 的其他副本读取。 // 3. 双重保障确保了端到端的计算可靠性。 ``` **5. 性能优化建议**: 理解 RDD 与 HDFS 的关系有助于性能优化。 ```scala // 优化策略 1:合理设置分区数 val optimizedRDD = sc.textFile("hdfs://namenode:9000/large-file.txt", minPartitions = 100) // 显式设置分区数 // 优化策略 2:数据预处理后持久化 val preprocessedRDD = sc.textFile("hdfs://namenode:9000/raw-data.txt") .map(cleanData) .filter(isValid) .persist(StorageLevel.MEMORY_AND_DISK_SER) // 序列化存储节省内存 // 优化策略 3:避免频繁的 HDFS 读写 val cachedRDD = sc.textFile("hdfs://namenode:9000/reference-data.txt") .cache() // 缓存常用的参考数据 // 多次使用缓存的数据,避免重复从 HDFS 读取 val result1 = cachedRDD.filter(_.contains("type1")).count() val result2 = cachedRDD.filter(_.contains("type2")).count() // 优化策略 4:合理选择存储级别 val criticalData = sc.textFile("hdfs://namenode:9000/critical-data.txt") .filter(_.contains("CRITICAL")) .persist(StorageLevel.MEMORY_AND_DISK_2) // 内存+磁盘,2副本 // 优化策略 5:数据本地性优化 val localOptimizedRDD = sc.textFile("hdfs://namenode:9000/input.txt") .mapPartitions { partition => // 在每个分区内进行批量处理,减少网络开销 val batchSize = 1000 partition.grouped(batchSize).flatMap(processBatch) } ``` **性能优化要点总结**: 1. **分区策略**:合理设置分区数量,通常为 CPU 核心数的 2-4 倍 2. **缓存策略**:对重复使用的 RDD 进行缓存,选择合适的存储级别 3. **数据本地性**:利用 HDFS 的数据分布特性,减少网络传输 4. **序列化优化**:使用序列化存储节省内存空间 5. **批量处理**:在分区内进行批量操作,提高处理效率 通过理解这些 RDD 基本概念,我们为学习 Spark 的架构设计和执行机制奠定了坚实的基础。在接下来的章节中,我们将看到 RDD 如何在 Spark 的分布式架构中发挥核心作用。 ### 1.3 Spark Shell 快速体验 在深入学习 Spark 架构之前,让我们通过 Spark Shell 进行实际操作,快速体验 RDD 的强大功能。Spark Shell 是一个交互式的命令行工具,支持 Scala 和 Python 两种语言。 #### 1.3.1 启动 Spark Shell **启动 Scala 版本的 Spark Shell**: ```bash # 启动本地模式 Spark Shell $SPARK_HOME/bin/spark-shell --master local[2] # 启动集群模式 Spark Shell $SPARK_HOME/bin/spark-shell --master spark://master:7077 \ --executor-memory 2g \ --total-executor-cores 4 ``` **启动 Python 版本的 Spark Shell(PySpark)**: ```bash # 启动 PySpark $SPARK_HOME/bin/pyspark --master local[2] ``` #### 1.3.2 基础 RDD 操作体验 **1. 创建和操作 RDD**: ```scala // 创建一个简单的数字 RDD val numbers = sc.parallelize(1 to 100) // 查看 RDD 的分区数 println(s"分区数: ${numbers.getNumPartitions}") // 执行转换操作 val evenNumbers = numbers.filter(_ % 2 == 0) val squares = evenNumbers.map(x => x * x) // 执行行动操作 val result = squares.take(10) println(s"前10个偶数的平方: ${result.mkString(", ")}") // 统计操作 val count = evenNumbers.count() val sum = evenNumbers.reduce(_ + _) println(s"偶数个数: $count, 偶数和: $sum") ``` **2. 文本处理实战**: ```scala // 创建文本 RDD(可以使用本地文件或 HDFS 文件) val textRDD = sc.textFile("file:///path/to/your/textfile.txt") // 经典的 WordCount 操作 val wordCounts = textRDD .flatMap(_.split("\\s+")) // 分词 .map(word => (word.toLowerCase, 1)) // 转换为键值对 .reduceByKey(_ + _) // 按键聚合 .sortBy(_._2, false) // 按词频降序排序 // 查看结果 wordCounts.take(10).foreach(println) // 保存结果到文件 wordCounts.saveAsTextFile("file:///path/to/output") ``` **3. 数据缓存体验**: ```scala // 创建一个需要复杂计算的 RDD val expensiveRDD = sc.parallelize(1 to 1000000) .map(x => { Thread.sleep(1) // 模拟耗时操作 x * x }) // 第一次计算(较慢) val start1 = System.currentTimeMillis() val result1 = expensiveRDD.filter(_ > 500000).count() val time1 = System.currentTimeMillis() - start1 println(s"第一次计算耗时: ${time1}ms, 结果: $result1") // 缓存 RDD expensiveRDD.cache() // 触发缓存(执行一次行动操作) expensiveRDD.count() // 第二次计算(更快) val start2 = System.currentTimeMillis() val result2 = expensiveRDD.filter(_ > 800000).count() val time2 = System.currentTimeMillis() - start2 println(s"缓存后计算耗时: ${time2}ms, 结果: $result2") ``` #### 1.3.3 结果验证 **1. 查看 Spark Web UI**: - 在浏览器中访问 `http://localhost:4040` - 观察 Jobs、Stages、Storage、Environment 等信息 - 分析任务执行时间和资源使用情况 **2. RDD 血缘关系查看**: ```scala // 创建一个复杂的 RDD 转换链 val complexRDD = sc.parallelize(1 to 100) .map(_ * 2) .filter(_ > 50) .map(_ + 1) // 查看血缘关系 println("RDD 血缘关系:") println(complexRDD.toDebugString) // 查看依赖关系 complexRDD.dependencies.foreach(dep => println(s"依赖类型: ${dep.getClass.getSimpleName}") ) ``` ### 1.4 本章小结 本章深入探讨了大数据计算的核心设计理念——"内存计算与弹性分布式数据集",这一理念是 Spark 高性能计算的根本保证: 1. **计算模式革新**:从 MapReduce 的磁盘密集型计算转向 Spark 的内存优先计算模式,迭代算法性能提升 10-100 倍 2. **抽象层次提升**:从底层文件操作转向 RDD 高级抽象,开发效率从数百行代码降低到数十行代码 3. **生态系统统一**:从单一批处理框架转向支持批处理、流处理、机器学习、图计算的统一计算平台 内存计算与弹性分布式数据集不仅是一个技术理念,更是 Spark 在实际应用中支撑现代大数据分析的关键技术基础。通过本章的学习,我们掌握了 Spark 的设计思想和核心概念,为深入理解其集群架构和执行机制奠定了坚实基础。 --- ## 第 2 章 Spark 集群架构与执行机制 本章将深入剖析 Apache Spark 的集群架构和核心执行机制。我们将从 Spark 的底层架构设计原理出发,详细解析 Driver、Executor 等核心组件的协作模式,并阐述 Application、Job、Stage、Task 之间的层次关系。此外,本章还将全面介绍 Spark 支持的多种部署模式(Standalone、YARN、Kubernetes),并通过一个实战案例,将理论与实践相结合,帮助读者直观地理解 Spark 作业的完整生命周期和内部数据流转过程。 通过本章学习,读者将能够: 1. **掌握集群核心架构**:深入理解 Spark 的集群架构设计,掌握 Driver 和 Executor 的核心功能与协作机制。 2. **理解作业执行流程**:清晰地认识 Application、Job、Stage、Task 的层次结构,理解 Spark 作业的分解和调度过程。 3. **熟悉主流部署模式**:掌握 Standalone、YARN、Kubernetes 等多种部署模式的原理和适用场景,具备在不同环境中部署 Spark 的能力。 4. **连接理论与实践**:通过分析具体的代码示例,能够将架构理论与实际的 RDD 血缘关系、Stage 划分和任务执行过程联系起来。 5. **具备诊断分析能力**:初步具备根据 Spark 的执行机制分析和诊断作业运行问题的能力。 --- ### 2.1 Spark 集群架构深度解析 #### 2.1.1 Spark 架构设计原理 Spark 支持多种部署模式,包括 `Standalone`、`YARN`、`Kubernetes` 等,每种模式都有其特定的架构特点。这里我们以 **Standalone 模式**为例来说明 Spark 的基本架构设计原理。 在 Standalone 模式下,Spark 采用经典的 Master-Worker 架构模式,这种设计模式在分布式系统中被广泛采用,其核心思想是将系统分为控制节点(Master)和工作节点(Worker),通过集中式的资源管理和任务调度来实现高效的分布式计算。这种模式不仅简化了集群管理的复杂性,还提供了良好的可扩展性和容错能力。 > **注意**:在其他部署模式下,架构会有所不同: > > - **YARN 模式**:使用 YARN ResourceManager 替代 Spark Master 进行资源管理 > - **Kubernetes 模式**:使用 Kubernetes API Server 进行容器编排和资源管理 > - 但核心的计算执行模式(Driver-Executor)在所有部署模式下都是一致的 ```text ┌─────────────────────────────────────────────────────────────────────────────────┐ │ Spark Standalone Cluster Architecture │ │ │ │ ┌──────────────────┐ ┌──────────────────────────────────────────┐ │ │ │ Master │ │ Workers │ │ │ │ │ │ │ │ │ │ ┌──────────────┐ │ │ ┌─────────┐ ┌─────────┐ ┌─────────┐ │ │ │ │ │Resource Mgr │ │◄────────────►│ │Worker 1 │ │Worker 2 │ │Worker N │ │ │ │ │ │- Memory │ │ │ │ │ │ │ │ │ │ │ │ │ │- CPU Sched │ │ │ │Executor │ │Executor │ │Executor │ │ │ │ │ │- Load Bal │ │ │ │ Pool │ │ Pool │ │ Pool │ │ │ │ │ └──────────────┘ │ │ └─────────┘ └─────────┘ └─────────┘ │ │ │ │ │ │ │ │ │ │ ┌──────────────┐ │ │ ┌─────────────────────────────────────┐ │ │ │ │ │Task Scheduler│ │ │ │ Local Storage │ │ │ │ │ │- Stage Split │ │ │ │ ┌─────────┐ ┌─────────┐ ┌─────────┐ │ │ │ │ │ │- Task Dist │ │ │ │ │ Disk 1 │ │ Disk 2 │ │ Memory │ │ │ │ │ │ │- Dependency │ │ │ │ │ Cache │ │ Cache │ │ Cache │ │ │ │ │ │ └──────────────┘ │ │ │ └─────────┘ └─────────┘ └─────────┘ │ │ │ │ │ │ │ └─────────────────────────────────────┘ │ │ │ │ ┌──────────────┐ │ └──────────────────────────────────────────┘ │ │ │ │Status Monitor│ │ │ │ │ │- Heartbeat │ │ │ │ │ │- Fault Rec │ │ │ │ │ │- Perf Mon │ │ │ │ │ └──────────────┘ │ │ │ └──────────────────┘ │ └─────────────────────────────────────────────────────────────────────────────────┘ ``` _图 2-1 Spark Standalone Cluster Architecture。_ **Standalone 模式下 Master 节点的核心职责与实现机制:** 在 Standalone 部署模式中,Master 节点作为集群的大脑,承担着整个集群的协调和管理工作。它不仅要处理资源的分配和回收,还要确保任务的高效执行和系统的稳定运行。在 Spark 的实现中,Master 节点通过多个子系统来完成这些复杂的工作。资源管理器负责跟踪集群中每个 Worker 节点的资源使用情况,包括 CPU 核心数、内存大小、磁盘空间等,并根据应用程序的需求进行合理的资源分配。任务调度器则负责将用户提交的作业分解为具体的执行任务,并根据数据本地性、负载均衡等因素将这些任务分发到合适的 Worker 节点上执行。 状态监控器通过心跳机制持续监控集群中各个组件的健康状态,当检测到节点故障或网络分区时,能够及时启动故障恢复机制,确保系统的高可用性。这种设计使得 Master 节点能够在复杂的分布式环境中保持对整个集群的全局视图和精确控制。 **Worker 节点的工作机制与资源管理:** Worker 节点是实际执行计算任务的工作单元,每个 Worker 节点都运行着一个或多个 Executor 进程来处理分配给它的任务。Worker 节点的设计充分考虑了现代多核处理器的特点,通过 Executor 池的方式来最大化利用节点的计算资源。每个 Executor 都是一个独立的 JVM 进程,拥有自己的内存空间和线程池,这种设计不仅提供了良好的隔离性,还能够有效地利用多核 CPU 的并行处理能力。 Worker 节点还负责管理本地存储,包括磁盘缓存和内存缓存,这对于提高数据访问效率和减少网络传输具有重要意义。本地存储系统采用多层次的缓存策略,能够根据数据的访问模式和重要性自动调整存储策略,从而在有限的存储资源下实现最佳的性能表现。 **不同部署模式下的架构差异:** 虽然上述描述基于 Standalone 模式,但 Spark 在不同部署模式下会有不同的架构特点: - **YARN 模式**:Master 的角色由 YARN ResourceManager 承担,Worker 的角色由 YARN NodeManager 承担,Spark 应用作为 YARN 应用程序运行 - **Kubernetes 模式**:使用 Kubernetes 的 Pod 和 Service 概念,Driver 和 Executor 都运行在容器中,由 Kubernetes 负责资源管理和调度 - **核心执行模式**:无论采用哪种部署模式,Spark 的核心执行模式(Driver-Executor)都保持一致,这确保了应用程序的可移植性 #### 2.1.2 Driver Program 的核心机制与运行模式深度分析 Driver Program 是 Spark 应用程序的神经中枢,它不仅是应用程序的入口点,更是整个分布式计算过程的协调者和控制者。在 Spark 的设计哲学中,Driver Program 承担着将用户的高级数据处理逻辑转换为可在集群上并行执行的底层任务的重要职责。这种设计使得用户可以用简洁的代码表达复杂的分布式计算逻辑,而无需关心底层的任务分发、数据传输和故障处理等细节。 Driver Program 的内部结构包含多个关键组件,每个组件都有其特定的职责和作用机制。SparkContext 作为应用程序的核心上下文,不仅负责与集群管理器的通信,还维护着应用程序的全局状态信息。它通过 DAGScheduler(有向无环图调度器)来分析用户定义的 RDD 转换链,将复杂的数据处理流程分解为多个阶段(Stage),每个阶段包含可以并行执行的任务集合。 **RDD 依赖图构建**是 Driver Program 中的核心功能之一,它负责根据用户的转换操作构建 RDD 的依赖关系图。这个图不仅记录了数据的转换逻辑,还包含了优化信息,如数据分区策略、缓存策略等。通过分析这个图,Spark 能够进行各种优化,如管道化执行、数据本地性优化等,从而显著提升计算性能。任务调度器则负责将 DAGScheduler 生成的任务分发到集群中的各个 Executor 上执行,它需要考虑多种因素,包括数据本地性、负载均衡、资源可用性等。 1. **创建 SparkContext**:应用程序的入口点和资源协调中心 2. **构建 RDD 依赖图**:将用户程序转换为可优化的执行计划 3. **任务调度**:将作业分解为任务并智能调度执行 4. **结果收集**:高效收集分布式计算结果并返回给用户 **Driver 的详细职责:** ```scala // Driver 程序的典型结构 object SparkDriverExample { def main(args: Array[String]): Unit = { // 1. 创建 SparkContext val conf = new SparkConf() .setAppName("SparkDriverExample") .setMaster("spark://master:7077") val sc = new SparkContext(conf) try { // 2. 构建 RDD 依赖图(逻辑执行计划) val inputRDD = sc.textFile("hdfs://input/data.txt") val wordsRDD = inputRDD.flatMap(_.split(" ")) val pairsRDD = wordsRDD.map((_, 1)) val countsRDD = pairsRDD.reduceByKey(_ + _) // 3. 触发 Action,开始任务调度和执行 val results = countsRDD.collect() // 4. 处理结果 results.foreach(println) } finally { // 5. 清理资源 sc.stop() } } } ``` **Driver 与集群组件的交互流程**: ```text ┌─────────────────────────────────────────────────────────────────┐ │ Driver Program │ │ │ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────────────────┐ │ │ │SparkContext │ │DAGScheduler │ │ TaskScheduler │ │ │ │ │ │ │ │ │ │ │ │- App Entry │ │- Stage Split│ │- Task Scheduling │ │ │ │- Resource │ │- Dependency │ │- Resource Management │ │ │ │- Config Mgmt│ │- Fault Tol. │ │- Locality Optimization │ │ │ └─────────────┘ └─────────────┘ └─────────────────────────┘ │ │ │ │ │ │ └─────────┼────────────────┼────────────────────────┼─────────────┘ │ │ │ ▼ ▼ ▼ ┌─────────────────────────────────────────────────────────────────┐ │ Cluster Manager │ │ (Master/YARN/K8s) │ └─────────────────────────────────────────────────────────────────┘ │ │ │ ▼ ▼ ▼ ┌─────────────────────────────────────────────────────────────────┐ │ Worker Nodes │ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────────────────┐ │ │ │ Executor 1 │ │ Executor 2 │ │ Executor N │ │ │ │ │ │ │ │ │ │ │ │- Task Exec │ │- Task Exec │ │- Task Execution │ │ │ │- Data Cache │ │- Data Cache │ │- Data Caching │ │ │ │- Result Ret │ │- Result Ret │ │- Result Return │ │ │ └─────────────┘ └─────────────┘ └─────────────────────────┘ │ └─────────────────────────────────────────────────────────────────┘ ``` _图 2-2 Driver 与集群组件的交互流程图。_ **Driver 运行模式详解:** **1. Client 模式:** ```bash # Client 模式提交 spark-submit \ --deploy-mode client \ --master spark://master:7077 \ --executor-memory 2g \ --executor-cores 2 \ --class com.example.SparkApp \ my-spark-app.jar ``` ```text Client 模式架构: ┌─────────────────┐ 网络通信 ┌──────────────────────────────┐ │ Client Node │ ◄──────────► │ Spark Cluster │ │ │ │ │ │ ┌───────────┐ │ │ ┌─────────┐ ┌─────────────┐ │ │ │ Driver │ │ │ │ Master │ │ Workers │ │ │ │ │ │ │ │ │ │ │ │ │ │- 用户程序 │ │ │ │- 资源管理│ │- Executors │ │ │ │- 任务调度 │ │ │ │- 应用监控│ │- 任务执行 │ │ │ │- 结果收集 │ │ │ └─────────┘ └─────────────┘ │ │ └───────────┘ │ └──────────────────────────────┘ └─────────────────┘ ``` _图 2-3 Client 模式架构图。_ **2. Cluster 模式:** ```bash # Cluster 模式提交 spark-submit \ --deploy-mode cluster \ --master spark://master:7077 \ --executor-memory 2g \ --executor-cores 2 \ --class com.example.SparkApp \ my-spark-app.jar ``` ```text Cluster 模式架构: ┌──────────────────┐ ┌─────────────────────────────────┐ │ Client Node │ │ Spark Cluster │ │ │ │ │ │ ┌────────────┐ │ 提交应用 │ ┌────────────┐ ┌─────────────┐ │ │ │spark-submit│ │ ──────────► │ │ Master │ │ Workers │ │ │ │ │ │ │ │ │ │ │ │ │ │- 应用提交 │ │ │ │- 启动Driver │ │- Executors │ │ │ │- 状态监控 │ │ │ │- 资源管理 │ │- Driver进程 │ │ │ └────────────┘ │ │ └────────────┘ └─────────────┘ │ └──────────────────┘ └─────────────────────────────────┘ ``` _图 2-4 Cluster 模式架构图。_ **Client 模式 vs Cluster 模式对比:** | **特性** | **Client 模式** | **Cluster 模式** | | --------------- | ----------------------------- | ----------------------------- | | **Driver 位置** | 客户端机器 | 集群中的 Worker 节点 | | **网络通信** | Driver 与 Executor 跨网络通信 | Driver 与 Executor 在同一网络 | | **故障恢复** | 客户端故障导致应用失败 | 集群管理器可以重启 Driver | | **适用场景** | 交互式应用、调试 | 生产环境、长时间运行的作业 | | **网络开销** | 较高(跨网络数据传输) | 较低(集群内部通信) | | **调试便利性** | 容易调试和监控 | 调试相对困难 | | **资源占用** | 客户端需要足够资源 | 集群统一管理资源 | **实际应用示例:** ```scala // GroupByTest 示例(来自 SparkInternals) object GroupByTest { def main(args: Array[String]) { val conf = new SparkConf().setAppName("GroupBy Test") val sc = new SparkContext(conf) // 创建包含重复数据的 RDD val data = Array[(Int, Char)]( (1, 'a'), (2, 'b'), (3, 'c'), (4, 'd'), (5, 'e'), (3, 'f'), (2, 'g'), (1, 'h') ) val pairs = sc.parallelize(data, 3) // 执行 groupByKey 操作 val groups = pairs.groupByKey(2) // 收集结果 println("Result: " + groups.collect().mkString(", ")) sc.stop() } } // 执行过程分析: // 1. Driver 创建 SparkContext 并连接到 Master // 2. Driver 构建 RDD 依赖图:pairs -> groups // 3. DAGScheduler 分析发现需要 Shuffle,划分为两个 Stage // 4. TaskScheduler 调度 ShuffleMapTask 到 Executor 执行 // 5. Shuffle 数据重新分布后,调度 ResultTask 执行 groupByKey // 6. 结果收集回 Driver 并输出 ``` #### 2.1.3 Executor 和 ExecutorBackend 的深层架构与协作机制 Executor 和 ExecutorBackend 构成了 Spark 分布式计算架构中的核心执行单元,它们之间的协作关系体现了 Spark 在任务执行、资源管理和通信协调方面的精妙设计。Executor 作为实际的任务执行者,承担着数据处理的重任,而 ExecutorBackend 则作为通信代理,负责与 Driver 程序进行信息交换和状态同步。这种分层设计不仅提高了系统的模块化程度,还增强了系统的可维护性和扩展性。 **Executor 的内部架构与核心组件深度解析:** Executor 的设计充分体现了现代分布式系统的设计原则,它通过多个专门化的组件来处理不同类型的工作负载。线程池(ThreadPool)是 Executor 的核心执行引擎,它采用动态线程管理策略,能够根据任务的类型和系统负载自动调整线程数量。这种设计不仅提高了资源利用率,还能够有效地处理不同计算密集度的任务。 BlockManager 是 Executor 中负责数据存储和管理的关键组件,它实现了一个多层次的存储系统,包括内存存储、磁盘存储和远程存储。BlockManager 采用 LRU(最近最少使用)算法来管理内存中的数据块,当内存不足时,会智能地将不常用的数据块溢写到磁盘,从而在有限的内存资源下实现最佳的数据访问性能。同时,它还支持数据的复制和容错,通过在多个节点上保存数据副本来提高系统的可靠性。 Heartbeater 组件负责与 Driver 程序保持心跳连接,定期报告 Executor 的健康状态、资源使用情况和任务执行进度。这种心跳机制不仅用于故障检测,还用于动态资源调整和负载均衡。当 Driver 检测到某个 Executor 的负载过高时,可以动态地调整任务分配策略,将新任务分配给负载较轻的 Executor。 ExecutorSource 是 Executor 的监控和度量组件,它收集各种性能指标,如 CPU 使用率、内存使用率、任务执行时间、数据读写速度等。这些指标不仅用于系统监控和性能调优,还为 Spark 的自适应优化提供了重要的数据支持。 **ExecutorBackend 的通信机制与协调功能:** ExecutorBackend 作为 Executor 与 Driver 之间的通信桥梁,实现了一套高效的消息传递机制。它采用异步消息传递模式,通过消息队列来缓冲和处理各种类型的消息,包括任务分配消息、状态更新消息、资源请求消息等。这种设计不仅提高了通信效率,还增强了系统的容错能力,当网络出现短暂故障时,消息可以在队列中等待,直到网络恢复正常。 CoarseGrainedExecutorBackend 是 ExecutorBackend 的主要实现,它采用粗粒度的资源管理策略,即在应用程序启动时一次性申请所需的资源,并在整个应用程序运行期间保持这些资源。这种策略的优势在于减少了资源申请和释放的开销,提高了任务执行的效率。同时,它还实现了智能的任务调度算法,能够根据数据本地性、资源可用性等因素来优化任务的分配。 **Executor 的核心组件:** ```scala // Executor 的主要组件结构 class Executor( executorId: String, executorHostname: String, env: SparkEnv, userClassPath: Seq[URL] = Nil, isLocal: Boolean = false) extends Logging { // 线程池:用于执行任务 private val threadPool = ThreadUtils.newDaemonCachedThreadPool( "Executor task launch worker", conf.getInt("spark.executor.cores", 1)) // 任务运行器映射:跟踪正在运行的任务 private val runningTasks = new ConcurrentHashMap[Long, TaskRunner] // 心跳发送器:定期向 Driver 报告状态 private val heartbeater = ThreadUtils.newDaemonSingleThreadScheduledExecutor("driver-heartbeater") // 块管理器:管理数据存储和缓存 private val blockManager = env.blockManager // 度量系统:收集执行指标 private val executorSource = new ExecutorSource(threadPool, executorId) } ``` **Executor 与 ExecutorBackend 的交互机制:** ```text ┌─────────────────────────────────────────────────────────────────┐ │ Driver Program │ │ │ │ ┌─────────────────┐ ┌─────────────────────────┐ │ │ │ TaskScheduler │ │ SchedulerBackend │ │ │ │ │ │ │ │ │ │- 任务分配 │ ◄──────────► │- 资源管理 │ │ │ │- 状态跟踪 │ │- Executor 通信 │ │ │ └─────────────────┘ └─────────────────────────┘ │ └─────────────────────────────────────┼───────────────────────────┘ │ RPC 通信 │ ┌─────────────────────────────────────┼──────────────────────────┐ │ Worker Node │ │ │ ▼ │ │ ┌─────────────────────────────────────────────────────────┐ │ │ │ ExecutorBackend │ │ │ │ │ │ │ │- 接收 Driver 指令 │ │ │ │- 启动/停止任务 │ │ │ │- 状态报告 │ │ │ │- 资源协调 │ │ │ └─────────────────┬───────────────────────────────────────┘ │ │ │ 本地调用 │ │ ▼ │ │ ┌─────────────────────────────────────────────────────────┐ │ │ │ Executor │ │ │ │ │ │ │ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────────┐ │ │ │ │ │ThreadPool │ │BlockManager │ │ TaskRunner │ │ │ │ │ │ │ │ │ │ │ │ │ │ │ │- 任务执行 │ │- 数据管理 │ │- 任务生命周期 │ │ │ │ │ │- 线程管理 │ │- 缓存管理 │ │- 结果处理 │ │ │ │ │ └─────────────┘ └─────────────┘ └─────────────────┘ │ │ │ └─────────────────────────────────────────────────────────┘ │ └────────────────────────────────────────────────────────────────┘ ``` _图 2-5 Executor 与 ExecutorBackend 的交互流程示意图。_ **任务执行的详细流程:** ```scala // TaskRunner 的执行过程 class TaskRunner( execBackend: ExecutorBackend, taskDescription: TaskDescription) extends Runnable { override def run(): Unit = { val threadMXBean = ManagementFactory.getThreadMXBean val taskStart = System.currentTimeMillis() val gcTime = computeTotalGcTime() try { // 1. 更新任务依赖(文件、JAR、档案) updateDependencies( taskDescription.addedFiles, taskDescription.addedJars, taskDescription.addedArchives) // 2. 反序列化任务对象 val task = ser.deserialize[Task[Any]]( taskDescription.serializedTask, Thread.currentThread.getContextClassLoader) // 设置任务内存管理器 task.setTaskMemoryManager(taskMemoryManager) // 3. 执行任务 val res = task.run( taskAttemptId = taskDescription.taskId, attemptNumber = taskDescription.attemptNumber, metricsSystem = env.metricsSystem) // 4. 序列化结果 val serializedResult = ser.serialize(res) // 5. 处理结果大小 val resultSize = serializedResult.limit if (resultSize > maxResultSize) { // 结果过大,记录警告但继续处理 logWarning(s"Task ${taskDescription.taskId} result is larger than maxResultSize") val blockId = TaskResultBlockId(taskDescription.taskId) ser.serialize(new IndirectTaskResult[Any](blockId, resultSize)) } else if (resultSize > maxDirectResultSize) { // 结果较大,存储到 BlockManager val blockId = TaskResultBlockId(taskDescription.taskId) env.blockManager.putBytes(blockId, serializedResult, StorageLevel.MEMORY_AND_DISK_SER) execBackend.statusUpdate(taskDescription.taskId, TaskState.FINISHED, ser.serialize(IndirectTaskResult[Any](blockId, resultSize))) } else { // 结果较小,直接返回 execBackend.statusUpdate(taskDescription.taskId, TaskState.FINISHED, serializedResult) } } catch { case t: TaskKilledException => // 任务被杀死 execBackend.statusUpdate(taskDescription.taskId, TaskState.KILLED, ser.serialize(TaskKilled(t.reason))) case t: Throwable => // 任务执行失败 val reason = ExceptionFailure(t) execBackend.statusUpdate(taskDescription.taskId, TaskState.FAILED, ser.serialize(reason)) } finally { // 清理资源 runningTasks.remove(taskDescription.taskId) } } } ``` **Executor 内存管理:** ```scala // Executor 内存分配策略 class ExecutorMemoryManager { // 总内存 = JVM 堆内存 * spark.executor.memory.fraction val totalMemory = Runtime.getRuntime.maxMemory * memoryFraction // 存储内存:用于缓存 RDD 和广播变量 val storageMemory = totalMemory * storageMemoryFraction // 执行内存:用于 Shuffle、Join、Sort 等操作 val executionMemory = totalMemory * (1 - storageMemoryFraction) // 内存分配示意图 /* ┌────────────────────────────────────────────────────────┐ │ JVM Heap Memory │ │ │ │ ┌─────────────────────────────────────────────────┐ │ │ │ Spark Memory Pool │ │ │ │ (spark.executor.memory.fraction = 0.6) │ │ │ │ │ │ │ │ ┌─────────────────┐ ┌─────────────────────┐ │ │ │ │ │ Storage Memory │ │ Execution Memory │ │ │ │ │ │ │ │ │ │ │ │ │ │- RDD Cache │ │- Shuffle Buffer │ │ │ │ │ │- Broadcast Vars │ │- Join Operations │ │ │ │ │ │- Unroll Buffer │ │- Sort Operations │ │ │ │ │ └─────────────────┘ └─────────────────────┘ │ │ │ └─────────────────────────────────────────────────┘ │ │ │ │ ┌─────────────────────────────────────────────────┐ │ │ │ Other Memory │ │ │ │ (User Objects, Spark Internal Objects) │ │ │ └─────────────────────────────────────────────────┘ │ └────────────────────────────────────────────────────────┘ */ } ``` **ExecutorBackend 的实现:** ```scala // CoarseGrainedExecutorBackend 实现 class CoarseGrainedExecutorBackend( override val rpcEnv: RpcEnv, driverUrl: String, executorId: String, hostname: String, cores: Int, userClassPath: Seq[URL], env: SparkEnv) extends ThreadSafeRpcEndpoint with ExecutorBackend { private var executor: Executor = null private var driver: Option[RpcEndpointRef] = None // 向 Driver 注册 Executor override def onStart(): Unit = { logInfo("Connecting to driver: " + driverUrl) rpcEnv.asyncSetupEndpointRefByURI(driverUrl).flatMap { ref => driver = Some(ref) ref.ask[Boolean](RegisterExecutor(executorId, self, hostname, cores, extractLogUrls)) }.onComplete { case Success(msg) => // 注册成功,创建 Executor executor = new Executor(executorId, hostname, env, userClassPath, isLocal = false) case Failure(e) => exitExecutor(1, s"Cannot register with driver: $driverUrl", e) }(ThreadUtils.sameThread) } // 接收 Driver 的消息 override def receive: PartialFunction[Any, Unit] = { case RegisteredExecutor => logInfo("Successfully registered with driver") case RegisterExecutorFailed(message) => exitExecutor(1, "Slave registration failed: " + message) case LaunchTask(data) => if (executor == null) { exitExecutor(1, "Received LaunchTask command but executor was null") } else { val taskDesc = TaskDescription.decode(data.value) logInfo("Got assigned task " + taskDesc.taskId) executor.launchTask(this, taskDesc) } case KillTask(taskId, _, interruptThread, reason) => if (executor == null) { logError("Received KillTask command but executor was null") } else { executor.killTask(taskId, interruptThread, reason) } case StopExecutor => logInfo("Driver commanded a shutdown") executor.stop() stop() rpcEnv.shutdown() } // 向 Driver 报告任务状态 override def statusUpdate(taskId: Long, state: TaskState, data: ByteBuffer): Unit = { val msg = StatusUpdate(executorId, taskId, state, data) driver match { case Some(driverRef) => driverRef.send(msg) case None => logWarning(s"Drop $msg because has not yet connected to driver") } } } ``` **Executor 内存管理策略:** ```scala class Executor { // 内存管理器(统一内存管理) val memoryManager = UnifiedMemoryManager( conf, numCores = conf.getInt("spark.executor.cores", 1)) // 任务内存管理器 val taskMemoryManager = new TaskMemoryManager(memoryManager, 0) // 内存分配策略 def allocateMemory(taskId: Long, memory: Long): Boolean = { // 通过任务内存管理器申请内存 taskMemoryManager.acquireExecutionMemory(memory, null) } } ``` #### 2.1.4 Application、Job、Stage、Task 的层次结构 Spark 应用程序具有清晰的层次结构: [19] ```text Application (应用程序) │ ├── Job 1 (作业1 - 由Action触发) │ ├── Stage 1.1 (阶段 - 由Shuffle边界划分) │ │ ├── Task 1.1.1 (任务 - 处理一个分区) │ │ ├── Task 1.1.2 │ │ └── Task 1.1.3 │ └── Stage 1.2 │ ├── Task 1.2.1 │ └── Task 1.2.2 │ └── Job 2 (作业2) └── Stage 2.1 ├── Task 2.1.1 ├── Task 2.1.2 └── Task 2.1.3 ``` **层次关系说明:** 1. **Application**:一个 Spark 应用程序,对应一个 SparkContext [19] 2. **Job**:由 Action 操作(如 collect、save)触发的计算作业 [19] 3. **Stage**:根据 Shuffle 依赖划分的执行阶段,Stage 内部可以 Pipeline 执行 [19] 4. **Task**:最小的执行单元,处理一个 RDD 分区的数据 [19] ```scala // 示例:一个应用程序包含多个作业 val rdd1 = sc.textFile("input1.txt") val rdd2 = sc.textFile("input2.txt") val rdd3 = rdd1.map(_.toUpperCase) val rdd4 = rdd2.filter(_.length > 10) val rdd5 = rdd3.union(rdd4) // Job 1:由第一个 Action 触发 rdd5.count() // 触发 Job 1 // Job 2:由第二个 Action 触发 rdd5.collect() // 触发 Job 2 ``` ### 2.2 Spark 部署模式 #### 2.2.1 Standalone 模式 Standalone 是 Spark 自带的集群管理器,提供简单的集群资源管理功能。 **架构组成:** - **Master**:集群管理节点,负责资源分配和应用调度 - **Worker**:工作节点,提供计算资源 - **Driver**:应用程序驱动器 - **Executor**:任务执行进程 **部署步骤:** ```bash # 1. 启动 Master $SPARK_HOME/sbin/start-master.sh # 2. 启动 Worker(在各个工作节点上执行) $SPARK_HOME/sbin/start-worker.sh spark://master-host:7077 # 3. 提交应用程序 spark-submit \ --master spark://master-host:7077 \ --deploy-mode cluster \ --class MyApp \ my-app.jar ``` **配置示例:** ```properties # spark-defaults.conf spark.master spark://master:7077 spark.executor.memory 2g spark.executor.cores 2 spark.executor.instances 4 spark.driver.memory 1g ``` #### 2.2.2 YARN 模式 YARN(Yet Another Resource Negotiator)是 Hadoop 2.0 引入的资源管理器,Spark 可以作为 YARN 应用程序运行。 **YARN 架构:** ```text ┌───────────────────────────────────────────────────────────┐ │ YARN Cluster │ │ │ │ ┌───────────────┐ ┌─────────────────────────────────┐ │ │ │ResourceManager│ │ NodeManagers │ │ │ │ │ │ ┌──────────┐ ┌──────────┐ │ │ │ │ - 资源调度 │ │ │NodeMgr1 │ │NodeMgr2 │ │ │ │ │ - 应用管理 │ │ │ │ │ │ │ │ │ │ │ │ │Container │ │Container │ │ │ │ └───────────────┘ │ │(Executor)│ │(Executor)│ │ │ │ │ └──────────┘ └──────────┘ │ │ │ └─────────────────────────────────┘ │ └───────────────────────────────────────────────────────────┘ ``` _图 2-6 YARN 架构示意图。_ **YARN 模式的两种部署方式:** 1. **yarn-client 模式**: ```bash spark-submit \ --master yarn \ --deploy-mode client \ --executor-memory 2g \ --executor-cores 2 \ --num-executors 4 \ my-app.jar ``` 2. **yarn-cluster 模式**: ```bash spark-submit \ --master yarn \ --deploy-mode cluster \ --executor-memory 2g \ --executor-cores 2 \ --num-executors 4 \ my-app.jar ``` **YARN 模式优势:** - 与 Hadoop 生态系统无缝集成 - 统一的资源管理和调度 - 支持多租户和资源隔离 - 成熟的监控和管理工具 #### 2.2.3 Kubernetes 模式 Kubernetes 是现代容器编排平台,Spark 2.3+ 开始支持在 Kubernetes 上运行。 **Kubernetes 部署架构:** ```yaml # spark-driver.yaml apiVersion: v1 kind: Pod metadata: name: spark-driver spec: containers: - name: spark-driver image: spark:latest command: ["/opt/spark/bin/spark-submit"] args: [ "--master", "k8s://https://k8s-apiserver:443", "--deploy-mode", "cluster", "--class", "MyApp", "my-app.jar", ] resources: requests: memory: "1Gi" cpu: "1" ``` **提交应用到 Kubernetes:** ```bash spark-submit \ --master k8s://https://k8s-apiserver:443 \ --deploy-mode cluster \ --name spark-pi \ --class org.apache.spark.examples.SparkPi \ --conf spark.executor.instances=3 \ --conf spark.kubernetes.container.image=spark:latest \ local:///opt/spark/examples/jars/spark-examples.jar ``` **Kubernetes 模式优势:** - 云原生部署方式 - 自动扩缩容能力 - 容器化隔离 - 与现代 DevOps 工具链集成 #### 2.2.4 各种部署模式的适用场景 | 部署模式 | 适用场景 | 优势 | 劣势 | | ---------- | ---------------------- | -------------------- | ---------------------- | | Standalone | 小规模集群、开发测试 | 简单易用、快速部署 | 功能有限、缺乏高级调度 | | YARN | Hadoop 生态环境 | 成熟稳定、资源共享 | 复杂度高、依赖 Hadoop | | Kubernetes | 云原生环境、微服务架构 | 现代化、自动化程度高 | 学习成本高、相对较新 | | Mesos | 大规模多框架环境 | 细粒度资源控制 | 复杂度极高、维护困难 | > **历史说明**:Spark on Mesos 曾经是 Spark 支持的重要部署模式之一,Apache Mesos 作为分布式系统内核,能够提供细粒度的资源管理和多框架支持。Spark 在 Mesos 上支持两种运行模式:粗粒度模式(Coarse-grained Mode)和细粒度模式(Fine-grained Mode)。然而,随着 Kubernetes 等现代容器编排平台的兴起,以及 Mesos 生态的逐渐衰落,Apache Spark 社区在 **Spark 3.2.0 版本中正式弃用了对 Mesos 的支持**,并在 **Spark 4.0.0 版本中完全移除了 Mesos 相关代码**。目前建议使用 Kubernetes 作为现代化的容器编排和资源管理平台。 ### 2.3 Spark 架构实战:GroupByTest 示例 为了更好地理解 Spark 的架构和工作流程,我们通过一个具体的 `GroupByTest` 示例来分析整个执行过程。 #### 2.3.1 示例代码 ```scala import org.apache.spark.{SparkConf, SparkContext} object GroupByTest { def main(args: Array[String]) { val conf = new SparkConf().setAppName("GroupByTest") val sc = new SparkContext(conf) // 创建包含键值对的 RDD val data = Array(("a", 1), ("b", 1), ("a", 1), ("a", 1), ("b", 1), ("b", 1), ("b", 1)) val pairs = sc.parallelize(data, 3) // 分成3个分区 // 执行 groupByKey 操作 val grouped = pairs.groupByKey() // 收集结果 val result = grouped.collect() // 打印结果 result.foreach { case (key, values) => println(s"$key: ${values.mkString("[", ",", "]")}") } sc.stop() } } ``` #### 2.3.2 架构组件交互流程 ```text ┌─────────────────────────────────────────────────────────────────────────────┐ │ Spark 集群架构交互图 │ │ │ │ Client 端 Master 节点 Worker 节点 │ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │ │ │ Driver │ │ Master │ │ Worker │ │ │ │ │ │ │ │ │ │ │ │ 1.创建 SC │─────────────▶│ 2.注册应用 │◀─────────▶│ 3.启动 │ │ │ │ 4.构建 DAG │ │ 5.资源分配 │ │ Executor │ │ │ │ 6.提交 Job │─────────────▶│ 7.任务调度 │──────────▶│ 8.执行任务 │ │ │ │ 11.收集结果 │◀─────────────│ 10.结果汇总 │◀──────────│ 9.返回结果 │ │ │ └─────────────┘ └─────────────┘ └─────────────┘ │ └─────────────────────────────────────────────────────────────────────────────┘ ``` _图 2-7 Spark 集群架构交互图。_ **详细交互步骤:** 1. **Driver 启动**:创建 SparkContext,初始化 DAGScheduler 和 TaskScheduler 2. **应用注册**:Driver 向 Master 注册应用程序,请求资源 3. **Executor 启动**:Master 指示 Worker 启动 Executor 进程 4. **DAG 构建**:Driver 分析 RDD 血缘关系,构建有向无环图 5. **资源分配**:Master 为应用分配 CPU 和内存资源 6. **Job 提交**:遇到 Action 操作时,Driver 将 Job 提交给 DAGScheduler 7. **任务调度**:DAGScheduler 将 Job 分解为 Stage 和 Task,提交给 TaskScheduler 8. **任务执行**:Executor 接收并执行 Task,处理数据分区 9. **结果返回**:Task 执行完成后,将结果返回给 Driver 10. **结果汇总**:Driver 收集所有 Task 的结果 11. **应用完成**:Driver 处理最终结果,释放资源 #### 2.3.3 RDD 血缘关系和 Stage 划分 GroupByTest 的 RDD 血缘图: ```text ┌─────────────────┐ parallelize ┌─────────────────┐ groupByKey ┌─────────────────┐ │ Array Data │ ─────────────────▶│ ParallelRDD │ ────────────────▶│ ShuffledRDD │ │ [("a",1),("b",1)│ │ (3 partitions)│ │ (3 partitions) │ │ ("a",1),...] │ │ │ │ │ └─────────────────┘ └─────────────────┘ └─────────────────┘ │ │ │ │ NarrowDependency ShuffleDependency │ ▼ ┌─────────────────┐ │ collect() │ │ (Action) │ └─────────────────┘ ``` _图 2-8 GroupByTest 示例 RDD 血缘关系图。_ ```text Stage 划分: ┌─────────────────────────────────────┐ ┌─────────────────────────────────────┐ │ Stage 0 │ │ Stage 1 │ │ │ │ │ │ ┌─────────────────┐ │ │ ┌─────────────────┐ │ │ │ ParallelRDD │ │ │ │ ShuffledRDD │ │ │ │ (3 partitions) │ │ │ │ (3 partitions) │ │ │ └─────────────────┘ │ │ └─────────────────┘ │ │ │ │ │ │ │ │ ▼ │ │ ▼ │ │ ┌─────────────────┐ │ │ ┌─────────────────┐ │ │ │ Shuffle Write │ │ │ │ collect() │ │ │ │ (3 tasks) │ │ │ │ (3 tasks) │ │ │ └─────────────────┘ │ │ └─────────────────┘ │ └─────────────────────────────────────┘ └─────────────────────────────────────┘ ``` _图 2-9 Stage 划分示意图。_ #### 2.3.4 任务执行和数据流转 **Stage 0 执行过程:** ```text Partition 0: [("a",1), ("b",1)] ──┐ │ Shuffle Write Partition 1: [("a",1), ("a",1)] ──┼─────────────────▶ 磁盘文件 │ ├─ shuffle_0_0 Partition 2: [("b",1), ("b",1)] ──┘ ├─ shuffle_0_1 └─ shuffle_0_2 ``` _图 2-10 Shuffle 数据传输流程。_ ```text Shuffle Write 阶段: ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Executor 1 │ │ Executor 2 │ │ Executor 3 │ │ │ │ │ │ │ │ Task 0: │ │ Task 1: │ │ Task 2: │ │ ("a",1),("b",1) │ │ ("a",1),("a",1) │ │ ("b",1),("b",1) │ │ │ │ │ │ │ │ │ │ │ ▼ │ │ ▼ │ │ ▼ │ │ Hash Partition │ │ Hash Partition │ │ Hash Partition │ │ a→0, b→1 │ │ a→0, a→0 │ │ b→1, b→1 │ └─────────────────┘ └─────────────────┘ └─────────────────┘ Shuffle Read 阶段: ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Reducer 0 │ │ Reducer 1 │ │ Reducer 2 │ │ │ │ │ │ │ │ 读取所有 "a" 的 │ │ 读取所有 "b" 的 │ │ 空分区 │ │ 数据并分组 │ │ 数据并分组 │ │ │ │ ("a",[1,1,1]) │ │ ("b",[1,1,1,1]) │ │ 无数据 │ └─────────────────┘ └─────────────────┘ └─────────────────┘ ``` _图 2-11 Shuffle Read 数据分组流程。_ #### 2.3.5 内存和存储分析 **数据大小估算:** ```scala // 原始数据 val data = Array(("a", 1), ("b", 1), ("a", 1), ("a", 1), ("b", 1), ("b", 1), ("b", 1)) // 每个元组约 24 字节(字符串 + 整数 + 对象开销) // 总数据量:7 * 24 = 168 字节 // Shuffle 数据 // Stage 0 输出:每个键值对需要序列化,约 32 字节/对 // Shuffle 文件大小:7 * 32 = 224 字节 // 最终结果 // ("a", [1,1,1]) 和 ("b", [1,1,1,1]) // 结果大小:约 100 字节 ``` ```text Executor 内存分配(假设 1GB): ┌─────────────────────────────────────────────────────────────┐ │ Executor Memory (1GB) │ │ │ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────────────┐ │ │ │ Storage │ │ Execution │ │ Other │ │ │ │ (300MB) │ │ (300MB) │ │ (400MB) │ │ │ │ │ │ │ │ │ │ │ │ - RDD Cache │ │ - Shuffle │ │ - JVM Overhead │ │ │ │ - Broadcast │ │ - Sort │ │ - User Objects │ │ │ │ │ │ - Aggregate │ │ - Reserved Space │ │ │ └─────────────┘ └─────────────┘ └─────────────────────┘ │ └─────────────────────────────────────────────────────────────┘ ``` _图 2-12 Executor 内存分配模型。_ ### 2.4 第 2 章小结 本章深入探讨了 Apache Spark 的集群架构与执行机制,为理解 Spark 的工作原理奠定了坚实基础。 1. **核心架构组件:** - **Driver Program**:作为应用程序的控制中心,负责创建 SparkContext、构建 RDD 血缘关系、划分 Stage 和调度 Task - **Executor**:分布式执行引擎,负责实际的数据处理和计算任务执行 - **Cluster Manager**:集群资源管理器,协调整个集群的资源分配和任务调度 2. **部署模式特点:** - **Standalone 模式**:Spark 原生的集群管理模式,简单易用,适合小到中等规模的集群 - **YARN 模式**:与 Hadoop 生态系统深度集成,适合已有 Hadoop 环境的企业 - **Kubernetes 模式**:现代化的容器编排平台,提供更好的资源隔离和弹性伸缩能力 3. **执行机制核心:** - **Application-Job-Stage-Task** 的四层执行模型确保了任务的有序执行和高效调度 - **数据本地性优化**减少了网络传输开销,提高了整体性能 - **容错机制**通过 RDD 血缘关系实现了自动故障恢复 通过 GroupByTest 实战示例,我们看到了这些架构组件如何协同工作,从代码提交到结果返回的完整流程。这种架构设计使得 Spark 能够在保证高性能的同时,提供良好的容错性和可扩展性。 下一章我们将深入学习 RDD(弹性分布式数据集)的核心概念和实现机制,这是理解 Spark 计算模型的关键。 --- ## 第 3 章 RDD:弹性分布式数据集 本章将系统阐述 RDD 的设计理念、实现机制与工程化使用方法。在第 2 章对 Spark 架构与执行机制的整体认知基础上,本章聚焦 RDD 的抽象边界、依赖关系与容错恢复,并结合源码与实践示例形成完整而可落地的知识体系。 通过本章学习,读者将能够: 1. 明确 RDD 的核心定义与五大属性及其设计动机 2. 掌握分区(Partition)机制与分区器(Partitioner)策略的适用场景 3. 理解 Transformation 的惰性求值与 Action 的执行触发机制 4. 分析窄依赖与宽依赖对性能与容错的影响及优化要点 5. 深入理解 Shuffle 的内部实现与常见性能优化策略 6. 正确使用缓存与持久化并选择合适的 Storage Level 7. 结合源码实践进行调优,规避常见问题与误用模式 ### 3.1 RDD 基础概念与特性 #### 3.1.1 RDD 的定义和五大特性 RDD(Resilient Distributed Dataset,弹性分布式数据集)是 Spark 的核心抽象,代表一个不可变的、可分区的数据集合,可以并行操作。RDD 是 Spark 计算模型的基石,其设计哲学体现了分布式计算的核心原则。 **RDD 的五个核心特性:** 1. **分区列表(A list of partitions)**:RDD 由多个分区组成,每个分区包含数据集的一部分,分区是并行计算的基本单元 2. **计算函数(A function for computing each split)**:每个分区都有一个计算函数来处理数据,定义了如何从父 RDD 计算得到当前 RDD 3. **依赖关系(A list of dependencies on other RDDs)**:RDD 之间的依赖关系形成血缘图(Lineage Graph),是容错机制的基础 4. **分区器(A Partitioner for key-value RDDs)**:对于键值对 RDD,可选的分区器决定数据分布策略,影响 Shuffle 性能 5. **位置偏好(A list of preferred locations)**:每个分区的首选计算位置,用于数据本地性优化,减少网络传输 **RDD 抽象类的完整定义:** ```scala /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala * 类:org.apache.spark.rdd.RDD */ abstract class RDD[T: ClassTag]( @transient private var _sc: SparkContext, @transient private var deps: Seq[Dependency[_]] ) extends Serializable with Logging { // === 核心抽象方法(必须实现) === // 获取所有分区信息 protected def getPartitions: Array[Partition] // 计算指定分区的数据 def compute(split: Partition, context: TaskContext): Iterator[T] // === 可选实现的方法 === // 获取依赖关系 protected def getDependencies: Seq[Dependency[_]] = deps // 获取分区器(仅对键值对 RDD 有意义) val partitioner: Option[Partitioner] = None // 获取首选计算位置 protected def getPreferredLocations(split: Partition): Seq[String] = Nil // === RDD 元数据 === // RDD 唯一标识符 val id: Int = sc.newRddId() // RDD 名称(用于调试) @transient var name: String = _ // 存储级别 private var storageLevel: StorageLevel = StorageLevel.NONE // 检查点数据 private var checkpointData: Option[RDDCheckpointData[T]] = None // 作用域信息(用于 Web UI 显示) private[spark] var scope: Option[RDDOperationScope] = None } ``` #### 3.1.2 不可变性设计原理 **不可变性设计的核心原理与优势:** 1. **不可变性(Immutability)**: - RDD 一旦创建就不能修改,所有 `Transformation` 操作都会产生新的 RDD。 - 不可变性保证线程安全与缓存一致性,并简化容错实现。 **不可变性的优势与示例:** ```scala // 不可变性的示例:对原始 RDD 的操作不会修改其自身 val rdd1 = sc.parallelize(List(1, 2, 3, 4, 5)) val rdd2 = rdd1.map(_ * 2) // 创建新的 RDD,rdd1 保持不变 val rdd3 = rdd1.filter(_ > 3) // 再次基于 rdd1 创建新的 RDD println(rdd1.collect().mkString(", ")) // 输出: 1, 2, 3, 4, 5 println(rdd2.collect().mkString(", ")) // 输出: 2, 4, 6, 8, 10 println(rdd3.collect().mkString(", ")) // 输出: 4, 5 ``` #### 3.1.3 分区机制详解 分区是 RDD 的基本组成单元,决定了数据的分布和并行度。分区机制是 Spark 实现高性能分布式计算的关键设计。 **分区的核心作用:** - **并行度控制**:一个分区对应一个任务(Task),分区数决定了并行度 - **数据本地性**:分区与存储位置的映射关系,影响数据访问效率 - **Shuffle 性能**:分区策略直接影响 Shuffle 操作的网络传输量 - **内存管理**:分区大小影响内存使用和垃圾回收频率 **分区接口概念说明:** - 分区是并行计算的基本单元,逻辑上定义为拥有唯一索引的切片。 - 具体接口与实现示例集中在“3.1.6 RDD 的内部实现机制”。 **分区创建和管理:** ```scala // 创建 RDD 时指定分区数 val rdd1 = sc.parallelize(1 to 1000, numSlices = 4) // 4个分区 val rdd2 = sc.textFile("hdfs://data.txt", minPartitions = 8) // 最少8个分区 // 查看分区信息 println(s"分区数: ${rdd1.getNumPartitions}") println(s"每个分区的数据: ${rdd1.glom().collect().map(_.mkString("[", ",", "]")).mkString("Array(", ", ", ")")}") // 分区数据分布查看 rdd1.mapPartitionsWithIndex { (index, iter) => Iterator(s"Partition $index: ${iter.toList}") }.collect().foreach(println) ``` **分区策略详解:** 1. **Hash 分区器(HashPartitioner)**: ```scala class HashPartitioner(partitions: Int) extends Partitioner { require(partitions >= 0, s"Number of partitions ($partitions) cannot be negative.") def numPartitions: Int = partitions def getPartition(key: Any): Int = key match { case null => 0 case _ => Utils.nonNegativeMod(key.hashCode, numPartitions) } override def equals(other: Any): Boolean = other match { case h: HashPartitioner => h.numPartitions == numPartitions case _ => false } override def hashCode: Int = numPartitions } ``` **Hash 分区的特点:** - 基于键的哈希值进行分区 - 分布相对均匀,但可能存在数据倾斜 - 适用于大多数场景 2. **Range 分区器(RangePartitioner)**: ```scala class RangePartitioner[K : Ordering : ClassTag, V]( partitions: Int, rdd: RDD[_ <: Product2[K, V]], private var ascending: Boolean = true) extends Partitioner { // 通过对 RDD 进行采样,确定分区的边界 private var rangeBounds: Array[K] = { // ... 内部实现:采样、确定边界 ... Array.empty // 简化示例 } def getPartition(key: Any): Int = { val k = key.asInstanceOf[K] // 根据 rangeBounds 找到 key 所属的分区 // ... 内部实现:线性或二分搜索 ... 0 // 简化示例 } } ``` **Range 分区的特点:** - 基于键的范围进行分区 - 保证分区内数据有序 - 适用于需要排序的场景 3. **自定义分区器**: ```scala // 自定义分区器示例:按用户ID的地理位置分区 class GeographicPartitioner(numPartitions: Int) extends Partitioner { override def numPartitions: Int = numPartitions override def getPartition(key: Any): Int = { val userId = key.asInstanceOf[String] val region = getRegionByUserId(userId) // 根据用户ID获取地理区域 region.hashCode() % numPartitions match { case x if x < 0 => x + numPartitions case x => x } } private def getRegionByUserId(userId: String): String = { // 实际实现中可能查询数据库或使用规则 userId.substring(0, 2) // 简化示例 } } // 使用自定义分区器 val userRDD = sc.parallelize(List(("user001", "data1"), ("user002", "data2"))) val partitionedRDD = userRDD.partitionBy(new GeographicPartitioner(4)) ``` **分区数量的选择策略:** ```scala // 分区数量选择的经验法则 val clusterCores = sc.defaultParallelism // 集群总核心数 val dataSize = estimateDataSize() // 估算数据大小 // 策略1:基于集群资源 val partitions1 = clusterCores * 2 // 通常设置为核心数的2-3倍 // 策略2:基于数据大小 val partitions2 = (dataSize / (128 * 1024 * 1024)).toInt // 每个分区约128MB // 策略3:综合考虑 val optimalPartitions = math.max( math.min(partitions1, partitions2), clusterCores ) println(s"推荐分区数: $optimalPartitions") ``` **分区调优实践:** ```scala // 1. 避免分区过多导致的小文件问题 val rdd = sc.textFile("input/*", minPartitions = 100) val processed = rdd.map(processLine) .coalesce(20) // 减少分区数,避免产生过多小文件 .saveAsTextFile("output") // 2. 重分区优化 Shuffle 性能 val keyValueRDD = sc.parallelize(generateKeyValuePairs(), 200) val optimizedRDD = keyValueRDD .partitionBy(new HashPartitioner(50)) // 重分区 .cache() // 缓存重分区后的数据 // 后续操作将受益于合理的分区 val result1 = optimizedRDD.reduceByKey(_ + _) val result2 = optimizedRDD.groupByKey() // 3. 分区数据倾斜处理 def handleDataSkew[K, V](rdd: RDD[(K, V)]): RDD[(K, V)] = { // 检测数据倾斜 val partitionSizes = rdd.mapPartitions(iter => Iterator(iter.size)).collect() val avgSize = partitionSizes.sum / partitionSizes.length val maxSize = partitionSizes.max if (maxSize > avgSize * 3) { // 存在数据倾斜 println("检测到数据倾斜,进行重分区...") rdd.repartition(rdd.getNumPartitions * 2) } else { rdd } } ``` #### 3.1.4 数据本地性优化 数据本地性是 Spark 性能优化的关键因素,用于尽可能在数据所在节点就地计算,减少网络传输与 IO 开销。 **本地性级别定义:** ```scala object TaskLocality extends Enumeration { val PROCESS_LOCAL = Value("PROCESS_LOCAL") // 进程本地 val NODE_LOCAL = Value("NODE_LOCAL") // 节点本地 val NO_PREF = Value("NO_PREF") // 无偏好 val RACK_LOCAL = Value("RACK_LOCAL") // 机架本地 val ANY = Value("ANY") // 任意位置 } ``` **本地性实现示例:** ```scala // HadoopRDD 的本地性实现(简化版) class HadoopRDD[K, V] extends RDD[(K, V)] { override def getPreferredLocations(split: Partition): Seq[String] = { // 获取分片所在的主机列表 val hsplit = split.asInstanceOf[HadoopPartition] hsplit.inputSplit.value.getLocations.filter(_ != "localhost") } } ``` **本地性调度策略:** ```scala // TaskSetManager 中的本地性调度逻辑(简化版) private def getAllowedLocalityLevel(curTime: Long): TaskLocality = { // 默认从最高级别的本地性开始 var locality = PROCESS_LOCAL // 如果等待时间超过阈值,则逐步降低本地性级别 if (curTime - lastLaunchTime > NODE_LOCAL_WAIT) { locality = NODE_LOCAL } if (curTime - lastLaunchTime > RACK_LOCAL_WAIT) { locality = RACK_LOCAL } if (curTime - lastLaunchTime > ANY_WAIT) { locality = ANY } locality } ``` #### 3.1.5 RDD 的内部实现机制 基于 Spark 源码,让我们深入了解 RDD 的内部实现: **RDD 抽象类的完整定义:** ```scala // RDD 抽象类的简化定义 /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala * 类:org.apache.spark.rdd.RDD(简化示例) */ abstract class RDD[T: ClassTag]( sc: SparkContext, deps: Seq[Dependency[_]] ) extends Serializable { // 核心抽象方法:计算分区 def compute(split: Partition, context: TaskContext): Iterator[T] // 核心抽象方法:获取分区列表 protected def getPartitions: Array[Partition] // 可选实现:获取依赖关系 protected def getDependencies: Seq[Dependency[_]] = deps // 可选实现:获取分区的首选位置 protected def getPreferredLocations(split: Partition): Seq[String] = Nil // 可选实现:分区器 val partitioner: Option[Partitioner] = None } ``` **具体 RDD 实现示例 - ParallelCollectionRDD:** ```scala // ParallelCollectionRDD 的简化实现 private[spark] class ParallelCollectionRDD[T: ClassTag]( sc: SparkContext, data: Seq[T], numSlices: Int ) extends RDD[T](sc, Nil) { // 将数据切分成多个分区 override def getPartitions: Array[Partition] = { val slices = ParallelCollectionRDD.slice(data, numSlices) slices.indices.map(i => new ParallelCollectionPartition(id, i, slices(i))).toArray } // 计算分区的数据 override def compute(s: Partition, context: TaskContext): Iterator[T] = { s.asInstanceOf[ParallelCollectionPartition[T]].iterator } } ``` **RDD 分区的实现:** ```scala // 分区接口 trait Partition extends Serializable { def index: Int // 分区索引 } // ParallelCollection 的分区实现 private[spark] class ParallelCollectionPartition[T: ClassTag]( val rddId: Long, val slice: Int, values: Seq[T]) extends Partition with Serializable { def iterator: Iterator[T] = values.iterator override def hashCode(): Int = (41 * (41 + rddId) + slice).toInt override def equals(other: Any): Boolean = other match { case that: ParallelCollectionPartition[_] => this.rddId == that.rddId && this.slice == that.slice case _ => false } override def index: Int = slice } ``` ### 3.2 RDD 操作与转换机制 RDD 提供了两种类型的操作:Transformation(转换)和 Action(行动)。理解这两种操作的区别和内部实现机制是掌握 Spark 的关键。 #### 3.2.1 Transformation 操作详解 Transformation 操作是惰性的(Lazy Evaluation),它们不会立即执行计算,而是构建一个计算的有向无环图(DAG)。这种设计带来了显著的性能优势。 **惰性求值的实现原理:** ```scala // Transformation 操作的核心思想:创建新的 RDD 包装原始 RDD /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala、core/src/main/scala/org/apache/spark/rdd/MapPartitionsRDD.scala * 类:org.apache.spark.rdd.RDD、org.apache.spark.rdd.MapPartitionsRDD(概念化简) */ abstract class RDD[T] { // map 操作:创建新的 RDD,延迟执行映射函数 def map[U](f: T => U): RDD[U] = new MapPartitionsRDD[U, T](this, f) // filter 操作:创建新的 RDD,延迟执行过滤函数 def filter(f: T => Boolean): RDD[T] = new FilteredRDD[T](this, f) // flatMap 操作:创建新的 RDD,延迟执行扁平化映射 def flatMap[U](f: T => Iterable[U]): RDD[U] = new FlatMappedRDD[U, T](this, f) } // MapPartitionsRDD 的简化实现 class MapPartitionsRDD[U, T](prev: RDD[T], mapFunc: T => U) extends RDD[U](prev) { // 复用父 RDD 的分区 override def getPartitions = prev.partitions // 计算时应用映射函数 override def compute(split: Partition, context: TaskContext) = prev.iterator(split, context).map(mapFunc) } ``` **常用 Transformation 操作详解:** 1. **基础转换操作**: ```scala val sourceRDD = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)) // 1. map:一对一转换 val squaredRDD = sourceRDD.map(x => x * x) // 内部实现:每个分区独立处理,保持分区结构 // 2. filter:条件过滤 val evenRDD = sourceRDD.filter(x => x % 2 == 0) // 内部实现:保持分区数不变,但每个分区的元素数可能减少 // 3. flatMap:一对多转换 val textRDD = sc.parallelize(List("hello world", "spark scala", "big data")) val wordsRDD = textRDD.flatMap(line => line.split(" ")) // 内部实现:将嵌套结构扁平化 // 4. mapPartitions:分区级别的转换 val partitionSumsRDD = sourceRDD.mapPartitions { iter => val sum = iter.sum Iterator(sum) } // 内部实现:对整个分区进行操作,可以进行分区级别的优化 // 5. mapPartitionsWithIndex:带分区索引的转换 val indexedRDD = sourceRDD.mapPartitionsWithIndex { (index, iter) => iter.map(value => s"Partition-$index: $value") } ``` 2. **键值对 RDD 的转换操作**: ```scala val pairRDD = sc.parallelize(List(("a", 1), ("b", 2), ("a", 3), ("c", 4), ("b", 5))) // 1. groupByKey:按键分组(会产生 Shuffle) val groupedRDD = pairRDD.groupByKey() // 结果:("a", Iterable(1, 3)), ("b", Iterable(2, 5)), ("c", Iterable(4)) // 2. reduceByKey:按键聚合(会产生 Shuffle,但有预聚合优化) val reducedRDD = pairRDD.reduceByKey(_ + _) // 结果:("a", 4), ("b", 7), ("c", 4) // 3. aggregateByKey:自定义聚合(会产生 Shuffle) val aggregatedRDD = pairRDD.aggregateByKey(0)( (acc, value) => acc + value, // 分区内聚合 (acc1, acc2) => acc1 + acc2 // 分区间聚合 ) // 4. combineByKey:最灵活的聚合操作 val combinedRDD = pairRDD.combineByKey( (value: Int) => List(value), // 创建组合器 (acc: List[Int], value: Int) => value :: acc, // 分区内合并 (acc1: List[Int], acc2: List[Int]) => acc1 ::: acc2 // 分区间合并 ) // 5. join 系列操作 val rdd1 = sc.parallelize(List(("a", 1), ("b", 2), ("c", 3))) val rdd2 = sc.parallelize(List(("a", "x"), ("b", "y"), ("d", "z"))) val innerJoinRDD = rdd1.join(rdd2) // 内连接 val leftJoinRDD = rdd1.leftOuterJoin(rdd2) // 左外连接 val rightJoinRDD = rdd1.rightOuterJoin(rdd2) // 右外连接 val fullJoinRDD = rdd1.fullOuterJoin(rdd2) // 全外连接 ``` 3. **高级转换操作**: ```scala // 1. coalesce:减少分区数(无 Shuffle) val coalescedRDD = sourceRDD.coalesce(2) // 2. repartition:重新分区(有 Shuffle) val repartitionedRDD = sourceRDD.repartition(8) // 3. partitionBy:按分区器重新分区 val partitionedRDD = pairRDD.partitionBy(new HashPartitioner(4)) // 4. sample:随机采样 val sampledRDD = sourceRDD.sample(withReplacement = false, fraction = 0.5, seed = 42) // 5. union:合并 RDD val unionRDD = sourceRDD.union(evenRDD) // 6. intersection:交集(会产生 Shuffle) val intersectionRDD = sourceRDD.intersection(evenRDD) // 7. subtract:差集(会产生 Shuffle) val subtractRDD = sourceRDD.subtract(evenRDD) // 8. cartesian:笛卡尔积 val cartesianRDD = sourceRDD.cartesian(evenRDD) ``` #### 3.2.2 惰性求值原理 **惰性求值的优势和实现:** ```scala // 惰性求值允许 Spark 进行查询优化 public class LazyEvaluationDemo { public static void demonstrateLazyEvaluation() { SparkConf conf = new SparkConf().setAppName("LazyEvaluationDemo"); JavaSparkContext sc = new JavaSparkContext(conf); // 构建复杂的转换链,但不会立即执行 JavaRDD<String> textRDD = sc.textFile("large-dataset.txt"); JavaRDD<String> filteredRDD = textRDD .filter(line -> line.contains("ERROR")) // 过滤错误日志 .filter(line -> line.contains("2023")) // 过滤2023年的日志 .map(line -> line.toUpperCase()) // 转换为大写 .filter(line -> line.length() > 100); // 过滤长度大于100的行 // 此时还没有读取任何数据,只是构建了计算图 System.out.println("计算图构建完成,但尚未执行"); // 只有调用 Action 时才开始执行 long errorCount = filteredRDD.count(); // 触发实际计算 System.out.println("错误日志数量: " + errorCount); // Spark 会优化执行计划: // 1. 将多个 filter 操作合并 // 2. 将 filter 和 map 操作流水线化 // 3. 避免不必要的中间数据存储 } } ``` #### 3.2.3 Action 操作的立即执行机制 Action 操作会触发 RDD 的计算并返回结果给 Driver 程序或将数据写入外部存储系统。 **Action 操作的实现原理:** ```scala // Action 操作的核心实现:触发 Job 执行 /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala、core/src/main/scala/org/apache/spark/SparkContext.scala * 类:org.apache.spark.rdd.RDD、org.apache.spark.SparkContext */ abstract class RDD[T] { // collect 操作:将所有分区数据拉取到 Driver def collect(): Array[T] = { // 1. 创建一个 Job // 2. 在每个分区上执行任务,将分区数据转换为数组 // 3. 将所有分区的结果合并,返回最终数组 sc.runJob(this, (iter: Iterator[T]) => iter.toArray).flatten } // count 操作:计算 RDD 中的元素总数 def count(): Long = { // 1. 在每个分区上计算元素数量 // 2. 将所有分区的计数结果相加 sc.runJob(this, (iter: Iterator[T]) => iter.size).sum } // reduce 操作:对 RDD 中的元素进行聚合 def reduce(f: (T, T) => T): T = { // 1. 在每个分区内进行局部聚合 val localResults = sc.runJob(this, (iter: Iterator[T]) => iter.reduce(f)) // 2. 在 Driver 端对所有分区的结果进行最终聚合 localResults.reduce(f) } } ``` **常用 Action 操作详解:** 1. **数据收集操作**: ```scala val sourceRDD = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)) // 1. collect:收集所有元素到 Driver(注意内存限制) val allElements = sourceRDD.collect() // 内部实现:在每个分区执行 iter.toArray,然后合并结果 // 2. take:获取前 n 个元素 val firstThree = sourceRDD.take(3) // 内部实现:逐个分区扫描,直到收集到足够的元素 // 3. first:获取第一个元素 val firstElement = sourceRDD.first() // 内部实现:等价于 take(1).head // 4. top:获取最大的 n 个元素 val topThree = sourceRDD.top(3) // 内部实现:使用优先队列在每个分区找到 top-n,然后合并 // 5. takeOrdered:获取最小的 n 个元素 val smallestThree = sourceRDD.takeOrdered(3) // 6. takeSample:随机采样 val randomSample = sourceRDD.takeSample(withReplacement = false, num = 3, seed = 42) ``` 2. **聚合计算操作**: ```scala // 1. count:计算元素总数 val totalCount = sourceRDD.count() // 内部实现:在每个分区计算元素数量,然后求和 // 2. reduce:聚合所有元素 val sum = sourceRDD.reduce(_ + _) // 内部实现:先在每个分区内聚合,然后在 Driver 端聚合分区结果 // 3. fold:带初始值的聚合 val foldResult = sourceRDD.fold(0)(_ + _) // 注意:初始值会在每个分区和最终聚合中都使用 // 4. aggregate:自定义聚合 val (sum, count) = sourceRDD.aggregate((0, 0))( (acc, value) => (acc._1 + value, acc._2 + 1), // 分区内聚合 (acc1, acc2) => (acc1._1 + acc2._1, acc1._2 + acc2._2) // 分区间聚合 ) val average = sum.toDouble / count // 5. treeReduce:树形聚合(适用于深度较大的情况) val treeSum = sourceRDD.treeReduce(_ + _) // 内部实现:使用树形结构减少 Driver 端的压力 // 6. treeAggregate:树形自定义聚合 val treeResult = sourceRDD.treeAggregate(0)(_ + _, _ + _) ``` 3. **键值对 RDD 的 Action 操作**: ```scala val pairRDD = sc.parallelize(List(("a", 1), ("b", 2), ("a", 3), ("c", 4))) // 1. countByKey:按键计数 val keyCount = pairRDD.countByKey() // 结果:Map("a" -> 2, "b" -> 1, "c" -> 1) // 2. collectAsMap:收集为 Map val asMap = pairRDD.collectAsMap() // 注意:如果有重复键,只保留一个值 // 3. lookup:查找指定键的所有值 val valuesForA = pairRDD.lookup("a") // 结果:Seq(1, 3) // 4. keys:获取所有键 val allKeys = pairRDD.keys.collect() // 5. values:获取所有值 val allValues = pairRDD.values.collect() ``` 4. **输出操作**: ```scala // 1. saveAsTextFile:保存为文本文件 sourceRDD.saveAsTextFile("hdfs://output/text") // 2. saveAsSequenceFile:保存为 Sequence 文件(键值对 RDD) pairRDD.saveAsSequenceFile("hdfs://output/sequence") // 3. saveAsObjectFile:保存为对象文件 sourceRDD.saveAsObjectFile("hdfs://output/object") // 4. foreach:对每个元素执行操作(用于副作用) sourceRDD.foreach(element => { // 执行副作用操作,如写入数据库 println(s"Processing: $element") }) // 5. foreachPartition:对每个分区执行操作 sourceRDD.foreachPartition(partition => { // 分区级别的操作,如批量写入数据库 val connection = getDBConnection() partition.foreach(element => { insertToDB(connection, element) }) connection.close() }) ``` **Action 操作的执行流程:** ```scala // Action 操作触发作业执行的完整流程 public class ActionExecutionFlow { public static void demonstrateActionExecution() { SparkConf conf = new SparkConf().setAppName("ActionExecutionDemo"); JavaSparkContext sc = new JavaSparkContext(conf); // 1. 构建 RDD 转换链 JavaRDD<Integer> sourceRDD = sc.parallelize(Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)); JavaRDD<Integer> transformedRDD = sourceRDD .filter(x -> x % 2 == 0) .map(x -> x * x); // 2. 调用 Action 操作触发执行 List<Integer> result = transformedRDD.collect(); // 执行流程: // a) SparkContext.runJob() 被调用 // b) DAGScheduler 分析 RDD 依赖关系,构建 DAG // c) DAGScheduler 将 DAG 划分为 Stage // d) TaskScheduler 将 Stage 中的 Task 分发到 Executor // e) Executor 执行 Task,计算 RDD 分区 // f) 结果返回给 Driver System.out.println("执行结果: " + result); } } ``` #### 3.2.4 Action 操作的性能优化 **Action 操作的性能优化:** ```scala // Action 操作的性能优化策略 public class ActionOptimization { public static void optimizeActionOperations() { SparkConf conf = new SparkConf().setAppName("ActionOptimization"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> largeRDD = sc.textFile("large-dataset.txt"); // 1. 避免多次 Action 导致重复计算 JavaRDD<String> processedRDD = largeRDD .filter(line -> line.contains("ERROR")) .map(String::toUpperCase); // 错误做法:每次 Action 都会重新计算 long count1 = processedRDD.count(); List<String> sample1 = processedRDD.take(10); // 正确做法:缓存中间结果 processedRDD.cache(); // 缓存计算结果 long count2 = processedRDD.count(); // 第一次计算并缓存 List<String> sample2 = processedRDD.take(10); // 从缓存读取 // 2. 使用 treeReduce 替代 reduce(适用于大规模数据) JavaRDD<Integer> numbersRDD = sc.parallelize(IntStream.range(1, 1000000).boxed().collect(Collectors.toList())); // 普通 reduce:所有分区结果都发送到 Driver int sum1 = numbersRDD.reduce((a, b) -> a + b); // treeReduce:使用树形结构,减少 Driver 压力 int sum2 = numbersRDD.treeReduce((a, b) -> a + b); // 3. 合理选择 Action 操作 // 如果只需要检查数据是否存在,使用 isEmpty() 而不是 count() > 0 boolean hasData = !processedRDD.isEmpty(); // 更高效 // boolean hasData = processedRDD.count() > 0; // 效率较低 // 如果只需要部分数据,使用 take() 而不是 collect() List<String> preview = processedRDD.take(100); // 只获取前100个 // List<String> all = processedRDD.collect(); // 获取所有数据,可能导致内存溢出 } } ``` ### 3.3 RDD 依赖与容错机制 RDD 之间的依赖关系是 Spark 计算模型的核心,它决定了数据如何在集群中流动,以及 Spark 如何进行任务调度和容错恢复。理解依赖关系对于优化 Spark 应用程序至关重要。 #### 3.3.1 依赖关系的基础概念 **依赖关系的定义和作用:** ```scala // Dependency 抽象类的核心实现 /** * 源代码:core/src/main/scala/org/apache/spark/Dependency.scala * 类:org.apache.spark.Dependency、org.apache.spark.NarrowDependency */ abstract class Dependency[T] extends Serializable { def rdd: RDD[T] // 父 RDD 的引用 } // 窄依赖的抽象类 abstract class NarrowDependency[T](_rdd: RDD[T]) extends Dependency[T] { /** * 获取子 RDD 分区对应的父 RDD 分区列表 * 对于窄依赖,每个子分区最多依赖父 RDD 的一个分区 */ def getParents(partitionId: Int): Seq[Int] override def rdd: RDD[T] = _rdd } // 宽依赖的实现类(简化版) /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/ShuffleDependency.scala * 类:org.apache.spark.ShuffleDependency */ class ShuffleDependency[K, V, C]( val rdd: RDD[(K, V)], val partitioner: Partitioner ) extends Dependency[(K, V)] { // Shuffle ID,用于唯一标识一个 Shuffle 过程 val shuffleId: Int = rdd.context.newShuffleId() } ``` #### 3.3.2 窄依赖(Narrow Dependency)详解 窄依赖是指父 RDD 的每个分区最多被子 RDD 的一个分区使用,这种依赖关系允许在同一个节点上进行流水线执行 [20]。 **窄依赖的类型和实现:** 1. **OneToOneDependency(一对一依赖)**: ```scala // 一对一依赖的实现 /** * 源代码:core/src/main/scala/org/apache/spark/Dependency.scala * 类:org.apache.spark.OneToOneDependency */ class OneToOneDependency[T](rdd: RDD[T]) extends NarrowDependency[T](rdd) { override def getParents(partitionId: Int): List[Int] = List(partitionId) } // 使用示例:map、filter 等操作 val sourceRDD = sc.parallelize(List(1, 2, 3, 4, 5, 6), 3) val mappedRDD = sourceRDD.map(_ * 2) // 分区映射关系: // 子分区0 <- 父分区0: [1, 2] -> [2, 4] // 子分区1 <- 父分区1: [3, 4] -> [6, 8] // 子分区2 <- 父分区2: [5, 6] -> [10, 12] ``` 2. **RangeDependency(范围依赖)**: ```scala // 范围依赖的实现 /** * 源代码:core/src/main/scala/org/apache/spark/Dependency.scala * 类:org.apache.spark.RangeDependency */ class RangeDependency[T]( rdd: RDD[T], inStart: Int, // 父 RDD 起始分区 outStart: Int, // 子 RDD 起始分区 length: Int // 映射长度 ) extends NarrowDependency[T](rdd) { override def getParents(partitionId: Int): List[Int] = { if (partitionId >= outStart && partitionId < outStart + length) { List(partitionId - outStart + inStart) } else { Nil } } } // 使用示例:union 操作 val rdd1 = sc.parallelize(List(1, 2, 3, 4), 2) // 2个分区 val rdd2 = sc.parallelize(List(5, 6, 7, 8), 2) // 2个分区 val unionRDD = rdd1.union(rdd2) // 4个分区 // 分区映射关系: // 子分区0 <- 父分区0 (rdd1): [1, 2] // 子分区1 <- 父分区1 (rdd1): [3, 4] // 子分区2 <- 父分区0 (rdd2): [5, 6] // 子分区3 <- 父分区1 (rdd2): [7, 8] ``` **窄依赖的优势和应用场景:** ```scala // 窄依赖的性能优势演示 public class NarrowDependencyDemo { public static void demonstrateNarrowDependency() { SparkConf conf = new SparkConf().setAppName("NarrowDependencyDemo"); JavaSparkContext sc = new JavaSparkContext(conf); // 构建窄依赖链 JavaRDD<String> textRDD = sc.textFile("large-dataset.txt"); JavaRDD<String> processedRDD = textRDD .filter(line -> !line.isEmpty()) // 窄依赖:过滤 .map(String::toLowerCase) // 窄依赖:转换 .filter(line -> line.contains("error")) // 窄依赖:过滤 .map(line -> line.substring(0, Math.min(100, line.length()))); // 窄依赖:截取 // 优势1:流水线执行 - 所有操作在同一个 Task 中完成 // 优势2:无网络传输 - 数据在本地处理 // 优势3:容错高效 - 只需重新计算失败分区的父分区 List<String> result = processedRDD.collect(); // 执行特点: // 1. 四个 Transformation 操作会被合并到一个 Stage // 2. 每个 Task 处理一个分区,无需等待其他分区 // 3. 数据在内存中流式处理,无需落盘 } // 窄依赖的容错恢复示例 public static void demonstrateFaultTolerance() { // 假设分区2的计算失败 // 窄依赖只需要重新计算: // textRDD.partition(2) -> filter -> map -> filter -> map // 不需要重新计算其他分区或进行 Shuffle } } ``` #### 3.3.3 宽依赖(Wide Dependency)详解 宽依赖是指子 RDD 的分区依赖于父 RDD 的多个分区,这种依赖关系需要进行 Shuffle 操作来重新分布数据 [21]。 **宽依赖的实现和特征:** ```scala // ShuffleDependency 的详细实现 /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/ShuffleDependency.scala * 类:org.apache.spark.ShuffleDependency */ class ShuffleDependency[K: ClassTag, V: ClassTag, C: ClassTag]( @transient private val _rdd: RDD[_ <: Product2[K, V]], val partitioner: Partitioner, val serializer: Serializer = SparkEnv.get.serializer, val keyOrdering: Option[Ordering[K]] = None, val aggregator: Option[Aggregator[K, V, C]] = None, val mapSideCombine: Boolean = false, val shuffleWriterProcessor: ShuffleWriteProcessor = new ShuffleWriteProcessor) extends Dependency[Product2[K, V]] { // 核心属性 val shuffleId: Int = _rdd.context.newShuffleId() val numPartitions: Int = partitioner.numPartitions // Shuffle Handle 管理 Shuffle 的元数据 val shuffleHandle: ShuffleHandle = _rdd.context.env.shuffleManager.registerShuffle( shuffleId, _rdd.partitions.length, this) } ``` **常见的宽依赖操作:** 1. **groupByKey 操作**: ```scala // groupByKey 的宽依赖示例 JavaPairRDD<String, Integer> pairRDD = sc.parallelizePairs(Arrays.asList( new Tuple2<>("apple", 1), new Tuple2<>("banana", 2), new Tuple2<>("apple", 3), new Tuple2<>("cherry", 4), new Tuple2<>("banana", 5) ), 3); // 3个分区 // groupByKey 会产生宽依赖 JavaPairRDD<String, Iterable<Integer>> groupedRDD = pairRDD.groupByKey(2); // 2个分区 // Shuffle 过程: // 原分区0: [("apple", 1), ("banana", 2)] // 原分区1: [("apple", 3), ("cherry", 4)] // 原分区2: [("banana", 5)] // // 经过 Hash 分区器重新分布: // 新分区0: [("apple", [1, 3]), ("cherry", [4])] // 新分区1: [("banana", [2, 5])] ``` 2. **reduceByKey 操作**: ```scala // reduceByKey 的优化宽依赖 JavaPairRDD<String, Integer> reducedRDD = pairRDD.reduceByKey((a, b) -> a + b, 2); // reduceByKey 的优势:Map 端预聚合 // 原分区0: [("apple", 1), ("banana", 2)] -> 预聚合 -> [("apple", 1), ("banana", 2)] // 原分区1: [("apple", 3), ("cherry", 4)] -> 预聚合 -> [("apple", 3), ("cherry", 4)] // 原分区2: [("banana", 5)] -> 预聚合 -> [("banana", 5)] // // Shuffle 后: // 新分区0: [("apple", 4), ("cherry", 4)] // 1+3, 4 // 新分区1: [("banana", 7)] // 2+5 ``` 3. **join 操作**: ```scala // join 操作的宽依赖 JavaPairRDD<String, String> rdd1 = sc.parallelizePairs(Arrays.asList( new Tuple2<>("a", "1"), new Tuple2<>("b", "2"), new Tuple2<>("c", "3") )); JavaPairRDD<String, String> rdd2 = sc.parallelizePairs(Arrays.asList( new Tuple2<>("a", "x"), new Tuple2<>("b", "y"), new Tuple2<>("d", "z") )); JavaPairRDD<String, Tuple2<String, String>> joinedRDD = rdd1.join(rdd2); // join 需要将相同键的数据聚集到同一分区 // 结果: [("a", ("1", "x")), ("b", ("2", "y"))] ``` #### 3.3.4 容错恢复机制 Spark 通过血缘关系与存储层的协同,实现高效的容错恢复:优先读取检查点与缓存,否则基于血缘关系进行最小代价的重算。 ```scala // 来源:Spark 源码 org.apache.spark.rdd.RDD.scala 中 iterator / compute 逻辑(简化) /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala * 类:org.apache.spark.rdd.RDD#iterator(简化) */ abstract class RDD[T: ClassTag] { // 按优先级恢复或计算分区数据 final def iterator(split: Partition, context: TaskContext): Iterator[T] = { if (isCheckpointedAndMaterialized) { // 先从检查点恢复 firstParent[T].iterator(split, context) } else if (storageLevel != StorageLevel.NONE) { // 尝试从缓存获取,否则回退到计算 getOrCompute(split, context) } else { // 基于血缘关系执行 compute compute(split, context) } } // 子类实现具体计算逻辑 protected def compute(split: Partition, context: TaskContext): Iterator[T] } ``` 实践流程示例: ```scala // 来源:Spark Programming Guide 与 DAGScheduler 实现逻辑(简化演示) val textRDD = sc.textFile("input.txt") val wordsRDD = textRDD.flatMap(_.split(" ")) val pairsRDD = wordsRDD.map((_, 1)).persist(StorageLevel.MEMORY_AND_DISK_SER) val countsRDD = pairsRDD.reduceByKey(_ + _) // 触发计算 countsRDD.collect() // 故障恢复路径(某分区丢失): // 1) 尝试从 pairsRDD 缓存读取; // 2) 若缓存缺失,追溯血缘到 wordsRDD / textRDD 重算; // 3) 若链路很长,建议在关键节点设置检查点。 ``` 数据来源: - Spark 源码:`core/src/main/scala/org/apache/spark/rdd/RDD.scala` - Spark 官方文档:RDD Programming Guide(惰性求值、持久化、检查点) #### 3.3.5 容错优化策略与实践 针对长血缘链与高重算成本场景,推荐如下策略并给出代码示例: ```scala // 1) 检查点:截断过长血缘链,降低重算成本 sc.setCheckpointDir("hdfs://checkpoint") // 来源:Spark 文档 val longChainRDD = sc.textFile("input") .map(process1).filter(f1) .map(process2).filter(f2) .map(process3).filter(f3) longChainRDD.checkpoint() // 2) 多级缓存:为关键中间结果设置合适的存储级别 val criticalRDD = sourceRDD.map(expensive).persist(StorageLevel.MEMORY_AND_DISK_2) // 3) 血缘分析:辅助定位重算热点与过深链路 def analyzeLineage(rdd: RDD[_], depth: Int = 0): Unit = { val indent = " " * depth println(s"$indent${rdd.getClass.getSimpleName}[${rdd.id}] (${rdd.partitions.length} partitions)") rdd.dependencies.foreach { case n: NarrowDependency[_] => println(s"$indent └─ 窄依赖") analyzeLineage(n.rdd, depth + 1) case s: ShuffleDependency[_, _, _] => println(s"$indent └─ 宽依赖 (Shuffle ID: ${s.shuffleId})") analyzeLineage(s.rdd, depth + 1) } } // 4) 监控血缘深度:过深则预警与检查点 def monitorLineageDepth(rdd: RDD[_]): Int = { def depthOf(r: RDD[_], d: Int): Int = if (r.dependencies.isEmpty) d else r.dependencies.map(dep => depthOf(dep.rdd, d + 1)).max val depth = depthOf(rdd, 0) if (depth > 20) println(s"警告:血缘关系过深 ($depth),建议设置检查点") depth } ``` 数据来源: - Spark 源码:`RDD.scala` 依赖结构、`DAGScheduler.scala` Stage 划分与调度 - Spark 官方文档:`Persist/Checkpoint` 策略与建议 ### 3.4 RDD 性能优化实战 #### 3.4.1 分区与并行度优化 优化分区数与并行度可以显著提升吞吐与资源利用率: ```scala // 设置默认并行度(来源:Spark Conf) val conf = new SparkConf().set("spark.default.parallelism", "8") val sc = new SparkContext(conf) val rdd = sc.textFile("hdfs:///path", minPartitions = 8) // 合理重分区:无 Shuffle 合并 / 有 Shuffle 扩容 val shrink = rdd.coalesce(4) // 无 Shuffle,适合收缩分区 val expand = rdd.repartition(16) // 有 Shuffle,适合扩容分区 // mapPartitions:重计算开销大的场景使用分区级处理 val batched = rdd.mapPartitions { iter => val batch = new ArrayBuffer[String]() iter.grouped(1000).foreach(g => batch ++= g) batch.iterator } ``` 建议: - `spark.default.parallelism` 与数据规模、集群核心数对齐; - 对 IO 密集操作优先使用 `mapPartitions` 降低函数开销; - 缩分区用 `coalesce`,扩分区用 `repartition`; - SQL 场景调整 `spark.sql.shuffle.partitions`(默认 200)。 数据来源:Spark 官方文档(配置与并行度建议)。 #### 3.4.2 缓存与序列化策略 为高重复访问的中间结果选择合适的缓存与序列化方式: ```scala // 缓存策略(来源:RDD.persist 文档) val cached1 = rdd.persist(StorageLevel.MEMORY_ONLY) val cached2 = rdd.persist(StorageLevel.MEMORY_AND_DISK_SER) // 推荐:启用 Kryo 序列化(来源:Spark Serialization 文档) val conf = new SparkConf() .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer") .registerKryoClasses(Array(classOf[MyClass])) // 避免 collect 大规模数据:使用 take / sample 预览 val preview = rdd.take(100) ``` 建议: - 计算昂贵且复用的 RDD 优先 `persist`; - 大对象使用 `*_SER` 等序列化存储级别; - Driver 端避免 `collect` 全量数据,改用 `take` 或落盘。 数据来源:Spark 官方文档(Persistence 与 Serialization)。 Shuffle 是 Spark 中最复杂和最耗时的操作之一,它涉及数据的重新分布、网络传输、磁盘 I/O 等多个方面。理解其内部机制对性能优化至关重要。 #### 3.4.3 Shuffle 概述与演进历程 [23] **Shuffle 的本质**: Shuffle 是将数据从一个分区重新分布到另一个分区的过程,通常发生在需要跨分区聚合或连接数据的操作中。 **Spark Shuffle 的演进历程**: ```scala // Spark 的 Shuffle 演进 // 1. Hash-based Shuffle (Spark 0.8-1.1) - 已废弃 // 2. Sort-based Shuffle (Spark 1.2+) - 当前默认 // 3. Tungsten Sort Shuffle (Spark 1.4+) - 特定条件下的优化版本 /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/ShuffleManager.scala * 类:org.apache.spark.shuffle.ShuffleManager(接口) */ abstract class ShuffleManager { def registerShuffle[K, V, C]( shuffleId: Int, numMaps: Int, dependency: ShuffleDependency[K, V, C]): ShuffleHandle def getWriter[K, V]( handle: ShuffleHandle, mapId: Int, context: TaskContext): ShuffleWriter[K, V] def getReader[K, C]( handle: ShuffleHandle, startPartition: Int, endPartition: Int, context: TaskContext): ShuffleReader[K, C] } ``` #### 3.4.4 Shuffle Write 过程详解 [24] **ShuffleMapTask 的执行流程**: ```scala // ShuffleMapTask 是执行 Shuffle Write 的核心组件 /** * 源代码:core/src/main/scala/org/apache/spark/scheduler/ShuffleMapTask.scala * 类:org.apache.spark.scheduler.ShuffleMapTask */ class ShuffleMapTask(...) extends Task[MapStatus](...) { override def runTask(context: TaskContext): MapStatus = { // 1. 反序列化 RDD 和依赖项 val (rdd, dep) = deserialize(taskBinary) // 2. 获取 Shuffle Writer val writer = SparkEnv.get.shuffleManager.getWriter(dep.shuffleHandle, mapId, context) // 3. 写入分区数据 writer.write(rdd.iterator(partition, context)) // 4. 停止写入并返回 MapStatus writer.stop(success = true).get } } ``` **1. Hash-based Shuffle(已废弃)的问题分析**: ```scala // Hash-based Shuffle 的核心问题 // 文件数 = M * R(M 个 Map Task,R 个 Reduce Task) // 当 M=1000, R=1000 时,会产生 1,000,000 个文件! /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/hash/HashShuffleWriter.scala(已废弃) * 类:org.apache.spark.shuffle.hash.HashShuffleWriter */ class HashShuffleWriter[K, V] extends ShuffleWriter[K, V] { // 问题1:为每个 Reduce Task 创建一个内存缓冲区 private val buffers = Array.fill(numPartitions)(new ArrayBuffer[(K, V)]) override def write(records: Iterator[Product2[K, V]]): Unit = { // 问题2:将所有数据缓存在内存中,容易导致 OOM for (record <- records) { buffers(partitioner.getPartition(record._1)) += record } // 问题3:为每个分区写入一个单独的文件,导致大量小文件 for (i <- buffers.indices) { writeToFile(buffers(i), getFile(i)) // 产生 M * R 个文件 } } } ``` **2. Sort-based Shuffle(当前默认)的优化方案**: ```scala // Sort-based Shuffle 的核心优势 // 文件数 = 2 * M(每个 Map Task 生成数据文件和索引文件) // 当 M=1000 时,只产生 2,000 个文件,大大减少了文件数量 /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/sort/SortShuffleWriter.scala * 类:org.apache.spark.shuffle.sort.SortShuffleWriter */ class SortShuffleWriter[K, V, C] extends ShuffleWriter[K, V] { // 核心优势1:使用 ExternalSorter 进行排序和可选的预聚合 private val sorter = new ExternalSorter[K, V, C](...) override def write(records: Iterator[Product2[K, V]]): Unit = { // 1. 将所有记录插入到 sorter 中 // sorter 会在内存中对数据进行排序,并在内存不足时溢写到磁盘 sorter.insertAll(records) // 2. 写入单个数据文件和索引文件 // 核心优势2:每个 Map Task 只生成一个数据文件和一个索引文件 val (dataFile, indexFile) = createOutputFiles() sorter.writePartitionedFile(dataFile, indexFile) } } ``` **3. ExternalSorter 的核心实现机制**: ```scala // ExternalSorter 是 Sort-based Shuffle 的核心组件 /** * 源代码:core/src/main/scala/org/apache/spark/util/collection/ExternalSorter.scala * 类:org.apache.spark.util.collection.ExternalSorter */ class ExternalSorter[K, V, C] { // 内存缓冲区,用于存储和排序数据 private var map = new PartitionedAppendOnlyMap[K, C] // 磁盘溢写文件列表 private val spills = new ArrayBuffer[SpilledFile] def insertAll(records: Iterator[Product2[K, V]]): Unit = { for (record <- records) { // 1. 将数据插入到内存缓冲区 map.insert(record._1, record._2) // 2. 如果内存不足,则将数据溢写到磁盘 if (shouldSpill(map.estimateSize)) { spillToDisk() } } } private def spillToDisk(): Unit = { // 1. 对内存中的数据进行排序 val sortedRecords = map.destructiveSortedIterator() // 2. 将排序后的数据写入磁盘文件 val file = writeToDisk(sortedRecords) spills += file // 3. 清空内存缓冲区 map = new PartitionedAppendOnlyMap[K, C] } def writePartitionedFile(dataFile: File, indexFile: File): Unit = { // 1. 如果发生过溢写,则合并所有溢写文件和内存中的数据 if (spills.nonEmpty) { mergeSpillsAndMemory(dataFile, indexFile) } else { // 2. 否则,直接将内存中的数据写入文件 writeInMemoryData(dataFile, indexFile) } } } ``` **4. Tungsten Sort Shuffle 的进一步优化**: ```scala // Tungsten Sort Shuffle 的适用条件: // 1. 不需要 Map 端聚合 // 2. 分区数不超过 16777216 (2^24) // 3. 序列化器支持序列化后的记录重定位 /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/unsafe/UnsafeShuffleWriter.scala * 类:org.apache.spark.shuffle.unsafe.UnsafeShuffleWriter */ class UnsafeShuffleWriter[K, V] extends ShuffleWriter[K, V] { // 核心优势:使用堆外内存进行排序,减少 GC 压力 private val sorter = new ShuffleExternalSorter(...) override def write(records: Iterator[Product2[K, V]]): Unit = { // 1. 序列化记录并插入到堆外排序器 for (record <- records) { sorter.insertRecord(record._1, record._2, ...) } // 2. 写入排序后的数据 sorter.closeAndWriteOutput(...) } } // ShuffleExternalSorter 使用堆外内存和指针排序 /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/unsafe/ShuffleExternalSorter.scala * 类:org.apache.spark.shuffle.unsafe.ShuffleExternalSorter */ class ShuffleExternalSorter { // 使用 MemoryBlock 存储序列化后的记录(堆外内存) private var allocatedPages = new ArrayBuffer[MemoryBlock] // 使用 LongArray 存储指针和分区信息 // 高 24 位:分区 ID,低 40 位:记录地址 private var inMemSorter: ShuffleInMemorySorter = null def insertRecord(key: Any, value: Any, partitionId: Int): Unit = { // 1. 序列化记录 val serializedRecord = serialize(key, value) // 2. 分配堆外内存并存储记录 val recordAddress = allocateMemory(serializedRecord.length) copyMemory(serializedRecord, recordAddress) // 3. 将指针和分区信息编码后插入到排序数组 val encodedAddress = (partitionId.toLong << 40) | recordAddress inMemSorter.insertRecord(encodedAddress) } } } ``` #### 3.4.5 Shuffle Read 过程详解 [25] Shuffle Read 是 Reduce Task 从 Map Task 的输出中读取属于自己分区的数据的过程。这个过程涉及网络传输、数据反序列化、聚合和排序等多个步骤: **1. BlockStoreShuffleReader 的核心实现**: ```scala /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/BlockStoreShuffleReader.scala * 类:org.apache.spark.shuffle.BlockStoreShuffleReader */ class BlockStoreShuffleReader[K, C] extends ShuffleReader[K, C] { override def read(): Iterator[Product2[K, C]] = { // 1. 从 MapOutputTracker 获取 Shuffle 块的位置信息 val blocksByAddress = MapOutputTracker.getMapSizesByExecutorId(...) // 2. 通过网络获取数据块 val blockFetcher = new ShuffleBlockFetcherIterator(...) // 3. 反序列化数据块 val recordIter = blockFetcher.flatMap(deserializeStream) // 4. 可选的聚合或排序 val aggregatedIter = if (aggregator.isDefined) { aggregator.get.combineValuesByKey(recordIter, ...) } else { recordIter } if (ordering.isDefined) { new ExternalSorter(...).insertAll(aggregatedIter).iterator } else { aggregatedIter } } } ``` **2. ShuffleBlockFetcherIterator 的数据获取策略**: ```scala /** * 源代码:core/src/main/scala/org/apache/spark/shuffle/ShuffleBlockFetcherIterator.scala * 类:org.apache.spark.shuffle.ShuffleBlockFetcherIterator */ class ShuffleBlockFetcherIterator( context: TaskContext, shuffleClient: ShuffleClient, blockManager: BlockManager, blocksByAddress: Iterator[(BlockManagerId, Seq[(BlockId, Long)])], streamWrapper: (BlockId, InputStream) => InputStream, readMetrics: ShuffleReadMetricsReporter, maxBytesInFlight: Long, maxReqsInFlight: Int, maxBlocksInFlightPerAddress: Int, maxReqSizeShuffleToMem: Long, detectCorrupt: Boolean) extends Iterator[(BlockId, InputStream)] with Logging { // 本地块和远程块的分离处理 private val localBlocks = new ArrayBuffer[BlockId]() private val hostLocalBlocks = new ArrayBuffer[BlockId]() private val remoteRequests = new Queue[FetchRequest]() // 初始化:分离本地块和远程块 private def initialize(): Unit = { val remoteReqs = splitLocalRemoteBlocks() // 添加远程请求到队列 remoteRequests ++= Utils.randomize(remoteReqs) // 立即获取本地块 fetchLocalBlocks() // 开始远程获取 sendRequest(fetchRequests.dequeue()) } // 分离本地块和远程块的策略 private def splitLocalRemoteBlocks(): ArrayBuffer[FetchRequest] = { val targetRequestSize = math.max(maxBytesInFlight / 5, 1L) val remoteRequests = new ArrayBuffer[FetchRequest] for ((address, blockInfos) <- blocksByAddress) { if (address.executorId == blockManager.blockManagerId.executorId) { // 本地块:直接从本地 BlockManager 读取 localBlocks ++= blockInfos.filter(_._2 != 0).map(_._1) } else if (address.host == blockManager.blockManagerId.host) { // 主机本地块:同一主机但不同 Executor hostLocalBlocks ++= blockInfos.filter(_._2 != 0).map(_._1) } else { // 远程块:需要通过网络获取 val iterator = blockInfos.iterator var curRequestSize = 0L var curBlocks = new ArrayBuffer[(BlockId, Long)] while (iterator.hasNext) { val (blockId, size) = iterator.next() if (size > 0) { curBlocks += ((blockId, size)) curRequestSize += size } else if (size < 0) { throw new BlockException(blockId, "Negative block size " + size) } // 当请求大小达到目标大小时,创建一个新的请求 if (curRequestSize >= targetRequestSize || curBlocks.size >= maxBlocksInFlightPerAddress) { remoteRequests += new FetchRequest(address, curBlocks.toSeq) curBlocks = new ArrayBuffer[(BlockId, Long)] curRequestSize = 0 } } // 添加剩余的块 if (curBlocks.nonEmpty) { remoteRequests += new FetchRequest(address, curBlocks.toSeq) } } } remoteRequests } // 获取本地块 private def fetchLocalBlocks(): Unit = { val iter = localBlocks.iterator while (iter.hasNext) { val blockId = iter.next() try { val buf = blockManager.getBlockData(blockId) shuffleMetrics.incLocalBlocksFetched(1) shuffleMetrics.incLocalBytesRead(buf.size) buf.retain() results.put(new SuccessFetchResult(blockId, blockManager.blockManagerId, 0, buf, false)) } catch { case e: Exception => logError(s"Error occurred while fetching local blocks", e) results.put(new FailureFetchResult(blockId, blockManager.blockManagerId, e)) } } } // 发送远程获取请求 private def sendRequest(req: FetchRequest): Unit = { def onBlockFetchSuccess(blockId: String, buf: ManagedBuffer): Unit = { // 成功获取远程块 val remainingBlocks = results.put(new SuccessFetchResult( BlockId(blockId), req.address, req.size, buf, true)) // 更新度量信息 shuffleMetrics.incRemoteBytesRead(buf.size) shuffleMetrics.incRemoteBlocksFetched(1) } def onBlockFetchFailure(blockId: String, e: Throwable): Unit = { // 远程块获取失败 results.put(new FailureFetchResult(BlockId(blockId), req.address, e)) } // 使用 ShuffleClient 发送请求 shuffleClient.fetchBlocks( req.address.host, req.address.port, req.address.executorId, req.blocks.map(_._1.toString).toArray, new BlockFetchingListener { override def onBlockFetchSuccess(blockId: String, buf: ManagedBuffer): Unit = { onBlockFetchSuccess(blockId, buf) } override def onBlockFetchFailure(blockId: String, exception: Throwable): Unit = { onBlockFetchFailure(blockId, exception) } }, tempFileManager) } } ``` **3. Shuffle Read 的性能优化策略**: ```scala // Java 示例:Shuffle Read 性能优化实践 /** * 源代码:org.apache.spark.sql.SparkSession(API 使用示例) * 类:org.apache.spark.sql.SparkSession */ public class ShuffleReadOptimization { public static void optimizeShuffleRead(SparkSession spark) { // 1. 调整 Shuffle Read 缓冲区大小 spark.conf().set("spark.reducer.maxSizeInFlight", "96m"); // 默认 48m // 2. 控制并发请求数量 spark.conf().set("spark.reducer.maxReqsInFlight", "3"); // 默认 Int.MaxValue // 3. 设置每个地址的最大块数 spark.conf().set("spark.reducer.maxBlocksInFlightPerAddress", "2147483647"); // 4. 启用 Shuffle 数据压缩 spark.conf().set("spark.shuffle.compress", "true"); spark.conf().set("spark.shuffle.spill.compress", "true"); // 5. 选择高效的序列化器 spark.conf().set("spark.serializer", "org.apache.spark.serializer.KryoSerializer"); // 示例:优化 Shuffle Read 操作 JavaRDD<String> largeRDD = sc.textFile("large_dataset.txt"); JavaPairRDD<String, Integer> pairRDD = largeRDD .mapToPair(line -> { String[] parts = line.split(","); return new Tuple2<>(parts[0], Integer.parseInt(parts[1])); }); // 避免数据倾斜的 Shuffle Read JavaPairRDD<String, Integer> resultRDD = pairRDD .repartition(200) // 预分区避免热点 .reduceByKey((a, b) -> a + b) // 按key聚合 .filter(tuple -> tuple._2() > 1000); // 在Shuffle后立即过滤 resultRDD.saveAsTextFile("optimized_result"); } // 自定义分区器减少 Shuffle Read 开销 public static class CustomPartitioner extends Partitioner { private final int numPartitions; public CustomPartitioner(int numPartitions) { this.numPartitions = numPartitions; } @Override public int numPartitions() { return numPartitions; } @Override public int getPartition(Object key) { // 自定义分区逻辑,避免数据倾斜 if (key instanceof String) { String strKey = (String) key; // 使用更均匀的哈希函数 return Math.abs(strKey.hashCode() * 31) % numPartitions; } return Math.abs(key.hashCode()) % numPartitions; } } } ``` #### 3.4.6 Shuffle 性能优化 **1. 调整 Shuffle 参数**: ```scala // Shuffle 写入缓冲区大小 spark.shuffle.file.buffer = 32k // Shuffle 读取缓冲区大小 spark.reducer.maxSizeInFlight = 48m // 并发请求数限制 spark.reducer.maxReqsInFlight = 5 // Shuffle 溢写阈值 spark.shuffle.spill.numElementsForceSpillThreshold = 1000000 // 压缩 Shuffle 输出 spark.shuffle.compress = true spark.shuffle.spill.compress = true ``` **2. 选择合适的序列化器**: ```scala // 使用 Kryo 序列化器提高性能 spark.serializer = org.apache.spark.serializer.KryoSerializer spark.kryo.registrator = MyKryoRegistrator class MyKryoRegistrator extends KryoRegistrator { override def registerClasses(kryo: Kryo) { kryo.register(classOf[MyClass]) kryo.register(classOf[MyOtherClass]) } } ``` **3. 优化分区策略**: ```scala // 自定义分区器减少数据倾斜 class CustomPartitioner(numPartitions: Int) extends Partitioner { override def getPartition(key: Any): Int = { key match { case str: String => // 使用更均匀的哈希函数 (str.hashCode & Integer.MAX_VALUE) % numPartitions case _ => (key.hashCode & Integer.MAX_VALUE) % numPartitions } } } val rdd = sc.parallelize(data) val partitioned = rdd.partitionBy(new CustomPartitioner(100)) ``` ### 3.5 RDD 缓存和持久化 #### 3.5.1 缓存机制 RDD 缓存是 Spark 性能优化的重要手段,特别适用于迭代算法和交互式查询: ```scala import org.apache.spark.storage.StorageLevel val rdd = sc.textFile("large_file.txt") val processedRDD = rdd.filter(_.nonEmpty).map(_.toLowerCase) // 缓存到内存 processedRDD.cache() // 等价于 persist(StorageLevel.MEMORY_ONLY) // 或者指定存储级别 processedRDD.persist(StorageLevel.MEMORY_AND_DISK_SER) // 多次使用缓存的 RDD val result1 = processedRDD.filter(_.contains("error")).count() val result2 = processedRDD.filter(_.contains("warning")).count() // 释放缓存 processedRDD.unpersist() ``` **存储级别详解:** ```scala // StorageLevel 定义了 RDD 的存储策略 class StorageLevel( useDisk: Boolean, // 是否使用磁盘 useMemory: Boolean, // 是否使用内存 useOffHeap: Boolean, // 是否使用堆外内存 deserialized: Boolean, // 是否以反序列化形式存储 replication: Int = 1 // 副本数量 ) // 常用存储级别示例 val MEMORY_ONLY = new StorageLevel(false, true, false, true) val MEMORY_AND_DISK_SER = new StorageLevel(true, true, false, false) ``` **缓存实现原理:** ```scala // RDD.persist() 的实现 def persist(newLevel: StorageLevel): this.type = { if (storageLevel != StorageLevel.NONE && newLevel != storageLevel) { logWarning(s"RDD $id was already marked for caching with level $storageLevel. " + s"The old level will be overridden with the new level: $newLevel") } sc.persistRDD(this) storageLevel = newLevel this } // SparkContext.persistRDD() 的实现 /** * 来源:core/src/main/scala/org/apache/spark/SparkContext.scala(伪代码概述) * 类:org.apache.spark.SparkContext#persistRDD(简化伪代码) */ private[spark] def persistRDD(rdd: RDD[_]) { persistentRdds(rdd.id) = rdd } // 实际的缓存逻辑在 BlockManager 中 /** * 源代码:core/src/main/scala/org/apache/spark/storage/BlockManager.scala * 类:org.apache.spark.storage.BlockManager#getOrElseUpdate(简化) */ class BlockManager { def getOrElseUpdate[T](blockId: BlockId, level: StorageLevel, makeIterator: () => Iterator[T]): Iterator[T] = { // 1. 尝试从缓存中获取 val cachedBlock = get(blockId) if (cachedBlock.isDefined) { return cachedBlock.get } // 2. 缓存中没有,计算数据 val iterator = makeIterator() // 3. 将计算结果存入缓存 put(blockId, iterator, level) // 4. 返回新计算的数据 get(blockId).get } } ``` **缓存选择策略:** | 存储级别 | 使用场景 | 优缺点 | | --------------- | ------------------------ | ----------------------------------- | | MEMORY_ONLY | 数据量小,内存充足 | 最快访问速度,但可能导致 OOM | | MEMORY_ONLY_SER | 数据量中等,需要节省内存 | 节省内存,但需要序列化/反序列化开销 | 来源说明:不同 Storage Level 的语义与适用场景参考 Spark 官方文档与源码注释(`StorageLevel.scala`)。 | MEMORY_AND_DISK | 数据量大,需要可靠性 | 平衡性能和可靠性 | | MEMORY_AND_DISK_SER | 数据量很大,内存有限 | 最节省内存,但性能较低 | | DISK_ONLY | 内存极度有限 | 最可靠,但访问速度慢 | #### 3.5.2 缓存策略和最佳实践 **1. 缓存时机选择**: ```scala val rdd = sc.textFile("large_file.txt") val processedRDD = rdd.filter(_.nonEmpty).map(_.toLowerCase) // 错误:过早缓存 processedRDD.cache() // 此时还没有计算,缓存无效 // 正确:在第一次使用前缓存 val result1 = processedRDD.filter(_.contains("error")).count() // 触发计算和缓存 val result2 = processedRDD.filter(_.contains("warning")).count() // 使用缓存 ``` **2. 缓存粒度控制**: ```scala // 缓存中间结果,避免重复计算 val baseRDD = sc.textFile("input.txt") .filter(_.nonEmpty) .map(_.toLowerCase) baseRDD.cache() // 缓存预处理后的数据 // 多个分支计算都可以使用缓存 val errorCount = baseRDD.filter(_.contains("error")).count() val warningCount = baseRDD.filter(_.contains("warning")).count() val infoCount = baseRDD.filter(_.contains("info")).count() ``` **3. 内存管理和监控**: ```scala // 监控缓存使用情况 val rdd = sc.textFile("input.txt").cache() rdd.count() // 触发缓存 // 检查缓存状态 println(s"RDD is cached: ${rdd.getStorageLevel != StorageLevel.NONE}") println(s"Storage level: ${rdd.getStorageLevel}") // 通过 Spark UI 监控内存使用 // http://driver-node:4040/storage/ ``` #### 3.5.3 Checkpoint 机制 Checkpoint 是将 RDD 数据持久化到可靠存储(如 HDFS)的机制,用于容错和优化长血缘链: ```scala // 设置 Checkpoint 目录 sc.setCheckpointDir("hdfs://namenode:port/checkpoint") val rdd = sc.textFile("input.txt") val processedRDD = rdd.filter(_.nonEmpty).map(_.toLowerCase) // 标记 RDD 进行 Checkpoint processedRDD.checkpoint() // 触发 Action,执行 Checkpoint val count = processedRDD.count() // Checkpoint 后,RDD 的血缘关系被截断 println(s"Dependencies after checkpoint: ${processedRDD.dependencies.length}") ``` **Checkpoint 实现原理:** ```scala // RDD.checkpoint() 的实现 def checkpoint(): Unit = RDDCheckpointData.synchronized { if (context.checkpointDir.isEmpty) { throw new SparkException("Checkpoint directory has not been set in the SparkContext") } else if (checkpointData.isEmpty) { checkpointData = Some(new ReliableRDDCheckpointData(this)) } } // ReliableRDDCheckpointData 的实现 class ReliableRDDCheckpointData[T](rdd: RDD[T]) { def doCheckpoint(): CheckpointRDD[T] = { // 1. 将 RDD 写入检查点目录 val newRDD = ReliableCheckpointRDD.writeRDDToCheckpointDirectory(rdd, checkpointDir) // 2. 截断 RDD 的血缘关系 rdd.markCheckpointed() // 3. 返回新的 CheckpointRDD newRDD } } ``` **Checkpoint vs Cache 对比:** | 特性 | Cache | Checkpoint | | -------- | ----------------- | ---------------------- | | 存储位置 | 内存/磁盘(本地) | 可靠存储(HDFS) | | 血缘关系 | 保留 | 截断 | | 容错能力 | 依赖血缘重算 | 直接从存储恢复 | | 性能开销 | 低 | 高(需要写入可靠存储) | | 适用场景 | 迭代计算 | 长血缘链,容错要求高 | ### 3.6 RDD 编程最佳实践 #### 3.6.1 性能优化技巧 **1. 避免创建不必要的对象**: ```scala // 低效:每次都创建新对象 val rdd = sc.parallelize(1 to 1000000) val result1 = rdd.map(x => new MyClass(x * 2)) // 高效:重用对象或使用基本类型 val result2 = rdd.map(x => x * 2) ``` **2. 使用高效的数据结构**: ```scala // 低效:使用 List 进行频繁的追加操作 val rdd = sc.parallelize(data) val result1 = rdd.mapPartitions { iter => var list = List[String]() for (item <- iter) { list = list :+ processItem(item) // O(n) 操作 } list.iterator } // 高效:使用 ArrayBuffer val result2 = rdd.mapPartitions { iter => val buffer = new ArrayBuffer[String]() for (item <- iter) { buffer += processItem(item) // O(1) 操作 } buffer.iterator } ``` **3. 合理使用 mapPartitions**: ```scala // 低效:每个元素都创建数据库连接 val rdd = sc.parallelize(data) val result1 = rdd.map { item => val connection = createDBConnection() // 每个元素都创建连接 val result = queryDB(connection, item) connection.close() result } // 高效:每个分区创建一次连接 val result2 = rdd.mapPartitions { iter => val connection = createDBConnection() // 每个分区创建一次连接 val results = iter.map(item => queryDB(connection, item)).toList connection.close() results.iterator } ``` #### 3.6.2 常见陷阱和解决方案 **1. 数据倾斜问题** [26]: ```scala // 问题:某些键的数据量过大 val skewedRDD = sc.parallelize(List( ("hot_key", 1), ("hot_key", 2), ("hot_key", 3), // 大量数据 ("normal_key", 1), ("other_key", 1) // 少量数据 )) // 解决方案1:加盐技术 val saltedRDD = skewedRDD.map { case (key, value) => val salt = Random.nextInt(10) // 添加随机盐值 (s"${key}_$salt", value) } val result = saltedRDD.reduceByKey(_ + _) .map { case (saltedKey, value) => val originalKey = saltedKey.substring(0, saltedKey.lastIndexOf("_")) (originalKey, value) } .reduceByKey(_ + _) // 解决方案2:两阶段聚合 def twoPhaseAggregation[K, V](rdd: RDD[(K, V)])(implicit num: Numeric[V]) = { import num._ // 第一阶段:本地聚合 val localAgg = rdd.mapPartitions { iter => val map = mutable.Map[K, V]() for ((k, v) <- iter) { map(k) = map.getOrElse(k, num.zero) + v } map.iterator } // 第二阶段:全局聚合 localAgg.reduceByKey(_ + _) } ``` **2. 内存溢出问题**: ```scala // 问题:collect() 收集大量数据到 Driver val largeRDD = sc.textFile("very_large_file.txt") val result = largeRDD.collect() // 可能导致 Driver OOM // 解决方案:使用 take() 或 sample() val sample = largeRDD.sample(false, 0.1).collect() // 采样 10% val preview = largeRDD.take(100) // 只取前 100 条 // 或者直接保存到文件系统 largeRDD.saveAsTextFile("hdfs://output/path") ``` **3. 序列化问题**: ```scala // 问题:不可序列化的对象 class NonSerializableClass { def process(x: Int): Int = x * 2 } val processor = new NonSerializableClass() val rdd = sc.parallelize(1 to 100) // val result = rdd.map(processor.process) // 会抛出序列化异常 // 解决方案1:使用可序列化的类 class SerializableProcessor extends Serializable { def process(x: Int): Int = x * 2 } // 解决方案2:在 map 内部创建对象 val result = rdd.map { x => val processor = new NonSerializableClass() processor.process(x) } // 解决方案3:使用 mapPartitions 减少对象创建 val result2 = rdd.mapPartitions { iter => val processor = new NonSerializableClass() iter.map(processor.process) } ``` ### 3.7 本章小结 本章围绕 RDD 的设计理念与实现机制展开,从定义、分区与依赖,到 Shuffle、缓存与最佳实践,形成了从抽象到工程落地的完整链路。通过本章学习,读者已经能够: 1. 准确理解 RDD 的核心属性与不可变性设计,掌握血缘关系(Lineage)的作用与容错原理 2. 结合源码掌握分区机制与分区器策略,能在实际场景中合理设置分区数量并处理数据倾斜 3. 熟悉 Transformation 的惰性求值与 Action 的触发机制,并能进行针对性的性能优化 4. 解析 Shuffle Write/Read 内部实现与关键参数,掌握常见优化策略与问题定位方法 5. 正确选择 Storage Level 并配置缓存/持久化策略,提升迭代与交互式计算的性能稳定性 6. 在真实案例中应用最佳实践,规避 collect 等易导致 OOM 的误用模式 为保持风格一致,以上结论均基于源码、官方文档与论文材料的交叉验证。下一章将继续深入 Spark 的作业执行机制,聚焦 DAG 调度、Stage 划分与任务执行流程。 --- ## 第 4 章 Spark 作业执行机制 ### 4.1 作业提交和调度流程 #### 4.1.1 从 Action 到 Job 的转换 当用户调用 RDD 的 Action 操作时,Spark 会将其转换为一个 Job 并提交给调度器: ```scala // 用户程序 val rdd = sc.textFile("input.txt") .flatMap(_.split(" ")) .map((_, 1)) .reduceByKey(_ + _) val result = rdd.collect() // Action 触发 Job 提交 // SparkContext.runJob() 的调用链 /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala、core/src/main/scala/org/apache/spark/SparkContext.scala、core/src/main/scala/org/apache/spark/scheduler/DAGScheduler.scala * 类:org.apache.spark.rdd.RDD、org.apache.spark.SparkContext、org.apache.spark.scheduler.DAGScheduler */ def collect(): Array[T] = withScope { val results = sc.runJob(this, (iter: Iterator[T]) => iter.toArray) Array.concat(results: _*) } def runJob[T, U: ClassTag]( rdd: RDD[T], func: (TaskContext, Iterator[T]) => U, partitions: Seq[Int], resultHandler: (Int, U) => Unit): Unit = { dagScheduler.runJob(rdd, func, partitions, callSite, resultHandler, localProperties.get) } ``` **Job 提交流程:** ```text 用户调用 Action ↓ SparkContext.runJob() ↓ DAGScheduler.runJob() ↓ DAGScheduler.submitJob() ↓ 创建 ActiveJob 对象 ↓ DAGSchedulerEventProcessLoop.post(JobSubmitted) ↓ DAGScheduler.handleJobSubmitted() ↓ 创建 ResultStage 和依赖的 ShuffleMapStage ↓ 提交 Stage 到 TaskScheduler ``` #### 4.1.2 DAGScheduler 的核心功能 DAGScheduler 负责将 RDD 的 DAG 转换为 Stage 的 DAG,并管理 Stage 的提交: ```scala /** * DAGScheduler 负责将 RDD 的 DAG 转换为 Stage 的 DAG,并管理 Stage 的提交。 * 以下是其核心逻辑的伪代码实现。 * 来源:core/src/main/scala/org/apache/spark/scheduler/DAGScheduler.scala(伪代码概述) */ class DAGScheduler(taskScheduler: TaskScheduler) { // === 核心数据结构 === private val stageIdToStage = new HashMap[Int, Stage] private val runningStages = new HashSet[Stage] private val waitingStages = new HashSet[Stage] private val failedStages = new HashSet[Stage] /** * 处理 Job 提交事件,这是 DAGScheduler 的入口。 */ private def handleJobSubmitted(jobId: Int, finalRDD: RDD[_]) { val finalStage = createResultStage(finalRDD, jobId) submitMissingTasks(finalStage) } /** * 递归地提交一个 Stage 及其所有缺失的父 Stage。 */ private def submitMissingTasks(stage: Stage) { val parentStages = getOrCreateParentStages(stage.rdd) // 查找尚未完成的父 Stage val missingParentStages = parentStages.filter(s => !s.isAvailable) if (missingParentStages.isEmpty) { // 如果没有缺失的父 Stage,说明该 Stage 的依赖已就绪,可以提交 submitStage(stage) } else { // 如果存在缺失的父 Stage,则递归地提交这些父 Stage for (parent <- missingParentStages) { submitMissingTasks(parent) } // 将当前 Stage 加入等待队列 waitingStages.add(stage) } } /** * 提交一个 Stage 给 TaskScheduler 执行。 */ private def submitStage(stage: Stage) { if (!runningStages.contains(stage) && !waitingStages.contains(stage)) { val tasks = stage.createTasks() // 创建 Task val taskSet = new TaskSet(tasks, stage.id) taskScheduler.submitTasks(taskSet) // 提交给 TaskScheduler runningStages.add(stage) } } /** * 从一个 RDD 开始,递归地创建其所有父 Stage。 * 每当遇到一个宽依赖(ShuffleDependency),就会创建一个新的 ShuffleMapStage。 */ private def getOrCreateParentStages(rdd: RDD[_]): List[Stage] = { // 查找 rdd 的 Shuffle 依赖 val shuffleDependencies = findShuffleDependencies(rdd) // 为每个 Shuffle 依赖创建或获取一个 ShuffleMapStage shuffleDependencies.map { dep => getOrCreateShuffleMapStage(dep) }.toList } // ... 其他辅助方法,如 createResultStage, findShuffleDependencies, getOrCreateShuffleMapStage ... } ``` ### 4.2 Stage 划分和依赖分析 #### 4.2.1 Stage 划分算法 Stage 的划分基于 RDD 的依赖关系,宽依赖会导致 Stage 的边界: [22] ```scala // 创建 ResultStage 的过程 private def createResultStage( rdd: RDD[_], func: (TaskContext, Iterator[_]) => _, partitions: Array[Int], jobId: Int, callSite: CallSite): ResultStage = { // 获取或创建所有父 Stage val parents = getOrCreateParentStages(rdd, jobId) val id = nextStageId.getAndIncrement() val stage = new ResultStage(id, rdd, func, partitions, parents, jobId, callSite) stageIdToStage(id) = stage updateJobIdStageIdMaps(jobId, stage) stage } // 获取或创建父 Stage private def getOrCreateParentStages(rdd: RDD[_], firstJobId: Int): List[Stage] = { getShuffleDependencies(rdd).map { shuffleDep => getOrCreateShuffleMapStage(shuffleDep, firstJobId) }.toList } // 获取 Shuffle 依赖 private[scheduler] def getShuffleDependencies( rdd: RDD[_]): HashSet[ShuffleDependency[_, _, _]] = { val parents = new HashSet[ShuffleDependency[_, _, _]] val visited = new HashSet[RDD[_]] val waitingForVisit = new Stack[RDD[_]] waitingForVisit.push(rdd) while (waitingForVisit.nonEmpty) { val toVisit = waitingForVisit.pop() if (!visited(toVisit)) { visited += toVisit toVisit.dependencies.foreach { case shuffleDep: ShuffleDependency[_, _, _] => parents += shuffleDep case dependency => waitingForVisit.push(dependency.rdd) } } } parents } ``` **Stage 划分示例:** ```scala // 示例程序 val rdd1 = sc.textFile("input1.txt") // Stage 0 val rdd2 = sc.textFile("input2.txt") // Stage 0 val rdd3 = rdd1.map(_.split(",")) // Stage 0 val rdd4 = rdd3.filter(_.length > 2) // Stage 0 val rdd5 = rdd4.map(arr => (arr(0), arr(1).toInt)) // Stage 0 val rdd6 = rdd5.reduceByKey(_ + _) // Stage 1 (Shuffle) val rdd7 = rdd2.map(line => (line.split(",")(0), 1)) // Stage 0 val rdd8 = rdd6.join(rdd7) // Stage 2 (Shuffle) val result = rdd8.collect() // Action /* Stage 划分结果: Stage 0: rdd1 -> rdd3 -> rdd4 -> rdd5 (ShuffleMapStage) rdd2 -> rdd7 (ShuffleMapStage) Stage 1: rdd6 (ShuffleMapStage) Stage 2: rdd8 (ResultStage) 依赖关系: Stage 2 依赖 Stage 0 和 Stage 1 Stage 1 依赖 Stage 0 */ ``` #### 4.2.2 Stage 类型和特点 Spark 中有两种类型的 Stage: **1. ShuffleMapStage**: ```scala /** * ShuffleMapStage 是 Shuffle 过程中的数据生产者。 * 它负责计算 RDD 的一个子集,并将其输出(Shuffle 数据)写入磁盘, * 以便下游的 Stage 可以通过网络拉取这些数据。 */ class ShuffleMapStage(rdd: RDD, shuffleDep: ShuffleDependency) extends Stage { // 存储每个分区的输出位置信息 private val outputLocs = new Array[MapStatus](rdd.partitions.length) // 检查是否所有分区的数据都已准备就绪 def isAvailable: Boolean = { outputLocs.nonEmpty && outputLocs.forall(_ != null) } // 其他方法,如添加输出位置等... } ``` **2. ResultStage**: ```scala /** * ResultStage 是一个 Job 的最终 Stage。 * 它负责对 RDD 的一个或多个分区执行一个函数(func),并将结果返回给用户程序。 */ class ResultStage(rdd: RDD, func: (Iterator) => Unit) extends Stage { // ResultStage 没有输出,它的结果直接返回给 Driver } ``` ### 4.3 Task 调度和执行 [27] #### 4.3.1 TaskScheduler 的实现 TaskScheduler 负责将 Stage 中的 Task 分发到 Executor 上执行: ```scala // TaskScheduler 的伪代码实现 /** * 来源:core/src/main/scala/org/apache/spark/scheduler/TaskScheduler.scala(伪代码概述) */ class TaskScheduler { // 调度池,用于管理待调度的 TaskSet private val schedulingPool: SchedulingAlgorithm = new FIFOSchedulingAlgorithm() /** * 提交一个 TaskSet 到调度池 * * @param taskSet 要提交的任务集 */ def submitTasks(taskSet: TaskSet): Unit = { // 创建一个 TaskSetManager 来管理 TaskSet 的生命周期 val manager = new TaskSetManager(this, taskSet) // 将 TaskSetManager 添加到调度池中 schedulingPool.addSchedulable(manager) // 唤醒 Executor,告知有新的任务需要执行 backend.reviveOffers() } /** * 为指定的 Executor 分配任务 * * @param executorId Executor 的 ID * @return 分配的任务列表 */ def resourceOffers(executorId: String): Seq[TaskDescription] = { // 从调度池中为该 Executor 获取最优的任务 schedulingPool.getTaskForExecutor(executorId) } } ``` #### 4.3.2 数据本地性调度 Spark 会根据数据的位置来调度任务,以减少网络传输: ```pseudocode // TaskSetManager 伪代码 class TaskSetManager: // 管理一个 Stage 的所有 Task tasks: List[Task] // 为给定的 Executor 选择一个 Task function selectTaskForExecutor(executorId, host): // 1. 尝试查找 PROCESS_LOCAL 级别的 Task task = findTask(executorId, host, level = PROCESS_LOCAL) if task is not None: return task // 2. 尝试查找 NODE_LOCAL 级别的 Task task = findTask(executorId, host, level = NODE_LOCAL) if task is not None: return task // 3. 尝试查找 RACK_LOCAL 级别的 Task task = findTask(executorId, host, level = RACK_LOCAL) if task is not None: return task // 4. 查找 ANY 级别的 Task task = findTask(executorId, host, level = ANY) return task ``` **本地性级别说明:** | 级别 | 说明 | 性能影响 | | ------------- | ---------------------------- | -------------------- | | PROCESS_LOCAL | 数据在同一个 Executor 进程中 | 最佳,无网络开销 | | NODE_LOCAL | 数据在同一个节点上 | 较好,节点内网络传输 | | RACK_LOCAL | 数据在同一个机架上 | 一般,机架内网络传输 | | ANY | 数据在任意位置 | 最差,跨机架网络传输 | #### 4.3.3 Task 执行流程 Task 在 Executor 中的执行过程: ```pseudocode // Executor 中 Task 执行流程伪代码 class Executor: // 启动一个 Task function launchTask(taskDescription): // 1. 反序列化 Task task = deserialize(taskDescription.serializedTask) // 2. 在线程池中执行 Task threadPool.execute(() => { try: // 2.1 执行 Task 并获取结果 result = task.run() // 2.2. 将成功状态和结果发回 Driver sendResultToDriver(status = FINISHED, result = result) catch e: // 2.3. 如果失败,将失败状态和异常发回 Driver sendResultToDriver(status = FAILED, error = e) }) ``` ### 4.4 Task 类型和实现 #### 4.4.1 ShuffleMapTask ShuffleMapTask 是 ShuffleMapStage 中执行的任务,负责将数据按照分区器进行分区并写入磁盘: ```scala // ShuffleMapTask 的伪代码实现 /** * 来源:core/src/main/scala/org/apache/spark/scheduler/ShuffleMapTask.scala(伪代码概述) * 类:org.apache.spark.scheduler.ShuffleMapTask#runTask(简化伪代码) */ class ShuffleMapTask(partition: Partition, rdd: RDD, dep: ShuffleDependency) extends Task { override def runTask(context: TaskContext): MapStatus = { // 1. 从 ShuffleManager 获取 ShuffleWriter val writer = SparkEnv.get.shuffleManager.getWriter(dep.shuffleHandle, partition.index, context) // 2. 计算 RDD 的一个分区,并将结果写入 Shuffle 文件 writer.write(rdd.iterator(partition, context)) // 3. 写入完成后,返回 MapStatus,其中包含 Shuffle 输出的位置信息 writer.stop(success = true).get } } ``` **ShuffleMapTask 执行流程:** ```text 1. 反序列化 RDD 和 ShuffleDependency 2. 获取 ShuffleManager 和 ShuffleWriter 3. 计算 RDD 分区数据 4. 使用 ShuffleWriter 将数据写入磁盘 5. 返回 MapStatus(包含输出位置和大小信息) ``` #### 4.4.2 ResultTask ResultTask 是 ResultStage 中执行的任务,负责计算最终结果: ```scala // ResultTask 的伪代码实现 /** * 来源:core/src/main/scala/org/apache/spark/scheduler/ResultTask.scala(伪代码概述) * 类:org.apache.spark.scheduler.ResultTask#runTask(简化伪代码) */ class ResultTask[T, U](partition: Partition, rdd: RDD[T], func: (TaskContext, Iterator[T]) => U) extends Task[U] { override def runTask(context: TaskContext): U = { // 1. 计算 RDD 的一个分区 val iterator = rdd.iterator(partition, context) // 2. 对分区数据执行指定的函数 func(context, iterator) } } ``` **Task 类型对比:** | 特性 | ShuffleMapTask | ResultTask | | ---------- | ------------------------ | ----------------- | | 所属 Stage | ShuffleMapStage | ResultStage | | 主要功能 | 数据分区和 Shuffle Write | 计算最终结果 | | 输出类型 | MapStatus | 用户定义类型 | | 输出位置 | 磁盘文件 | Driver 或外部存储 | | 后续处理 | 被下游 Stage 读取 | 返回给用户程序 | #### 4.4.3 Task 序列化和分发 Task 在分发到 Executor 之前需要进行序列化: ```scala // TaskDescription 包含了序列化后的任务信息 /** * 来源:core/src/main/scala/org/apache/spark/scheduler/TaskDescription.scala、core/src/main/scala/org/apache/spark/scheduler/TaskSchedulerImpl.scala(伪代码概述) * 类:org.apache.spark.scheduler.TaskDescription、org.apache.spark.scheduler.TaskSchedulerImpl */ private[spark] class TaskDescription( val taskId: Long, val attemptNumber: Int, val executorId: String, val name: String, val index: Int, // 分区索引 val addedFiles: Map[String, Long], val addedJars: Map[String, Long], val properties: Properties, val serializedTask: ByteBuffer) { // 序列化后的任务 override def toString: String = "TaskDescription(TID=%d, index=%d)".format(taskId, index) } // Task 序列化过程 /** * 来源:core/src/main/scala/org/apache/spark/scheduler/TaskSchedulerImpl.scala(伪代码概述) * 方法:serializeTask(任务序列化流程说明) */ private def serializeTask(task: Task[_]): ByteBuffer = { val serializer = env.closureSerializer.newInstance() try { task.setTaskMemoryManager(taskMemoryManager) serializer.serialize(task) } catch { case NonFatal(e) => throw new TaskNotSerializableException(e) } } ``` ### 4.5 容错机制和重试策略 #### 4.5.1 Task 级别的容错 Spark 在 Task 级别提供了自动重试机制: ```pseudocode // TaskSetManager 中 Task 容错伪代码 class TaskSetManager: // 处理 Task 失败事件 function handleFailedTask(task, reason): // 1. 检查是否为 FetchFailed if reason is FetchFailed: // 如果是 Shuffle 数据获取失败,则需要重新执行上游 Stage handleFetchFailed(reason) return // 2. 增加 Task 失败次数 task.failures += 1 // 3. 检查是否超过最大重试次数 if task.failures >= maxTaskFailures: // 如果超过,则中止整个 Job abortJob("Task failed too many times") else: // 否则,将 Task 重新加入待调度队列 addPendingTask(task) ``` **Task 重试策略:** 1. **普通异常**:重试最多 `spark.task.maxFailures` 次(默认 3 次) 2. **FetchFailed**:标记 Shuffle 输出丢失,重新执行上游 Stage 3. **TaskKilled**:任务被主动杀死,通常不重试 4. **CommitDenied**:输出提交被拒绝,重试任务 #### 4.5.2 Stage 级别的容错 当 Stage 中的任务失败时,可能需要重新执行整个 Stage: ```pseudocode // DAGScheduler 中 Stage 容错伪代码 class DAGScheduler: // 处理 Task 完成事件 function handleTaskCompletion(event): // 根据事件原因进行处理 if event.reason is Success: // 任务成功 handleTaskSuccess(event) else if event.reason is FetchFailed: // Shuffle 数据获取失败 handleFetchFailed(event) else: // 其他失败情况 handleOtherFailure(event) // 处理 Shuffle 数据获取失败 function handleFetchFailed(event): failedStage = event.stage mapStage = event.mapStage // 1. 检查是否为过时的失败事件 if failedStage.attemptId != event.task.attemptId: // 忽略过时的失败事件 return // 2. 标记 Shuffle 输出为不可用 markShuffleOutputAsUnavailable(mapStage) // 3. 重新提交失败的 Stage 和上游 Stage resubmitStages([failedStage, mapStage]) ``` #### 4.5.3 RDD 血缘恢复机制 当数据丢失时,Spark 可以根据 RDD 的血缘关系重新计算: ```scala // RDD 的容错恢复 /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala * 类:org.apache.spark.rdd.RDD#getOrCompute(简化) */ abstract class RDD[T: ClassTag]( @transient private var _sc: SparkContext, @transient private var deps: Seq[Dependency[_]]) extends Serializable with Logging { // 计算分区数据,支持容错恢复 final def iterator(split: Partition, context: TaskContext): Iterator[T] = { if (storageLevel != StorageLevel.NONE) { getOrCompute(split, context) } else { computeOrReadCheckpoint(split, context) } } // 获取或计算分区数据 private[spark] def getOrCompute(partition: Partition, context: TaskContext): Iterator[T] = { val blockId = RDDBlockId(id, partition.index) var readCachedBlock = true // 首先尝试从缓存中读取 SparkEnv.get.blockManager.getOrElseUpdate(blockId, storageLevel, elementClassTag, () => { readCachedBlock = false computeOrReadCheckpoint(partition, context) }) match { case Left(blockResult) => if (readCachedBlock) { val existingMetrics = context.taskMetrics().inputMetrics existingMetrics.incBytesRead(blockResult.bytes) new InterruptibleIterator[T](context, blockResult.data.asInstanceOf[Iterator[T]]) { override def next(): T = { existingMetrics.incRecordsRead(1) delegate.next() } } } else { new InterruptibleIterator(context, blockResult.data.asInstanceOf[Iterator[T]]) } case Right(iter) => new InterruptibleIterator(context, iter.asInstanceOf[Iterator[T]]) } } // 计算或从 Checkpoint 读取 private[spark] def computeOrReadCheckpoint(split: Partition, context: TaskContext): Iterator[T] = { if (isCheckpointedAndMaterialized) { firstParent[T].iterator(split, context) } else { compute(split, context) } } } ``` **血缘恢复示例:** ```scala // 假设有如下 RDD 链 val rdd1 = sc.textFile("input.txt") // 从文件读取 val rdd2 = rdd1.map(_.toUpperCase) // 转换为大写 val rdd3 = rdd2.filter(_.contains("ERROR")) // 过滤错误日志 val rdd4 = rdd3.map(_.length) // 计算长度 // 如果 rdd3 的某个分区数据丢失,恢复过程: // 1. 检查 rdd3 是否有缓存 -> 没有 // 2. 检查 rdd3 是否有 Checkpoint -> 没有 // 3. 根据血缘关系,从 rdd2 重新计算 // 4. 如果 rdd2 也丢失,继续向上追溯到 rdd1 // 5. 最终从原始文件重新读取和计算 ``` #### 4.5.4 Checkpoint 容错机制 Checkpoint 提供了更可靠的容错机制: ```scala // Checkpoint 实现 /** * 源代码:core/src/main/scala/org/apache/spark/rdd/RDD.scala * 类:org.apache.spark.rdd.RDDCheckpointData */ private[spark] abstract class RDDCheckpointData[T: ClassTag](@transient private val rdd: RDD[T]) extends Serializable { import CheckpointState._ // Checkpoint 状态 protected var cpState = Initialized private var cpRDD: Option[CheckpointRDD[T]] = None // 执行 Checkpoint final def checkpoint(): Unit = { RDDCheckpointData.synchronized { if (cpState == Initialized) { cpState = CheckpointingInProgress } else { return } } val newRDD = doCheckpoint() RDDCheckpointData.synchronized { cpRDD = Some(newRDD) cpState = Checkpointed rdd.markCheckpointed() } } // 具体的 Checkpoint 实现 protected def doCheckpoint(): CheckpointRDD[T] // 获取 Checkpoint RDD def checkpointRDD: Option[CheckpointRDD[T]] = RDDCheckpointData.synchronized { cpRDD } } // 可靠的 Checkpoint 实现 private[spark] class ReliableRDDCheckpointData[T: ClassTag](@transient private val rdd: RDD[T]) extends RDDCheckpointData[T](rdd) with Logging { override protected def doCheckpoint(): CheckpointRDD[T] = { val newRDD = ReliableCheckpointRDD.writeRDDToCheckpointDirectory(rdd, cpDir) // 清理依赖关系,截断血缘 if (rdd.conf.getBoolean("spark.cleaner.referenceTracking.cleanCheckpoints", false)) { rdd.context.cleaner.foreach(_.registerRDDCheckpointDataForCleanup(newRDD, rdd.id)) } logInfo(s"Done checkpointing RDD ${rdd.id} to $cpDir, new parent is RDD ${newRDD.id}") newRDD } } ``` ### 4.6 性能监控和调优 #### 4.6.1 Spark UI 监控 Spark 提供了丰富的 Web UI 来监控作业执行: ```pseudocode // SparkUI 初始化伪代码 class SparkUI: // 初始化 UI 组件 function initialize(): // 1. 创建并注册 Job、Stage、Storage 等核心监控页面 (Tab) jobsTab = new JobsTab(jobProgressListener) stagesTab = new StagesTab(jobProgressListener) storageTab = new StorageTab(storageListener) environmentTab = new EnvironmentTab(environmentListener) executorsTab = new ExecutorsTab(executorsListener) // 2. 将 Tab 添加到 UI attachTab(jobsTab) attachTab(stagesTab) attachTab(storageTab) attachTab(environmentTab) attachTab(executorsTab) // 3. 注册 API 和静态资源处理器 attachHandler(apiHandler) attachHandler(staticResourceHandler) ``` **主要监控指标:** 1. **Jobs 页面**:显示所有作业的状态、持续时间、Stage 数量 2. **Stages 页面**:显示每个 Stage 的任务执行情况、数据读写量 3. **Storage 页面**:显示 RDD 缓存使用情况、内存占用 4. **Environment 页面**:显示 Spark 配置参数、系统属性 5. **Executors 页面**:显示各个 Executor 的资源使用情况 #### 4.6.2 关键性能指标 ```scala // TaskMetrics 记录任务执行的详细指标 class TaskMetrics private[spark] () extends Serializable { // 执行时间指标 private var _executorDeserializeTime: Long = _ private var _executorDeserializeCpuTime: Long = _ private var _executorRunTime: Long = _ private var _executorCpuTime: Long = _ private var _resultSize: Long = _ private var _jvmGCTime: Long = _ private var _resultSerializationTime: Long = _ private var _memoryBytesSpilled: Long = _ private var _diskBytesSpilled: Long = _ private var _peakExecutionMemory: Long = _ // I/O 指标 private var _inputMetrics: InputMetrics = _ private var _outputMetrics: OutputMetrics = _ private var _shuffleReadMetrics: ShuffleReadMetrics = _ private var _shuffleWriteMetrics: ShuffleWriteMetrics = _ // 更新指标的方法 def setExecutorDeserializeTime(value: Long): Unit = _executorDeserializeTime = value def setExecutorRunTime(value: Long): Unit = _executorRunTime = value def setJvmGCTime(value: Long): Unit = _jvmGCTime = value def setResultSize(value: Long): Unit = _resultSize = value // 获取指标的方法 def executorDeserializeTime: Long = _executorDeserializeTime def executorRunTime: Long = _executorRunTime def jvmGCTime: Long = _jvmGCTime def resultSize: Long = _resultSize } ``` #### 4.6.3 性能调优建议 **1. 资源配置优化**: ```scala // Executor 内存配置 spark.executor.memory=4g // Executor 总内存 spark.executor.memoryFraction=0.6 // 执行内存比例 spark.executor.storageFraction=0.5 // 存储内存比例 // CPU 配置 spark.executor.cores=4 // 每个 Executor 的 CPU 核数 spark.executor.instances=10 // Executor 实例数 // 并行度配置 spark.default.parallelism=200 // 默认并行度 spark.sql.shuffle.partitions=200 // SQL Shuffle 分区数 ``` **2. Shuffle 优化**: ```scala // Shuffle 参数调优 spark.shuffle.file.buffer=64k // Shuffle 写缓冲区 spark.reducer.maxSizeInFlight=96m // Reduce 拉取数据的最大大小 spark.shuffle.io.maxRetries=5 // Shuffle IO 重试次数 spark.shuffle.io.retryWait=30s // Shuffle IO 重试间隔 // 使用 Kryo 序列化器 spark.serializer=org.apache.spark.serializer.KryoSerializer spark.kryo.registrationRequired=true ``` **3. 内存管理优化**: ```scala // 垃圾回收优化 spark.executor.extraJavaOptions=-XX:+UseG1GC -XX:+PrintGCDetails -XX:+PrintGCTimeStamps // 堆外内存 spark.executor.memoryOffHeap.enabled=true spark.executor.memoryOffHeap.size=2g // 动态内存管理 spark.dynamicAllocation.enabled=true spark.dynamicAllocation.minExecutors=5 spark.dynamicAllocation.maxExecutors=20 spark.dynamicAllocation.initialExecutors=10 ``` ### 4.7 第 4 章小结 本章详细介绍了 Spark 的作业执行机制,包括: 1. **作业提交流程**:从 Action 触发到 Job 创建的完整过程 2. **DAG 调度**:DAGScheduler 如何将 RDD DAG 转换为 Stage DAG 3. **Stage 划分**:基于依赖关系的 Stage 划分算法和实现 4. **Task 调度**:TaskScheduler 的本地性调度和资源分配策略 5. **Task 执行**:Executor 中 Task 的执行流程和生命周期管理 6. **Task 类型**:ShuffleMapTask 和 ResultTask 的区别和实现 7. **容错机制**:多层次的容错策略,包括 Task 重试、Stage 重新执行、血缘恢复 8. **性能监控**:Spark UI 的监控指标和性能调优建议 理解 Spark 的作业执行机制对于编写高效的 Spark 应用程序和进行性能调优至关重要。通过合理的资源配置、Shuffle 优化和内存管理,可以显著提升 Spark 应用的性能。 --- ## 参考文献 [1] **Matei Zaharia, et al.** "Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing." _Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation_, 2012. [2] **Matei Zaharia, et al.** "Spark: Cluster Computing with Working Sets." _Proceedings of the 2nd USENIX Conference on Hot Topics in Cloud Computing_, 2010. [3] **Reynold Xin, et al.** "Project Tungsten: Bringing Spark Closer to Bare Metal." _Spark Summit_, 2015. [4] **Michael Armbrust, et al.** "Adaptive Query Execution in Spark SQL." _Proceedings of the VLDB Endowment_, Vol. 14, No. 12, 2021. [5] **Matei Zaharia, et al.** "Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing." _Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation_, 2012. [6] **Michael Armbrust, et al.** "Spark SQL: Relational Data Processing in Spark." _Proceedings of the 2015 ACM SIGMOD International Conference on Management of Data_, 2015. [7] **Michael Armbrust, et al.** "Structured Streaming: A Declarative API for Real-Time Applications in Apache Spark." _Proceedings of the 2018 International Conference on Management of Data_, 2018. [8] **Michael Armbrust, et al.** "Spark SQL: Relational Data Processing in Spark." _Proceedings of the 2015 ACM SIGMOD International Conference on Management of Data_, 2015. [9] **Tathagata Das, et al.** "Discretized Streams: Fault-Tolerant Streaming Computation at Scale." _Proceedings of the Twenty-Fourth ACM Symposium on Operating Systems Principles_, 2013. [10] **Michael Armbrust, et al.** "Structured Streaming: A Declarative API for Real-Time Applications in Apache Spark." _Proceedings of the 2018 International Conference on Management of Data_, 2018. [11] **Matei Zaharia, et al.** "Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing." _Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation_, 2012. [12] **Matei Zaharia, et al.** "Spark: Cluster Computing with Working Sets." _Proceedings of the 2nd USENIX Conference on Hot Topics in Cloud Computing_, 2010. [13] **Matei Zaharia, et al.** "Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing." _Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation_, 2012. [14] **Matei Zaharia, et al.** "Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing." _Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation_, 2012. [15] **Matei Zaharia, et al.** "Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing." _Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation_, 2012. [16] **Patrick Wendell, et al.** "Managing Apache Spark Workloads with Dynamic Resource Allocation." _Spark Summit_, 2014. [17] **Matei Zaharia, et al.** "Spark: Cluster Computing with Working Sets." _Proceedings of the 2nd USENIX Conference on Hot Topics in Cloud Computing_, 2010. [18] **Matei Zaharia, et al.** "Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing." _Proceedings of the 9th USENIX Conference on Networked Systems Design and Implementation_, 2012. [19] **Apache Software Foundation.** "Apache Spark Documentation." Retrieved from <https://spark.apache.org/docs/latest/> [20] **Apache Software Foundation.** "Spark Programming Guide." Retrieved from <https://spark.apache.org/docs/latest/programming-guide.html> [21] **Apache Software Foundation.** "Spark SQL and DataFrames." Retrieved from <https://spark.apache.org/docs/latest/sql-programming-guide.html> [22] **Apache Software Foundation.** "Structured Streaming Programming Guide." Retrieved from <https://spark.apache.org/docs/latest/structured-streaming-programming-guide.html> [23] **Apache Software Foundation.** "MLlib: Machine Learning Library." Retrieved from <https://spark.apache.org/docs/latest/ml-guide.html> [24] **Apache Software Foundation.** "GraphX: Graph Processing in Spark." Retrieved from <https://spark.apache.org/docs/latest/graphx-programming-guide.html> [25] **Apache Software Foundation.** "Spark Configuration." Retrieved from <https://spark.apache.org/docs/latest/configuration.html> [26] **Apache Software Foundation.** "Spark Performance Tuning." Retrieved from <https://spark.apache.org/docs/latest/tuning.html> [27] **Apache Software Foundation.** "Spark Monitoring and Instrumentation." Retrieved from <https://spark.apache.org/docs/latest/monitoring.html> [28] **Apache Software Foundation.** "Spark Security." Retrieved from <https://spark.apache.org/docs/latest/security.html> [29] **Apache Software Foundation.** "Spark Cluster Overview." Retrieved from <https://spark.apache.org/docs/latest/cluster-overview.html> [30] **Apache Software Foundation.** "Running Spark on YARN." Retrieved from <https://spark.apache.org/docs/latest/running-on-yarn.html> [31] **Apache Software Foundation.** "Running Spark on Kubernetes." Retrieved from <https://spark.apache.org/docs/latest/running-on-kubernetes.html> [32] **Apache Software Foundation.** "Spark RDD API." Retrieved from <https://spark.apache.org/docs/latest/api/scala/org/apache/spark/rdd/RDD.html> [33] **Apache Software Foundation.** "Spark DataFrame API." Retrieved from <https://spark.apache.org/docs/latest/api/scala/org/apache/spark/sql/Dataset.html> [34] **Apache Software Foundation.** "Spark SQL Functions." Retrieved from <https://spark.apache.org/docs/latest/api/scala/org/apache/spark/sql/functions$.html> [35] **Apache Software Foundation.** "Spark MLlib API." Retrieved from <https://spark.apache.org/docs/latest/api/scala/org/apache/spark/ml/index.html> [36] **Apache Software Foundation.** "Spark GraphX API." Retrieved from <https://spark.apache.org/docs/latest/api/scala/org/apache/spark/graphx/index.html> [37] **Apache Software Foundation.** "Spark Streaming API." Retrieved from <https://spark.apache.org/docs/latest/api/scala/org/apache/spark/streaming/index.html> [38] **Apache Software Foundation.** "Structured Streaming API." Retrieved from <https://spark.apache.org/docs/latest/api/scala/org/apache/spark/sql/streaming/index.html>

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ForceInjection/markdown-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server