Spark集群启动后进程的简单介绍

来源:互联网 发布:淘宝优惠券领取网站 编辑:程序博客网 时间:2024/06/11 10:19

刚开始学习Spark,首先看一下Spark集群启动之后都会产生哪些进程,方便查看集群是否启动正常。首先介绍下我的Spark集群是以Hadoop的HDFS作为分布式文件存储系统,资源管理系统既可以使用Hadoop的Yarn,也可以使用Spark自带的Standalone模式,当然也可以使用其他的资源管理系统,例如Mesos、EC2等。

我的测试集群是一个master节点和4个worker节点

启动HDFS会产生哪些进程

在master节点上会产生NameNode进程和SecondaryNameNode进程。NameNode进程管理集群的全局数据,而SecondaryNameNode是NameNode的备份,这么做是为了容错。
这里写图片描述

在worker节点上会产生DataNode进程,该进程管理本台worker上的数据。
这里写图片描述

启动yarn会产生哪些进程

在master上会产生ResourceManager进程,该进程管理整个集群的内存和CPU等资源。
Paste_Image.png

在worker节点上会产生DataNode进程,该进程管理本worker上的内存和CPU等资源。
Paste_Image.png

启动Spark会产生哪些进程(运行在Standalone模式下)

在master节点上会产生Master进程,该进程管理整个集群的资源。
这里写图片描述

在worker节点上会产生Worker进程,该进程管理本worker上的资源
这里写图片描述


这里先做简单的记录,随着学习的深入再不断补充完善。

0 0
原创粉丝点击