hadoop datanode 节点超时时间设置
来源:互联网 发布:梦想海贼王超进化数据 编辑:程序博客网 时间:2024/06/02 20:17
定义:datenode 与namenode 之间的通信是通过心跳的机制,当超过一定的时间则默认为datanode 为死亡
,默认的死亡的事件为:10分钟+30秒 ,可同一下配置文件配置:
datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,
要经过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为:
timeout = 2 * heartbeat.recheck.interval + 10 * dfs.heartbeat.interval。
而默认的heartbeat.recheck.interval 大小为5分钟,dfs.heartbeat.interval默认为3秒。
需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒,
dfs.heartbeat.interval的单位为秒。所以,举个例子,如果heartbeat.recheck.interval设置为5000(毫秒),
dfs.heartbeat.interval设置为3(秒,默认),则总的超时时间为40秒。
hdfs-site.xml:
<property>
<name>heartbeat.recheck.interval</name>
<value>300</value>
<description>设置的大小</description>
</property>
<property>
<name>dfs.heartbeat.interval</name>
<value>5</value>
<description>默认值</description>
</property>
- hadoop datanode节点超时时间设置
- hadoop datanode节点超时时间设置
- hadoop datanode 节点超时时间设置
- hadoop datanode节点超时时间设置
- hadoop datanode节点超时时间设置
- datanode节点超时时间设置
- hadoop之——datanode节点超时时间设置
- hadoop DataNode节点超时
- hadoop DataNode节点超时
- hadoop DataNode节点超时
- Hadoop添加节点datanode
- Hadoop添加节点datanode
- [Hadoop]Hadoop添加节点datanode
- Hadoop datanode节点无法启动
- Hadoop 数据节点DataNode异常
- datenode节点超时时间设置,Hadoop启动不正常,HDFS冗余数据块的自动删除,NameNode安全模式问题,ntp时间服务同步,机架感知配置
- Hadoop集群中引入新DataNode节点
- Hadoop 添加数据节点(datanode)
- 去掉UICollectionView 在 reloadItems时默认附加的隐式fade动画。
- AngularJS学习笔记一
- POJ 1321 棋盘问题
- jQuery下拉框使用(一)
- 系统与规划设计图
- hadoop datanode 节点超时时间设置
- java环境变量设置详解
- Java循环跳转语句之 break
- android 悬浮图片滑动
- linux源码Makefile详解
- eclipse的快捷方式
- Android开发中的waiting for debugger留下的坑
- 链表的各类操作
- EF CreateQuery()的命名空间