当前位置:Gxlcms > 数据库问题 > hadoop两个namenode都是standby问题

hadoop两个namenode都是standby问题

时间:2021-07-01 10:21:17 帮助过:9人阅读

1、修改配置文件后重启hdfs集群,出现了两个namenode都是standby的问题。

经过不断地排查,发现在自己进行关闭和重启namenode的组件的时候,没有通过pip文件正常关闭,只能挨个关闭,这个也不是重点。

经过修改pip文件的路径,解决了这个批量关闭启动的问题,原因是/tmpe目录系统会定期清理,导致进程号对不上了。

批量启动的时候发现zkfc一直启动不了,手动启动,还是没解决问题。

尝试重新格式化zookeeper上的namenode信息。关闭再启动hdfs集群,注意zkfc的启动状态,这样成功了。

2、hbase上的一个表获取hdfs上的数据块失败,主要也是由于自己新增了datanode,有两个没启动,手动启动一下,问题还是没解决。

执行hbase检查命令,还是那个表的region找不到。直接强制删除表,这样zookeeper上的meat信息都会删掉,再重新建表,问题解决。

hadoop两个namenode都是standby问题

标签:没有   直接   删除   检查   node   配置   格式   keep   启动   

人气教程排行