时间:2021-07-01 10:21:17 帮助过:9人阅读
1、修改配置文件后重启hdfs集群,出现了两个namenode都是standby的问题。
经过不断地排查,发现在自己进行关闭和重启namenode的组件的时候,没有通过pip文件正常关闭,只能挨个关闭,这个也不是重点。
经过修改pip文件的路径,解决了这个批量关闭启动的问题,原因是/tmpe目录系统会定期清理,导致进程号对不上了。
批量启动的时候发现zkfc一直启动不了,手动启动,还是没解决问题。
尝试重新格式化zookeeper上的namenode信息。关闭再启动hdfs集群,注意zkfc的启动状态,这样成功了。
2、hbase上的一个表获取hdfs上的数据块失败,主要也是由于自己新增了datanode,有两个没启动,手动启动一下,问题还是没解决。
执行hbase检查命令,还是那个表的region找不到。直接强制删除表,这样zookeeper上的meat信息都会删掉,再重新建表,问题解决。
hadoop两个namenode都是standby问题
标签:没有 直接 删除 检查 node 配置 格式 keep 启动