发布网友 发布时间:2022-05-03 08:53
共8个回答
热心网友 时间:2022-04-15 03:30
解决方案:热心网友 时间:2022-04-15 04:48
这种情况需要删除tmp中临时的hadoop文件,rm -rf /tmp/hadoop*热心网友 时间:2022-04-15 06:22
我以前遇到的情况是datanode的clusterID 和 namenode的clusterID 不匹配。热心网友 时间:2022-04-15 08:14
datanode没有启动成功,原因可能是多方面的,比如:防火墙没有关闭,cluster id没有一致都会导致DataNode启动失败,希望你能看日志,一步一步来热心网友 时间:2022-04-15 10:22
这种情况需要删除tmp中临时的hadoop文件,rm -rf /tmp/hadoop* 之后再format下。 要是有数据就不能format,数据丢失的, 如果数据可以不要,就format,rm不是删除hadoop.tmp.dir中的内容, rm -rf /tmp/hadoop* 是删除的/tmp中的hadoop临时文件,之后format。热心网友 时间:2022-04-15 12:46
1.正常启动不代表启动正常。热心网友 时间:2022-04-15 15:28
以前能启动吗热心网友 时间:2022-04-15 18:26
在datanode节点jps一下,看有没有进程,