淘先锋技术网

首页 1 2 3 4 5 6 7

Hadoop重启一次,里面的数据需要重新导入,发现无法导入数据,查看jps发现是DataNode没有启动,重新启动发现也无法启动,原因是前面重新启动NameNode,里面的文件格式化一次,DataNode的文件不一致,需要删除,现给出以下解决方案:

  1. 停止所有服务
bigdata/hadoop/sbin/stop-all.sh
  1. 查询datanode的文件路劲
vim bigdata/hadoop/etc/hadoop/hdfs-site.xml

在这里插入图片描述
3. 删除HDFS下的DataNode下的Data文件

rm -rf /root/bigdata/hadoop/hdfs/data
  1. 重新启动Hadoop
bigdata/hadoop/sbin/start-all.sh