| 注册
请输入搜索内容

热门搜索

Java Linux MySQL PHP JavaScript Hibernate jQuery Nginx
jopen
9年前发布

Hadoop环境搭建过程中可能遇到的问题

原文  http://www.cnblogs.com/cstzhou/p/4558255.html


1、集群启动的时候,从节点的datanode没有启动

问题原因:从节点的tmp/data下的配置文件中的clusterID与主节点的tmp/data下的配置文件中的clusterID不一致,导致集群启动时,hadoop会杀死从节点的datanode进程。

解决方案:

a) 将集群关闭;

b) 删除你在hadoop配置中设置的tmp下的data和name中的内容(每一个节点都要做这个操作)

c) 重新格式化一次hdfs

d) 重启集群,问题解决

2、集群启动时,jps显示所有的hadoop进程都已经存在,但是宿主机的浏览器打不开监控页面

问题原因:集群中的所有节点的防火墙没有被禁用,导致宿主机无法访问监控界面。

解决方案:

a) 将防火墙禁用(每一个节点都要做这个操作)

centos 7:

systemctl stop firewalld.service #停止

systemctl disable firewalld.service #禁用

 之前的版本:  service iptables stop #停止 chkconfig iptables off #禁用 b)  问题解决。 
 本文由用户 jopen 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
 转载本站原创文章,请注明出处,并保留原始链接、图片水印。
 本站是一个以用户分享为主的开源技术平台,欢迎各类分享!
 本文地址:https://www.open-open.com/lib/view/open1433731876770.html
Hadoop 分布式/云计算/大数据