java启动hadoop没有错误,但无法连接到服务器
我开始使用hadoop,并阅读了大量教程,以了解第一次使用hadoop的所有步骤。 我正在运行一台从雅虎教程下载的虚拟机,预装了hadoop和java
我的主要问题是:
如果我启动start-all.sh
脚本(在hadoop namenode -format
之后),我不会得到任何错误,但是当我试图用hadoop fs ls
连接到文件系统时,我会遇到以下错误:
14/07/18 04:49:43 INFO ipc.Client: Retrying connect to server: node1/10.10.104.68:9000. Already tried 0 time(s).
.....
14/07/18 04:49:52 INFO ipc.Client: Retrying connect to server: node1/10.10.104.68:9000. Already tried 9 time(s).
Bad connection to FS. command aborted. exception: Call to node1/10.10.104.68:9000 failed on connection exception: java.net.ConnectException: Connection refused
在试图找到这个问题的解决方案时,我发现了以下奇怪的事情:
1.)在运行stop-all.sh
之后,它写入:
no jobtracker to stop
node1: no tasktracker to stop
no namenode to stop
node1: stopping datanode
localhost: stopping secondarynamenode
2.)netstat在端口9000上没有显示任何监听内容,为什么
3.)当我试图通过我的“主”pc连接时(也在停止后),hadoop的webinterface(在IP:50070和:50030上)总是在运行,为什么
所以,它的开头显然不正确,但我真的不知道为什么。。。 我已配置并再次检查:
- 主机文件
- ssh配置
- 我在核心站点设置的属性。xml,hdfs站点。xml;从属文件只有节点1作为条目
- 所有目录的权限(我也不使用tmp文件夹)
不幸的是,由于代理权限,我无法安装任何新软件包jps
不起作用(我认为预安装的java版本不支持它!)而且ps aux | grep java
的结果对我来说没有多大意义
我会很高兴知道为什么它可能不起作用,或者任何我应该尝试的暗示
# 1 楼答案
首先,我会转到logs文件夹,查看hadoop守护进程的日志。你会明白为什么他们没有开始。守护进程启动困难的原因有很多;找不到JAVA_HOME,找不到HADOOP_HOME等等。日志会告诉你正确的方向。每个守护进程(namenode、datanode、jobtracker等)都有一个日志文件。我首先从namenode日志开始。如果namenode不快乐,就没有人快乐
确保所有东西都安装在你认为合适的地方。确保hadoop外壳脚本知道如何找到这些位置