hadoop:端口显示在本地打开,但不remotelly

我是新来的Linux和hadoop,我有这个问题相同的问题。 我想我明白是什么导致它,但我不知道如何解决它(不知道他们的意思是“编辑Hadoop服务器的configuration文件,以便它包括它的网卡的地址”)。 他们链接的另一篇文章说configuration文件应该引用机器的外部可访问的主机名。 我想我得到了这个权利,因为每个hadoopconfiguration文件指的是“主”,etc / hosts文件列出主机的私有IP地址。 我该如何解决这个问题?

编辑:我有5个节点: masterslavecslaveeslaveeslavef都运行debian。 这是master的主机文件:

 127.0.0.1 master 10.0.1.201 slavec 10.0.1.202 slaved 10.0.1.203 slavee 10.0.1.204 slavef 

这是slavec的主机文件(它在其他从机中看起来类似):

 10.0.1.200 master 127.0.0.1 slavec 10.0.1.202 slaved 10.0.1.203 slavee 10.0.1.204 slavef 

主人档案:

 master 

master站中的从站文件:

 master slavec slaved slavee slavef 

slavex的master和slave文件只有一行: slavex

首先,这是一个很好的Hadoop教程: http : //www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/

其次,分析你的环境,似乎/ etc / hosts,“master”和“slave”文件configuration错误。 您可以设置一个“主机”文件并共享到所有节点。 从你的情况来看,应该是这样的:

 127.0.0.1 localhost 10.0.1.200 master 10.0.1.201 slavec 10.0.1.202 slaved 10.0.1.203 slavee 10.0.1.204 slavef 

第三,“主”和“从”文件只能在“主”节点上configuration。 第一个文件只有运行JobTracker和NameNode的服务器,第二个文件具有运行TaskTracker和DataNode的所有服务器。