hdfsconfiguration

我是一个新手。 试图设置一个hdfs系统来服务我的数据(我不打算使用mapreduce)在我的实验室。

到目前为止,我已经阅读,集群设置,但我仍然困惑。 几个问题:

  • 我是否需要有一个辅助名称节点?
  • 有2个文件,主人和奴隶。 我真的需要这两个文件,尽pipe我只想要hdfs吗? 如果我需要他们,那里应该去哪里? 我假设我的masternode和datanode是奴隶? 我需要奴隶节点吗?
  • namenode,secondary namenode,datanode和client需要哪些configuration文件? (我认为所有4都需要core-site.xml)? 另外,有人可以提出一个好的configuration模型吗? namenode,secondary namenode,datanode和客户端的示例configuration将非常有帮助。

我感到困惑,因为它似乎大部分的文档假设我想使用map-reduce而不是这种情况。

回答你的第2个问题1.不,如果你不在乎namenode是否崩溃,你不需要第二个namenode 2.你需要从属文件来使用hadoop bash命令start-dfs.sh从namenode启动datanode守护进程。 如果您不想使用secondard namenode,则不需要主文件

对于你的第三个问题有关如何安装一个小的hadoop集群一步一步的文档http://www.hadoop-blog.com/2010/11/how-to-quickly-install-hadoop-020-in.html

请通过它,你可以跳过讨论JobTracker和TaskTracker的步骤,这应该足以启动你的HDFS。