我是一个新手。 试图设置一个hdfs系统来服务我的数据(我不打算使用mapreduce)在我的实验室。
到目前为止,我已经阅读,集群设置,但我仍然困惑。 几个问题:
我感到困惑,因为它似乎大部分的文档假设我想使用map-reduce而不是这种情况。
回答你的第2个问题1.不,如果你不在乎namenode是否崩溃,你不需要第二个namenode 2.你需要从属文件来使用hadoop bash命令start-dfs.sh从namenode启动datanode守护进程。 如果您不想使用secondard namenode,则不需要主文件
对于你的第三个问题有关如何安装一个小的hadoop集群一步一步的文档http://www.hadoop-blog.com/2010/11/how-to-quickly-install-hadoop-020-in.html
请通过它,你可以跳过讨论JobTracker和TaskTracker的步骤,这应该足以启动你的HDFS。