从另一个系统挂载Hadoop HDFS的好方法是什么?

我想通过局域网将Cloudera Hadoop安装为Linux文件系统。

作为一个设置,我已经在一组Ubuntu机器上运行了hadoop集群。 但现在我需要能够通过局域网使用Fedora系统中的普通文件系统。
我尝试了FUSe,但有两件事情:
1. Cloudera表示FUSE丢失了数据(Cloudera员工在Cloudera官方支持网站上点击此处查看该评论)
来自“简明英汉词典”我没有成功,使得我们想要的方式工作

作为澄清的一点,我仅将Hadoop用于文件系统,而不是用于其他function。

FUSE确实是您安装HDFS等异国文件系统的唯一select。 为了我自己的需要,我发现直接使用Java API比安装FS更好。

不幸的是,Java以外的其他语言的HDFS客户端API不存在或者非常丑陋(如依赖于JNI)。

此页面提供了有关您可用的各种选项的有趣信息。 如果您以某种方式成功完成FUSE工作,则可以使用NFS将得到的挂载点导出到需要使用相同HDFS的其他机器。 这显然带来了与任何NFS设置相同的风险和劣势。

关于API,显然有一个Thrift接口,FWIW。 在这里看到更多的信息。

HDFS不是真正的一stream文件系统。 因此,通过FUSE或类似的东西安装它可能会导致真正的挫折,因为缺乏文件更新。

你能说更多关于你的需求吗? 为什么不使用MapR(参见mapr.com)? MapR为集群文件系统提供一stream的NFS支持,同时保持与Hadoop的完全兼容。