我正在通过NFS导出我的/ opt / target目录,但我希望nfs客户端能够将其挂载为/ target。 即我想showmount -E显示/目标不是/select/目标。 可以这样做吗?
我们需要build立一个可以从一堆计算机访问的SAN,无论是虚拟还是真实的。 我们有一个iSCSI SAN,我需要思考一些选项。 GFS2和OCFS2有什么区别? 他们是否准备好生产? 以及他们如何比较NFS? (我可以使用它与SAN)
我有一台机器导出两个目录,每个在一个物理硬盘上。 当文件在这两个共享之间移动时,数据是否完全在networking上传输? 如果是这样,有没有办法让转移更像远程机器上的mv ?
在bourne shell脚本(#!/ bin / sh)中,如何检查远程NFS共享是否被挂载,如果不是,挂载它? 我目前有一套丑陋的猫,greps和ifs使用“mount”的输出,但它似乎没有做一个可靠的工作。
我的主目录挂载在NFS挂载上。 我在一台机器上使用的命令通常与另一台机器上的命令大不相同。 是否有可能有简单的主机写入它自己的历史文件?
我们有NFS存储,我们在那里存储我们的备份..我们从linux机器上用nfs进行操作,在那里nfs也是挂载的。所以,例如精简configuration的thin.vmdk磁盘在linux上被视为thin.vmdk和thin-flat。 VMDK。 我们要用tar和gzip来存档和压缩它们,然而当在这两个地方发出简单的tar命令的时候,薄薄的只是消失了,每一个突然的10G。 即使我试着tar 1.6G的thin-flat.vmdk(带有“tar cf thin.tar thin-flat.vmdk”),它也会生成10G的tar文件。 当我尝试运行tar cf /extfs/thin.tar在ext fs上创buildtar时,也发生了这种情况。 这是什么魔法? 有人有线索吗? 非常感谢。
情况: 在集成的一体化ESXi / ZFS存储服务器上,存储虚拟机使用裸机磁盘,并通过NFS(或iSCSI)将文件系统导出到ESXi,ESXi将其用作其他VM的池存储,在更新存储虚拟机时有一个问题,因为许多正在运行的虚拟机依赖于它,并且会因为NFS.AllPathsDown或类似原因而超时,这就等于将驱动器从正常的服务器上NFS.AllPathsDown而不closures。 当然,可以closures所有虚拟机,但这会变得非常耗时,也很乏味(或者必须编写脚本)。 将VM移到另一个主机上可能是可能的,但是花费更长的时间,并且在一台机器很多的小型设置中可能无法实现。 暂停虚拟机可以工作,但也很慢(有时比关机慢)。 可能的解决scheme… 一个简单而有效的解决scheme似乎是通过CLI停止VM进程与kill -STOP [pid]之后find它ps -c | grep -v grep | grep [vmname] ps -c | grep -v grep | grep [vmname] ps -c | grep -v grep | grep [vmname] ,执行存储虚拟机的升级/重启,然后使用kill -CONT [pid]继续VM进程的执行。 类似的解决scheme可能是快速重新启动 (在Solaris上可用/ illumos通过reboot -f或在Linux上通过kexec-reboot ),这需要几秒钟而不是几分钟,ESXi中的NFS超时(NFS连接丢失所有I / O被暂停,我想120秒,直到它被认为是永久存储下来)。 如果重启时间在ESXi NFS窗口内,理论上它应该与由于错误纠正而不响应一分钟的磁盘相当,然后恢复正常操作。 …和问题? 现在,我的问题是: 哪种方法更好,还是同样好/坏? 在数据库,Active Directory控制器,用户运行作业等机器等特殊情况下,什么是非预期的副作用? 在哪里要小心? […]
我有一个运行Linux的NFS服务器,并导出一些股份。 Linux和MacOS客户端都连接到服务器,而Linux客户端的写入速度为〜75MB / s,MacOS客户端的写入速度只有〜25MB / s(相同的文件,距离服务器,交换机相同的距离)。 ..)。 性能差异有什么可能的原因? 我已经尝试通过编辑/etc/nfs.conf来调整Mac上的NFS连接 nfs.client.allow_async = 1 nfs.client.nfsiod_thread_max = 128 有了这些设置,我至less从之前的15MB / s提高到现在的25MB / s。 但是,这仍然远离我在Linux上得到的东西。 我应该如何进一步debugging呢? 有什么特别的方法可以将这些股票出口给马科斯? 这是我的/etc/auto_master ,如果你想看到我正在使用的NFS选项: /home auto_home -nobrowse,hidefromfinder,resvport,intr,hard,sloppy 编辑:我知道这必须是一个NFS问题,因为我可以在MacOS客户端和Linux NFS服务器之间用scp复制文件,在那里我得到〜60MB / s。
我有一个使用ZFS的openIdiana服务器,一年前它已经在一个Ubuntu服务器(叫做server1)上与NFS共享。 现在我被要求在第二个Ubuntu服务器(称为server2)上共享它。 所以我从服务器1中取出/ etc / fstab中的行并将其添加到server2中: 192.168.1.22:mypool/data/.zfs/snapshot/mnt/zfs nfs acl,intr,noatime 0 0 但是当我挂载它时,server2上的权限是“nobody nogroup”(以匿名方式连接?!),而在server1上则为ok。 而在我的OpenIndiana,我还没有find它的configuration(它不是我去年configuration它)。 所以我试图设置zfs set sharenfs = rw numpool / data但是没有成功。 所以我正在寻找像Ubuntu上的/ etc / exports文件来configuration哪个服务器被允许连接,而不是匿名。 任何想法? 谢谢,
我一直在学习NFS的接近开放策略,这会导致每个文件在closures时都被刷新到服务器上,以确保客户端的一致性。 (请参阅http://docstore.mik.ua/orelly/networking_2ndEd/nfs/ch07_04.htm 。)当尝试写入许多小文件时,会导致性能下降。 我知道显然是“asynchronous”导出选项,但也有一个“nocto”客户端安装选项,它应该禁用该客户端的close-to-open机制。 据我所知,这应该阻止客户端在closures时刷新文件(以及在打开时不检查caching一致性)。 但是,这似乎没有任何影响:客户端仍然将文件刷新到服务器上,导致大量的等待。 有没有人有任何想法,为什么“nocto”没有我希望会的影响? “asynchronous”选项按预期工作,但对我来说更重要的是客户端caching在这种情况下是正确的,这只是让我感到困惑。 例如:一组无盘节点共享远程根,偶尔从其中一个节点更新。 每个文件在closures后立即刷新并不重要,因为没有其他节点正在尝试写入同一个文件。 但更重要的是,如果服务器在更新一组软件包时崩溃,则客户端知道哪些数据还没有写入服务器的磁盘,以便一旦服务器重新启动就可以再次尝试。 使用“asynchronous”选项,这种情况下可能会导致数据丢失(因为服务器对客户端的数据被刷新到磁盘),而禁用closures打开(并使用“同步”,而不是“asynchronous”)在理论上提供相同的性能优势,而不会造成潜在的数据丢失(因为多个文件写入将被缓冲并一起刷到服务器)。 服务器和其他客户端会看到文件系统的一个稍微过时的视图(几秒钟)。 这对我来说似乎是合理的。 简单地说,“asynchronous”就是服务器端的缓冲,这会加快速度。 我期望的是“nocto”应该做客户端缓冲,类似的速度提升,代价是在其他客户端出现一些数据滞后。