背景信息: 所以我有一个Ubuntu 14.04服务器(1千兆网卡)和一个NAS(Synology DS1815 +,4千兆网卡)。 我正在定期通过Ubuntu 14.04服务器和我的networking之间的千兆线路。 大部分但不是全部的stream量都是NAS。 NAS在Ubuntu 14.04服务器上作为NFS共享装入。 我刚刚购买了一个USB 3.0双千兆网卡适配器(尚未到货)。 我的计划是将适配器连接到服务器,并将两个nics连接到NAS。 这将作为NAS和服务器之间的直接连接。 NAS正式支持LACP,USB nic适配器也是如此。 问题: 我想了解LACP及其与NFS的关系。 我知道LACP不会简单地将带宽加倍,但我不确定我是否掌握了如何使用NFS进行平衡。 关于通过专用连接在NAS和服务器之间的传输,这里是我的问题: LACP是否能够从单个NFS共享中为单个文件传输提供任何性能优势? (这看起来不像我读过的,但只是确保) LACP是否能够为单个NFS共享的多个同时文件传输提供任何性能优势? LACP是否会为多个NFS共享的多个同时文件传输提供任何性能优势? (这似乎是) NAS并没有正式支持balance-rr,但是如果它起作用,那么这会比LACP更好吗? 另一种债券模式会更合适吗? (这看起来不像我读的东西,只是确保) 感谢您的帮助!
我正在pipe理几个Ubuntu 9.10服务器,NFS装载几个文件夹(包括/ home)。 我希望这些文件夹在开机时装入。 我想在我的/ etc / fstab有几个条目来完成这个,例如 192.168.1.100:/home /home nfs rw 0 0 192.168.1.100:/usr/ansys_inc /ansys_inc nfs ro 0 0 不幸的是,通过这种configuration,当尝试执行NFS挂载时,服务器通常(尽pipe不总是)在启动序列期间挂起。 如果我注释掉这些fstab条目,重新启动机器,取消注释并使用shell手动安装它们,文件夹干净地安装。 我不知道如何去debugging这个问题。 这似乎与启动顺序有关,在操作系统尝试装载文件夹时,一些相关进程尚未启动。
什么时候sysctl.conf应该在启动时读取,为什么它不能运行? 我有以下设置,当我重新启动时没有被应用: net.bridge.bridge-nf-call-arptables = 0 net.bridge.bridge-nf-call-ip6tables = 0 net.bridge.bridge-nf-call-iptables = 0 net.bridge.bridge-nf-filter-pppoe-tagged = 0 net.bridge.bridge-nf-filter-vlan-tagged = 0 fs.nfs.nlm_udpport = 32768 fs.nfs.nlm_tcpport = 32768 第一部分是KVM桥接所需要的,第二部分是在已知端口上运行NFS锁pipe理器。 但是,启动后,这些值没有生效。 如果我运行sysctl -p ,那么他们这样做。 这不会是一个大问题,除了我不知道如何重新启动锁pipe理器而无需重新启动。 我真的很想知道为什么sysctl.conf在启动时不工作,但我只能重新启动锁pipe理器。 这是在Ubuntu服务器10.04.2,内核2.6.32-31 – 服务器。 我知道一些守护进程检查他们的configuration文件的权限,如果他们过于宽容拒绝工作,但是sysctl.conf是644 root:root,我很确定是默认的。
我正在研究在AWS(EC2)基础架构上设置共享文件系统/文件服务器,该服务器提供复制和相当轻松的故障转移。 这个文件系统可能会承载数百万个大小只有几百万的文件。 这些文件将被从几个客户端虚拟机访问(读/写)。 如果主文件服务器失败,我希望客户端能够故障转移到副本文件服务器,而不会丢失任何文件(即我想复制实时)。 我看了几个选项: 使用S3和s3fs。 我担心在数千个文件上执行操作时(例如,当复制/移动文件时),每个请求的延迟都会有问题。 我也听到一些报告,让我质疑s3fs的稳定性 – 不知道是否仍然如此。 在EC2实例上安装NFS服务器,使用drbd在两个实例之间复制块。 缺点: 在过去,我遇到了drbd的可靠性问题,特别是高延迟链接 如果主NFS服务器出现故障,则它将取下客户端,要求系统pipe理员进行干预和/或重新启动以使其重新连接到辅助服务器。 没有自动故障切换。 有没有更好的解决scheme?
这是一个坏主意吗? 我知道旧版本的MySQL在NFS上performance不佳。 我想象的问题在于使用fsnc()和/或O_DIRECT。 如果这些问题大部分已经解决了,那么是否存在常见的陷阱/疑难杂症,特别是在一个很大的(有数千万条logging的多个表)InnoDB数据库中,可能会达到20-50次读取/秒
我们的一台Solaris(10,U8)服务器出现了一个奇怪的问题。 如果我们通过NFS挂载了额外的存储arrays,则Solaris用户login速度exception缓慢。 卸载存储设备,用户login再次变得真快。 有没有人遇到过这样的事情? 我还有其他Solaris 10服务器,其他存储arrays的挂载方式与没有问题相同。 其他的那些实际上是附加到更慢的设备, 应该更糟糕,其他的都是平等的。 我真的不明白为什么一个不应该参与login过程的NFS挂载导致放缓。
应该使用什么存储连接方法将ESX服务器连接到具有10GbE链接的共享存储服务器? 具体说来,我有两台用于VMware ESX的ESX服务器和一台用于共享存储的服务器。 存储服务器是2个Xeon E5504 2GHz,24GB RAM,12xSSD + 12xSATA和电池备份RAID。 ESX服务器非常相似,但有两个小型SAS驱动器。 所有服务器都有10GbE适配器连接,如下所示: 我有一个ESX 3.5的许可证,但为了testing目的,我正在运行ESXi 4.1。 存储服务器运行Windows 7用于testing目的。 我知道至less有三种方法: 1. ISCSI 2. NFS 3. FCoE 你会推荐哪一个select,为什么?
我想将我的postgres data文件夹移动到一个NFS驱动器,但我不知道什么是最好的办法做到这一点。 我有三个select: 根据Postgres文档 ,一种方法是使用带有-D选项的initdb命令。 initdb不存在, initdb将尝试创build你指定的目录。 LinuxQuestions.org上列出的另一种方法是更新postgressql init脚本以指向新的目录,在这种情况下,它将是NFS驱动器。 最后,我想我只是将pgsql/data文件夹复制到NFS驱动器,并简单地符号链接文件夹。 即, pgsql/data -> nfs/data Symlinking或更新初始化脚本似乎是对我来说最简单的方法,但我不知道如果他们会是最好的或最安全的方式。 这是我希望有人能帮助我的地方。 任何build议,关注,利弊将不胜感激。 环境信息 红帽企业Linux服务器5.7 PostgreSQL 8.3.6 假定使用-maproot=root选项挂载NFS驱动器,并且root用户将访问NFS驱动器。
我正在尝试使用Linux for Oracle Linux(OLE)6.1(Red Hat RHEL 6.1兼容克隆)的ZFS。 我为Oracle Unbreakable Kernel成功编译并安装了spl和zfs 。 Zfs正在工作,我创build了镜像 zpool create -f -o ashift=12 tank mirror sdb sdc 现在我试图分享我的zfs池,如zfsonlinux站点上提到的“tank / nfs”。 zfs set sharenfs=on tank/nfs 所以我创build了tank / nfs并设置了nfs 。 现在我试图在本地主机上挂载nfs共享来testing它 mount -t nfs4 127.0.0.1:/tank/nfs /mnt 但是我得到mount.nfs4: mount system call failed 所以问题是: 如何在OLE上正确共享NFS文件夹或iSCSI卷,并通过Linux上的ZFS与Linux客户端进行挂载。 答案是mount 127.0.0.1:/tank/nfs /mnt
如果我理解它是如何工作的,NFS安全依赖于客户端可以被信任的事实。 我担心有些用户访问其他用户的文件。 是的, root_squash选项可以避免客户端上的root用户访问这些文件,但是如果某人在任何客户端上拥有root权限,他可以访问任何用户,然后访问他们想要的文件。 我目前正在将文件导出到所有本地networking。 我正在考虑只导出到一个可信任的客户端networking组,但是这可能是一个很难维护的问题,而且只会让问题变得模糊不清,如果某些可信的客户端获得了根访问权限,问题依然存在。