从VMware的angular度来看,使用NetApp NAS取代运行OmniOS的基于ZFS的NAS具有哪些优势? 制定问题的另一种方式:使用NetApp NAS与使用基于ZFS的NAS相比是否可以解锁function? EGconfiguration或性能,因为VMware可以将命令发送到NetApp。 我的设置将尽可能简单。 没有集群或HA,每种情况下只有一个磁盘arrays。
我正在configuration一个FreeBSD服务器托pipevirtualbox服务半打关键任务繁忙的邮件服务器。 我刚学过ZFS,我很吸引,但有几个问题: ZFS的CPU开销是多less? 我GOOGLE了,发现很less(或没有)的基准。 从我所了解到的情况来看,当ZFS更新文件时,它将旧文件保存为快照,并为新版本写入更新的部分。 但是,这意味着每个快照都需要大量的存储开销。 这个存储开销多less钱? 例如,假设我有2TB的可用空间,一年之后实际上可以为最新版本的文件使用多less空间? 是FreeBSD与ZFS托pipevirtualbox服务半打繁忙的访客任务关键邮件服务器的合理组合? 有什么特别要小心? 我还可以select客户操作系统的ZFS吗? 这是因为我可能build立另一个相同的这样的冗余盒子,并且需要在盒子的每一对客户系统之间做一些镜像。 我正在尝试为此configurationDell R710。 据我所知,我根本不应该select任何RAID,这是真的吗? 在这种情况下,驱动器是否仍然可以热插拔? 这可能听起来有点可悲,但是因为我根本没有使用ZFS的经验,而且这是一个关键任务服务器,所以只是为了以防万一:我select了双处理器的英特尔L5630处理器和6个600GB 15K RPM串行 – 连接SCSI驱动器。 如果将来需要更多的空间,我只需要热插拔一些容量较大的驱动程序来扩展存储空间。 这些没有问题吧?
我完全不了解ZFS上的本地SMB / CIFS 。 这个wiki文档没有提到性能差异。 两者之间有什么样的性能差异?
我正在考虑基于ZFS / iSCSI的架构,用于运行在普通PC硬件的Wimpy节点上并运行FreeBSD 9的HA /横向扩展/无共享数据库平台。 它会起作用吗? 什么是可能的缺点? build筑 存储节点直接连接廉价的SATA / SAS驱动器。 每个磁盘都作为单独的iSCSI LUN导出。 请注意,此层不涉及RAID(硬件和软件),分区,卷pipe理或类似的东西。 每个物理磁盘只有一个LUN。 数据库节点运行ZFS。 ZFS镜像vdev是通过来自3个不同存储节点的iSCSI LUN创build的。 在vdev之上创build一个ZFS池,并在该文件系统内部依次备份数据库。 当磁盘或存储节点发生故障时,相应的ZFS vdev将继续以降级模式运行(但仍有2个镜像磁盘)。 将不同的(新)磁盘分配给vdev以replace发生故障的磁盘或存储节点。 ZFS重新同步发生。 一个失败的存储节点或磁盘总是被完全回收,如果它再次可用。 当数据库节点发生故障时,该节点预先使用的LUN是空闲的。 引导新的数据库节点,从失败的数据库节点剩下的LUN重新创buildZFS vdev /池。 出于高可用性原因,不需要数据库级复制。 可能的问题 如何检测vdev的降级? 每5秒检查一次? ZFS提供的任何通知机制? 是否有可能从现有的组成vdev的LUN重新创build一个新池? 任何陷阱?
我有一台HP DL360 G7服务器,我打算安装KVM和ZFS。 目的是成为一个盒子里的实验室。 我有8驱动器托架前面加载了4个驱动器和一个SSD(ZFS ZILcaching)。 我的目标是保持磁盘arrays远离实际的操作系统磁盘。 我奇怪的是天气是否可以从USB驱动器启动Linux服务器安装以便“生产”使用。 该服务器在主板上有一个embedded式USB / SD读卡器,用于VMware和其他embedded式解决scheme。 这对我提出了一个问题,因为一旦VMware加载,它留在内存中。 另一方面,Linux安装不(至less不是100%)。 我担心,如果我加载操作系统的USB驱动器(或SD卡)我会烧SD卡。 任何人都可以请给我一些这方面的见解? 我想知道我的select是什么。 我目前看到的方式是从ZFSarrays启动Linux或使用USB驱动器。 如果我可以让grub和ZFS root启动很好,那么第一个选项是可以的。 据我所知,这被破坏,或者至less需要一些讨厌的黑客才能把它取消。 就像我所说的,你能提供的任何帮助都会很棒。
我们有20个2TB SATA驱动器用于ZFS池。 我在获得一些有关获得良好I / O性能的最佳方法的build议之后,能够提供一些冗余(数据丢失之前的3个磁盘故障是我们期望实现的)。 我有点困惑,我是否需要使用镜像或raidz。 20个驱动器将被插入2个16端口RAID控制器(每个控制器上10个)。 也许我为每个10个磁盘创build硬件raid卷,然后在zfs中创build,然后镜像两个可用的raid卷,从而创build一个超级卷? 任何build议将是伟大的。
任何可以做RAID-0的存储控制器都可以做JBOD? 我正在寻找一个使用ZFS的存储解决scheme,目前戴尔Perc5i和6i不确定他们的JBOD能力。 ZFS真的只需要JBOD的RAIDZ,RAIDZ2等?
我正在为一家小公司实施新的文件存储解决scheme,并且我想使用Server 2008 R2来提供Active Directory身份validation,但在Unix / ZFS文件服务器上托pipe文件以利用重复数据删除,快照和池pipe理function,即ZFS提供。 有没有简单的方法来控制基于Active Directory凭据的ZFS共享访问? 我正在考虑在文件服务器上创buildiSCSI目标,并让Windows Server处理存储,但是我非常肯定,如果这样做,我将失去使用ZFS(重复数据删除和快照)所带来的每一个好处。
像你们中的许多人一样,我是公司里“照顾备份的人”。 幸运的是,我们是一家软件商店,大部分关键任务数据都保存在一堆储存库中。 这使备份非常容易 – 您只需要一个脚本即可更新远程副本并克隆新的回购。 有些东西不是简单的版本控制,但是 – 就像我们的服务器configuration,电子邮件,networking数据等的大部分。为此,我们使用rsnapshot和普通的rsync组合到一个zfs快照框。 无论我们使用什么 – 最终的结果是文件系统上的一堆文件。 考虑到大量的数据,这些数据不能简单地通过互联网复制到我们的非现场备份存储(这只是一个白色的盒子坐在我家里),我正想着在办公室和我家之间移动硬盘作为反腐败的现场复制保险 – 无论原因是什么。 这样做也非常简单 – 对于我们的rsnapshot备份,我需要做的就是复制文件系统所在的MD设备,而在ZFS上进行备份时,我们可以简单地在新磁盘/ zpool上执行zfs send和recv。 Sneakernet方法对我们有意义吗? 快速向同事解释整个想法也是有用的。 🙂 PS英语不是我的第一语言,所以如果你看到上面的语法错误,不要惊慌:)
情况: 在集成的一体化ESXi / ZFS存储服务器上,存储虚拟机使用裸机磁盘,并通过NFS(或iSCSI)将文件系统导出到ESXi,ESXi将其用作其他VM的池存储,在更新存储虚拟机时有一个问题,因为许多正在运行的虚拟机依赖于它,并且会因为NFS.AllPathsDown或类似原因而超时,这就等于将驱动器从正常的服务器上NFS.AllPathsDown而不closures。 当然,可以closures所有虚拟机,但这会变得非常耗时,也很乏味(或者必须编写脚本)。 将VM移到另一个主机上可能是可能的,但是花费更长的时间,并且在一台机器很多的小型设置中可能无法实现。 暂停虚拟机可以工作,但也很慢(有时比关机慢)。 可能的解决scheme… 一个简单而有效的解决scheme似乎是通过CLI停止VM进程与kill -STOP [pid]之后find它ps -c | grep -v grep | grep [vmname] ps -c | grep -v grep | grep [vmname] ps -c | grep -v grep | grep [vmname] ,执行存储虚拟机的升级/重启,然后使用kill -CONT [pid]继续VM进程的执行。 类似的解决scheme可能是快速重新启动 (在Solaris上可用/ illumos通过reboot -f或在Linux上通过kexec-reboot ),这需要几秒钟而不是几分钟,ESXi中的NFS超时(NFS连接丢失所有I / O被暂停,我想120秒,直到它被认为是永久存储下来)。 如果重启时间在ESXi NFS窗口内,理论上它应该与由于错误纠正而不响应一分钟的磁盘相当,然后恢复正常操作。 …和问题? 现在,我的问题是: 哪种方法更好,还是同样好/坏? 在数据库,Active Directory控制器,用户运行作业等机器等特殊情况下,什么是非预期的副作用? 在哪里要小心? […]