我们有一些在iSCSI磁盘上运行的opensolaris区域。 ISCSI服务器有性能问题,所以我们需要移动到另一个存储解决scheme。 现在我们要移动到本地磁盘。 有没有办法改变磁盘并保持区域运行? 感谢Martijn
我在一家越来越大的小公司工作。 我们已经增长了我们的老备份系统(一个小NAS盒和糖同步),并想移动到更好的东西… 我们目前有3个服务器,2个Win2k3盒子和一个2k8盒子。 我们的一台服务器上运行着SVN,上面有我们所有的代码,这是备份最重要的机器。 我们也有SQL框,Oracle实例和MySQL也安装… 我一直在寻找异地备份计划,并一直在考虑以下内容: 取出我们目前拥有的所有机器,并使用System Center Virtual Machine Manager中的P2V工具对其进行虚拟化。 使用ZFS和iSCSI将VHD存储在Nexenta或Solaris计算机上。 使用ZFS的快照工具,我们可以在运行时捕获这些实例的快照,并将其备份到Amazon S3或类似的服务器上。 然后在晚上之间备份更改。 如果一台机器发生故障,只需更换物理盒并将其添加到HyperV池。 复制虚拟机(复制不是正确的词,鉴于文件存储在iSCSI,但希望你知道我的意思)。 只要SAN构build正确,我们就可以确定磁盘发生故障(ZRAID或ZRAID2) 因为一切都备份到S3,如果我们松动办公室(火,meteor罢工,外国人等),我们可以得到我们的数据(只要亚马逊仍然存在)。 你怎么看? 这是一个可行的解决scheme? PS:好处我只是使用ZFS:重复数据删除应该(理论上)是指我们在iSCSI盒子上存储较less。 如果我们将所有机器升级到2k8R2,我们只需要存储一个真正的副本…其余的重复…
我正在寻找更改当前文件共享用于在现有的双节点MSCS SQL群集中的文件共享见证。 目前,这个共享是由一个远程Windows机器托pipe的,我想移动这个机器,以便由运行ZFS的Solaris NAS在CIFS上托pipe。 我已经使用访客写入权限在NAS上configuration了共享,并且可以使用\\1.1.1.1\mscsquorum从客户端访问它。 但是,当我通过configuration群集仲裁向导时,它抱怨\\1.1.1.1\mscsquorum is not a valid file share path 。 它将愉快地validation\\2.2.2.2\Quorum的旧文件共享path。 我可以看到的唯一两点区别在于,旧文件共享位于Windows 2003计算机上,而该文件夹是用于群集的同一个域的成员。 另一方面,Solaris框不在任何域中。 我怀疑群集向导试图访问与域帐户的共享,并检查特定的权限,这是失败的,因为我已经有效地允许全局访客访问该共享。 有没有什么办法可以使这个工作,或者一个文件共享见证总是由一个Windows机器在与集群相同的域中?
我正在Ubuntu上尝试使用Native-ZFS。 以下是系统上安装的驱动器: 2 x 2TB 3×1TB 一个200GB的操作系统磁盘 我已经安装了操作系统,并通过PPA安装了12.04的稳定ZFS RC。 在ZFSconfiguration方面,我想获得最大理论容量和1个驱动器故障保护(所以5TB)。 我正在计划这个configuration: 1 zpool: 1 4TB RAIDZ vdev: 3个1TB的驱动器 2个1TB分区,每个2TB驱动器都有一个分区 1 1TB镜像vdev: 2个1TB分区,每个2TB驱动器都有一个分区 首先,这个configuration是否有意义? 有没有更好的方法来实现5TB(例如7 x 1TB RAIDZ2)? 我并不担心performance(尽pipe我对升级能力有些担忧)。 其次,有人可以指点我(ZFS)的咒语来创build这样一个(轻度复杂的)池吗? 我发现所有的指南创build一个1-1 zpool-vdev并使用整个原始磁盘,而不是分区。 我发现的有关分区的大部分文档都是BSD或Solaris,我不确定它适用于Linux的多less。 谢谢!
我已经在虚拟机上安装了NAS4Free,并且按照build议将其安装在1GB的虚拟磁盘上,并将另外500GB的磁盘分配给该虚拟机进行文件存储。 我已经创build了磁盘,对其进行了encryption,创build了一个ZFS虚拟磁盘,然后创build了一个ZFS存储池。 一切正常。 在每次重新启动这个虚拟机时,我需要继续安装encryption的驱动器。 最近我升级了主机,现在我无法安装或使其工作。 我试图删除一切,并从头开始设置一切,格式化磁盘的例外。 我已经使用了一个encryption的没有格式化它。 有没有人有什么build议,我至less可以取回我的数据? 我可以以某种方式挂载encryption的驱动器,甚至在另一个实用程序,只需要找回它的数据呢?
我一直在从我的池中复制数据,以便我可以用不同的版本来重build它,这样我就可以离开solaris 11,在freebsd / openindia等之间移植一个,而前一天它以每秒20MB的速度复制是关于所有我的桌面驱动器可以处理从networking写入。 突然昨晚它下降到1.4MB我跑zpool状态今天得到这个。 pool: store state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the device with 'zpool replace'. see: http://www.sun.com/msg/ZFS-8000-9P […]
我升级了我的内核和驱动程序的信改变了,所以我失去了我的zfs磁盘(这是一个testing系统)。 所以我想知道如何恢复它们。
我有一个基于Solaris 10 ZFS的NFS服务器。 物理磁盘或多或less处于其最大IO速率。 性能非常糟糕 – 所以我们将添加主轴。 NFS仅用作XenServer Hypervisors的存储。 我想知道哪些VM磁盘(意味着存储上的.vhd文件)正在产生大部分的负载。 我如何查询文件系统或可能nfsd得到一个iostat或顶部像输出文件名和读取/写入。 数字可以是绝对的或相对的。 我试过iosnoop 。 这绝对是正确的方向。 不幸的是,它似乎无法获取ZFS文件系统上的文件名。 我没有dtrace的经验。 也许那里已经有一个脚本?
我试图在AMD64平台上的Ubuntu 12.04 LTS KVM上安装NexentaStor 3.1.4.1。 在安装过程中,我遇到以下exception: “用户模式下的未知陷阱types8” 任何人都可以指出我可能是什么问题? 谢谢。
所以我对ZFS地址的一个场景的理解是RAID5驱动器出现故障,然后在重build期间遇到了一些损坏的数据块,因此无法恢复该数据。 从谷歌search我没有看到这种失败情况展示; 磁盘故障中的文章,还是关于修复数据损坏的文章,但都不是两者。 1)ZFS是否使用3驱动raidz1容易出现这个问题? 即如果一个驱动器丢失,被replace,并且在读/重build时遇到数据损坏,那么没有冗余来修复这个数据。 我的理解是,损坏的数据将丢失,正确的? (我明白周期性擦洗会最大限度地降低风险,但是假设自上次擦洗之后在一个磁盘上发生了一些微小的损坏,而另一个磁盘也失败了,因此在重build期间检测到损坏) 2)raidz2 4驱动器安装程序可以防止这种情况发生吗? 3)是否有一个两个驱动器镜像设置与副本= 2将防止这种情况? 即一个驱动器失败,但另一个驱动器包含所有数据的2个副本,所以如果在重build过程中遇到损坏,该磁盘上是否有冗余副本以恢复? 这对我来说很吸引人,因为它使用了raidz2设置的一半磁盘,尽pipe我需要更大的磁盘。 我没有致力于ZFS,但是这是我已经读了几年了。 如果有类似于par archive / reed-solomon的东西,它会产生一些奇偶校验,这可以保护高达10%的数据损坏,并且只使用一定数量的空间,与您需要的x %损坏保护程度成正比。 然后,我只是使用镜像设置,镜像中的每个磁盘将包含该奇偶校验的副本,与上面的选项#3相比,这将相对较小。 不幸的是我不认为里德 – 所罗门很适合这种情况。 我一直在阅读美国航空航天局(NASA)关于实施里德 – 所罗门(reed-solomon)的文件(我可以发现的唯一全面的解释并不需要购买关键期刊),据我的理解,这套平价数据需要对源数据的每次增量更改完全重新生成。 也就是说,对源数据的小增量变化作出响应,对芦苇 – 所罗门奇偶校验数据进行增量更改并不容易。 我想知道,如果在某个概念上有某种类似的东西(比如less量的奇偶校验数据保护源数据中的任何地方的X%腐败),那么有人知道,但我认为这可能是一个梦想。