我正在将数据从Win2k3文件服务器迁移到运行Solaris的数据库。 一切进展顺利,直到我开始嵌套股份。 其中一个例子是影印机用于放置扫描文档的共享,这个共享文件夹位于一般人员数据共享中。 这在Win2k3框上工作正常,但是我在Solaris上无法镜像此结构。 我检查了ZFS FS /共享的权限,以确保我可以读取和列出内容。 我也尝试用相似的名字创buildZFS FS /共享,然后创build一个符号链接,指向新文件夹的正确名称,但是没有任何运气。 有任何想法吗?
我正在使用Linux上的ZFS,在我的Debian挤压服务器上。 我在Ubuntu PPA中发现了一个有用的软件包 ,显然是由ZoL开发者之一,我想将它集成到我的软件包系统中。 但是,我真的非常难过。 如果我将系统升级到testing分支,似乎是可能的,但我不希望这样做是因为显而易见的原因。 那么,真正的方法是什么呢? 或者,这样做的可行方法是什么?也就是说,我们整个系统没有像testing分支那样冰冷的九式同化? 编辑:愚蠢的问题。 我在启动板上点击了关于这个软件包的小绿色“技术信息”并全部显示。
我使用ZFS pool version 28和ZFS version 5运行FreeBSD 9.0服务器。 我有两个池在ssd的两个分区上login。 这些池是在FreeBSD 8.2上创build的,ZFS池版本为15,ZFS版本为4。 升级到新的zfs版本后,我尝试从两个池中删除SSD日志设备,两个命令都成功(没有错误信息)。 其中一个池是日志删除,但其他仍在那里,我下了服务器物理删除ssd,并希望它会被zpool忘记。 由于ssd丢失,zpool变得退化。 我捆绑再次删除。 没有错误消息,但日志设备条目仍然存在。 之后,再次成为在线池,我在根UFS分区上创build了一个文件,并将缺less的设备replace为该文件。 这是成功的,池再次在线。 但是我无法从池中删除日志设备。 我在哪里可以find错误消息? (在dmesg中没有任何关于它,也没有任何错误信息,这似乎是成功的。
我想知道为什么Solaris报告 action: Wait for the resilver to complete. scan: resilver in progress since Sun Jul 14 02:42:44 2013 24.9T scanned out of 39.2T at 54.9M/s, 75h46m to go 24.9T scanned out of 39.2T at 54.9M/s, 75h46m to go 908G resilvered, 63.56% done 39.2T是完整池的大小,它由4个raidz1 vdevs构build而成: config: NAME STATE READ WRITE CKSUM volume ONLINE 0 0 0 […]
我必须使用NFSv4设置ZFS存储设备(Oracle ZFS Storage ZS3-2)。 NFS安装在一个Redhat 6.5集群上,在这个集群上创build了linux用户(它们不存在于设备上)。 但是由于用户不匹配,我无法访问音量。 我怎样才能同步用户和控制从Linux端的一切? 我希望能够在存储上设置Linux机器的配额和共享。 这甚至有可能吗? 谢谢
我正在使用各种基于Solaris的发行版(OmniOS,SmartOS,Nexenta),并且在极less量的高性能存储上拥有高度可压缩和可重复数据删除的数据集。 问题是由NFS向客户端发布的空间是免费的空间。 但是由于我可以对传入数据进行重复数据删除和压缩,因此实际的空间要求对源数据文件大小几乎没有影响。 在这种情况下导致问题的是当我想要复制一个大文件或一组大文件时,客户端检查是否有足够的空间,并且看到没有,即使我要重复删除超过90%该文件的内容。 所以在这种types的环境中,有什么方法可以覆盖nfsd给客户端的价值?
我有一个Ubuntu 14.04.1服务器上的5×3TB raidz1arrays。 上个月,其中一个驱动器死亡(听得见的点击)。 我能够用zpool replace RAID <dead drive> <new drive> 。 这完成没有问题,池再次在线和健康。 然后另一个驱动器死亡 我尝试了同样的事情,但游泳池陷入以下状态 # zpool status pool: RAID state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: […]
几个月前我创build了一个新的NAS服务器,并将其设置为RaidZ。 我正在重新考虑这个决定,并希望获得额外的驱动,并转移到RaidZ2。 在大家回复说ZFS不可能的情况下,我想指出,我知道这不是直接可能的。 我已经search了几天的文档,但是似乎没有一套如何手动执行此操作的说明。 我相信我需要: 将整个池移到一个足够容纳已用空间的驱动器上 推倒现有的游泳池。 在raidz2中使用额外的驱动器build立一个新的池 将数据移回池中。 这似乎不是太棘手,但我不熟悉ZFS或FreeBSD相信我成功实现了第1步。我也不完全确定第4步,但是可以重试,而第一步搞砸了玩得开心。 我的阅读表明,rsync是有效克隆驱动器的方法,但我想确保我所复制的内容与源代码完全相同 ,包括系统/隐藏文件,符号链接,监狱等等。操作系统是运行镜像闪存驱动器不会改变,理想情况下,他们甚至不会注意到在下次启动时有任何改变(例如,所有的监狱都像以前一样启动)。 复制/克隆池/驱动器是否也会移动分区信息? 将FreeNAS重新创build这些或将我需要手动操纵它们。 我正在运行FreeNAS 9.3,并在一个raidz池中安装了3x3TB硬盘。 我想最终在raidz2 4x3TB。 目前的池使用1.3TB的空间,我有一个外部的2TB驱动器临时存储。 如果数据丢失,这不是关键任务。 更新 实际问题:如何将池复制到临时驱动器,同时确保它是一个足够完整的副本推回到重新创build的zpool。 另外,如果不是简单的原始副本的反面,我又该如何推回来。
我正在使用ZFS创build运行OpenVZ容器的快照。 对于MySQL数据库,我可以使用flush tables with read lock将其置于刷新和locking状态。 这将使底层文件处于一致的状态,并保留任何传入的查询,直到完成快照为止,最多花费几秒钟的时间。 这是一个示例脚本,没有错误检查和其他内务处理代码: vz_root=/var/lib/vz/root/$veid mysql_locked=/var/run/mysql_locked # flush & lock MySQL, touch mysql_locked, and wait until it is removed vzctl exec $veid mysql -NB <<-EOF & flush tables with read lock; delimiter ;; system touch $mysql_locked system while test -e $mysql_locked; do sleep 1; done exit EOF # wait for the […]
zfs如何在增量发送期间处理销毁快照? 例: 2台使用ZFS的服务器: zfshost1 [root@zfshost1~]# zfs list -t snapshot NAME zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-1 zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-2 zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-3 zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-4 zfshost2 [root@zfshost2~]# zfs list -t snapshot NAME zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-1 现在递增发送快照-2到快照-4到zfshost2 [root@zfshost2~]# nc -w 120 -l -p 1234 | zfs receive -F -d zones/40e66d56-4ea8-11e5-885d-feff819cdc9f [root@zfshost1~]# zfs send -F -R -I zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-1 zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-4 | nc -w zfshost2 1234 (如何)在发送快照的过程中,如果我们删除快照-1,快照-2,快照-3或快照-4 [root@zfshost1~]# zfs destroy zones/40e66d56-4ea8-11e5-885d-feff819cdc9f@snapshot-X X […]