我在Linux上运行最新的Debian 7.7 x86和ZFS 把我的电脑移到另一个房间后。 如果我做一个zpool状态,我得到这个状态: pool: solaris state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: http://zfsonlinux.org/msg/ZFS-8000-4J scan: none requested config: NAME STATE READ WRITE […]
如何将常规的LXC容器(从另一台或同一台服务器)迁移到可以通过Proxmox Web GUI访问的Proxmox LXC容器? 例如,我有一个通过运行创build的容器: lxc-create -n debian8 -t debian — -r jessie 这个容器不会被Proxmox自动拾取。 我可以看到存储在/var/lib/lxc相关数据,而且这样的容器有一个常规的根文件系统,与安装在ZFS rpool上的Proxmox LXC容器创build的原始磁盘不同。 (我正在使用ZFS进行存储,由Proxmox ISO安装程序configuration。) 另一个区别是,Proxmox使用它自己的LXCconfiguration文件。 用Proxmox导入/转换和注册这种容器的最佳程序是什么?
我正在寻找configuration我的服务器在一个奇怪的方式创build一个私有云设置。 我必须把我的存储磁盘绑定的HBA传递给一个虚拟机(可能是xen),以便创build一个vSANtypes的设置。 我想这样做,所以我可以在单个服务器中实施SANtypes设置。 当我问到人们在告诉我时,IOPS不会像裸机一样好。 我把这个考虑到了我的设置中,但是让我想知道这会伤害系统多less? 也有人提到,在裸机上运行的虚拟机,但有一个存储控制器通过创build一个奇怪的依赖性循环,因为虚拟机仍然依赖主机的内存。 除了排除故障之外,是否真的会导致性能显着下降? 噢,顺便说一下,这里主要讨论的文件系统是ZFS。 可能运行在FreeBSD上(包括FreeNAS和NexantaStor)或OpenIndiana。 谢谢!
我刚刚在raidz1中扩展了我的zpool名为storage的HGST 6TB硬盘。 我认为这只会增加大约11.x TB的存储容量(因为它们真的是6000GB驱动器),现在zpool list显示我总共有27.1 TB。 这似乎比我应该有的更多。 我很害怕我做了一些错误的事情,我已经失去了我的家庭服务器arrays上的平价。 我把它们添加到池中 sudo zpool add -f storage raidz1 drive1 drive2 drive3 我做错了什么,如果是的话,是否有可能恢复我的改变? sudo zpool列表 NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT storage 27.1T 9.32T 17.8T – – 34% 1.00x ONLINE – sudo zpool状态 NAME STATE READ WRITE CKSUM storage ONLINE 0 0 0 mirror-0 ONLINE […]
我有兴趣在Linux上的ZFS上的zvols上使用多插槽系统上的KVM映像。 我想知道如何固定NUMA节点,以便为系统上的所有KVM映像最大化ZFS ARCcaching的好处。 显然,我应该把每个虚拟机连接到一个套接字/节点,这样它的所有内存都在一个控制器上。 但是我对如何设置主机感到困惑,所以ARC最大限度地利用了每个虚拟机。 如果我将主机保留在一个NUMA节点上,这意味着另一个节点上的VM对ARC的访问速度会更慢。 但是,如果主机分布在NUMA节点上,则其性能将受到影响,这可能会影响客户端的性能。 从我读过的东西,我甚至不清楚主机是否可以绑定到特定的节点,或者如果根据定义,它使用所有的节点。 如果是这样的话,NUMA节点的Linux ARC上的ZFS有多了解?
我有一个基于ZFS的iSCSI SAN,可将ZVOL提供给一些VM服务器。 如今,networking故障导致客户端上安装的所有iSCSI卷都转为RO。 唯一的办法就是closures它们并重新启动,经常运行fsck让iSCSI卷回到在线状态。 那么,fsck决定彻底摧毁其中一卷。 所以,看起来我不能解决fsck的问题。 我已经读了很多关于在ZFS上恢复文件的情况,但是在这种情况下,我正在处理ZVOL,从某种意义上说,它更简单一些,但是我还没有看到任何处理试图回滚一个块设备。 有什么build议么? -TIA- 一些数据集详细信息: Dataset zpool1/vm3 [ZVOL], ID 59, cr_txg 12078, 44.6G, 2 objects, rootbp DVA[0]=<6:6c2c4b1e00:200> DVA[1]=<7:487aa4b200:200> [L0 DMU objset] fletcher4 lz4 LE contiguous unique double size=800L/200P birth=7736596L/7736596P fill=2 cksum=4c78779ec:2049fb2de6c:6f2f6c4a44e9:1042484aee3ded Deadlist: 1K (512/512 comp) mintxg 0 -> obj 48 mintxg 1 -> obj 4157 Object lvl iblk dblk dsize […]
NB在ZFS池中,我是一个完整的noob。 我昨天在4个3TB硬盘上创build了一个ZFS池,如下所示: 2017-06-10.16:31:08 zpool create data sda sdc sdd sde 2017-06-10.16:31:29 zfs set compression=lz4 data 2017-06-10.16:31:43 zfs set atime=off data 然后我开始复制一些数据。过了一段时间后,我注意到我的游泳池已经不存在了,我的一个硬盘也离线了。 我试图重新启动,希望能够把它重新在线,但我被困在某种forms的循环,如这里所述。 我昨天没有时间处理这个问题,直到现在我才closures机器。 我正试图从USB棒上恢复,但是我又试了一次,系统运行正常! 我运行zpool list ,它说“没有可用的池”。 做了一些Googlesearch,尝试了zpool import data 。 我得到一个错误, 无法挂载'/ data':目录不是空的 再次尝试zpool list ,果然,我们重新上线: NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT data 10.9T 125G 10.8T – 0% 1% 1.00x […]
我试图在单个磁盘上设置ZFS,因为它具有惊人的压缩和快照function。 我的工作负载是一个postgres服务器。 通常的指南build议以下设置: atime = off compression = lz4 primarycache = metadata recordsize=16k 但是对于这些设置,我的确看到了一些怪异的读取速度 – 我只是看着这个atm! 这里是我的testing驱动(英特尔P4800X)与XFS,这是一个简单的直接IOtesting与DD: [root@at-storage-01 test]# dd if=large_file.bin of=/dev/zero bs=4K iflag=direct 910046+0 records in 910046+0 records out 3727548416 bytes (3.7 GB) copied, 10.9987 s, 339 MB/s [root@at-storage-01 test]# dd if=large_file.bin of=/dev/zero bs=8K iflag=direct 455023+0 records in 455023+0 records out 3727548416 bytes (3.7 […]
我目前有我的服务器安装与Linux软件RAID5(mdamd)。 我有LVM,在逻辑卷上有ext3文件系统。 此设置在外置多驱动器机箱中进行镜像。 我正在考虑切换到Solaris(OpenIndiana)以使用ZFS。 我知道我将不得不删除服务器本身的信息,但是当我完成安装OpenIndiana的时候,我应该把它保存在外部机箱上以便将其传回去。 我想过用FAT32格式化机箱上的驱动器,但是我想知道是否有更好的方法。
假设我构build了一个存储系统,每个用户都可以在ZFS池的顶部获得他/她自己的encryption文件系统。 在每个fsencryption的情况下,池级别的重复数据删除是否仍然有效? 我有哪些encryption选项,哪些应该被青睐? 有没有人使用这样的设置,其中的用户空间是不透明的系统pipe理员?