Articles of ZFS

我的自由记忆在哪里? (Solaris 10)

我有一个默认的Solaris 10安装在一个64GB的盒子上运行。 由于某些原因,并不是所有的内存都可以使用。 我甚至为此烦恼的原因是因为我试图让mysql在那里运行,并给它58GB的内存,或更多,但我可以映射的最大值是45GB(Nmap失败)。 没有任何东西在运行,除了GUI(我们将尽快删除)。 但用户界面并没有解释13 GB的内存已经消失的事实。 如果ARC是Solaris中已用内存的一部分(而不是linux中的filecache),那么UI将消耗5GB,而MySQL的内存至less应该有55GB。 但是:如果这个内存被ARC消耗了,当innodb试图对内存进行映射(或者做到这一点)时,它应该给内存起作用,所以没有任何意义。 我怎样才能看到什么消耗这个内存,并释放它? 一些技术数据: #kstat -m zfs | grep大小 data_size 7847447040 hdr_size 139495272 l2_hdr_size 0 l2_size 0 other_size 510852000 尺寸8497794312 # 最佳 96个进程:95个睡眠,1个CPU CPU状态:空闲99.9%,用户0.0%,内核0.1%,iowait 0.0%,swap 0.0% 内存:64G物理内存,51G空闲内存,2048M交换,2048M免费交换 PID USERNAME LWP PRI NICE SIZE RES STATE TIME CPU COMMAND 1529根1 59 0 67M 10M睡眠11:17 0.20%mixer_applet2 902根1 59 0 12M […]

我可以像访问一个文件一样访问ZFS卷吗?

好的…听起来像是一个奇怪的问题,但忍耐着我。 我可以像访问一个文件一样访问ZFS卷吗? 具体来说,我可以通过NFS共享一个ZFS卷作为文件吗? 以下是我正在做的:我有ZFS卷,我通过iSCSI共享到Mac OS X工作站。 工作站将iSCSI设备格式化为Mac OS X扩展,然后备份到它们。 我想要做的是从以前的备份中获取快照,并将其作为OS X .dmg文件提供。 如果我能以某种方式将ZFS卷并通过NFS共享给名为something.dmg的OS X客户端,他们应该能够在其桌面上安装卷并查看其中的所有文件… 这可能吗..?

长时间运行的VMWare快照很糟糕…但是ZFS \ LVM快照上的VMDK又如何呢?

VMWare KB和多个博客指出,长时间运行的快照对性能和完整性都不利。 他们有有效的分数。 当然,这不是在ESXi上,而是在NIX服务器上的Workstation \ VirtualBox,我确实看到很多博客都在使用LVM(甚至是ZFS)快照。 假设LVM,他们实际上将他们的VMDK存储在一个LVM卷上,并且获取他们想要的所有快照。 我没有看到这个解决scheme与简单地使用VMDK快照有什么不同,但是从性能或者完整性的angular度来看,VMWare并没有提到它。 很多博客都认为这是一个快照解决scheme。 这就是长期运行VMWare快照坏,如果他们不是真正的VMWare快照,而是在LVM \ ZFS卷上的VMDK? 澄清 长时间运行的快照是一个连续运行很长时间的快照。 假设我设置了几个Windows虚拟机,在LVM级别快照它们,并运行它们几个星期或几个月(甚至可能在整个过程中)。 当我想要回滚时,只需回滚快照即可返回到以前的版本。 VMWare KB明确指出(对于本地VMWare快照) “使用单一快照的时间不能超过24-72小时,为了应用程序或虚拟机版本控制的目的,快照不应该长期保存。 众所周知,人们运行LVM \ ZFS快照大量时间,没有不良影响。

将具有3个活动磁盘的ZFS镜像转换为2 + 1个热备份

在使用ZFS和raid1安装Proxmox VE 3.4并使用三个磁盘后,我得到以下池: root@pve:~# zpool status pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 sda3 ONLINE 0 0 0 sdb3 ONLINE 0 0 0 sdc3 ONLINE 0 0 0 如果我正确理解安装,所有的数据将被镜像到三个磁盘上。 即使这会支持2个驱动器的同时出现故障,但我认为将所有内容写入到两个磁盘会有性能损失。 我觉得两个就够了。 如何转换sdc3作为热备份。 我希望它自动启动并在发生驱动器故障的情况下更换损坏的磁盘。

ZFS:最佳实践文档状态:“在具有1,000个ZFS文件系统的系统上…”?

文档状态: “在具有1,000个ZFS文件系统的系统上,为每10,000个安装的文件系统(包括快照)提供1 GB的额外内存。” 这意味着什么 – 这些人如何使用ZFS? 他们在每个用户安装的文件中使用ZFS吗? 还是它指的是真正庞大的数据中心? 我一直认为ZFS倡导单一的文件系统,一个巨大的文件系统。 为什么文件谈论人们安装1000年?

取消删除Samba共享的ZFS文件

用户通过Samba共享删除​​了包含重要文件的目录。 分享来自运行ZFS的Nexenta机箱,raid-Z3。 上次备份是12小时前 – 是否有办法恢复1天的工作? 编辑: 当被问及关于Nexenta论坛的话题时 ,类似的回应。

如何将文件用作zpool?

如果我做 dd if=/dev/zero of=/tank/test/zpool bs=1M count=100 我怎么能把文件/tank/test/zpool作为一个vdev,所以我可以使用它作为一个zpool? 这仅适用于zfstesting目的。

升级zpool后写入大文件时,我的OpenSolaris服务器挂起

昨天,我在一个opensolaris服务器上添加了新的硬盘(四个作为raidz1,另一个作为热备用),扩展了zpool后,服务器在写大文件时挂起,而在读大文件(大文件=> 1GiB)时没有挂起。 升级之前的zpoolconfiguration如下所示: state: ONLINE NAME STATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1 ONLINE 0 0 0 c9t0d0 ONLINE 0 0 0 c9t1d0 ONLINE 0 0 0 c9t2d0 ONLINE 0 0 0 c9t3d0 ONLINE 0 0 0 升级之后,zpool看起来像这样: state: ONLINE NAME STATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1 ONLINE […]

Windows Server 2012 R2上的群集共享卷会在暂停时发生轻微的iSCSI暂停

我们遇到了一个问题,那就是连接到我们的Hyper-V 2012 R2集群的集群共享卷正在被丢弃/发生故障,因为它正在使用的iSCSI SAN连接稍有中断。 这当然是一个问题,因为它会导致所有虚拟机崩溃或closures。 主SAN节点故障切换到其副本时,会发生iSCSI SAN连接中断。 在二手车接机之前,停机时间约为10-15秒。 我们使用基于FreeBSD + ZFS的解决scheme与HAST + CARP一起提供高可用性存储。 在Windows端安装非群集iSCSI LUN时,故障转移将起作用,例如与启动器正常连接。 I / O只是暂停,直到连接重新build立。 我期望与CSV有相同的行为,但唉,它似乎是非常挑剔的I / O超时。 有没有办法来延长CSV超时,或者对这个问题的其他修复?

在OpenSolaris和ZFS上运行MongoDB的潜在问题?

我已经在CentOS上使用了ext4上的MongoDB几个月了,没有任何问题。 我可能会转移到Joyentcloud,他们的SmartOS基于OpenSolaris,并使用ZFS。 我想知道是否可能有一些缺点,切换到MongoDB这个?