我运行一个Proxmox集群,在这个集群上,我有一些专用networking上的虚拟机,一个(Proxmoxpipe理的)CEPH存储后端用于VM磁盘。 运行“Ubuntu 16.04 server minimal vm”的一台(KVM)VMconfiguration了第二个“硬盘”,设置为一个磁盘ZFS池“存储”,使用 zpool create storage /dev/sdb1 它被自动挂载到/存储。 这个虚拟机也运行nfs-kernel-server。 然后通过/ etc / exports中的以下行通过nfs导出该目录: /storage 10.10.0.0/16(rw,sync) 我从另外两台机器(一台运行Ubuntu 14.04的虚拟机,一台运行Ubuntu 16.04服务器的物理机器)挂载这个导出 mount -t nfs4 10.10.3.1:/storage /mnt 由于这是testing存储设置的操作环境,因为这两个Web服务器托pipe一个写入Berkeley DB文件的旧Perl应用程序,所以我决定使用一个简单的PHP脚本以简单的方式testing我的共享存储后端并发写入: <?php $line = str_repeat($argv[1], 30) . "\n"; for ($i = 1; $i <= 10000; $i++) { $of = fopen("test.txt", "a") or DIE("can't open output file\n"); fwrite($of, sprintf("%04d-", […]
我正在考虑在ZFS文件服务器上存储Active Directoryconfiguration文件。 我碰到了这些使用ZFS和本地Solaris CIFS协议与Active Directory集成的说明。 这似乎很容易实施,但过于复杂的pipe理。 这样做有没有好处,而不是使用iSCSI共享? 有最佳做法吗?
随即问了一个关于在ZFS池中应用20个2TB硬盘的最佳方法的问题。 我已经提出了以下设置(感谢很多有用的build议),并会喜欢关于我可能错过的意见和build议。 我有两个连接有以下磁盘的SATA控制器(controller1和controller2): 调节器 disk1的 磁盘3 磁盘5 disk7 spare1中 控制器2 DISK2 磁盘4 disk6 disk8 域spare2 我的想法是使用镜像对磁盘创build池,每个控制器各有一个磁盘; 即: mirror1:disk1&disk2 mirror2:disk3&disk4等 两个备用驱动器会给我一些冗余,而且由每个控制器的磁盘组成的镜像也应该给我一些冗余。 我错过了什么? Ii觉得我可以通过添加镜像对而不必大惊小怪,也可以通过添加备用对来增加冗余。 我觉得这样会让我在速度和裁员方面有一个很好的平衡。 思想欢迎和赞赏。
我们正在研究构build用于虚拟化和一般存储需求的iSCSI SAN。 在之前的工作中,我使用opensolaris(当时是SUN)构build了iSCSI SAN,并利用快照send / recv将数据发送到dr站点。 这个设置仍然运作良好,并没有太多的关注。 由于我工作的公司越来越多,我们现在正在面临我们的限制,现在我们正在考虑购买SAN或自己build设。 在这一点上,我们需要三个独立的节点,一个在我们的内部站点,另一个在我们的DR位置。 我们已经缩小到两个选项,因为我们已经试图查看netapp / equallogic / hp msa系列方面的成本是荒谬的,你得到的。 选项一:为每个位置购买Oracle硬件(一个7410),并利用内置的复制软件(这是AVS?)在站点间复制。 它看起来像有12TB的RAW,这意味着我们可能有4TB后实施raidz横跨卷。 这是一个问题,因为我们基本上会以磁盘空间最大化的方式回到我们开始的地方。 但是我们现在有冗余。 我们可以添加更多的架子来获得更多的存储空间,但是在这一点上,我们被坚持使用Oracle提供的硬件,我们被locking了。 选项二:在每个位置使用戴尔硬件,r710s和戴尔md1200arrays。 通过Oracle购买Solaris(每个处理器1000美元,所以3千美元)。 我的问题在哪里,是复制件。 我曾经在SUN AVS开源时使用它,它可以做什么是令人惊讶的。 我也曾经使用snapshot send / recv(效率低下),你还能购买AVS吗? 如果有的话,任何人都有这个产品的成本数字? 我在甲骨文的网站上看到,它是作为一个下载,但他们说,你必须支付每TB传输。 任何想法的成本? 上述想法是否有意义,也就是健康检查? 我只是想得到社区的意见,也许看看别人是否走了这条路,如果在这样一个更大的设置中,我应该知道有什么障碍。 我曾经看过zfsbuild.com,并在互联网上寻找想法,我找不到的唯一问题是复制件。 在此先感谢您的任何答案。
我有一台运行FreeBSD内核的Debian备份服务器,以及一个使用ZFS快照和压缩技术存储备份的ZFS文件系统。 Debian服务器使用rsync通过cron作业从多个其他服务器提取文件。 这个过程很好。 然后,我使用CIFS将备份共享回原始服务器,以便我可以轻松浏览它们并从每个服务器恢复文件。 但是,当我在服务器上使用ls来查看备份共享(通过CIFS安装)上的某些目录的内容时,我看到多次列出相同的确切文件。 其实很多很多次: [root@webserver01 public_html]# ls -li /backup/scripts/|less total 663621 57872359 drwxr-xr-x 4 root root 0 Apr 3 21:40 ./ 2 drwxr-xr-x 20 root root 0 Mar 24 18:20 ../ 57872880 -rw-r–r– 1 root root 6494 Dec 16 2008 AcctLock.pm 57873180 lrwxrwxrwx 1 root root 7 Mar 15 15:21 adddns -> add_dns* […]
背景 我正在构build一个简单的家庭使用的存储服务器,并且在我们的Solaris存储服务器工作之后,我对它进行了一些build模。 但规模较小。 基本布局是带有四个热插拔磁盘插槽的机箱,一个SSD或一个USB存储盘上的Solaris,以及一个镜像集中的两个1 TB磁盘。 这将使我留下两个空的热插拔插槽,以便在需要时添加更多的存储空间。 在工作中,我不会考虑没有热备份的两个磁盘镜像,因为第二个磁盘可能与第一个磁盘来自同一工厂批次,并且在第一个磁盘出现故障十分钟后可能会出现相同的故障。 在家里,我不想为热点或更多的磁盘支付费用,但希望得到一些保护。 问题 在一个镜像组中混合驱动器的共识是什么,比如一个WD RE4和一个希捷Constellation ES? 它至less应该将系统制造缺陷取出两个磁盘的可能性降到最低。 ZFS处理小尺寸差异不成问题,但是在这里还有其他潜在的陷阱或恐怖故事吗?
问题 我试图从Windows或Linux计算机上configuration一个到NexentaStor设备的SSH隧道,以便我可以根据Crashplan支持站点上的这些说明将Crashplan桌面GUI连接到在Nexenta盒子上运行的无头Crashplan服务器: Connect到一个无头的CrashPlan桌面 。 到目前为止,我无法从Windows客户端(使用Putty)或Linux客户端(使用命令行SSH)获得有效的SSH隧道。 我相当确定问题出在NexentaStor的接收端。 博客文章 – Nexenta上的CrashPlan备份 – 表明它可以在“在/etc/ssh/sshd_config启用Nexenta中的TCP转发之后”工作 – 尽pipe我不确定如何去做或者特别是什么我需要去做。 我已经尝试过的东西 确保Nexenta框上的Crashplan服务器正在侦听端口4243 $ netstat -na | grep LISTEN | grep 42 127.0.0.1.4243 *.* 0 0 131072 0 LISTEN *.4242 *.* 0 0 65928 0 LISTEN 从Linux主机build立隧道: $ ssh -L 4200:localhost:4243 admin:10.0.0.56 然后从Linux主机的另一个terminal上用telnetvalidation隧道: $ telnet localhost 4200 Trying ::1… Connected to localhost. Escape […]
我正将一个目录结构从UFS文件系统迁移到ZFS。 在旧的位置我有POSIX ACL设置强制所有结构中的新文件/目录创build组写权限 – group::rwx default:group::rwx 在新的ZFS文件系统上,我试图用“file_inherit / dir_inherit”标志设置NFSv4 ACL来复制这个文件系统,但是发现这些被删除(或者在目录的情况下,被一个带有“inherit_only”设置的ACE代替)因此该组中的其他用户在新目录中没有写入权限。 例如: $ chmod A+group@:rwxp:fd:allow . $ ls -Vd . drwxrws—+ 6 user1 grp1 13 Nov 8 12:55 . group@:rwxp———-:fd—-:allow owner@:————–:——:deny owner@:rwxp—AW-Co-:——:allow group@:————–:——:deny group@:rwxp———-:——:allow everyone@:rwxp—AW-Co-:——:deny everyone@:——aRc–s:——:allow $ mkdir test $ ls -Vd test drwxr-sr-x+ 2 user1 grp1 2 Dec 1 14:24 test group@:rwxp———-:fdi—:allow group@:————–:——:allow owner@:————–:——:deny owner@:rwxp—AW-Co-:——:allow […]
我正在为我公司的开发人员推出沙箱虚拟机服务器。 对dom0主机的要求是:本地,重复数据删除的ZFS存储(没有单独的存储服务器)和Xen 4.1+(4.2是理想的)。 我检查了Oracle VM,但它只有Xen 4.0。 我也看了Xen官方支持的dom0s 列表 ,但没有一个支持ZFS的(openindiana / illumos和opensolaris)似乎足以运行Xen 4.1+。 题: 哪些操作系统对ZFS / Dedup具有强大的支持(读取:稳定和体面的性能),并且可以顺利(读取:良好的硬件兼容性)作为Xen 4.1 +的dom0主机工作? 如果可能的话,我想避免编译Xen并且有一个稳定的包,但是如果这是必须的,我可以处理它。 我同样喜欢将ZFS支持集成在一起,而不是通过可用于非Oracle Linux的黑客入侵的内核扩展/ FUSE模块来运行。 再一次,如果这是不可能的,我可以处理。 如果你关心这个原因:开发者需要Xen 4.1或者更好的做一些奇怪的事情,我不清楚CAD和passthrough,pipe理层喜欢ZFS,所以这也是“必须拥有”的。 我知道,重复数据删除的ZFS使用了大量的硬件资源,但是将硬币投入硬件的function却不错。
我有一个简单的ZFS设置,我已经运行了几年了。 当我最初设置它的时候,我创build了一些分区,并在我的两个驱动器的每个分区上创build了一个zpool,并使用其他分区来启动。 现在,但是我有一个单独的驱动器启动和其他一切,所以我只想使用我的zpool整个驱动器。 我最近更换了一个驱动器,所以我已经在一个驱动器上这样做了: tank ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ada2 ONLINE 0 0 0 ada1p4 ONLINE 0 0 0 我现在想要做的是用ada1replaceada1 ,问题是,我该怎么做? 是否像zpool replace tank ada1p4 ada1一样简单,或者是一个坏主意?