在我们的服务器上 – 运行CentOS 6 x86_64 – 我们看到rpc.statd有很多exception的活动。 我们将rpc.statdconfiguration为通过/etc/sysconfig/nfs在静态端口上运行: MOUNTD_PORT=892 STATD_PORT=662 QUOTAD_PORT=875 这确实导致rpc.statd正常运行并在此端口上侦听: # ps -fe | grep rpc.statd | grep 662 rpcuser 23129 1 0 Apr30 ? 00:00:00 rpc.statd -p 662 奇怪的是,在这个系统上,还有许多其他的rpc.statd实例以–no-notify标志运行: rpcuser 808 1 0 02:23 ? 00:00:00 rpc.statd –no-notify rpcuser 2052 1 0 07:17 ? 00:00:00 rpc.statd –no-notify rpcuser 3558 1 0 Apr30 […]
如何创build需要用户成为两个或更多不同组的成员的文件或文件夹才能读取/写入文件夹? 例如,假设我经营一家汽车维修店,我有一个名为“维修历史”的文件夹,如果他们是“机械师”和“收银员”组的成员,我只希望人们访问它。 这将是一个AND的要求,而不是似乎是常态的OR要求。 我知道我们可以创build一个单独的组来访问文件夹,但这更像是一个学术问题,因为它涉及到我们正在创build的不同的安全结构。 我不知道MS安全处理它,但我想知道如何做到这一点。
我使用GPT和zpool的2x3TB磁盘,第一个磁盘(sda4)上使用2.7TB分区,第二个磁盘(sdb4)上使用1TB。 原因是最初两个磁盘都只有1TB,我用3TB依次replace了两个磁盘。 但是在我有1x1TB和1x3TB的时候,我使用了3TB的剩余部分作为我现在要删除的另一个分区。 我使用Linux上最新的ZFS(0.6.5.7-8-wheezy)。 什么是正确的方法来调整池的全2.7TB? autoresize目前closures。 这是lsblk和zpool status的当前输出: # lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 2,7T 0 disk ├─sda1 8:1 0 1M 0 part ├─sda2 8:2 0 14,5G 0 part │ └─md0 9:0 0 14,5G 0 raid1 / ├─sda3 8:3 0 4,2G 0 part │ └─md2 9:2 0 4,2G 0 […]
我有一个符号链接EVERYWHERE系统,所以给一个特定的目录,有一个简单的方法来找出这个目录是什么挂载点? 对solaris特别感兴趣。
我可以访问一些Mac桌面,其中的硬盘未被充分利用。 我想build立一个分布式的文件系统,把它们组合成一个大的虚拟卷。 服务器必须能够以普通用户身份运行。 我试过PVFS2,但它是为Linuxdevise的,在OSX上运行不好(挂起客户端)。 我应该用什么来代替?
我尝试通过遵循btrfs UseCases指令在“降级模式”下创build一个btrfs RAID-1文件系统,但却遇到了一个致命的断言错误。 为什么这是失败的,是否有任何解决方法? 我遵循的指示是: https://btrfs.wiki.kernel.org/index.php/UseCases#How_can_I_create_a_RAID-1_filesystem_in_.22degraded_mode.22.3F mkfs.btrfs和btrfs filesystem show命令的输出是: # mkfs.btrfs -m raid1 -d raid1 /dev/sdd1 /dev/loop1 WARNING! – Btrfs Btrfs v0.19 IS EXPERIMENTAL WARNING! – see http://btrfs.wiki.kernel.org before using failed to read /dev/sr0 adding device /dev/loop1 id 2 mkfs.btrfs: volumes.c:802: btrfs_alloc_chunk: Assertion `!(ret)' failed. zsh: abort (core dumped) mkfs.btrfs -m raid1 -d raid1 /dev/sdd1 […]
我有2个远程文件夹包含几个文件。 我正在使用rsync来同步2.问题是,在第一台服务器上,每天都严格按照新的数据进行附加操作。 当我调用rsync时候,我觉得它再次复制整个文件。 我的电话是否正确? rsync -rtvu src_fld/ user@myserver:/opt/dst_fldr/ 我的理解是, rsync能够计算2个文件之间的差异,所以我期待着一个非常快速的更新。
今天我在xen虚拟机服务器上做了一些愚蠢的事情。 我将外部设备映射器挂载为只读文件系统的副本。 这个过程进行得很顺利,但是在访客机器中rootfs /成为只读。 /dev/xvda on / type ext4 (ro,relatime,errors=remount-ro,user_xattr,barrier=1,data=ordered) 幸运的是,所有使用/home和/var分区的重要服务,所以机器不会停止运行,但现在我不能重新挂载/ root作为RW,而无需重新启动它(这不是一个选项,因为它是生产)。 我试过了: fsck -f /dev/xvda mount -o rw,remount / mount -n -o remount,rw / 它不允许重新安装它作为RW。 [Mon Jul 7 14:59:06 2014] EXT4-fs error (device xvda): ext4_remount:4558: Abort forced by user [Mon Jul 7 14:59:21 2014] EXT4-fs error (device xvda): ext4_remount:4558: Abort forced by user [Mon […]
我有一个控制器服务器和两个24个SAS文件服务器arrays。 每个文件服务器arrays都设置为一个ZFS池,每个RAIDZ2 vdevs有6个驱动器。 最终,我希望能够将控制器服务器用作两个文件服务器的单个装入点。 主要思想是我的最终用户只需访问一个控制器服务器和一个安装点,以便在两台服务器的组合存储容量上访问/备份他们的数据。 我正在考虑使用glusterfs,但是迄今为止我所能find的信息似乎是用于生成冗余存储池的。 在这个应用程序中,gluster正被用作分布式镜像RAID1,这并不适合我的需要,因为它会产生另一个不需要的冗余级别。 您如何build议我从两台独立的计算机上托pipe的ZFS池创build非冗余分布式文件系统? 有没有办法做到这一点与gluster,或者如果有不同的NFS更适合完成这个? 我也考虑过桑巴舞,但是我不确定它是否足够安全。 我真的很喜欢只有在控制器上公开托pipessh的严格的2FAauthentication的前景。
现在我已经决定使用OpenSolaris,并且使用ZFS的速度和可爱性与LVM + XFS相比。 但现在我留下了一个关于如何configuration初始磁盘布局的困境。 由于我还是一个新手系统pipe理员,我想知道还有哪些更有经验的系统pipe理员会configuration以下内容: 我使用comoddity硬盘驱动器,这是我必须玩的。 2个1TB 2x 750Gb 5x 500Gb 2x 320Gb 核心操作系统安装在60Gb SSD中。 我有以下开始build立这个新的设置: 2个1TB 3x 500Gb 一旦其他的Linux服务器被中断,我想补充一下: 2x 750Gb 3x 500Gb 2x 320Gb 我需要为500Gb左右的冗余设置(这是我们所有的源数据将驻留在这里 – 电子邮件,文件等)。 另有2-3TB的FAST可访问数据,其中有大量的video文件(大部分是3-4Gb的大小,有些是1.4Gb MPEG和原始的AVI)。 会有什么build议? 我仍然不确定是否可以使用我拥有的驱动器数量和存储池的想法来完成RAIDZ1。 这里是我们的布局 – 在Linux中: / home /(320Gb) / media / Storage(500Gb) / media / Scratch(〜2.5TB = 2×750 + 2×500) / media / Musical(500Gb) […]