我尝试使用rsync同步两台机器之间的文件,但它似乎复制所有的文件,无论文件修改时间。 连续两次调用该命令产生相同的结果,所以显然是中断的。 有问题的命令是: rsync -r local/path user@host:/remote/path -v 本地文件系统是ext4,而远程是ext3。 我怀疑这个问题在这里,因为当我试图在同一个ext3系统和NTFS驱动器之间同步文件时,我遇到了类似的问题。 将后者转换为ext3解决了这个问题。 这次我不能诉诸转换。 有谁知道问题的确切来源和任何可能的解决scheme?
我想知道是否有一些规则(或公式)可以用来确定ext4分区中文件系统将使用多less磁盘空间。 例如,在100 GB的分区中,我可以使用多less? 它取决于其他参数,如inode大小等?
我相信CentOS 5中的默认操作系统文件系统是ext3。 是否可以在Centos 5.x上使用ext4,或只在6.x上使用? 我可以升级现有的ext3文件系统到ext4吗?
我们的ext4文件系统上的一个大文件可能在中间拾取了一个坏块。 将文件复制到另一个驱动器会导致部分input/输出错误。 超过坏道的数据仍然看起来不错。 我们没有这个文件的备份,因为它是最近创build的,所以我正在寻找一种方法来复制文件的整个可读部分,同时跳过坏扇区。 我已经阅读了其他网站,build议恢复坏块的整个硬盘驱动器的方法,但他们没有太多的恢复任何跨越坏块的文件。 谢谢。
我有一个Ubuntu的10.04服务器,其中有几个磁盘。 这些磁盘是使用联合文件系统设置的,它们将它们全部显示为一个逻辑/主目录。 前几天,由于缺乏更好的解释,其中一个磁盘似乎突然“变空了”。 / home mount上的数据量在几分钟内几乎减半了 – 在“变空”之前,磁盘似乎已经超过了400 GB的数据。 我完全不知道发生了什么事。 其他时间我没有使用服务器,但是有六十个其他用户可能已经(没有root访问权限,并且没有软pipe整个磁盘的能力)。 我已经在磁盘上运行SMARTtesting,并且恢复干净。 文件系统检查正常(现在有12 GB的使用,因为一些用户软件在事件发生后继续下载)。 我所知道的是,在十月十九日午夜左右,磁盘使用情况发生了巨大变化: 2012-10-18 23:58:03.399647 – 有953.97 / 2059.07 GB [46.33%] 2012-10-19 00:13:15.909010 – 有515.18 / 2059.07 GB [25.02%] 除此之外,我没有太多要去:-( 我知道: 当时的日志文件中没有什么有趣的地方 没有人似乎通过SSHlogin时发生(大多数用户甚至不使用SSH) 服务器通过任何发生在线(3个月的正常运行时间) 其他磁盘都没有受到影响,服务器上的其他所有内容看起来完全正常 我曾尝试在磁盘上使用“extundelete”,并没有真正find任何东西(一些临时文件,但他们看起来是新的) 我完全不知所措。 我最初想到的可能是根本升级漏洞,但即使有人恶意“rm”磁盘内容,400 GB也需要15分钟以上?
我有这个外部的USB磁盘: kaefert@blechmobil:~$ lsusb -s 2:3 Bus 002 Device 003: ID 0bc2:3320 Seagate RSS LLC 在这个dmesg输出中可以看到,有一些问题可以防止磁盘被挂载: kaefert@blechmobil:~$ dmesg … [ 113.084079] usb 2-1: new high-speed USB device number 3 using ehci_hcd [ 113.217783] usb 2-1: New USB device found, idVendor=0bc2, idProduct=3320 [ 113.217787] usb 2-1: New USB device strings: Mfr=2, Product=3, SerialNumber=1 [ 113.217790] usb 2-1: […]
所以我们坚持使用这个封闭的源代码系统,不断地将文件夹添加到一个目录中,并且由于是ext3,它将很快达到32k的限制。 而且该文件夹很快也会有+ 10万个文件夹。 它是2.6.24-27-xen x86_64 Ubuntu 8.04.4 LTS ext4不支持,reiserfs有问题,我们现在正在尝试xfs。 有没有人可以提出我们最好的前进方向(理想情况是从经验 )给予上述常数?
我最近用mdadm设置了我的第一个软件raid,在向raid添加更多的磁盘之后,我无法将文件系统重新设置为raid的全部大小。 我通过以下方法在/ dev / md0上创build了一个(〜16TB)文件系统: mkfs.ext4 -v -b 4096 -t huge -E stride=128,stripe-width=256 /dev/md0 然后我等了几天,因为老袭击的所有数据都抄袭了新的袭击。 我移动了磁盘,并增加了RAID,最后我: resize2fs -p /dev/md0 哪一个通知我 resize2fs 1.42 (29-Nov-2011) resize2fs: /dev/md0: The combination of flex_bg and !resize_inode features is not supported by resize2fs 我完全不了解这两个function究竟是为了什么,或者为什么这个组合很麻烦,所以为了更好的判断,我尝试添加resize_inode: tune2fs -O +resize_inode /dev/md0 但是我被击落了: Setting filesystem feature 'resize_inode' not supported. 而且我还不够勇于去除flex_bg,因为我真的不想做任何可能使我的数据处于危险之中的事情。 我正在使用3.5.1内核运行Ubuntu 12.04: Linux critter 3.5.1-030501-generic […]
一些系统细节 AMD羿龙II X6 1090T,16GB DDR3 1600运行11.04 2.6.38-8-server , 2.6.38-8-server 有关RAID的问题包括5 SATA drives ; 4 Samsung , 1 Western Digital ; 每个500 GB 驱动器连接到LSI SAS 9201-16i主机总线适配器卡 Raid是使用mdadm软件。 其他两个数组( /dev/md1 , /dev/md2 )没有问题。 所以我的袭击是敬酒。 在这一点上,我几乎没有深度,所以我希望这里有人能指引我一些好的方向。 正如我在下面提到的,我已经在这个16个小时左右(rest一下,清除了头脑!)我一直在读这里和其他地方的一切。 大部分的build议都是一样的,并不令人鼓舞,但是我希望能够吸引更多知识渊博的人。 所以…昨天我试图添加一个额外的驱动器到我的RAID 5arrays。 为此,我closures了盒子,插入了新的驱动器,并重新给机器供电。 迄今为止都很好。 然后,我卸载arrays % sudo umount /dev/md0 并继续进行文件系统检查。 % sudo e2fsck -f /dev/md0 一切顺利。 我在新驱动器/dev/sdh1上创build了一个主分区,并将其设置为inputLinux raid autodetect /dev/sdh1 […]
我使用这个控制器,文件系统和磁盘设置运行几个文件服务器。 他们都遭受了糟糕的写入性能,一旦256MB的BBU写caching满了,我得到真正的高iowait(> 40),写入速度下降到几MB /秒 如果服务器在写入过程中遇到中重读取,情况会更糟糕。 我正在寻找如何调整控制器或文件系统以提高写入性能的build议。 有关RAIDarrays和控制器的一些数据: RAID Level: Primary-5, Secondary-0, RAID Level Qualifier-3 Size:5.456 TB State: Optimal Stripe Size: 64 KB Number Of Drives:4 Span Depth:1 Default Cache Policy: WriteBack, ReadAdaptive, Cached, No Write Cache if Bad BBU Current Cache Policy: WriteBack, ReadAdaptive, Cached, No Write Cache if Bad BBU Access Policy: Read/Write Disk […]