Articles of 文件系统

调用pythons os.getcwd在Lustre文件系统上返回奇怪的结果

我不知道这个问题应该在Server Fault还是Stack Oveflow上,但是我想我会先在这里试试。 我有一个python应用程序,使得对os文件系统调用(如stat和getcwd)进行了相当多的调用。 该应用程序正由LGE文件系统上的SGE队列pipe理器运行,该文件系统通过infiniband互连连接到节点。 系统最大的部分工作正常。 但偶尔一个文件将失败,或getcwd将返回我的主目录,而不是应用程序已经运行的目录。 毫秒后,它将再次返回正确的结果。 我不是系统pipe理员,我正在与系统pipe理员一起锻炼应用程序可以做的事情。 我敢肯定,发生这种情况时,任何地方都不会logging错误,也不会logging目录的实际变化。 这个问题目前完全是零星的,我们无法使其重现。 有谁知道可能会发生什么?

在Win7上进行大型networking复制后,文件io性能下降

在构build过程的一个步骤中,我们运行一个可生成大约125,000个文件的工具。 生成完成后,我们将它们复制到networking共享中,以便其他系统可以将它们复制下来以进一步处理。 如果我们必须从networking上执行完整的文件副本,我们会看到性能下降(大约-300%)。 如果我们已经有本地文件,并重新启动系统,性能会很好。 我目前的假设是,Windows有某种文件描述符或文件句柄保持打开状态,副本仍然保留在减慢文件系统密集型任务的速度上。 我们的监测图表并没有显示出太多的不寻常之处,并且大部分与系统运行良好一致……只是需要更长的时间。 在1500线程左右的时间通常要短得多的线程中,速度变慢。 我也应该注意到125k文件都在一个目录中。 我知道这会影响迭代目录列表的性能,但我不确定这个问题将如何发挥作用。 系统信息: 戴尔R7910机架 英特尔750 1.2tb PCIe Windows 7企业版 监控图表

solaris 11上的临时设备的文件系统?

任何人都可以build议什么文件系统适合临时磁盘? 注意大部分的io将通过mmap。 从头开始,我的意思是可扩展到数TB,但对于可以很容易地重新生成的短期数据(所有这些数据都是cpu成本),所以偶尔会导致数据丢失的磁盘故障是可以接受的,实际上最好还是降低读取性能。 ZFS solaris默认需要很长时间才能删除东西,而且在mmap io下的内存上浪费。 tmpfs有2个问题,没有稀疏的文件支持,我想保持从/ tmp临时磁盘分开,因为我不想填补它把系统closures。 / tmp无论如何都需要镜像。 我几乎认为一个UFS条纹arrays可能是最好的。 当我运行solaris 10时,我从来没有遇到过删除自升级硬件以来所做的事情。 任何其他的想法?

Linux – 包装来监视应用程序的文件访问?

是否有任何用户级封装的脚本/程序,可以观察应用程序访问什么文件,而不影响性能? 我试图捕获由自动化工作stream程生成的文件,以便后处理它生成的文件(以及仅生成它生成的文件)。 我试图从字面上只是映射文件前后运行,但这将无法正常工作,因为这些文件是在一个共享的NFS挂载,所以当另一个主机/进程写入相同的领域(他们需要)会混淆后期处理。 我也尝试了一些成功的inotify (因为在NFS挂载上使用时,它不检测其他主机写入的文件),但不幸的是它不会检测到由其他主机创build的新目录,本地进程可能会写入到,但不会收到通知。 所以我还想知道是否有任何程序可以从字面上捕获/logging应用程序所做的文件系统调用,类似于tsocks ( 1 )对networking调用的作用。

结合sync和drop_caches的“正确方法”是什么?

当我需要事先与sync执行echo 3 > /proc/sys/vm/drop_caches时,是否更好使用 sync && echo 3 > /proc/sys/vm/drop_caches或 sync ; echo 3 > /proc/sys/vm/drop_caches sync ; echo 3 > /proc/sys/vm/drop_caches 。 这是否甚至重要,因为这两个命令对文件系统数据是安全的? 或者第二个版本可能会丢失数据?

无法使用写入权限挂载BTRFS。 Btrfs检查崩溃(Core Dumped)

我在外部驱动器上使用btrfs文件系统一段时间主要是为了testing重复数据删除,一切正常。 不幸的是昨天当我装上分区时,我注意到我无法写信给它: [root@X hdd]# dd if=/dev/zero of=file bs=4M count=1 dd: failed to open 'file': Read-only file system 我检查了mount ,发现文件系统是以只读方式挂载的(即使我使用了–rw标志也保持这种状态): [root@X hdd]# mount (…) /dev/sdb1 on /mnt/hdd type btrfs (ro,relatime,space_cache,subvolid=5,subvol=/) 我做了一个假设,这是文件系统错误,所以我试图检查使用btrfs检查,但可悲的是我得到这个: [root@X]# btrfs check /dev/sdb1 Checking filesystem on /dev/sdb1 UUID: 7994d5c5-7408-4375-a24c-570456292a63 checking extents Aborted (core dumped) 来自期刊的信息: Jan 05 19:29:24 arch-inspiron systemd-coredump[24451]: Process 24450 (btrfs) of […]

每次重启后只读文件系统 – centos

前段时间我得到了磁盘满的问题,之后,每次我重新启动我的centos服务器,系统加载只读系统文件。 运行mount -o remount,rw /将解决我的问题。 但是因为系统加载在只读文件系统上,所以会产生很多问题。 例如, 70-peresist-net-rules不会自动创build。 networking不会以错误开始: device eth0 not present delaying initialization 还有很多。 这是dmesg输出: 谁能帮我这个? 我只是需要networking来移动我的文件到另一台服务器,但我想我必须先解决磁盘问题,或者有另一种方式?

VMware虚拟机上的XFS出现坏的幻数

我有几乎完全相同的问题, 这里描述的。 我在RHEL7上。 3.10.0-229.4.2.el7.x86_6在vmware VM里面。 file -s /dev/sdb /dev/sdb: LVM2 PV (Linux Logical Volume Manager), UUID: 89o2LY-bTso-5KXa-UXOF-CVm0-gT1u-DsKNpH, size: 107374510080 还得到消息:在xfs_inode_buf_verify + 0x75 / 0xd0 [xfs]处检测到元数据损坏,块0x2d01c10 XFS(dm-2):卸载并运行xfs_repair 运行修复后,我看到相同的消息: Phase 1 – find and verify superblock… couldn't verify primary superblock – bad magic number !!! attempting to find secondary superblock… … Found candidate secondary superblock… Unable to […]

df -h显示100%的使用率,但大小不加起来

我有一种情况,我的根文件系统应该有足够的可用空间,但是Debian的行为就像没有剩余空间一样。 非root用户甚至反驳写任何抱怨缺乏空间的问题。 即例如: ~$ echo "qwertyu" > test -bash: echo: write error: Spazio esaurito sul device (抱歉,我没有自己安装服务器,错误信息是“设备上的空闲空间不足”)。 但是root写入同一个目录没有抱怨。 另外,如果我做df -h作为根,我得到这个: /# df -h File system Dim. Usati Dispon. Uso% Montato su rootfs 48G 46G 0 100% / udev 10M 0 10M 0% /dev tmpfs 397M 88M 310M 23% /run /dev/disk/by-uuid/8063903c-80ad-4f72-81b0-cd67dbd48fc7 48G 46G 0 100% / […]

在服务器上找不到使用的inode

我有一个安装了Debian Linux的Xen VPS。 一旦我发现所有inode被使用。 我检查了这一点: ~# df -i Filesystem Inodes IUsed IFree IUse% Mounted on rootfs 3932160 3932160 0 100% / udev 59227 262 58965 1% /dev tmpfs 63251 215 63036 1% /run /dev/xvda 3932160 3932160 0 100% / tmpfs 63251 2 63249 1% /run/lock tmpfs 63251 2 63249 1% /run/shm 然后我试图find所有inode被使用的地方。 通常他们被PHP会话文件使用(因为cron任务或PHP内部清理程序被破坏)。 但是我找不到包含大量文件的目录。 我尝试了很多方法,有一个: […]