我有一个Windows Server 2008,我用它来存储媒体文件。 我通过我的Win 7映射的驱动器访问这台服务器。两者都是x64。 试图删除文件夹时,重命名,移动我得到以下消息。 如果我等一会再试,最后命令就会通过。 所以经过一段时间的pipe理我的图书馆,我有一些这些对话框等待retrys。 重试间隔可能是一分钟。 避免这个对话的最好方法是什么? 难道是我在win2008上缺less某种“文件服务器服务”? 谢谢
我使用“topas”工具快速浏览AIX机器上的CPU,内存和磁盘统计信息。 我理解磁盘部分的数字,但我不知道如何判断topas中显示的磁盘上的文件系统。 以下是磁盘部分的一些示例输出: Disk Busy% KBPS TPS KB-Read KB-Writ power123 72.6 2.9K 330.8 2.9K 0.0 disk1234 58.2 1.5K 169.7 1.5K 0.0 hdisk234 53.2 1.4K 161.2 1.4K 0.0 power345 40.8 262.7 65.7 262.7 0.0 … 有没有一个命令行工具来帮助我确定哪些文件系统安装在哪个磁盘上? 我知道命令lsdev -C -c disk ,但是这只是列出了所有的磁盘,而不是哪个文件系统与哪个磁盘。 提前致谢! 编辑为了响应下面的评论(感谢您的input!),这里是“mount”命令的一些示例输出: node mounted mounted vfs date options over —- ——- ——— — ———— ——- […]
我试图监视一个NFS共享,并检测远程系统上运行的进程创build的文件。 问题是在文件创build后检测不起作用,我的脚本仍然认为没有文件。 如果有人在目录中执行ls,或者我运行了一个单独的进程,只是在后台周期性执行,则脚本会检测到文件存在。 但是,将“ls the directory”function添加到主脚本中并不起作用:在外部进程导致目录列表内容以某种方式刷新之前,它仍然不会启动文件的存在。 这里有一个testing案例来说明这个问题: watch_file.pl: #!/usr/bin/perl -w my @stat; while (1) { @stat = stat("/nfs/test"); last if ($stat[1] && $stat[1] > 0); } 在“host-A”上运行这个简单的脚本: host-A% ./watch_file.pl & [1] 9312 移到“host-B”并创build文件: host-B% touch /nfs/test …回到“主机-A”,程序还没有退出: host-A% …仍然在“host-A”上,在目录中做一个ls,然后脚本看到这个文件: host-A% ls -a /nfs . .. test host-A% [1]+ Done ./watch_file.pl & host-A% 有没有人知道一个简单的修复或解决方法,这将比在后台运行一个脚本每隔10秒ls的NFS目录将不那么hokey?
对于我系统中的某个目录DIR, ls –color=always需要大约8秒,尽pipe它包含less于10个文件和子目录。 如果没有颜色参数,它不会花时间。 为什么我会花这么长时间的颜色论证,我怎么才能找出究竟花了这么久? 这可能是DIR中的一个子目录,但是我怎么知道哪个是麻烦制造者呢?
我正在精简一系列EL6.2(RHEL,CentOS,SL等)系统的kickstart过程。 我宁愿使用XFS而不是ext4来生长/数据分区。 不过,我希望能够控制传递给mkfs.xfs的选项来创build分区。 在创build服务器之后,我通常会创build这个分区,这样我就可以拥有这个控制权。 但是这应该是自动的。 当创build一个400GB的手动XFS分区时,我通常会使用如下的命令string: mkfs.xfs -f -L /data -d agcount=100 -l size=128m,version=2 /dev/cciss/c0d1p0 使用/etc/fstab挂载选项,如: LABEL=/data /data xfs noatime,logbufs=8,logbsize=256k,nobarrier 1 2 我怎样才能在anaconda kickstart安装过程中获得类似的内容,而不必将其放在%post中?
快速和肮脏的总结:我想要的东西像一个只有当系统不繁忙时才会消耗的写入caching。 我想沿着这个问题的RAM磁盘和物理RAID略有扭曲的东西。 对于一个特定的构build,我经常做,我想保持生成输出在一个虚拟磁盘,最终被写出到磁盘。 我正在构build的一个特定的目标是一堆cp,tar,gzip等,所以我是磁盘绑定的。 在一个严格的debugging周期,我希望它是快速的,不关心这么多,如果编译输出被closures损坏。 但是,如果在系统不繁忙的情况下将虚拟硬盘同步到磁盘,那将会很不错。 我可以想象这是一个cron工作,但是我问你们所有的机会,有一个更加连贯的解决scheme,把另一个问题(ramdisk溢出到磁盘)的特点与这个新的转折(给定的空闲磁盘时间,ramdisk的内容也出到磁盘上)。 理想情况下,整个东西看起来像一个单一的挂载点,在那里我设置总大小和ram的数量使用。 – – 更新 – – 我不认为页面caching做我想要的,因为我真的想要非常快的写性能。
我有一个AIX服务器的磁盘,我需要探索才能恢复一些数据(服务器closures)。 可以在Linux上安装AIX分区吗? 怎么样?
设置看起来像这样。 目标是让多台计算机从iSCSI目标装入一个LUN。 理想的安装读/写和ACL支持。 这些服务器运行着GNU / Linux,所以最好是在vanilla内核中可用的文件系统。 虽然我可以在必要时处理编译第三方模块。 我目前正在研究GFS2和OCFS2 。 什么是一些成功的部署,人们已经这样做了? 任何疑难杂症我都应该留意
我在arch wiki上读到,build议不要在创buildZFS文件系统之前对磁盘进行分区。 我search,但没有发现任何关于ext4的声明。 所以我的问题是:我可以把一个ext4文件系统在磁盘上用于存储(所以不是系统的根分区)没有分区? 有什么缺点?
当我注意到我的系统变慢时,我所做的第一件事就是打开任务pipe理器,看看某个进程或另一个进程是否占用了100%的cpu。 当我听到我的硬盘驱动器疯狂消失时,我该怎么做,但CPU是99%闲置? 如何通过“过去5秒钟的磁盘io”或类似的东西来sorting我的进程?