Articles of 文件

监视在Linux上打开的进程文件(实时)

XYZ进程打开的文件可以通过该命令find ls -l /proc/PID/fd 无论如何,可以以更为互动的方式完成,如每隔x秒钟自动刷新一次? 谢谢。

在linux上删除大量的文件会占用CPU

我在RHEL服务器上生成了超过50GB的caching文件(典型的文件大小为200kb,所以没有任何文件很大)。 当我尝试删除这些文件需要8-10个小时。 然而,更大的问题是系统负载在这8到10个小时内变得非常关键。 无论如何,我可以在删除期间保持系统负载的控制。 我试过使用 nice -n19 rm -rf * 但是这对系统负载没有帮助。 PS我问了同样的问题superuser.com,但没有得到一个足够好的答案,所以在这里尝试。

在Linux中,为什么一个空文件的大小为0,而具有任何内容的文本文件的大小是内容+ 1的长度?

这可能是一个* nix的事情,我不确定。

新的系统pipe理工作…我从哪里开始?

我在这里寻找一些一般的build议。 我已经决定把我的第一份工作带到一个系统pipe理员的职位上……直到下个月我才开始工作,但同时我想为这个职位做准备。 对于那些在职业生涯中曾经担任过这个angular色的人,第一天你的主要目标是什么? 除了Windows和Mac之外,公司的最终用户还使用4-5种不同的Linux发行版。 这显然是一个繁琐的支持环境,所以我可能会看到如果我可以将用户限制在一个单独的Linux发行版中,除了将由AD控制的设置以及在单个版本上configuration的所有Mac之外。 确保他们有一个良好的备份解决scheme,我认为我最有可能立即集中我的努力。 不过,我不确定最重要的目标应该是什么。 你们有什么感想? 任何帮助将不胜感激!

可扩展文件存储的选项(Windows Server)

我们目前有一个Windows服务器,用于存储Web项目的图像。 这个项目非常成功,我们看到了性能问题,未来我们显然已经用完了现在的100k左右的图像(在本地磁盘上)。 这些服务器是托pipe在英国数据中心的专用机器,有什么选项可用于可扩展的文件存储(理想情况下,我们可以放入相同的数据中心,因为图像需要经常访问)。

什么是复制稀疏文件的最快方法? 什么方法导致最小的文件?

背景 :我正在复制一个大小为200GB的稀疏qcow2虚拟机映像,但有16GB的分配块。 我已经尝试了各种方法来复制这个稀疏文件在同一台服务器,并有一些初步的结果。 环境是RHEL 6.6或CentOS 6.6 x64。 ls -lhs srcFile 16G -rw-r–r– 1 qemu qemu 201G Feb 4 11:50 srcFile 通过CP – 最佳速度 cp –sparse=always srcFile dstFile Performance Notes: Copied 200GB max/16GB actual VM as 200GB max/26GB actual, bloat: 10GB Copy time: 1:02 (mm:ss) 通过dd – 最好的整体表演者 dd if=srcFile of=dstFile iflag=direct oflag=direct bs=4M conv=sparse Performance […]

如何查看/当一个长文件复制操作实际完成?

必须在两台服务器之间移动几个非常大的文件(VHD),我在远程桌面会话中使用Windows资源pipe理器启动了文件复制操作,然后closures会话而不注销,使文件副本继续工作; 第二天,我login回来,文件副本似乎已经完成…但文件上的所有时间戳(创build,上次访问,上次修改)是指我启动副本的时间,我知道肯定复制操作需要几个小时。 我会期望至less“最后访问”或“最后修改”的时间戳来引用文件复制操作结束的实际时间,但看起来这不是如何工作。 如果复印件成功完成,何时可以检查(如果我可以)? 文件大小不是一个指标,因为即使复制操作被中断,文件也总是被分配到全尺寸。

如何拒绝Web访问某些文件?

我需要做一个有点奇怪的操作。 首先,我运行在Debian上,apache2(以用户www数据运行) 所以,我有简单的文本文件与.txt ot .ini,或任何扩展名,无关紧要。 这些文件位于具有如下结构的子文件夹中: www.example.com/folder1/car/foobar.txt www.example.com/folder1/cycle/foobar.txt www.example.com/folder1/fish/foobar.txt www.example.com/folder1/fruit/foobar 。文本 因此,文件名总是相同的,同样的“层次”,只是改变文件夹的名称:/folder-name-static/folder-name-dinamyc/file-name-static.txt 我应该做的是(我认为)相对简单:我必须能够通过服务器上的程序(例如python,php)读取该文件,但是如果我尝试通过broswer检索文件内容(digging the url www。 example.com/folder1/car/foobar.txt,或通过cUrl等)。我必须得到一个禁止的错误,或其他,但不能访问该文件 。 即使通过FTP访问这些文件也是很好的,但是无论如何也不能下载(至less我使用的是ftp root和用户数据) 我能怎么做? 我发现这个在线,被放在文件中.htaccess: <Files File.txt> Order allow, deny Deny from all </ Files> 它似乎工作,但只有当文件是在Web根目录(www.example.com / myfile.txt),而不是在子文件夹。 此外,第二级文件夹(www.example.com/folder1/ fruit / foob​​ar.txt)将dinamycally创build..我想避免不得不改变.htaccess文件不时。 可以创build一个类似的规则,这个规则适用于所有名称为*的文件,它位于* www.example.com / folder-name-static / * folder-name-dinamyc / ***文件名-static.txt *, 那些部分是相同的 ,只是**一个改变 ? 编辑 : 正如Dave […]

Unix对部分有序的数据集进行sorting

所以我有一个非常大的文件(大约10GB),需要对它进行sorting,就像使用“sorting”工具一样,但更有效。 问题是,我没有内存,CPU的能力,时间,也没有自由的交换空间来供电。 好的是文件已经部分sorting了(我可以说每行与最终位置的距离都小于某个值N)。 这种提醒我为此目的使用堆大小为N的heapsort的经典计算机级示例。 问题:是否有一些unix工具已经有效地执行了,还是我需要自己编写一个? 谢谢-mk

如何查找受重新分配扇区影响的文件?

我有一个西部数据RE4 1.5TB刚刚重新分配了56个部门。 Reallocated Sectors Count,140,193,193,OK,56,0,Enabled 我想知道是否有可能找出哪些是受这些重新分配的扇区影响的文件,以及是否因为重新分配而被损坏的位。