Articles of 文件

IIS7不监视符号链接上的更改

我使用mklink实用程序来创build一个符号链接到一个web内容的目录。 如果不发出iisreset,IIS7不会“查看”对此链接目录中任何经典ASP文件的更改。 我禁用了caching,文件更改被其他静态文件(如.html)所取代,但.asp文件被忽略。

wget – 指定目录并重命名文件

我试图下载多个文件,需要重新命名,我怎么做,并指定我想要他们下载到的目录? 我知道我需要使用-P和-O来做到这一点,但似乎并没有为我工作。 我正在写入这个PHP脚本,并在UNIX上运行。

成千上万的文件备份…高架死亡我们

我们有一个系统,每天生成5k – 10k的XML文件。 这是一个很长的故事,但这个系统不会改变一段时间。 无论如何,系统将这些XML文件(每个3k-20k)转储到一个文件夹中。 所以想象一下这个文件夹开始变得有多快。 我写了一个程序,把文件和组织成年/月/日格式的层次结构。 然后另一个程序进入并删除任何超过90天的文件。 这是问题。 我们的备份系统(又是一些无法更改的function)需要HOURS来备份这些存档的文件夹,因为有近100万个文件。 备份做了完整的备份(再次,我们不能改变),发生的事情是备份必须打开并检查每个XML文件。 所以备份速度非常慢,以至于在第二天晚上的备份之前,备份速度并没有完成! 所以我一直在做每月文件夹和创build一个7z档案。 这很好。 200k文件下载到一个文件。 但是,我必须手动执行此操作。 另外还有一个问题。 我们无法存档当前月份。 所以总是需要30天(x 5k – 10k)的文件即时“search”。 有关如何更好地处理此问题的任何build议? 以下是我的头: 1)编写一个前一天的程序并转储到SQL。 然后将该文件添加到档案。 2)XML可以移动到的某种types的“活动归档”文件系统。 谢谢。

发送附件时增长的mutt临时文件问题

我有一个automysqlbackup.sh脚本备份并通过cron发送数据库。 该脚本使用mutt作为附件发送压缩文件。 我在一个共享的托pipe服务器上。 它看起来像mutt在我的主目录中创build了一个名为“sent”的临时文件,其中包含所有头文件和编码附件,然后无法将其删除。 这个文件不断增长,每个附件发送。 我在mutt的手册中找不到任何对这个文件的引用,根据手册页,mutt临时文件看起来像muttXXXXX。 除了手动删除文件,我有什么select?

可靠的文件复制(移动)过程 – 主要是Unix / Linux

小故事:我们需要一个坚如磐石的可靠的文件传送程序。 我们有经常被写入到我们需要从中移动文件的源代码目录。 这些文件是成对的 – 一个大的二进制文件和一个小的XML索引。 我们得到一个定义这些文件包的CTL文件。 一旦它们在目的地目录中,就有一个操作文件的过程; 当它完成的时候摆脱它们。 rsync会做最好的工作,还是我们需要变得更复杂? 长话如下: 我们有很多来源:一组目录在一台Windows机器上(有Cygwin和SSH守护进程),一整套目录在一组SFTP服务器上(其中大多数也是Windows)。我们的目的地是AIX服务器上的目录列表。 我们曾经在Windows / Cygwin机器上使用非常可靠的Perl脚本,这是我们唯一的来源。 但是,我们正在努力摆脱这台机器,现在还有其他的资源,SFTP服务器,我们目前无法运行我们自己的脚本。 出于安全原因,我们无法在AIX服务器上运行复制作业 – 他们无法访问源服务器。 我们目前在Linux机器上有一个本地Java程序,它使用SFTP从各种新的SFTP源目录中提取,复制到本地tmp目录,validation是否存在,然后将其复制到AIX机器,然后删除这些文件从源头上。 但是,我们发现了任何数量的错误或错误检查处理不当。 我们都不是Java专家,所以修复/改进这可能是困难的。 对我们的关注是: 使用远程源(SFTP),rsync会独自保留正在写入的任何文件吗? 其中一些文件很大。 从阅读文档看来,似乎rysnc将是非常好的,直到目的地被可靠的书面去除源。 有没有人有经验确认或否认这一点? 附加信息我们将关注一旦它们在目标目录中的文件上的操作过程。 当我们正在复制文件时,我们不希望它在文件上运行; 它将一直等到小XML索引文件存在。 我们目前的复制工作应该是最后复制XML文件。 有时候networking有问题,有时候SFTP源服务器会让我们失望。 有时我们inputconfiguration文件,目标目录不存在。 由于这种错误,我们从不想丢失文件。 我们需要好的日志 如果你被提出这个,你会只是编写一些rsync? 或者你会build立或购买一个工具,如果是这样的话,它将会是什么样的(或者它将使用什么技术?)我(和我的团队中的其他人)在Perl上体面。

合并文件夹在不同的驱动器在Linux?

我想从linuxterminal合并两个相同的文件夹的内容。 Drive 1\Folder Drive 2\Folder 我想在驱动器1的文件夹中的所有文件和子文件去驱动器2的文件夹,我试图使用MV,我有一个错误说: unable to remove target: Is a directory

寻找最快速的方式筛选旧文件

我们有多个文件服务器,其中包含了TB级和TB级的文件。 目前我们还没有系统存档/删除陈旧的数据。 我的任务是创build一个脚本,将移动/删除3年以上的文件。 移动/删除文件,只是“获取”文件是一个问题。 到目前为止使用Powershell。 我遇到了文件名/path长度超过248个字符的文件,Powershell似乎无法处理。 我也研究过Robocopy,但Robocopy无法访问LastAccessTime文件属性。 加上Powershell似乎真的很慢。 这是我一直在testing的代码: Get-ChildItem "\\path" -Force -Recurse | where {!($_.PSIsContainer) -and ($_.LastAccessTime -lt (Get-Date).AddYears(-3))} | select Mode,LastAccessTime,Length,Name 我的问题是 :是否有一个更快,更有效的方式来“获得”价值万亿字节的文件recursion(包括LastAccessTime属性),其中一些path超过248个字符? 主要是寻找免费的解决scheme,但如果有一些好的付费解决scheme,我会愿意检查出来。

文件没有出现 – caching或?

我将尝试描述一个我们正在看到的效果,希望这将有助于收集答案。 如果有重复,我会接受,我错过了,并删除这个问题。 在工作中使用Windows 7时,我们有一个用户在桌面上有一个快捷方式,指向G:\ netapps \ office \ manager_files。 如果他双击快捷方式,他会得到一个文件pipe理器窗口,直接打开到manager_files位置。 假设他今天早上打开了它,看了一下,然后closures了文件pipe理器。 现在我打开G:映射的文件pipe理器。 我深入到相同的位置,并从我的桌面,我拖放(复制)到该位置的文件。 我通知我的经理我已经这样做了。 他打开他的捷径,然后对我喊,因为它不在那里。 我耐心地解释一下,如果他打F5(刷新),这将是非常有帮助的。 现在他对我说,我需要修复它,所以他不必这样做(刷新)。 有一个设置(GPO或其他),我们可以设置立即刷新? 如果是这样,是否有一个严重的(networking或系统CPU利用率)的理由不这样做? 我的问题在这里是我不知道如何在谷歌search这个字。

如何查看服务器文件上的locking?

我们在Windows共享(2003服务器)上有一个数据库文件(foxpro)。 当文件被locking时,写入该文件的程序必须重试。 这一切都发生得非常快,在几秒钟内文件可用,但问题是它不应该被locking。 有谁知道我们如何可以查看什么是locking它? 有什么工具可用?

如何使用find来replace多个相同名称的文件

我有几个相同名称的文件(比如somefile.php)分散在/ var / 如果我想用位于/ home / me / somefile.php中的新版本的somefile.phpreplace它们,我将如何做? 我发现每个search结果都与replace文件中的文本有关,但我想replace整个文件 。 我知道我可以find所有的文件: find /var/ -type f -name somefile.php 但我不知道如何将/home/me/somefile.php移动到结果中,并将其全部replace。