我运行一些脚本从数据库中提取数据的几个服务器帐户有非常有限的工具可用,其中有些是不允许的(即使通过正式的请求)使用cron,比你说的,你能推荐任何工具可以用来安排脚本的执行(就像cron一样)? 提前致谢 :) 更新1:是的,我指的服务器是Linux,HP-Ux和Solaris,Bash> 3.x可用。
我想运行一个cron工作。 调度它很容易,工作。 我的问题是,我不知道如何一次只运行一个版本。 有任何想法吗? G-人
我运行一个相对简单的服务器与我维护的几个网站。 我设置了一个crontab来转储MySQL并且每天压缩PHP。 旋转了一个星期,我有7增量的任何事情正在进行。 然后我使用相同的crontab将它们从服务器复制到另一个。 使用MySQL位作为例子,我有 16 3 * * tue mysqldump filename > /var/backups/b-Tuesday/filename.sql 16 3 * * wed mysqldump filename > /var/backups/b-Wednesday/filename.sql [etc] 这重复PHP的压缩了每个站点,并再次为进程的SCP部分。 是否有一种方法可以让每个站点都知道将每个站点保存到相关date的备份文件夹,而不是为每个备份文件夹提供7个作业?
除了在脚本开始处运行sleep 59以外,设置每59秒执行一次crontab命令的最方便的方法是什么? 如果没有其他的build议,将执行sleep 59延迟所有其他cron条目计划执行等待,直到睡眠完成? 更新为什么我需要它? 我写了一个小脚本来找出谁在最后一刻login了系统,看起来像这样: who | grep `date +%R` | awk '{ print $1 " joins us." }' | write $USER 为了它的工作,而不是让事情变得复杂,我需要它运行在一分钟结束。
我有一个示例perl脚本,我需要使用cron每天运行,任何人都可以让我知道使用cron作业的确切语法。 提前致谢。
Windows有cron作业的替代品吗? 我想安排一项任务,每天早晨6点。 编辑:我想要在命令行上使用批处理脚本。
我如何在每0.25小时运行的Linux上创build一个cron作业?
我是一个独立的Web开发人员,拥有自己的Centos VPS,为我的客户托pipe几个小型网站。 今天我发现我的httpd服务已经停止(没有明显的原因 – 但这是另一个线程)。 我重新启动它,但现在我需要find一种方式,如果它再次发生我可以通过电子邮件和/或SMS通知 – 我不喜欢当我的客户响我告诉我他们的网站不工作! 我知道可能有许多不同的可能性,包括服务器监控软件。 我想我真正需要的是一个脚本,我可以从我的开发主机(永久运行在我的办公室)运行一个cron作业,试图从我的生产服务器加载一个页面,如果它没有加载在说30几秒钟,然后它给我发一封电子邮件或短信。 我在shell脚本上非常垃圾,所以这个问题。 任何build议将不胜感激。
所以我有一个每10分钟运行一次的方法(Background.cron)。 Background.cron通过一组数据库行循环,如果符合某些条件,则运行一个ActionMailer方法发送一封电子邮件。 但是,当ActionMailer方法运行时,似乎正在发生的事情是(根据我的日志),Background.cron方法将停止,直到下一个cron作业准备好开始。 有什么解释呢? 服务器设置是Passenger和Ruby Enterprise Edition的Apache 2。 PassengerMaxPoolSize设置为10,PassengerMaxInstancesPerApp为5。 Slicehost上有一个512MB的片。
大家好! 也许你可以帮助我:我已经在Cron设置每天的备份轮换,每天凌晨4点运行。 脚本并不复杂(见下文),当我自己执行它时,它的工作没有问题。 但是,当我在Cron上安排它时,脚本运行大约半个小时,然后停止(没有邮件,没有警告,它只是停止复制文件)。 任何想法为什么这可能会发生? 备份文件夹的大小约为38GB,脚本运行需要将近一个小时。 我猜测某种运行时间的限制,但只是一个想法。 最后但并非最不重要的,这是剧本。 它保留一个“档案”文件夹与每日7备份: #!/bin/bash NEW=`date +%Y%m%d` NUMBER=7 function erase_old() { while (( $# > $NUMBER )); do rm -rf "$1" shift done } mkdir /backup/archive/$NEW cp -vrp /backup/current/* /backup/archive/$NEW erase_old /backup/archive/*