我有一个服务器上的帐户,我想自动备份到另一台服务器,我禁用rootlogin的安全性。 你需要root权限才能完全备份服务器?
我今天从我的托pipe服务提供商(他们创build了它)收到一个支持票据,说我的SQL事务日志已经填满了,他们已经截断了它,缩小了它并将其重置为完全恢复模式。 我很困惑,为什么他们让交易日志填满网站翻倒的地步,需要人工干预。 我问他们是否备份了数据库,他们回答说(英文稍微有点乱) 我们每天备份,并保持备份一个星期。 事务日志必须被保留,因为我们不知道你做了什么事务,它可能包含重要的信息。 备份本身已被截断日志。 最后一句话感到困惑。 这似乎意味着他们没有备份日志,如果他们每天都在运行一个完整的备份,那么我认为是可以的,但是如果是这样的话,为什么事务日志不会每天被截断呢? 我试图礼貌地build议,他们可能应该截断日志,但我不知道他们正确理解日志如何工作。 我可以拿着自己的SQL Server,但我不是一个专家,我不能确定自己打电话给他们。 此外,我不知道他们正在使用什么备份软件或如何configuration。 那么,他们有理由永不截断日志? 有什么情况可以帮助吗? 他们似乎有一个系统,他们在日志满了时得到一个警报,然后进入并手动运行一个truncate脚本。 它的工作原理但不雅观,意味着我的网站每隔几个星期就会崩溃,直到他们发现问题并修复它,此时他们删除了之前告诉我需要保留的日志。 Arghghghgh! 你会怎么做,SQL Server专家哦?
在我们的服务器上,我们有许多需要备份代码的用户(即客户端)。 他们的文件权限通常是650 ,用户和用户组是user:user ( user是实际的用户名)。 在crontab中,我们有一个用户backup ,通过tarsnap备份所有需要的文件path。 问题是,由于文件权限, backup无法访问这些。 我可以想到四个解决scheme: 设置cronjob以root身份运行。 这是最简单的修复,但我不知道这里是否有安全问题。 创build一个我们想要备份和backup所有用户都属于的组。 设置默认权限,将所有这些用户的组设置为该组… backup组似乎是一个组名的好select。 这似乎有点困难。 如何更改每个用户的默认权限,以便每个碰到的文件都具有用户user和组backup ? 修改我们要备份的所有文件的组权限。 这也很容易,但也意味着每次文件被触摸(即修改或创build),我们将不得不修改组。 不理想。 使文件世界可读。 这是一个安全问题吗? 什么将是一个合理的configuration,以便我可以轻松地备份这些文件? 只是想到了一个… 将backup用户添加到每个我希望备份的用户组。 这解决了共享访问的问题。 在做一些研究的时候,好像/var/backups的语义和backup用户不清楚。 在/var/backups放置备份似乎并不危险,但由于该行为没有logging(从2001年开始),所以build议不要将其用于用户备份。 实际上,很多进程使用/var/backups和backup用户(“用户”是错误的词来描述这个虽然…因为backup不是一个适当的“用户”与主目录等)所以在推荐使用它的时候,我们并不提倡新的东西。
如果我使用'vim-cmd vmsvc / snapshot.create'创build快照,则可以将创build的文件传输到另一个系统,甚至可以传输到另一个vmware ESXi系统。 抛开快照不是最好的备份实践,这个快照有多可行? 实际上,是否可以在不同的ESXi系统上运行整个系统的快照(或者在同一个系统上,如果将其从备份存储中提取)? 假设我的命令最后有一个“1”,它告诉vim-cmd在快照之前先停顿VM …
我们在Amazon VPC上运行了十几个Ubuntu Linuxnetworking服务器生产实例。 这些实例是通过Puppet引导和pipe理的。 大多数pipe理通过AWS控制台完成。 我们的AWS凭证非常安全。 主账户几乎不需要,具有强大的密码和双因素authentication。 一些受信任的pipe理员可以通过他们自己的IAM帐户访问大多数服务,同时使用强密码和双因素authentication。 一些IAM帐户对于特定目的的访问非常有限,例如将文件写入S3。 其他员工访问任何高级证书是非常有限的。 总的来说,有人获得访问控制台或API的机会似乎很低。 最近的代码空间崩溃 ,有人获得了他们的AWS控制台的高级访问权限,并删除实例,卷和 EBS快照,有效地使代码空间无法恢复他们的业务,让我调查备份我们的数据的方法, (不在我们主要的AWS账户范围内)。 如何确保我们的客户数据可以安全地被获取我们的AWS凭证的人员所清除,或者通过AWS的一些灾难来消除? 应该是自动的,稳定的和合理的价格。 search了几个小时之后,我似乎无法find一个“简单”的方法。 将EBS快照复制到另一个AWS账户似乎不可能。 我无法将EBS快照导出到S3对象。 我可以通过从第三方服务器获取所有重要数据,但是我需要编写脚本来处理不同数量的服务器,保留,error handling等等。似乎有很多工作要做。 我没有发现这个准备去的软件。 我们目前的备份策略包括所有卷的夜间自动EBS快照,以及将压缩的MySQLdumps上传到S3。 所有源代码和Puppet代码都是从外部版本控制部署的,但我们客户的文件和MySQL数据库仅存储在EBS卷及其快照上,即AWS生态系统内部。
所以我有一个非常简单的备份脚本,每晚都作为cron作业运行,它是: rsync -azhv /company/shared_files/ /mnt/ext_drive/backups/shared_files/company_share_backup_"`date +\%Y-\%m-\%d`" 而之前的备份大小约为20个演出,大约在10分钟左右,但是到了两天前,这个演出只有80个演出,需要6个多小时才能完成。 有什么可能会走到哪里? 我的一般程序是保持每个备份7天,然后保持从每周星期天的备份,以便节省空间,所以我希望每天做一个单独的rsync,而不是以更自然的方式更新rsync备份中的文件已更改。 额外细节 我正在运行Debian Wheezy,使用2TB硬盘和16G内存,并将这些文件从我的Debian服务器传输到带有2TB的WD My Passport Ultra。
我有两个地点,一个在欧洲,一个在亚洲。 每个位置都有一个全function的Bacula系统来处理本地备份。 我想要做的是从一个位置SD复制一些工作到另一个位置SD。 理想情况下,如果我可以在位置A上执行备份,请复制到位置B,然后还原到位置B的服务器。 我明白从7.0.0版本开始,Bacula允许SD到SD的备份。 我认为这是我需要的function(bacula手册) Bacula版本7.0允许SD到SD传输复制和迁移作业。 这允许通常称为Bacula备份的复制或非现场传送。 如果复制或迁移作业的源SD和目标SD不同,它将自动发生。 问题是我不知道如何设置这样的工作。 我没有find任何教程。 我最初的想法是,我必须使用复印作业,但是从相同的手册: 迁移仅适用于单个存储守护程序。 您不能在一个存储守护进程上读取并在另一个上写入。 这正是我想要做的… 任何想法,我怎么能做到这一点?
我怎样才能增量地将maildir备份到cifs共享中,而不是每次都创build一个完整的映像? 我有一些大的邮件帐户鸽舍。 唯一可用的备份是在Windows服务器上。 我更喜欢在整个目录结构中使用rsync和创build每个邮件帐户(甚至整个dovecot邮件目录)的档案之间的解决scheme。 我已经考虑创build一个脚本来遍历目录结构,并根据时间戳创build每个文件夹的存档。 如果有必要,我可能base64编码所有的目录名称。 我不需要保留任何用户权限,因为整个邮件目录正在使用vmail用户。 有更好的解决scheme吗? 我还必须考虑任何maildirlocking?
首先,我从版本9开始使用Acronis。V10没问题。 但是他们真的完全从Windows-GUI改变到V12中的Web-GUI吗? 有什么办法让Windows-GUI回来,我可以做更详细的设置? 虽然我不反对网页界面 – Acronis似乎改变了他们的版本每个版本ARGH让你重新学习 – 重新学习 – 重新学习 – 我真的不知道这个改变背后的想法是什么? 感觉“呆滞”。 Acronis 12 Web Gui截图 (为什么图片不能以内联方式显示?) 服务器版本是相当昂贵的(7XXUSD?),不幸的是,从我从版本10开始的观点来看,似乎并没有什么改进。 我正在认真考虑返回/摆脱它… ShadowProtect有一个比Acronis更好的基于Windows的GUI。 (它更复杂,但仍然可pipe理) 也有据说是非常好的veeam …但也是750USD昂贵。 该服务器也运行VirtualBox虚拟机和Microsoft SQL服务器…我真的不知道什么是最好的方式来备份这些…
有一个更简单的方法来恢复数据到MSSQL服务器中的单个表,而不是取下数据库和恢复整个数据库?