我有几台运行Debian 6(Squeeze)的服务器,它使用OpenVZ来运行容器。 容器是一些Debian 6和一些Debian 7。 Squeeze是Debian支持OpenVZ的最后一个版本,对于下一个版本,build议用户运行LXC容器。 我拿着这个,但挤压最近去了EOL。 而现在,我有点不知所措,因为我不知道一个简单的升级途径。 我没有高可用性,机器全天候运行,我不能期望太多的停机时间(例如在另一台机器上设置LXC并复制它们)。 我想知道是否有人已经完成了这个升级,我正在考虑设置LXC与OpenVZ一起在Debian Squeeze上工作,所以我可以在与OpenVZ相同的文件夹和机器上启动容器,但是使用LXC,所有机器通过LXC运行,然后我继续将Debian版本升级到7和8之后。 有没有人做过这个? 你们build议我要做什么?
我尝试使用新的LXD容器将Mongo安装从14.04迁移到16.04。 我使用了以前的configuration文件,可以在下面find。 mongod.cnf # mongod.conf # for documentation of all options, see: # http://docs.mongodb.org/manual/reference/configuration-options/ # Where and how to store data. storage: dbPath: /home/manager/mongo/data # engine: # mmapv1: # smallFiles: true # where to write logging data. systemLog: destination: file logAppend: true path: /home/manager/mongo/log/mongod.log # network interfaces net: port: 27031 bindIp: 127.0.0.1 processManagement: fork: true […]
我在我的主机上使用以下路由将所有stream量传递给运行在8080端口的NGINX服务器。 -A PREROUTING -p tcp –dport 80 -j REDIRECT –to-port 8080 不幸的是,当我启用该规则时,所有的LXD容器(Ubuntu的LXC)都不能使用: apt-get update 因为它解决了回购作为我的领域。 我可以以某种方式防止?
我正在按照这些说明在Debian 7(wheezy)上创build一个LXC盒子: http : //fabiorehm.com/blog/2013/07/18/crafting-your-own-vagrant-lxc-base-box/ 我使用这个命令启动一个容器/客人: sudo lxc-start -n wheezy-base 但是当我停下来的时候,主持人也停下来。 sudo halt 我究竟做错了什么? 如何正确地停止LXC访客并返回主机? 谢谢
位于NAT后面的LXC容器上的ProFTPd实例 LXC容器正在使用桥接networking 已在proftpd.conf中定义PassivePorts 60000 61000 在运行容器的主机上加载nf_nat_ftp和nf_conntrack_ftp 容器里面的iptables包含 -A INPUT -m conntrack –ctstate ESTABLISHED,RELATED -j ACCEPT -A INPUT -p tcp –dport 21 -m conntrack –ctstate NEW -j ACCEPT 为什么Passive mode只有在我明确打开被动端口时才起作用 -A INPUT -p tcp -m tcp –dport 60000:61000 -j ACCEPT ? 不应该由nf_conntrack_ftp帮助模块自动pipe理吗?
我有两台运行Ubuntu 16.04的服务器A和B以及一个用于LXD的RAID1 ZFS文件系统。 目前有一些容器在服务器A上运行。现在我的想法是从服务器A上的每个容器进行夜间备份到服务器B.这样我就能够在服务器A崩溃的情况下启动服务器B上的容器。 我也可以使用服务器A上的本地快照来非常快速地恢复容器,例如,如果有人删除了偶然的文件。 最简单的方法是停止服务器A上的容器C,制作快照Snap0并重新启动。 然后使用lxc copy C/Snap0 serverB:C将快照复制到服务器B,假设我已经将服务器B添加为服务器A的远程主机。这里的问题是,这只是第一次。 对于其他备份,我必须先删除服务器B上的容器C,然后再复制它。 第二个问题是容器正在从备份发展到备份,并且最终有太多的数据传输到服务器B,以至于运行在其上的所有服务都将没有足够的带宽。 所以这个解决scheme应该是只传输每晚的快照之间的差异。 可以通过zfs send/receive与ssh结合使用,通过ssh将服务器A上的快照之间的差异发送到服务器B,然后将这些差异添加到服务器B的文件系统。 但是还有一个问题。 如果我使用lxc copy创build容器C的初始文件系统,则不起作用,因为此命令在内部不使用zfs send/receive而是在服务器B上创build一个新的文件系统,该文件系统又与原始文件系统具有不同的校验和服务器A.因此,差异备份是不可能的, zfs receive将返回一个错误,因为它比较文件系统的校验和。 我的下一个想法是仅使用zfs send/receive将容器C的整个文件系统从服务器A传输到服务器B,而不使用lxc copy/init创build容器。 之后,由于校验和匹配,每晚发送两个连续快照之间的差异是没有问题的。 但是,在紧急情况下,由于LXD数据库中没有位于/var/lib/lxd/lxd.db条目,因此无法在服务器B上启动容器C的副本,所以lxc start C不pipe用。 我想我可以简单地将服务器A的LXD数据库的相关条目复制到服务器B的LXD数据库,以便使其工作,但我不确定。 也许你可以在这里帮我。 我不想破坏这些数据库中的任何东西。 一些背景信息:事实上,服务器A和B都运行容器,但每个服务器应该包含其他服务器容器的备份。 也许已经有一个工作的备份策略,使用两个或更多的LXD主机,但我无法find它。 每晚只有rsync类似的备份策略或整个容器副本。 更新:我刚刚得到了这个github的提示,它为lxd命令实现了一个新的子命令,即lxd import 。 因此,我需要使用apt-get install -t xenial-backports lxd lxd-client在Ubuntu服务器上升级两台服务器上的apt-get install -t xenial-backports lxd lxd-client 。 没有人应该能够从现有的文件系统导入容器。 我尝试过这个。 首先去服务器A并拍一个快照 lxc snapshot C […]
我正在安装新的Proxmox 4.4安装LXC容器。 我的networking设置与本文中描述的networking设置类似: networkingconfiguration(桥接)proxmox 但是,我仍然无法从本地networking访问容器,并且容器不能ping通到外部。 容器和主机都可以相互ping通。 这是主机/etc/network/interfaces auto lo iface lo inet loopback iface eth0 inet manual auto vmbr0 iface vmbr0 inet static address 192.168.1.45 netmask 255.255.255.0 gateway 192.168.1.1 bridge_ports eth0 bridge_stp off bridge_fd 0 和容器的/etc/network/interfaces auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.1.78 netmask 255.255.255.0 gateway 192.168.1.1 iface […]
我创build了一个CentOS 6.8作为主机操作系统的LXC虚拟物理服务器。 现在,当我使用默认的Centos模板创build访客虚拟机时,它将使用Centos 6.8创build虚拟机作为访客操作系统。 我想创build一个与Centos 7.2版本的虚拟机作为来宾操作系统。 这可能吗? 我已经完成了创build虚拟机和启动的以下步骤。 创build了一个centos模板的副本,并在模板中对7.2版本进行了硬编码。 (据我所知,它检查/ etc / os-release的CPE ID) 创build一个指向创build的新模板的访客虚拟机。 (Centos 7.2版本被下载并放置在LXCcaching中) 来宾虚拟机已创build。 我改变了configuration文件中的networking链接来桥接networking。 我启动了来宾虚拟机,但是我可以看到只有systemd进程已启动(使用pstree命令),没有分配给虚拟机的IP地址,我无法login到来宾虚拟机。 在这个环境中,我需要一台装有Centos 7.2的虚拟机。 请指导如何做到这一点。
我想在分离的环境中运行mysqld,apache和vsftpd等服务:不能访问其他进程,不能访问设备,不能访问二进制文件,不要执行上传的文件。 据我了解,Linux容器能够提供我第一个2,所以我正在尝试它。 问题是我想要Linux容器共享相同的IP所以容器实际上只是提供不同的服务。 那可能吗? 谢谢。
我只是在寻求一个关于一个过程的好处价值的澄清,或者如果我对这个错误有所了解的话,可能还有一些build议。 假设我在一台机器上有几十个Web服务器进程,而且我担心它们中的任何一个出现并占用了系统的所有资源。 马上就会好起来 – 我会给他们所有积极的善意价值,所以他们会使用任何资源,如果他们可用,但放弃,如果有需求他们。 这会按我的预期执行吗? 或者,如果他们都有相同的善意价值,那么他们基本上都是一样的,他们都是0? 基本上我想知道内核如何决定哪些进程应该优先考虑,如果它们都具有相同的优先级值并且都需要资源? 由于只有39个可能的漂亮程度(-20到+19 iirc),所以如果它以这种方式工作,我不能给每个服务器不同的值。 任何关于这个澄清将不胜感激。 我遇到过的其他一些解决scheme可以防止盗版: cpulimit工具(对我来说segfaults) ulimit – 每个用户的基础上,听起来很理想,因为每个服务器都有自己的用户,虽然它只提供cputime作为cpu资源使用的度量。 我很好奇,如果这意味着经过的时间或每秒的CPU时间的百分比或其他东西。 过程控制组 – 从谷歌结果的一些初步浏览,这看起来像一个更复杂的解决scheme,但它可能不得不这样做。