Articles of LXC

在Proxmox 4上从OpenVZ迁移到LXC后,Debian容器无法启动

将Proxmox 3中的Debian 7 OpenVZ CT迁移到Proxmox 4上的LXC后,似乎无法正确启动。 最后,通过在Proxmox 3上停止容器,备份到外部硬盘,然后在Proxmox 4中加载该硬盘,恢复该备份并设置networkingconfiguration来完成迁移。 之后,容器似乎根据Proxmox正确启动,但无法通过任一控制台(tty)连接到,输出空白,不login或任何,或SSH(连接被拒绝)。 重新启动CT和主机似乎没有任何影响,并且使用-o日志文件以lxc-start -n 101 CT会得到以下输出: lxc-start 1445190074.912 ERROR lxc_commands – commands.c:lxc_cmd_rsp_send:237 – failed to send command response -1 Broken pipe lxc-start 1445190074.913 ERROR lxc_commands – commands.c:lxc_cmd_rsp_send:237 – failed to send command response -1 Broken pipe 如何诊断这个问题可能来自哪里或如何去解决它的任何想法? 编辑:所有其他容器迁移完全相同的方式工作完全开箱… 编辑2:有一点可能是有趣的指出,我看起来在LXC的引导日志(dmesg)中看到了很多这些错误: [ 9741.362095] audit: type=1400 audit(1445199000.045:102): apparmor="DENIED" operation="mount" info="failed […]

Debian Linux将附加IP路由到LXC

我试图将我的服务器的另一个IP从Hetzner路由到一个LXC实例(在Debian Jessie上)。 我发现这个指南http://www.jotschi.de/technik/2012/04/18/hetzner-lxc-linux-subnet-configuration.html并遵循它。 我的问题是,只要我重新启动networking服务器将保持“离线”,我需要恢复configuration使用救援系统。 / etc / network / interfaces http://pastebin.com/KQQeDdcb B和N代表了一个数字,并已经到位,只为这个职位。 网桥接口被禁用,所以我可以重新启动服务器。 感谢您的帮助。

在Proxmox 4中将第二个磁盘映像添加到LXC容器中

Proxmox 4中的我的LXC容器在主机上存储根文件系统,作为存储在以下位置的RAW磁盘映像: /var/lib/vz/images/<ct_id>/vm-<ct-id>-disk-1.raw 主机上的这个文件夹来自一个ext4分区: /dev/mapper/pve-data on /var/lib/vz type ext4 (rw,relatime,data=ordered) 我想附加第二个磁盘映像到LXC容器,但我找不到任何方法来实现这一点。 我所做的一切就是将一个文件夹从我的主机系统绑定到容器,但这不是我想要做的select:将存储卷添加到我的OpenMediaVault容器。 你知道任何方式(使用Proxmox UI或/和CLI)将第二个磁盘映像附加到LXC容器吗? 谢谢。

具有多个IP地址的LXC桥接器

在尝试使用LXC容器设置小型服务器时,遇到了一个问题: 我想分配4个不同的IP地址:1个主机地址和3个不同networking地址的容器。 使用虚拟接口(eth0:1,eth0:2等)设置4个IP地址完全没有问题,但是LXC不支持这些虚拟接口。 主机的IP地址是2.2.2.2(networking掩码255.255.252.0)。 3个容器IP地址分别为33.33.33.33,33.33.33.44和33.33.33.55。 所有的networking掩码:255.255.255.255。 我在为主机和容器build立networking的时候挣扎着。 其他post解释了类似的设置,使用不同但可控制的子网( 将LXC容器桥接到具有不同IP范围的主机networking )或build议使用虚拟接口( 同一主机上同一子网内的多个IP地址 ),这是我们不能在这里完成的。 这是我的configuration: 主机:接口文件 source /etc/network/interfaces.d/* auto lo iface lo inet loopback auto br0 iface br0 inet static address 2.2.2.2 netmask 255.255.252.0 broadcast 2.2.2.255 gateway 2.2.2.1 bridge_ports eth0 bridge_fd 0 bridge_maxwait 0 auto br0:1 iface br0:1 inet static address 33.33.33.33 netmask 255.255.255.255 auto br0:2 iface […]

主服务器上的NTP和虚拟(LXC)上的替代

我正在build立一个服务器与几个VPS。 我正在使用LXC。 我想只有配备了ntp的主服务器才能更好,并且虚拟盒只需要从主框中获得时间。 是否有一个bash / python / php等脚本,我可以用来从主服务器获得时间?

带SSL支持的FTP代理

我有一堆安装了vsftpd守护进程的LXC容器。 我想转发/代理从dom0服务器端口21的stream量到特定的容器基于FTP用户名如[email protected]或域部分更加精确。 我试图使用FTP代理 ,它完美的作品,但没有SSL支持。 Frox有SSL支持,但只能在代理和ftpd服务器之间。 我发现鱿鱼可以做FTP和SSL,但我从来没有做过什么与鱿鱼 ,我不知道是否合适。 也许你可以提供有关这方面的信息,或给出任何其他的想法? 最后,我将最终得到多个iptables DNAT直接指向容器的vsftpd守护进程,但常见的端口21看起来不错。

防火墙(防火墙)与桥:如何过滤

我有两个接口:eth0(公共地址)和10.0.3.1的lxcbr0。 我有一个LXC客户端运行IP 10.0.3.10 这是我的fireholconfiguration: version 5 trusted_ips=`/usr/local/bin/strip_comments /etc/firehol/trusted_ips` trusted_servers=`/usr/local/bin/strip_comments /etc/firehol/trusted_servers` blacklist full `/usr/local/bin/strip_comments /etc/firehol/blacklist` interface lxcbr0 virtual policy return server "dhcp dns" accept router virtual2internet inface lxcbr0 outface eth0 masquerade route all accept interface any world protection strong #Outgoing these protocols are allowed to everywhere client "smtp pop3 dns ntp mysql icmp" accept #These (incoming) […]

允许用于libvirt / lxc容器的cgroup设备

我想让我的libvirt / lxc容器使用tun / tap设备。 为了做到这一点,我为一个正在运行的容器,我可以通过以下方式将其添加到允许的设备: # echo "c 10:200 rwm" > /sys/fs/cgroup/devices/libvirt/lxc/client-1/devices.allow 导致: # cat /sys/fs/cgroup/devices/libvirt/lxc/client-1/devices.list c 1:3 rwm c 1:5 rwm c 1:7 rwm c 1:8 rwm c 1:9 rwm c 5:0 rwm c 5:2 rwm c 136:* rwm c 10:200 rwm 但是,我有一些困难,使这个默认设置为每个容器。 谷歌search显示,改变/etc/cgconfig.conf group libvirt/lxc { devices { devices.allow="c 10:200 rwm"; } […]

linux容器桥过滤ARP答复

我正在使用内核3.0,并且我已经configuration了一个linux容器,它被桥接到我的主机中的一个tap接口。 这是桥梁configuration: :~$ brctl show bridge-1 bridge name bridge id STP enabled interfaces bridge-1 8000.9249c78a510b no ns3-mesh-tap-1 vethjUErij 我的问题是这个网桥正在丢弃来自ns3-mesh-tap-1接口的ARP回复。 相反,如果我静静地填充ARP表,并ping直接一切正常,所以它必须是有关的ARP。 我已经阅读了关于相关职位的类似问题,我已经尝试了解决scheme中的解决scheme,但似乎没有任何工作。 特别: ~$ grep net.bridge /etc/sysctl.conf net.bridge.bridge-nf-call-arptables = 0 net.bridge.bridge-nf-call-iptables = 0 net.bridge.bridge-nf-call-ip6tables = 0 net.bridge.bridge-nf-filter-vlan-tagged = 0 net.bridge.bridge-nf-filter-pppoe-tagged = 0 arptables和ebtables没有安装。 iptables FORWARD全部接受: Chain FORWARD (policy ACCEPT) target prot opt source destination 桥接接口设置为PROMISC: ~$ […]

使用LXC容器虚拟化可以限制/限制页面错误吗?

可以将容器限制为512MB RAM和4GB交换。 但是,如果容器频繁地使用了已经被换出的内存,它将不支配包含交换文件的存储设备的IO资源? 我想避免的是一个容器从100%的利用率固定存储设备,并挨饿其他容器,而这些容器对交换的要求不高。 理想情况下,每个集装箱都应该在负载下得到公平的份额,并且在负载允许的情况下能够突破这个限度。 现在我知道有blkio的限制,而且限制这些限制似乎是非常简单的,但是从技术上来说,内核正在进行交换,所以我不知道它是否遵守这些限制或者将页面错误计入这些限制。 有谁知道这是可能的,或者如何configuration它? 编辑: OpenVZ有一个叫做vswap的东西,它会调整一个交换的容器,即使系统实际上有足够的松弛,“交换”页面在RAM中,它并不真正到磁盘上。 这似乎是我所追求的。 有没有办法做到这一点与“香草”的Linux容器?