Articles of LXC

Byobu – 如何从lxc控制台断开连接

我在Ubuntu 12.04里面Byobu,进入一个lxc控制台。 不幸的是,lxc的转义序列似乎是cntrl-a q 。 然而,这与使用cntrl-a序列的Byobu's相冲突。 我试过这个问题的答案使用cntrl-a aq ,但似乎cntrl-a a试图去byobu的下一个窗口! 我也尝试通过使用f9改变转义序列,但似乎这是因为它不会从cntrl-a改变。 除了从该屏幕外部杀死容器之外,还有什么解决scheme?

Docker容器可以使用主机操作系统的全部CPU功率和内存吗?

我是Docker的新手,但是我有使用VM和pipe理程序的经验。 参考Docker介绍和这个镜像 ,Docker容器是隔离的,但共享相同的主机操作系统。 如果我们只在主机操作系统中部署一个Docker容器(例如LAMP应用程序),那么Doc​​ker容器可以使用主机操作系统的全部CPU功率和内存吗? 在Docker容器中运行的LAMP应用程序和直接在主机操作系统中运行的LAMP应用程序之间是否存在性能差异?

如何configurationLXC以允许在容器中使用SCHED_RR?

关于如何configurationLXC / cgroup的任何想法,以允许在容器中使用SCHED_RR应用程序? 在互联网上,我已经看到提到卸载cpu-cgroup,我已经尝试过,手动(在cpu cgroup上运行umount),似乎没有帮助。 任何想法如何持续卸载cgroup? 在Fedora 20上。 卸载,cpu cgroup,允许容器应用程序使用SCHED_RR的正确方法? 谢谢

为什么lxc容器绑定多于configuration的ip?

我在我的Ubuntu服务器上设置了几个Ubuntu的LXC容器。 他们都有一个独特的IPconfiguration。 当它们启动时,其中一些绑定的IP地址超过了定义的IP地址。 例如,容器A具有10.0.3.123并且另外绑定了10.0.3.127。 感谢您的任何帮助。 LXC版本:1.0.6-0ubuntu0.1 容器CA的configuration: lxc.include = /usr/share/lxc/config/ubuntu.common.conf lxc.arch = x86_64 lxc.rootfs = / var / lib / lxc / CA / rootfs lxc.utsname = CA lxc.console = / var / lib / lxc / CA / console lxc.mount = / var / lib / lxc / CAfstab lxc.network.type = veth lxc.network.flags =向上 […]

如何使设备节点在LXC中持久化

我需要一个LXC内的/ dev / fuse。 cgroups正确configuration,即我可以手动创build设备节点,一切都很好 – 直到我重新启动容器,然后节点消失。 当然,我可以使用专用的启动脚本来重新创build节点,但是我希望有一个更简单的方法来实现这一点。 那么如何正确地做到这一点呢?

LinuxContainers arch-linux double login tty

自从我用新的Arch Linux模板升级到LXC 1.0后,当我创build一个新的实例时,我调用了一个双tty: lxc-console –name <container> 这是输出: Arch Linux 3.19.2-1-ARCH (lxc/tty1) arch1234 login: Arch Linux 3.19.2-1-ARCH (pts/0) arch1234 login: 当我input用户名和密码的时候,两个tty都是相互通过的。 lxc容器configurationconfiguration如下: #用于创build此容器的模板:/ usr / share / lxc / templates / lxc-archlinux #传递给模板的参数:-P vim,openssh #对于其他configuration选项,请看lxc.container.conf(5) lxc.utsname = arch1234 lxc.autodev = 1 lxc.tty = 1 lxc.pts = 1024 lxc.network.type = veth lxc.network.link = lxcbr0 lxc.network.flags =向上 lxc.rootfs […]

内核3.10的IPv6邻居发现/路由失败

愚蠢的错误导致所有这一切,阅读更新5 我正在尝试使用IPv6设置Linux路由器(LXC,3.10.0-123.el7.x86_64)。 提供者是赫茨纳,我有2个子网,一个/ 56和一个/ 64。 他们已经build立了路由到我的LL地址,我的默认网关是fe80 :: 1。 我在sysctl.conf中启用了ipv6和ipv4转发: net.ipv4.ip_forward = 1 net.ipv6.conf.all.forwarding = 1 我configurationIPTables接受一切。 我知道ICMPv6是在IPv6中用于路由select的主要工具 – 所以不会被阻止;-)。 我还加了-A FORWARD -j ACCEPT 。 我已经将my / 56子网的第二个(:: 2)IPconfiguration到eth1,将/ 64的第二个(:: 2)configuration到eth0。 eth0是上行链路接口eth1是lan接口 所以现在到了主要的问题。 来自/ 56的ipv6地址的内部客户端不能ping通外部世界,但是数据包和响应正确地路由,直到我的路由器丢弃数据包而没有任何提示。 例如ping6 ipv6.google.com会导致超时 但在路由器的上行链路上,我得到: 20:43:13.350932 IP6 client-ipv6-ip > fra07s64-in-x00.1e100.net: ICMP6, echo request, seq 1, length 64 20:43:13.355143 IP6 fra07s64-in-x00.1e100.net > client-ipv6-ip: ICMP6, […]

在LXC容器中执行Cuda脚本会导致“cuda错误:未检测到支持CUDA的设备”

我按照以下说明在LXC容器内设置了Cuda。 当我尝试在容器内执行示例./deviceQuery脚本时,返回错误: $ ./deviceQuery ./deviceQuery Starting… CUDA Device Query (Runtime API) version (CUDART static linking) cudaGetDeviceCount returned 38 -> no CUDA-capable device is detected Result = FAIL Cuda被识别并安装在容器内部 : $ nvcc –version nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2015 NVIDIA Corporation Built on Tue_Aug_11_14:27:32_CDT_2015 Cuda compilation tools, release 7.5, V7.5.17 nVidia设备安装在“主机和LXC容器内: $ ls […]

如何使用Ansiblepipe理远程lxc容器?

如何使用Ansible在远程服务器上的lxc容器上执行任务? 我们使用Ansible在几台服务器(物理和虚拟机)上部署我们的代码。 到目前为止,每个实例都有一个公共IP地址和一个正在运行的ssh服务器,所以一切都像魅力一样。 但最近,我们不得不在两台远程服务器上的lxc容器上进行部署。 这两个容器是natted,不运行一个SSH服务器(我们想保持这种方式)。 我只能使用ssh连接到他们到物理主机,然后lxc-连接到他们。 我发现的唯一方法是从未更新最新的Ansible 2.0版本的自定义插件 。 我也到目前为止没有任何结果的邮件列表 。 有没有人成功地在这样的configuration中使用Ansible?

为什么LXC需要重启?

LXC文档说: 在创build第一个容器之前,您可能应该注销并重新login,或者重新启动计算机,以确保将用户放置在正确的cgroup中。 有人可以解释为什么这是需要运行的东西: lxc-usernsexec -mb:0:100000:1 — bash 我在/etc/subgid和/etc/subuid有适当的映射。 但是这个命令只是说在我重启之前拒绝了权限。 什么是正确的cgroups代表? 编辑 在安装LXC之前: jml@somehost:~$ cat /proc/self/cgroup 2:name=systemd:/user/1002.user/123.session 安装LXC并重新启动后: jml@somehost:~$ cat /proc/self/cgroup 11:hugetlb:/user/1002.user/5.session 10:perf_event:/user/1002.user/5.session 9:blkio:/user/1002.user/5.session 8:freezer:/user/1002.user/5.session 7:devices:/user/1002.user/5.session 6:memory:/user/1002.user/5.session 5:cpuacct:/user/1002.user/5.session 4:cpu:/user/1002.user/5.session 3:cpuset:/user/1002.user/5.session 2:name=systemd:/user/1002.user/5.session 请注意,我所属的组别没有差异。 我注意到的唯一的变化是那些cgroups 。 现在让这些cgroups影响在命名空间中映射用户的能力?