我们正在使用Docker来容纳一个Web应用程序。 一切都在生产系统上完美运行,但我们的开发环境是一个真正的痛苦。 堆栈如下,我想这是按照层次顺序。 Mac OSX,运行: Vagrant +使用共享文件夹(rsync)在guest虚拟机上更新此虚拟机 Guest虚拟机:Centos 7,运行docker并使用docker-compose来安装一个卷来共享代码库 因此,从dev环境向实际运行的代码库传播更改的总path来自编辑器,在virtualbox vm中通过rysnc进行更新,然后通过已安装的卷更新Docker容器的代码库。 这里面临的挑战是,virtualboxe共享文件夹的同步不是双向的,如果我使用nano或vim更新guest虚拟机,它将不会在主机上更新。 有时候这个设置也完全无法更新Docker中的挂载音量,我不知道为什么。 任何人都可以在这里提出更好的设置 我们没有直接从OSX运行docker vm的原因是因为docker在OSX上的容器中与127.0.0.1不能很好地协作。 因此需要在OSX之上启动一个Linux VM .. 🙁
我只想知道SPN和Group托pipe服务帐户之间的区别。 我们如何使用Windows容器authentication。
我试图能够从networking的任何机器login到容器,除了docker主机通过SSH。 使用图像已经openssh安装和服务启动。 我在接口(9.158.143.65)添加了辅助IP,我试图将所有的数据包路由到docker容器IP(172.17.0.2)docker主机IP(9.158.143.52)子网的networking(9.158.143.0 / 24)使用的网关(9.158.143.254)使用的命令:iptables -t nat -A DOCKER -d 9.158.143.65/24! -i docker0 -j DNAT – 到目的地172.17.0.2 它是在docker主机即我能够login到容器通过使用IP(9.158.143.65)但是如果我尝试login从任何其他机器(这里使用9.158.143.51)networking除了docker主机本身.i我无法SSH(显示错误连接超时)。 我在想什么?请帮忙。
嗨,我想让我的容器可以连接到所有的设备,不只是docker主机。 我的networking子网是9.158.143.0/24我的网关是9.1158.143.254我的docker主机IP是9.158.143.52主要接口(ens160)和我的容器IP是9.158.143.65docker的PID是docker进程IDdocker码是docker的IP我想使dockerconfiguration,使docker可以从我的networking中的任何地方访问(在我的情况下,SSH)。 到目前为止, 1)开始创build一个新的桥接设备。 brctl addbr br-em1 ip链接设置br-em1向上 2)将此设备添加到您的桥 brctl addif br-em1 ens160 3)configuration过去属于ens160的网桥 ip addr del 9.158.143.52/24 dev ens160 ip addr add 9.158.143.52/24 dev br-em1 4)将默认路由移动到网桥 – ip route del default – ip route add default通过9.158.143.254 dev br-em1 直到这一点,everthing的作品。 docker主机具有networking连接。 5)docker run -itd –name web ubuntu 6)创build一个veth接口对: ip链接添加web-inttypesveth peer name web-ext 7)brctl addif br-em1 […]
以下是ECS集群中我的服务之一的MemoryUtilization的图表。 正如你所看到的,记忆力短暂地高达25%。 在这个集群中,我有3个t2.medium机器。 规范说这些机器有4GiB RAM。 我目前的问题: 我正在aws ecs任务中运行ImageMagic convert作业,并且转换大文件(退出状态137)时死亡。 但是在我的本地PC上,同样的工作可以毫无问题地运行。 我的aws ecs任务被定义为具有1792MiB的硬件软件限制。 (这是在t2.medium上至less运行两个任务的神奇数字) 我的问题是: 1)如何理解graphics? 百分比除数是多less? 所有ec2实例的总内存? 不知道如何理解图表。 2)如何使内存使用更灵活? 大部分时间我的convert不需要消耗大量的RAM。 我希望容器可以共享未使用的内存。
我正在尝试Docker Cloud,并添加了我自己的swarm基础结构。 我运行了dockercloud / server-proxy(但仍在运行),但Docker Cloud网页认为该群集无法访问(“Docker Cloud正在接收心跳,但无法连接到群集”)。 但是,这个群体显然是可以到达的。 在Windows应用程序中使用Docker,当我右键单击图标,并从我的组织子菜单中select我的群,我得到一个命令提示符,我可以在我的群(不是本地)运行图像。 有谁知道如何解决这个问题? 我在防火墙中打开了端口2376-2377,以确保Docker Cloud可以ping我的群。 谢谢你的帮助!
我有一个设置,用户通过PuTTYlogin主机,并可以产生Docker容器供他们使用。 Docker命令如下所示: docker run -it –rm -v /home/$USER:/home/$USER -w="/home/$USER" -u $USER –hostname="$USER-gcc463-docked" precise-gcc4 tmux new -s docker-$USER 正如你所看到的,我已经使用了–rm,所以当用户退出时,理论上的容器应该被移除,但实际上,有些用户closures了他们的PuTTY窗口,并且容器是孤立的。 你有什么想法,我怎么能让容器真正被删除在这种情况下,或者至less我怎么能find孤儿和清理呢? 谢谢。
我试图设置由Jwilder组合的Letsencrypt伴侣容器为ssl制作的Nginx代理泊坞窗容器。 behing代理目前是一个单一的网站,使用球童作为其服务器。 操作系统是Ubuntu 16.04,在防火墙中,我打开了端口80和443.没有Nginx代理,我可以通过HTTPS连接到网站。 但是对于nginx-proxy,我无法通过HTTPS连接到网站。 当我连接到是得到错误,ERR_CONNECTION_REFUSED。 我不知道什么可能会导致错误。 docker-compose yml文件: version: '2' volumes: postgres_data: {} postgres_backup: {} caddy: {} services: nginx-proxy: image: jwilder/nginx-proxy ports: – "80:80" – "443:443" volumes: – /var/run/docker.sock:/tmp/docker.sock:ro – /path/to/certs:/etc/nginx/certs:rw – /etc/nginx/vhost.d – /usr/share/nginx/html labels: – com.github.jrcs.letsencrypt_nginx_proxy_companion.nginx_proxy nginx-proxy-ssl-companion: image: jrcs/letsencrypt-nginx-proxy-companion volumes: – /var/run/docker.sock:/var/run/docker.sock:ro volumes_from: – nginx-proxy django: build: context: . dockerfile: ./compose/django/Dockerfile depends_on: […]
这是我的dockerfile。 FROM 796678920264.dkr.ecr.us-west-1.amazonaws.com/myproject/base:latest COPY /* / RUN python awslogs-agent-setup.py –non-interactive -c /aws-log.myservice.cfg –region us-west-2 CMD ["/start.sh"] 我使用dockerfile来构build将在dev和生产环境中使用的图像。 行为是由一个envvariables决定的。 即我会做这样的事情来启动一个docker容器: docker run -e ENV=dev -ti myservice 这个dockerfile的一个问题是:dev和prod中的日志被发送到us-west-2区域的同一个cloudwatch日志中。 有什么我可以做的,当一个docker集装箱启动时,将开发环境的区域更改为不同的值? 最好应该由相同的环境variables来控制。
用docker-compose运行docker容器时有奇怪的问题。 这是一个与Apache + PHP的docker容器 如果我手动运行 – 一切正常。 [root@opcis proxy-handler]# docker run -itd -v proxy_html:/var/www/html -p 9001:80 –name=webapp-handler2 jaels/proxy-handler 0b217e295e345056308daedaea441d2b123dd05c7cf29d5c219939f557f8374b [root@opcis proxy-handler]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 0b217e295e34 jaels/proxy-handler "/bin/sh -c '/usr/sbi" 6 seconds ago Up 1 seconds 0.0.0.0:9001->80/tcp webapp-handler2 但是,如果我用docker-compose运行它 – 它失败了“httpd(pid 8)已经运行” [root@opcis proxy-handler]# cat docker-compose.yml version: "2" services: […]