Articles of 亚马逊 EBS

跨AWS节点共享/复制EBS

我想跨多个EC2节点(networking/应用程序服务器)使用单个EBS存储。 我已经阅读了关于快照分享的一些文章,但是这并不适合我们所需要的。 我们使用文件系统来存储数据库logging附件,所以如果创build了一个这样的附件,我们需要它立即可用于所有节点(服务)。 到目前为止,只有NFS似乎是可行的,但configuration和维护是一个痛苦。 另一个select可能是将这些附件存储在S3上,但是这会使我们不能对这些数据进行任何分析。 在AWS中进行扩展时,这一定是非常普遍的问题,那里有什么解决scheme?

安装的EBS卷是否通过networking连接到实例?

自从最近的Amazon Cloudburst以来,我有几个问题。 是否将EBS作为外部卷连接使用比使用EBS作为根设备更好的I / O性能? 如何在一个实例和安装的EBS卷之间进行IO操作 根设备。 外部音量。 (是通过以太网还是在同一个XEN服务器上,或者其他的) 由于我在外部EBS上收取I / O费用,我猜猜EBS卷与实例位于不同的位置吗?

在EC2上创build安全的弹性Rails和MySQL服务器

我想知道在EC2上应该使用什么实践来创build安全和弹性的Rails和MySQL服务器。 更具体地说,当我说“安全和弹性”时,我试图平衡一个事实,即我需要使用dm-crypt保护块级安全EBS存储上的数据(包括MySQL数据和Rails日志)。 为了确保安全,我不愿意以明文方式存储密码。 问题当然是,如果服务器重新启动,encryption的文件系统不能自动挂载,这意味着我也不能自动启动mysqld / nginx / passenger /等。 另一方面,我正在寻找一种灵活的解决scheme,即通过人工干预和自动化的组合,可以快速恢复故障(如暂时丢失存储或EC2实例故障)。 我唯一的select是创build一个手动调用的shell脚本来挂载encryption的EBS卷,然后启动相应的服务器进程? 还是有一些更复杂的密钥pipe理工具,可能能够以安全的方式自动化这个过程? 他们在生产服务器环境中为这种情况做了什么?

“磁盘/ dev / xvda1不包含有效的分区表”

Iam新手到EC2和Ubuntu 11(EC2免费层Ubuntu)。 我做了以下命令。 sudo mkfs -t ext4 /dev/xvdf6 sudo mkdir /db sudo vim /etc/fstab /dev/xvdf6 /db ext4 noatime,noexec,nodiratime 0 0 sudo mount /dev/xvdf6 /db fdisk -l 我有下面的输出。 有人能指导我做错了什么,怎样才能纠正。 Disk /dev/xvda1: 8589 MB, 8589934592 bytes 255 heads, 63 sectors/track, 1044 cylinders, total 16777216 sectors Units = sectors of 1 * 512 = 512 bytes Sector size […]

为什么从AMI启动和实例时需要指定内核ID?

据我了解,AMI包含了系统的所有文件,包括编译好的内核。 从快照创buildAMI时,可以指定内核ID(例如aki- *)。 那么为什么在从已经指定了内核ID的AMI启动实例时需要指定内核ID呢?

在/ mnt / some_name上安装EBS驱动器并重启我的EC2实例是否安全?

从我在网上看到的每个人似乎都在/mnt/some_name上安装了额外的EBS驱动器。 但是/mnt是实例临时存储的挂载点,当实例停止时会丢失。 假设我在/etc/fstab添加了正确的条目,我可以重新启动或停止/启动实例,并让驱动器仍然安装? 我的想法是挂载点/mnt/some_name在重新启动过程中将会丢失,所以驱动器将无法挂载。 我对吗? 我应该在哪里安装东西呢?

如何使AMI在初始化时装入相同的音量?

这是一个数据库(Postgre)虚拟机,其数据存储在一个单独的EBS卷上。 我可以这样做,以便相同的EBS卷自动挂载(这是假设没有其他实例正在使用该EBS)。 这样做的原因是数据库启动时会有数据文件可用。

我可以在不使用mdadm的情况下通过EBS卷创buildRAIDarrays吗?

我是Linux设备pipe理和文件系统的新手,所以这个问题的答案可能是“不,当然不是,你在想什么? 或者“是的,当然,这不是很明显吗?” 尽pipe如此,我希望有一点专业知识可以清除我的困惑。 我最近发现了一个创build并附加卷到EC2实例的旧脚本。 假设我有四个EBS卷, sdf1 , sdf2 , sdf3 , sdf4 。 相关部分看起来像这样: # Create a RAID0 array pvcreate /dev/xvdf1 /dev/xvdf2 /dev/xvdf3 /dev/xvdf4 vgcreate myvg /dev/xvdf1 /dev/xvdf2 /dev/xvdf3 /dev/xvdf4 lvcreate –stripes 4 –stripesize 256 –extents 100%VG –name mylv myvg mkfs.xfs /dev/myvg/mylv 这是整个文件系统的创build。 相比之下,我可以在网上 find的每一个教程 (这些只是一个抽样)首先使用mdadm ,然后操纵生成的设备,通常是这样的: mdadm –verbose –create /dev/md0 –level=0 –chunk=256 –raid-devices=4 /dev/sdf1 […]

可持续性的澄清

我对AWS上EBS卷的耐用性感到困惑。 例如,自最近的Amazon EBS快照以来,使用20 GB或更less的修改数据操作的卷的年度故障率(AFR)可能在0.1% – 0.5%之间,其中故障是指卷完全丢失。 相比之下,商品硬盘通常会以大约4%的AFR出现故障,使EBS卷比典型的商用磁盘驱动器可靠10倍。 由于Amazon EBS服务器在单个可用区域内复制,因此跨同一可用区域中的多个Amazon EBS卷镜像数据不会显着提高卷的耐用性。 这是否意味着1 / 200-1 / 1000的失败概率是在自动复制之前或之后?

从其他aws帐户恢复快照?

我是新手,所以请原谅我的初学者问题。 我有一个目前在我们西部2c的aws帐户。 它有一个实例运行,也是我做的几卷。 我在ec2-create-snapshot命令创build的amazon-s3中有多个备份实例。 如果我当前的ec2服务器崩溃导致某些原因,我无法login到aws帐户,我可以从另一个区域的另一个aws帐户s3中的快照恢复数据? 如果是这样,我怎样才能在CLI?