我试图用Novell Xen(SLES 10 SP2,所以它是Xen 3.2.x)build立一个迷你云。 我在后面有一个iSCSI服务器,使用Starwind 4.1目标。 问题是,当我用第一台主机写入iSCSI服务器时,我看不到第二台主机上的文件,反之亦然。 我也尝试了Citrix XenServer,并使用LVMoiSCSI,这没有问题 任何人都可以build议如何处理Novell Xen。 我不习惯使用LVM,所以我想在开始使用LVM之前尝试其他的东西。
我即将添加第二个硬盘到我的服务器的数据存储,并决定使用LVM。 我的计划是使用一个卷组和服务器逻辑卷。 由于磁盘是新的,我需要先分区。 我应该创build多less个主分区? build立在单分区磁盘上的LVM文件系统和一个四分区磁盘上的LVM文件系统有什么不同?
我为KVM来宾创build了LVM分区。 KVM客户端也使用LVM分区。 虚拟机pipe理程序中客户LVM分区的初始大小为160GB。 我已经扩展到200GB。 我已经重新启动了客人,并确认了新的尺寸: # fdisk -l Disk /dev/vda: **214.7 GB**, 214748364800 bytes 16 heads, 63 sectors/track, 416101 cylinders Units = cylinders of 1008 * 512 = 516096 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x000c1b11 Device Boot Start End Blocks Id […]
我打算部署一个基于Ubuntu 12.04的归档系统。 由于SAN存储的限制,它只能为我提供2TB的LUN。 因此,我必须合并多个2TB LUN才能达到所需的空间(4.5TB,预计每年增长高达1TB)。 SAN存储具有自己的RAID保护(是的,不是替代备份,我知道),所以我不需要基于软件的RAID保护。 请提供一些关于我应该如何“结合”这些LUN的build议: 将它们组合成一个ZFS池,或者 将它们组合成一个LVM VG 如果可能的话,也请告诉我两者的缺点/好处。 (我在互联网上可以find的假设ZFS / LVM将build立在RAIDZ / MDRAID提供RAID的个别磁盘上,所以真的不适合我的情况)。 注意:也许我应该使用更好的SAN存储,但是“pipe理”决定使用这个特定的SAN存储,而我的双手是捆绑在一起的。
我对LVM快照的理解是:如果源在块上发生更改,则块将首先复制(在更改之前)到快照。 然后该块就像通常那样在原点上被改变。 从理论上说,当一个快照首次创build时,它不应该包含任何内容。 然后当原点发生变化时,这些块将开始填充快照。 但是,如果出于testing目的,我创build一个小的1G LV,我把一些文件放在上面; 然后我创build一个200MB的快照。 正如预期的那样,lvs显示了200M的LSize和snap的1G。 但是,当我安装快照卷,df显示它的大小为1G。 当我检查它的内容时,我发现它包含原始卷中的所有内容,即使原始文件没有被更改。 为什么是这样? 我假设“安装”命令有一些逻辑来做一个比较之间的原始LV和快照LV? 有人可以解释这是如何工作的。 如果我查看每个卷上的文件的inode编号(原点和捕捉),它们是不同的(因为每个文件系统都是自己独特的文件系统),但是我假设有一些“指针”用来引用原点上未改变的块。 沿着这一脉络,我假设如果我将快照逻辑卷本身复制到另一个位置,我将得到原始文件的一个子集 – 只有那些已经改变的文件。 …但是,如果我第一次挂载快照文件系统,然后做一个文件系统级副本(cp),我会得到原始的一切,就像创build快照时一样。 对?
我第一次使用这个命令创build了一个新的LV: lvcreate -L 20G -n iew-vm-lv /dev/ubuntu-vg #create the new LV 当我尝试运行mount /dev/ubuntu-vg/iew-vm-lv ,出现以下错误: mount:在/ etc / fstab或/ etc / mtab中找不到/ dev / ubuntu-vg / iew-vm-lv 如何将新的LV添加到这些文件? 我应该手动编辑它们吗? 这些文件的当前内容是: # /etc/fstab: static file system information. # # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= […]
Apache只能使用50GB,所以如果我的网站超过这个数量,服务器崩溃。 这台虚拟机有200GB的分配给它。 但是我没有正确设置音量。 我怎样才能把lv_home的一些空间分配给lv_root? # df -h /dev/mapper/vg_nastgweblls01-lv_root 50G 5.0G 42G 11% / tmpfs 2.9G 0 2.9G 0% /dev/shm /dev/sda1 485M 109M 352M 24% /boot /dev/mapper/vg_nastgweblls01-lv_home 142G 188M 135G 1% /home
我有一个使用8kb块单元的PCIe SSD卡。 它支持“虚拟控制器”,可以将这个驱动器分成两半,创build带有8kb条带大小的LVM RAID0。 最重要的是,我安装了一个使用8kb块大小的文件系统。 我的应用程序写入8kb的数据块。 每个添加的层是否有空间开销,导致这个8kb块“alignment”转移,并最终将被写入SSD的原始数据(明显?)更大? 如果我的应用程序写入8kb的数据,那么FS会写8kb +它的元数据,然后转换成8kb + fs元数据+ lvm元数据,最终到达8.5kb,并将所有的alignmentclosures?
在连接新虚拟磁盘之前,这是我的磁盘状态: Filesystem Size Used Avail Use% Mounted on /dev/xvde1 4.9G 4.6G 1.3M 100% / tmpfs 828M 0 828M 0% /dev/shm 当我连接新磁盘时,我创build了新的分区和逻辑卷,并挂载到/ var分区,这是当前状态: Filesystem Size Used Avail Use% Mounted on /dev/xvde1 4.9G 4.6G 1.3M 100% / tmpfs 828M 0 828M 0% /dev/shm /dev/mapper/vg_var-lv_var 49G 442M 46G 1% /var 为什么根分区是一样的,没有减less,又100%的使用?
我正在运行一个存储系统。 容错性在应用程序级别进行处理(文件存储在多个服务器上,甚至数据中心上)。 因此,我不需要,甚至不需要在一台服务器冗余(Raid 5会好,但我运行商品预算服务器,所以任何资源密集型或需要昂贵的硬件是坏的)。 目前,我正在使用LVM在服务器中的所有驱动器中创build卷组,然后在其上放置一个大卷。 这工作很好迄今。 问题是我想在未来使用更大的服务器,包含多达40多个驱动器。 一个驱动失败的可能性,从而摧毁整个卷组是不可接受的高。 数据存储在其他地方,可以由应用程序恢复,但通过互联网对等恢复100多TB是昂贵的,需要很长时间。 如果一个驱动器出现故障,我只想放松存储在该磁盘上的文件。 如果这些文件可以作为一个整体存储在一个磁盘上,并且在一定程度上均匀地分布在多个磁盘上(出于性能方面的考虑,并且减less了一个驱动器出现故障时需要恢复的数据量),这也是完美的。 有什么适合我的需求吗? 我认为在大型卷组中,这是一个非常普遍的问题。 呈现“合并视图”并通过导火线安装的小程序将是完美的。 不幸的是我的应用程序不够灵活,无法处理一个服务器内的多个卷。 我知道lvm有恢复手段,但说实话,我真的不想在生产系统中运行它们。 另外:lvm如何在一个卷组中的多个设备上“传播”数据? 它是否增加到第一个,直到完整,然后开始第二个? 还是更像是随机的地方? 编辑: 这不是一个真正的问题? 这个问题不是关于“什么是一个好的方法……”这个问题也不是关于容错的冗余。 我的问题非常具体。 这有点不同寻常。 这就是为什么我需要问一个问题,而不是input到谷歌。 我可以使用什么程序将多个驱动器合并为一个大容量,并且只有在一个驱动器出现故障时才会释放存储在一个驱动器中的文件 Raid – >不这样做。 Raid可以存储冗余信息以防止首先丢失。 Raid也可以将多个驱动器合并为一个。 想象一个小秘书拿到一个文件。 把它放在一个有自由空间的驱动器上。 如果你要求它,他会search它,或记住它在哪里,并从那个驱动器给你。 如果一个驱动器走了,小秘书道歉,并说他不再有该设备上的文件,但他可以给你所有的其他人。