我使用1个分区在12TB设备上configuration了LVM。 然后,我尝试将LVM扩展到第二个带有1个分区的12TB设备。 vgextend工作,但lvextend没有看到第二个设备上的空间。 以下是我如何分区的第二个设备: # parted /dev/mapper/3600a09803830304d2f2b456f61565846 GNU Parted 2.1 Using /dev/mapper/3600a09803830304d2f2b456f61565846 Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) mklabel gpt (parted) mkpart primary xfs 0% 100% (parted) set 1 lvm on (parted) print Model: Linux device-mapper (multipath) (dm) Disk /dev/mapper/3600a09803830304d2f2b456f61565846: 12.9TB Sector size (logical/physical): 512B/4096B Partition Table: gpt […]
我最近拿起一堆硬件来build立一个新的家庭媒体服务器。 完全configuration后,将有20个1TB可热插拔SATA-II驱动器在Linux系统下运行。 到目前为止,我已经在多达8个驱动器的小型服务器上使用了RAID5和RAID6(不是连接),但是我想知道这是否还是个好主意。 更具体地说,我将在系统中安装六块SATA卡 – 四块PCI卡,每块四块SATA端口,两块PCI-Express x1卡,每块两块SATA端口。 (这个硬件还不是完全确定的 – 作为一个旁白,让我知道如果我可以改善它,这些插槽是目前主板上唯一可用的插槽。 我主要是在寻找什么低层次的软件系统(RAID,LVM,一个组合,完全不同的东西)来实现这个系统。 要求: 它必须可扩展到20个驱动器 – 我从四个开始,按照最大容量(最可能是一个或两个驱动器)工作。 它必须在Gentoo Linux上运行 – 对于我使用的软件,我非常灵活,但不是为了切换整个操作系统。 它必须足够可靠 ,以承受驱动器损失 – 在任何给定的时间至less有二十二个。 服务器大部分时间离我几百英里远,我不能让任何人在出现故障时立即换掉驱动器,所以它需要能够使用一个或两个驱动器一小会儿。 如果整个控制器卡可能发生故障并且arrays保持运行状态,则会给予奖励 它必须具有合理的容量 – 我希望在20个中至less有15TB可用于数据存储(而不是RAID奇偶校验等)。 更多的能力,只要不牺牲太多的完整性,就更好。 它必须向操作系统提供一个单一的统一文件系统 – 20个单独的1TB驱动器,全部使用单独的文件系统,并且单独安装,将不可pipe理(即使忽略这种设置中的驱动器故障会破坏1TB的数据)。 在提出build议时,请牢记这一点,我不介意在这方面做相当多的工作 – 只要工作正常,未来可靠,就不需要简单或即时的设置。 关于文件系统层层build议也是受欢迎的。 我目前正在使用JFS,因为它似乎performance良好,并且在读写时可以增长,但是如果有改进,我可以让我对它开放。
我正在使用Linux,并想知道如果我可以将LVM直接放在没有LUN的iSCSI目标上?
我们有一个运行在VMWare vSphere上的虚拟Linux服务器(Fedora Core 2.6.35.6-45.fc14.x86_64)。 最初它有3个SCSCI驱动器每个32Gb。 现在我们已经把装在“/ home”下的磁盘扩展到了256GB。 但是显然,Linux服务器在重启之后并没有看到这种变化。 有没有一种安全的方式来扩展ext4分区从32GB到256GB与丢失任何数据? 在提出这个问题之前,我已经在Google上进行了search,许多build议都使用了GParted。 但是现在看起来不是我的select,因为我现在只有shell访问服务器。 编辑 :这是来自DF的输出: [root@d0001-prf01 dmr]# df -T Filesystem Type 1K-blocks Used Available Use% Mounted on /dev/mapper/vg_d0011prf01-lv_root ext4 31705024 3385376 27997620 11% / tmpfs tmpfs 4098300 88 4098212 1% /dev/shm /dev/sda1 ext4 495844 31317 438927 7% /boot /dev/mapper/vg_d0011prf01-lv_home ext4 23674012 11840672 10630756 53% /home 如果需要,我可以提供更多的分区信息。 编辑 […]
我在两个卷之间执行了一个pvmove命令,但现在我可以看到两个存储器中的数据。 那么pvmove复制或移动数据? 命令在服务器中执行 pvmove /dm/dm-1 /dm/dm-0
我logging了我的完整安装,直到出现故障,如果您对安装有疑问,我并未提供以下解释: http : //www.youtube.com/watch?v=BVe5vja3keo 在分区期间,我创build了一个跨越三个相同磁盘的软件RAID 5卷。 在该卷上,我创build了一个encryption卷,其中创build了一个LVM,其中包含一个卷组中的两个逻辑卷。 一个逻辑卷用于/boot ,一个用于/ (其余): 当需要将Grub安装到MBR时,我得到错误Executing grub-install /dev/sda failed. This is a fatal error Executing grub-install /dev/sda failed. This is a fatal error : 之后,我完成了安装而不安装引导装载程序。 如果有人能帮助我,我将不胜感激! 我确实需要/boot冗余,因此不能将其放在RAID 5卷之外。 我已经尝试将一个/boot分区立即放入RAID 5卷中,并且不会自动工作。 如果可能的话,我喜欢LVM中的/boot ,但是如果它没有放在RAID卷内就足够了。 我知道一个软件RAID在性能上是次优的,硬件是最好的。 但是,我的预算是不允许的,冗余和encryption是我最关心的问题。
我在Linux机器上有3个相同的内部7200 RPM SATA硬盘驱动器。 我正在寻找一个存储设置,这将给我所有这一切: 不同的数据集(文件系统或子树)可以具有不同的RAID级别,因此我可以select性能,空间开销和不同数据集的风险权衡,同时拥有less量物理磁盘(非常重要的数据可以是3xRAID1,重要数据可以是3xRAID5,不重要的可重复数据可以是3xRAID0)。 如果每个数据集都具有明确的大小或大小限制,则可以扩大和缩小大小限制(如果需要,可以离线) 避免使用内核模块 R / W或只读COW快照。 如果是块级快照,则在快照过程中文件系统应该同步并停顿。 能够添加物理磁盘,然后增大/重新分配RAID1,RAID5和RAID0卷以利用新的主轴,并确保没有主轴比其他主轴热(例如,在NetApp中,将RAID-DP RAID组扩展了几个磁盘将不会在没有明确的重新分配的情况下平衡它们之间的I / O) 不需要,但不错: 透明压缩,每个文件或子树。 如果像NetApps一样首先分析数据的可压缩性并仅压缩可压缩数据,则更好 重复数据删除不具有巨大的性能损失或需要大量内存(NetApp在周末会执行重复数据删除,这很好) 对ZFS等无提示数据损坏的抵制(这不是必需的,因为我从来没有看到ZFS报告这些特定磁盘上的数据损坏) 存储分层可以是自动的(基于caching规则)或用户定义的规则(是的,我现在拥有全部相同的磁盘,但是这将使我可以在将来添加读/写SSDcaching)。 如果是用户定义的规则,则这些规则应该能够在文件级别而不是块级别上升级到SSD。 节省空间的小文件打包 我在Linux上试过ZFS,但是限制是: 升级是额外的工作,因为该软件包位于外部存储库中,并与特定的内核版本绑定; 它没有与包pipe理器集成 写入IOPS不会随着raidz vdev中的设备数量而扩展。 无法将磁盘添加到raidz vdevs 无法在RAID0上select数据,以减less开销并提高性能,而无需额外的物理磁盘或为ZFS提供磁盘的单个分区 LVM2上的ext4看起来像一个选项,除了我不能分辨是否可以收缩,扩展和重新分配到新的RAIDtypes的逻辑卷(当然,我可以在一堆文件上试验LVM)。 据我所知,它没有任何好的东西,所以我想知道是否有更好的东西。 我曾经看过LVM的危险和警告,但是再一次,没有一个系统是完美的。
我读的所有东西都让我觉得lvm快照是被快照(ed)的逻辑卷的直接副本,但是如果快照一个90 g逻辑卷需要10秒钟的时间,这又是如何呢? 如果我在/ var上有一个KVM qcow2磁盘映像,并且/ var / volgroup1 / lv_var上的/ var为90 GB。 我做了一个lvcreate -L 90G -n var_snapped -s / dev / volgroup1 / lv_var,这是否意味着我可以删除var上的qcow2图像,然后挂载var_snapped逻辑卷并将其复制到那里,我将精细? 我不明白如何快速地发生1:1的副本。
我有几台虚拟机,可以通过VMWare vSphere客户端访问(v 5.1.0)。 一个用完了空间,我想给它更多的空间。 到目前为止我所做的是: – 使用“摘要”(Summary)选项卡中的“编辑设置”(Edit Settings)增加了configuration大小。 – 用Linux LVM系统创build一个新的分区(/ dev / sda3)。 问题是机器上没有卷组,所以我不能按照正常的教程来告诉我 vgextend VolGroup00 /dev/sda1 当我这样做,我得到的错误: No physical volume label read from /dev/sda1 Can't open /dev/sda1/ exclusively. Mounted filesystem? Unable to add physical volume '/dev/sda1' to volume group 'VolGroup00'. 我一整天都在search,但无法find如何将/ dev / sda1添加到我的卷组。 这根本不在任何卷组中 任何人有任何提示或指针? 编辑:一些额外的数据: # fdisk -l Disk /dev/sda: 42.9 […]
我试图解决一个涉及传统grub(0.97),LVM2和dracut的linux启动configuration问题,并试图消除一些红鲱鱼。 我的试错过程如下: 修改grub.conf 通过grub shell将grub.conf安装到MBR中 重启 内核恐慌 为了消除#4,我是否缺less一个需要更新initramfs映像的步骤? initramfs映像包含哪些与启动过程中挂载的文件系统有关的内容? 我试图找出如何通过在备用LVM分区上放置一个新的操作系统,然后修改grub.conf / menu.lst以从备用分区启动,以最小的停机时间对脚本进行批量升级。 操作系统基于CentOS 6,我们使用Anaconda安装程序 – 出于某种原因,Anaconda创build一个/boot/grub/grub.conf文件,并将其链接到/boot/grub/menu.lst 。