我在显示重复的VG名称的服务器上。 我怎样才能重命名这些VolGroups之一来摆脱这种冲突呢? [root@dev-server dev]# lvs WARNING: Duplicate VG name VolGroup00: zOuHvA-QTBR-wNPs-3GIQ-b2zQ-yOeH-2fBS87 (created here) takes precedence over ifDUDd-ePmZ-Er7H-xwst-70dY-hB3M-6YDNZc WARNING: Duplicate VG name VolGroup00: Existing zOuHvA-QTBR-wNPs-3GIQ-b2zQ-yOeH-2fBS87 (created here) takes precedence over ifDUDd-ePmZ-Er7H-xwst-70dY-hB3M-6YDNZc LV VG Attr LSize Origin Snap% Move Log Copy% Convert LogVol00 VolGroup00 -wi-ao 30.00G LogVol01 VolGroup00 -wi-ao 127.91G backup VolGroup00 -wi-ao 300.00G rman VolGroup00 -wi-ao […]
我有两台换卷机器人(Quantum Superloader 3),一台使用并行SCSI连接,另一台使用SAS。 他们连接到一个Centos 5服务器,引导将正常进行。 他们现在连接到运行CentOS 6.3的新服务器。 当服务器一个接一个地进入“开始udev”阶段时,转换者开始经历许多例程,可能是某种库存。 SAS转换器首先,可能是因为它被分配了一个较低的设备号(/ dev / changer-sg4与其他转换器的/ dev / changer-sg6相比)。 发生这种情况时,启动过程只停留在“启动udev” 第一个更换器在大约3-4分钟内搅拌库存,然后第二个更换器启动。 几分钟后,我看到SCSI错误消息出现在屏幕上(如果需要的话,我可以很快将它们粘贴到这里),但是换盘器继续进行清点,并从那里正确启动。 开机之前换碟机就完成了,开机时,两台磁带机似乎都可以正常工作。 结果是,启动成功完成,没有人工干预,但我想删除额外的时间,这是增加到引导,并在磁带更换(如果有的话)额外的磨损。
对于一般情况,我们假设eth0的虚拟适配器已经被删除,并被replace为另一个。 要么是由于克隆,要么是最近出现的一些MAC地址冲突。 [是的,他们的皮疹 。] 通常我只是rm /etc/udev/rules.d/70-persistent-net-rules并检查/ etc / sysconfig / network *中是否包含对MAC地址的引用并重新引导 ,但是这是Linux,必须有一种避免重新启动的方法。 有没有一个命令,我可以运行拿起新的网卡? 编辑 除了@ dawud在下面的回答,我遇到了一个问题,我的testing虚拟机已经启动了新的设备,并命名为eth1在这种情况下udevadm似乎没有“释放”设备。 在这种情况下,我做了以下事情: 从VSphere获取设备的MAC地址。 使用eth0 mac ##:##:##:##:##:##创build/编辑/etc/iftab ,replaceMAC地址。 当这个文件不存在时, ifrename似乎不喜欢/包含目标接口的名字。 ifrename -i eth1 -n eth0 service network restart ,eth0正常启动。 [可选] rm /etc/iftab这样MAC就没有一个地方可以居住了。
全新安装的Ubuntu Server 13.10(x64)从位于md + lvm的根卷启动时遇到问题。 现在我已经扼杀了一个解决scheme,但我想更多地了解正在发生的事情以及可能会有哪些更好的解决scheme。 由于这台机器的目的是为了试验Xen(为了更好地理解商用虚拟机托pipe),该机器是由我必须交付的零件组装而成的,特别是:Q6600 + Asus P5QL Pro,1 TB和500 GB SATA光盘(虽然500 GB的光盘在其他地方仍在使用,但稍后会添加。) 1TB光盘有三个分区:sda1与500 GB光盘上的sdb1大小相同,sda2交换,余额为sda3。 md0是由sda1 + sdb1组成的RAID1卷[1],是LVM可用的一个PV。 Ubuntu安装在这个VG(vg_mir)的两个LV(dom0_root和dom0_homes)中,而/ boot则位于dom0_root中。 具体问题在光盘初始化后立即显示以下消息: kernel: [ 3.003506] md: bind<sda1> kernel: [ 3.007705] md/raid1:md0: active with 1 out of 1 mirrors kernel: [ 3.007768] md0: detected capacity change from 0 to 499972440064 kernel: [ 3.047284] md0: unknown […]
我试图坚持在一个安装的驱动器与mongodb使用readahead规则。 挂载使用/etc/fstab持久化,并按预期工作。 我在/etc/udev/rules.d/85-mongod.rules添加了udev规则ACTION=="add", KERNEL=="sdb", ATTR{bdi/read_ahead_kb}="16" ,并确认它可以工作用udevadm test –action=add /sys/block/sdb 。 重新启动时,磁盘将被挂载,但readahead被设置为默认值,而不是由udev规则设置的值。 我正在谷歌云上运行centOS 7.1并挂载持久磁盘。 这是一个竞争条件还是另一个时机问题? 有没有解决办法? 我不愿意使用/etc/rc.local因为我不确定磁盘在执行时是否总是被挂载,但不知道这是否是一个问题。 谢谢你的帮助!
我有一个Ubuntu 8.04 LTS(服务器版),我需要编写一个udev规则,以便在插入USB拇指驱动器时采取行动。 但是,我需要根据驱动器的文件系统采取不同的操作。 我知道我可以使用ID_FS_TYPE环境variables来检查驱动器上的文件系统。 按照这里find的指示,我尝试一个虚拟的udev规则: KERNEL!="sd[az][0-9]", GOTO="my_udev_rule_end" ACTION=="add", RUN+="/usr/bin/touch /tmp/test_udev_%E{ID_FS_TYPE}" ACTION=="add", ENV{ID_FS_TYPE}=="vfat", RUN+="/usr/bin/touch /tmp/test_udev_it_works" LABEL="my_udev_rule_end" 但是,当我插入带有vfat文件系统(应该触发这两个规则)的拇指驱动器时,我最终得到一个名为/tmp/test_udev_vfat的文件,这意味着第一个规则已成功触发, 并且 ID_FS_TYPE环境variables是“vfat “,但我没有其他文件,这意味着虽然我知道ID_FS_TYPE envvariables是”vfat“,但似乎无法检查它是否匹配。 我试着用googlesearch,但几乎每一个结果似乎都假设ENV{ID_FS_TYPE}=="vfat"起作用。 我也在Ubuntu 10.04 LTS服务器上testing了完全相同的udev规则,而且我也得到了相同的结果。 我可能错过了一些非常简单的东西,但我不明白。 有没有人看到我的udev规则,会阻止它匹配ENV {ID_FS_TYPE}有什么问题? 谢谢。
第一次使用serverfault,请原谅任何违反礼仪。 我在服务器的本地存储中创build了多个LVM2逻辑卷,并且希望其中一个设备节点(不是文件系统或挂载点)由root:root以外的用户/组拥有。 这几乎是默认的RHEL5服务器。 我知道设备节点是在LVM扫描pv / vg / lvs磁盘后在引导时dynamic创build的。 我不太确定udev,mapper和lvm如何相互作用来创build这些节点,而configuration文件规范对于没有太多经验的人来说有点神秘。 会有更多的lvs需要遵循,也需要备用权限,但是我理想的情况是保持卷组中的其他lvs为root:root,并且只更改特定的lvs。 任何人都可以帮我把这个弄出来吗? 我一直在Google上search几个小时。 在此先感谢Tony 更新: 我通过以下完成了这一点。 这可能是一个迂回的做事方式,但这只是一个临时的环境(有名的遗言!)。 哦,我也可能想删除打印到/ tmp / foo的行。 [root@xxxxxxx rules.d]# **cat /etc/udev/rules.d/11-lvm.rules** ACTION=="add|change", KERNEL=="dm-*", PROGRAM="/bin/sh -c /etc/udev/scripts/oracle_perms.sh" [root@xxxxxxx rules.d]# **cat /etc/udev/scripts/oracle_perms.sh** #!/bin/bash echo "DEVPATH=$DEVPATH" >> /tmp/foo MAJMIN=`cat /sys${DEVPATH}/dev` echo "MAJMIN=$MAJMIN" >> /tmp/foo MAJ=`echo ${MAJMIN} | awk -F: '{ print $1 }'` MIN=`echo ${MAJMIN} […]
首先,我更愿意提到我已经find并阅读了这个 。 我使用标准的3.16内核运行Debian Jessie。 我已经手动定义了一个RAID1arrays。 但在启动时不会自动组装。 因此,在尝试挂载/ etc / fstab中描述的FS之后,systemd会回退到某些降级的shell。 如果fstab中的那一行被注释掉了,那么启动过程将结束,但RAIDarrays不可用。 手动组装不会引发任何错误。 然后安装FS很简单。 手动组装时,数组看起来像这样: root@tinas:~# cat /proc/mdstat Personalities : [raid1] md0 : active (auto-read-only) raid1 sdc1[0] sdd1[1] 1953382464 blocks super 1.2 [2/2] [UU] bitmap: 0/15 pages [0KB], 65536KB chunk unused devices: <none> 这里是blkid命令的摘录: /dev/sdd1: UUID="c8c2cb23-fbd2-4aae-3e78-d9262f9e425b" UUID_SUB="8647a005-6569-c76f-93ee-6d4fedd700c3" LABEL="tinas:0" TYPE="linux_raid_member" PARTUUID="81b1bbfe-fad7-4fd2-8b73-554f13fbb26b" /dev/sdc1: UUID="c8c2cb23-fbd2-4aae-3e78-d9262f9e425b" UUID_SUB="ee9c2905-0ce7-2910-2fed-316ba20ec3a9" LABEL="tinas:0" TYPE="linux_raid_member" PARTUUID="11d681e5-9021-42c0-a858-f645c8c52708" […]
每天早晨9点,我们将外部HD插入我们的办公室服务器(总是连接到同一个USB端口)。 HD每天都是新的,但都是由同一个制造商(Freecom)制造的。 每天早上12点,一个脚本运行备份所有的HD。 第一步是以这种方式安装高清: mount /dev/sdc1 /mnt/backup 问题是有时设备文件不是/ dev / sdc1,而是其他的东西(比如/ dev / sdd1)。 我仍然不知道为什么,因为我们没有插入任何其他东西,我们总是使用相同的端口。 所以我的问题是如何以一种非常安全的方式以编程方式检测正确的设备文件。 我到目前为止唯一的想法是grep / dev / disk / by-id目录的内容,从这一行查找并提取/ dev / xxx: lrwxrwxrwx 1 root root 10 Sep 24 11:03 usb-Freecom_ToughDrive_1A90102657FF-part1 -> ../../sdc1 有更好的build议吗? 任何关于我的方式的担忧? 我很惊讶lsusb怎么帮不了我。
这个问题主要是在标题中。 mdadm和/ proc / mdstat坚持通过其“传统”/ dev / sdX名称列出md成员。 我想要的是他们使用新的udev设备名称(例如/ dev / disk / by-path和by-id)。 我已经改变了/etc/mdadm/mdadm.conf DEVICE partitions 至 DEVICE /dev/disk/by-path/* 但是这似乎没有任何作用。 此外,数组使用旁路设备名称进行了分隔。 这是在Ubuntu 11.10上。 当前/ proc / mdstat: ~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md1 : active raid5 sdi[4] sde[2] sdh[1] sdd[0] 2929651200 blocks super 1.2 level 5, […]