我有一个FreeBSD服务器,我喜欢能够从任何地方到达。 通常情况下,我使用SSH公钥来login,或者如果我没有我的SSH私钥可用,那么我可以使用SSH上的常规密码。 但是,当从不可信的机器login时,键盘logging程序在我键入密码时总是会捕获我的login密码。 FreeBSD已经支持OPIE ,这是一次性密码scheme。 这很好,但一次性密码是唯一需要的authentication。 如果我打印出一个一次性密码列表供以后使用,那么如果我失去了这个列表,那么这就是所有人都需要的。 我想设置身份validation,以便我需要一个一次性密码加我知道的东西(密码,除了不是我平常的login密码)。 我有一个感觉,答案与PAM (和/etc/pam.d/sshd )有关,但我不确定的细节。 如何在需要两种方法的情况下设置身份validation?
鉴于我的四个磁盘RAIDZ1,一个磁盘变得嘈杂,没有产生错误,但听起来不健康。 所以我select先发制人地replace它。 我已经做好了: zpool offline tank0 ad6 关机,卸下并更换磁盘 zpool replace tank0 ad6 ad6 永远挂起。 zpool status也会永久挂起, zpool history 。 如果我删除了磁盘重新启动计算机,一切正常,如预期的降级模式。 现在我该怎么做? 担心,因为我的数据现在容易受到单个磁盘故障的影响。 OS是FreeBSD 7.3-RELEASE-p1 – 又名FreeNAS 7.0.2.5226 尽pipeFreeBSD 7.3-RELEASE-p7(FreeNAS 0.7.2.8191,稍后的版本),我只是尝试了相同的操作在一个虚拟机,完美的作品。 试用FreeNAS的最早版本,我现在可以find(7.0.2.5799),稍后会更新。 另外, zpool replace不需要文件系统的使用? NAS上的另一个守护进程有可能使用文件系统。 我认为这样可以,但这当然可能是错误的。 更新,2012-01-10 我使用FreeNAS 8启动了机器,并执行了zpool replace – 启动后,立即开始抛出一堆数据损坏错误和内核恐慌 – 尽pipe每周清理一次池,永远不会发现任何问题。 我不认为我做了一些愚蠢的事情,比如告诉它来replace错误的磁盘。 我立即发出shutdown -h因为我知道数据很好。 无论如何,我现在有一个退化池,停在replace被暂停的状态,我正在复制我的数据到一个3TB的外部驱动器,花费巨资购买,所以我可以摧毁这个池并重新开始。 谢天谢地,数据看起来没问题 – 我碰巧有大约100GB的文件,到目前为止似乎是完好无损的,我已经设法恢复了一切,这是真正无法替代的。 我现在正在等待更多的内存,因为FreeNAS 8保持kmem_max太小的错误,我似乎无法调整周围,机器RAM内存约束(4 GB RAIDZ1 […]
我有FreeBSD路由器: #uname 9.1-STABLE FreeBSD 9.1-STABLE #0: Fri Jan 18 16:20:47 YEKT 2013 这是一个function强大的计算机,拥有大量的内存 #top -S last pid: 45076; load averages: 1.54, 1.46, 1.29 up 0+21:13:28 19:23:46 84 processes: 2 running, 81 sleeping, 1 waiting CPU: 3.1% user, 0.0% nice, 32.1% system, 5.3% interrupt, 59.5% idle Mem: 390M Active, 1441M Inact, 785M Wired, 799M Buf, 5008M […]
我们在一台声称使用176G磁盘空间的FreeBSD 10.0-CURRENT主机上安装了100G ZVOL: root@storage01:~ # zfs get all zroot/DATA/vtest NAME PROPERTY VALUE SOURCE zroot/DATA/vtest type volume – zroot/DATA/vtest creation Fri May 24 20:44 2013 – zroot/DATA/vtest used 176G – zroot/DATA/vtest available 10.4T – zroot/DATA/vtest referenced 176G – zroot/DATA/vtest compressratio 1.00x – zroot/DATA/vtest reservation none default zroot/DATA/vtest volsize 100G local zroot/DATA/vtest volblocksize 8K – zroot/DATA/vtest checksum […]
我有一个3ware 9550SXU-12存储控制器和750G的磁盘连接到它。 磁盘被configuration为单个单元(不是JBOD)。 我一直在进行一些性能testing,主要是看看分区alignment,encryption,RAID级别等对读/写/ iops性能的影响。 我感到惊讶的是,在我的情况下,相同的存储configuration的读/写性能与alignment的分区相比略低于未alignment的分区。 这促使我开始检查当通过3ware控制器连接时,以及在使用主板上的端口时,操作系统对于操作系统的可见性是否存在差异。 我知道3ware控制器放在磁盘上的磁盘控制块(DCB)元数据,允许更换控制器,而无需重新configuration控制器,因为configuration数据是从磁盘上的DCB块中读取的。 我的控制器使用“新格式”,这显然意味着控制器将DCB写入磁盘的最后1024个LBA中。 我很感兴趣,看看我的alignment方式是不是被3ware控制器给操作系统提供了一部分磁盘。 我发现了什么: 连接有或没有3ware控制器时,磁盘的开始看起来完全一样。 这里的alignment不应该有任何影响。 通过dd / md5sumvalidation。 磁盘的最后一个1024 * 512B的确包含了3ware的内容(由可读的string判断) 现在有趣的部分是:在3ware控制下,磁盘报告的媒体大小为749988741120 B,直接连接 – 750156374016 B,这意味着通过3ware控制器连接时,操作系统可以访问约160MB的磁盘介质。 如果仅仅是1024x512B(DCB)的差异,160MB似乎有太多的空间来存储这种types的控制器元数据是可以理解的。 问题: 有没有人知道是否有其他的考虑,当alignment连接到控制器的磁盘上的磁盘分区,这些磁盘存储单元configuration,我可能会错过? 出于好奇 – 有没有人知道最后160MB的磁盘媒体用于什么? 谢谢
我不关心GUI或工具,但我关心稳定性和性能。 如果我将FreeBSD防火墙和Opensolaris文件服务器作为guest虚拟机运行,如果切换到KVM,我是否会获得更好的稳定性或性能(networking和磁盘I / O)? 后续问题:未来最有可能是摇滚稳定和接近原生的I / O速度? 更多细节: 目前我有一个Open Server的dom0和包括* NIX和* BSD在内的多个dom服务器。 到目前为止,8月份的最新版本, PV内核的networking问题 :无法更改dom0中vif的MAC,如果使用domU作为防火墙,数据包会丢失 FreeBSD 8.1不像PV光盘那样稳定 HVM在重I / O负载下不稳定 据说PV内核中的networking问题是固定的,所以我正在寻求将发行版转换为使用pv内核的发行版。 我认为,如果我要从头开始重做Xen,不妨看看竞争对手,而KVM似乎有些有前途。 编辑:我不关心GUI /pipe理工具,因为我只使用命令行选项。
我正在运行FreeNAS 9.3的供应商特定衍生产品。 当我安装了一个新的JBOD机箱,将两个新的vdevs添加到我的池中,并且机箱中有一个坏的主板时,我的麻烦就开始了。 在这段时间里,我发现硬盘上的硬盘出现了SAS供电错误 – 我的新硬盘每分钟都会反复打开和closures。 我更换了主板,现在,通过大多数措施,驱动器运行良好,但是当我查看zpool status时,ZFS仍然给我非常奇怪的校验和错误。 当我遇到SAS电源问题时,我认为CoW有一些不好的写法。 带有CPU,引导驱动器,RAM等的第一个机箱通过mini-SAS连接到第一个扩展JBOD机箱,第二个JBOD扩展机箱通过第一个JBOD扩展机箱(也通过mini-SAS)以菊花链方式连接。 [机箱1:启动驱动器,两个L2ARC SSD,RAIDZ3-0的11/11驱动器,1/11驱动器RAIDZ3-1] – > mini-SAS到机箱2 [机箱2:RAID Z3-1的10/11驱动器,RAID Z3-2的6/11驱动器] – > mini-SAS到机箱3 [RAIDZ3-2的机箱3:5/11硬盘,RAIDZ3-3的11/11硬盘] 校验和错误不能整齐地映射到任何一个控制器或机箱,但是我的直觉是,当我遇到这些电源问题时,无论写入到不同的新磁盘的数据是不是写在两个新的vdevs上。 我的HBA采用了好的LSI固件 – 全部在20.00.04.00或20.00.08.00 我更换了迷你SAS电缆,并尝试使用不同的端口,无济于事。 zpool status的输出显示在两个新的vdevs上累积的校验和错误,在scrub,reboot或zpool clear ,最终zpool status这些vdevs标记为降级。 奇怪的是,它也将属于这些vdevs的一些驱动器标记为降级,但是它们的单个磁盘的实际错误计数均为0. zdb显示单个驱动器由于校验和错误太多而被标记为降级尽pipe他们所有的校验和错误计数实际上是0.也奇怪的是,池级别的校验和错误显示的数字比两个问题vdevs加在一起的校验和错误less。 zpool status -v在映射到长久被删除的0x0 inode的快照中持久地显示永久性错误,但似乎无法被多个scrubs,reboots或zpool clear 。 另外,其他的永久性错误也会浮现出来,有时候只会显示为hex代码节点,而其他时间则是最近快照的一部分。 我用lsof找不到任何0x0 。 我相信池中的元数据可能会有某种数据损坏。 我正在寻找一种方法来手术去除这些幻影快照,否则返回我的池到一个健康的状态,而不会破坏我的数据。 我怀疑ZFS正在迭代这些损坏的幻影快照,并在vdevs上造成奇怪的校验和错误和降级状态。 我有很多重要数据的“冷”LTO备份,否则,如果我不能修复我的池,我准备build立第二台服务器,将所有内容卸载到“热”第二台服务器上,销毁我的池在顶层,然后从热备份重新加载。 以下是zpool status -v的输出: [root@Jupiter] ~# zpool status -v […]
这是我的设置:我正在运行双核四Xeon 2.0Ghz与16GB的Ram和2 x 2TB的WD绿色驱动器与FreeBSD 7的ZFS的根。 硬盘在ZFS镜像中。 我正在运行VirtualBox 4.0.14。 我有2个Windows Server 2003 Guest,每个分别使用4 GB的Ram,并且有大约70%的320个VDI虚拟磁盘已满。 一个Windows Server是terminal服务器,另一个是MS SQL数据库服务器。 当在Samba上直接从FreeBSD服务器执行磁盘拷贝和传输时,我可以在读取和写入时获得80-90 MB / s的传输速率。 当我尝试在虚拟机内部传输时,我最多可以获得10MB / s的速度。 当我在VM中复制一个大文件时,我获得了10MB / s的最大值。 使用zpool iostat我从来没有看到虚拟机使用超过20-30 MB / s的最大传输。 在VirtualBoxconfiguration里面,我已经尝试了IDE适配器和SATA。 我还没有尝试SCSI。 什么可能是如此慢的磁盘访问速度的原因?
我testing了两台主机之间的10Gbit连接,以便能够从host1读取10GB文件,并使用netcat将其写入host2,速度为410MB / s。 当我通过同一个专用的10Gbit连接与netcat再次发送/接收时,我只能获得70MB / s。 快照是2.5TB,有1500万个文件。 题 这种放缓的原因是什么? 使用这么多文件回滚快照需要花费很多时间,还是文件数量不受ZFS回滚速度的影响? 更新 10GB的文件传输testing,我得到了410MB / s的,我想模拟一个ZFS发送/接收与回滚。 所以有了这个假设,我很惊讶,我看到如此不同的速度。 我正在使用两个testing之间的比较速度,所以我不必生成随机数据2.5TB文件。 所以我不明白为什么“从host1读取文件,使用netcat传输,写入文件到host2”要比“zfs从host1发送快照,使用netcat传输,在host2上使用ZFS接收/回滚”快得多。 也许另一种方式来问同样的事情会是? 如果我有两个相同大小的2,5TB快照,其中snapshot1包含1个文件,snapshot2包含1500万个文件。 两个zfs receive的时间是一样的吗? 或者会比另一个更快?
是否有人知道FreeBSD的GNU / Linux实用程序cpulimit的等价物? 我不是在讨论用户帐户的stream程漂亮性或设置限制,而是实际限制特定stream程使用的CPU的百分比。