Articles of freebsd

FreeBSD 10.0-RELEASE:重启后没有lagg0

我有一台运行Freebsd 10.0-RELEASE的服务器。 我试图创build与三个参与者接口,ix0,ix1和lagg0桥接口。 Lagg0是由ix2和ix3构成的虚拟接口。 我的问题是,lagg0不是在启动时创build的。 我可以在启动后创build它,它会自动接pipeix2和ix3。 之后,我可以手动将其添加到bridge0。 我在/etc/rc.conf中有这个: if_lagg_load="YES" ifconfig_ix0="mtu 9000 UP" ifconfig_ix1="mtu 9000 UP" ifconfig_ix2="mtu 9000 UP" ifconfig_ix3="mtu 9000 UP" cloned_interfaces="lagg0" ifconfig_lagg0="laggproto roundrobin laggport ix2 laggport ix3 up" cloned_interfaces="bridge0" ifconfig_bridge0="addm ix0 addm ix1 addm lagg0 up" 我究竟做错了什么?

BIND 9.10在FreeBSD 10.0上不断死亡,没有交换空间

在我们的一个从属DNS服务器BIND中,版本为bind910-9.10.0P2_3,在/var/log/messages不断被下面的消息所杀: Jul 30 01:00:10 cinnabar kernel: pid 602 (named), uid 53, was killed: out of swap space 该服务在XenServer 6.2的FreeBSD 10.0 VM上运行,具有512MB的系统内存。 此时pstat -m -s返回: Device 1M-blocks Used Avail Capacity /dev/ada0p3 512 9 502 2% 我不认为这是一个交换问题,这似乎是内存泄漏,但我不确定。 编辑:访问信息。 这是两个从属DNS服务器之一,它们只存储来自权威服务器的区域,并作为内部用户对外的recursion服务器。 客户端数量在700-1500个并发用户之间。 由于我们有一个/ 21的内部空间和一个/ 23的公共IPv4空间,并且没有来自外界的查询,所以端口53甚至在防火墙上被这些机器阻塞。

Supermicro + IPMI + FreeBSD:内核以1-bps打印

我正在运行FreeBSD 8.2-RELEASE。 该机器是一个带有IPMI 2.0子板的Supermicro 5015M 。 当我启动这个主机,启动过程进展良好。 我看到BIOS,RAID BIOS,第一阶段和第二阶段启动加载程序以及第三阶段/ boot / loader 。 这些似乎工作正常,速度没有问题。 然后,系统以大约1bps的速度从内核打印加载内核和消息。 以下是IPMI KVM-over-LAN的video 。 当使用连接到机器上的物理键盘 – video – 鼠标时,我也会看到这一点。 BIOS控制台redirect设置为115200 bps。 /boot/loader.conf和/boot/device.hints的相关设置: boot_multicons=YES boot_serial=YES comconsole_speed=115200 console=comconsole,vidconsole hint.uart.1.flags=0x10 hint.uart.1.port=0x2F8 我已经停用了boot_multicons,boot_serial,将comconsole_speed设置为各种值,将控制台更改为各种值,等等。 就好像内核忽略了我在加载器中input的设置。 我甚至改变了BIOS中的端口速度。 任何想法为什么发生这种情况? 看起来,FreeBSD正在将字符打印到video控制台,但打印字符的速度是用于串行控制台的,并错误地认为我的串行控制台configuration为1 bps。

如果启用了“dynamic节拍模式”,那么kern.hz在FreeBSD中仍然有任何相关性?

我在KVM设置中运行FreeBSD 9.0作为虚拟机。 在以前的FreeBSD版本中,通常强制kern.hz设置为一个较低的值,以便虚拟机不会使主机繁忙,因为它处理定时器中断而不需要做任何工作–FreeBSD手册解释说: 最重要的一步是减lesskern.hz可调参数,以降低Parallels环境下FreeBSD的CPU利用率。 这是通过添加以下行来完成的 /boot/loader.conf:kern.hz = 100 如果没有这个设置,闲置的FreeBSD Parallels客户操作系统将占用单个处理器iMac®的大约15%的CPU。 这个变化之后,使用率将接近5%。 然而,在FreeBSD 9中,“dynamic节拍模式”(aka“tickless mode”)是默认的,由默认为0的kern.eventtimer.periodic设置控制(读:无tickless模式)。 这让我怀疑 – 降低kern.hz的提示与使FreeBSD 9在虚拟机设置中很好地发挥还有什么关系?

ZFS显示池状态为FAULTED,但所有设备都在线; 我怎样才能恢复我的数据?

我们基于FreeNAS 8的100TB NAS由于停电而意外关机。 打开后,100TB zpool“projects”被卸载,状态为“FAULTED”。 我已经试过zpool import -fFX ,它运行了大约20个小时,但没有发生任何事情。 我已经用重置button重新启动服务器,因为kill -9和重新启动命令不起作用。 一些输出: [root@Projects_new] ~# zpool import pool: projects id: 8560768094429092391 state: FAULTED status: The pool metadata is corrupted. action: The pool cannot be imported due to damaged devices or data. The pool may be active on another system, but can be imported using the '-f' […]

Freebsd在Putty中不显示命令输出

我刚刚安装了FreeBSD的最新稳定版本到电脑,我有以下问题: 如果在Putty中,我发出一个像ps uxa这样的输出很长的命令,就会被裁剪 ps uxa 。 ps uxa|more没有帮助。 即使我做ps uxa > file.txt ,文件中的行被裁剪为80个字符! 有一些图像如何:http: //yfrog.com/0rfilecroppx 干净的安装后,这一切发生,一切都设置为默认。 默认的shell是csh,把它改成bash没有帮助。 这在Linux中从来没有发生过。 我的单身 – 一个 FreeBSD freebsd.localdomain 8.0-RELEASE FreeBSD 8.0-RELEASE #0: Sat Nov 21 15:48:17 UTC 2009 [email protected]:/usr/obj/usr/src/sys/GENERIC i386 如何解决这个问题? 我已经看过env vars,.profile,.cshrc,/etc/login.conf。

为什么内核崩溃后FreeBSD不能重启?

偶尔我得到我的服务器运行FreeBSD 8.0 amd64失败,由于内存不足(与主板不兼容)模块。 每次发生这种情况,盒子都会挂上最后一张纸条,说明它会在15秒内自动重启 , 但是它永远不会 。 我该如何解决? 内核崩溃后,我需要电脑重新启动,无人看pipe。 (请不要build议更换内存,只要我拿到模块,我会的,但我需要一个更快的解决scheme,不需要我站在箱子旁边,只要按下重置button,每次崩溃。)

在FreeBSD上的rc.conf中添加“route add default -iface em1”

我的FreeBSD服务器上有两块网卡,在rc.conf这样设置: ifconfig_em0="10.0.0.1 netmask 255.255.255.0" # LAN NIC ifconfig_em1="DHCP" # WAN NIC 此设置不会给出任何默认路由,只有(假设123.123.123.123是em1的WAN IP): 10.0.0.0/24 —> em0 123.123.123.123/32 —> em1 当我尝试ping 8.8.8.8这样的WAN IP时,我得到了No route to host 。 (为什么? 123.123.123.123/32含义与default值几乎相同?)无论如何,我可以运行add route default -iface em1 ,然后广域网IP通过em1进行定向。 我如何使接口em1为我的系统的默认,重启 – 持续路由? 即,我怎么能说rc.conf add route default -iface em1 ? (我必须做出路由接口的具体而不是特定于接口的IP,因为em1的IP是由我的ISPdynamic给出的。) 我已经尝试了以下没有成功: static_routes="mydefault" route_mydefault="default -iface em1" 和 defaultrouter="-iface em1"

路由器广告为ipv6广告链路本地地址

我有以下情况:我在gif0接口上configuration了一台FreeBSD 9.1机器作为心跳SixXS隧道的端点。 到目前为止,我可以ping通IPv6。 我分配给另一个接口lagg0 ,这是一个聚合的接口静态IPv6从连接到LAN的分配的IPv6子网中。 现在我想使用rtadvd deamon将这个networking前缀广告给我的局域网。 这是它的/etc/rtadvd.conf文件: lagg0:\ :addr="xxxx:yyyy:zzzz:aaaa::":prefixlen#64:tc=ether: 与xxxx:yyyy:zzzz:aaaa::/64是networking前缀。 当我现在添加客户端到networking,他们采取networking前缀,并生成他们的autoconf和临时地址。 这很好。 但是他们缺less的是正确的IPv6默认路由。 在路由表中,IPv6的默认路由是路由器的fe80:: link-local地址。 现在没有数据包被路由到互联网。 如果我手动添加默认路由到它工作的主机。 我的问题 我以为路由器广告应该在客户端上configuration正确的默认路由。 我在这里错过了什么? 为什么它宣传它的链接本地地址,而不是正确的?

从NFS服务器读取文件是不同的

所以我有一个我们已经使用了一段时间的备份服务器,它是一个运行zfs并通过NFS提供服务的FreeBSD服务器。 导出很简单: /backup/vm -maproot=root -alldirs 。 如果相关,则通过zfsconfiguration: zfs get sharenfs backup/vm sharenfs -maproot=root -alldirs local 它运行良好,我们甚至还恢复了这些备份。 今天,我偶然发现,从nfs共享中读取的文件与写入的文件(以及服务器上的文件)不匹配。 为了演示:在我们的服务器上 pg11.txt (downloaded on the server) pg11.txt.1 (uploaded by a client over nfs) 这两个是爱丽丝梦游仙境,从这里下载: http : //www.gutenberg.org/cache/epub/11/pg11.txt 在nfs服务器上: md5 pg11.txt* MD5 (pg11.txt) = eff1e5d84df1d3a543d1c578192a2367 MD5 (pg11.txt.1) = eff1e5d84df1d3a543d1c578192a2367 到现在为止还挺好。 现在在一个客户端上: md5sum pg11.txt* 4d79d99b8eebe364cddf5ce42949bc3e pg11.txt eff1e5d84df1d3a543d1c578192a2367 pg11.txt.1 什么? 从客户端读取pg11.txt我可以很容易地find像这样的行: […]