Articles of linux

有没有GUI的Linux发行版? 托pipe公司安装什么?

我相信OS GUI需要一些机器资源,并不是真的需要一个Web服务器。 人们在没有GUI的情况下安装什么操作系统来创build基于Linux的Web服务器?

挂载在另一个NFS挂载的NFS挂载随机消失

我有一个很奇怪的问题,我的嵌套NFS挂载不时随机消失。 fstab条目看起来有点像这样: nfs:/home /home nfs rw,hard,intr,rsize=32768,noatime,nocto,proto=tcp 0 0 nfs:/bigdir /home/bigdir nfs rw,hard,intr,rsize=32768,noatime,nocto,proto=tcp,bg 0 0 问题是不时的“/ home / bigdir”文件夹将是空的,即使mtab认为共享仍然挂载。 nfsstat et。 人。 也认为这个份额还在攀升。 唯一有用的是卸载,然后(重新)装载bigdir份额。 服务器端是NetApp。 客户端是RHEL5.5,2.6.18-194内核(是的,我知道5.8出了,但据我所知,这个特定问题没有错误)。 我可以使用各种hacks像自动挂载,或挂载到另一个path,然后使用 – 挂接,但我想解决的根本问题。

Linux软件RAID 10挂1驱动器失败后,mdadm不会让我强行删除有问题的设备

我有一个由5个RAID 1(每个镜像设置有两个驱动器)和一个在所有5个RAID 1对上的RAID 0组成的Linux软件RAID 10设置。 为了testing没有任何驱动器会在负载下快速失败,我使用破坏性读/写模式在RAID 0上使用了坏块。 Badblocks命令:badblocks -b 4096 -c 98304 -p 0 -w -s / dev / md13 其中一个设备失败,而不是badblocks程序愉快地移动它挂起。 如果我运行同步命令,这也挂起。 首先我会假设这不是RAID 1设备的标准行为。 如果其中一个驱动器出现故障,它应该仍然可以写入两个驱动器组成的虚拟设备,而不会出现问题。 所以我继续强制驱动器失败,并尝试删除它。 我可以设置驱动器发生故障,没有任何问题(但IO操作仍然挂起)。 我不能完全从raid中删除设备,说它很忙。 我的假设是,如果我可以完全把它赶出RAID,IO将会继续,但这只是一个假设,我认为我正在处理一个错误的种类。 这里究竟发生了什么? 我是因为bug而无法恢复的吗? 系统正在运行内核2.6.18,所以它不是新的,但我认为,软件RAID已经存在了这么长时间的问题不会发生。 任何有识之士都非常感激。 mdadm –detail / dev / md13 的/ dev / md13: Version : 00.90.03 Creation Time : Thu Jan 21 14:21:57 2010 Raid […]

我可以使用dmraid而不是md(mdadm)来制作软件RAID-1和RAID-1 + 0卷吗?

关于SSD和TRIM的相关问题(请参阅: 可能在Linux中使用ext4 + LVM +软件RAID上的SSD TRIM(丢弃)工作? ),事实certificate,dmraid现在(或短期)可以在RAID-1上支持TRIM。 通常,我们使用md(通过mdadm)创buildRAID-1卷,然后使用LVM创build卷组,然后使用我们select的文件系统(最近的ext4)进行格式化。 我们已经这么做了很多年了,Google和ServerFaultsearch似乎证实这是使用卷pipe理进行软件RAID的最常见方式。 谷歌search似乎表明,dmraid是用于所谓的“fakeRAID”configuration,在控制器中有RAID级别的硬件'帮助',这是我们没有的(也不想用 – 我们想要一个完整的软件解决scheme)。 既然我们想在我们的SSD上使用TRIM,而且由于md似乎还不支持TRIM,我想知道是否可以使用dmraid而不是md创buildRAID-1(和RAID-1 +0)的软件卷,没有硬件支持(即,只是插入一个愚蠢的SATA / SAS总线)?

调整Linux的IPv6堆栈

我正在开发一个Linuxnetworking设备,并且有一些TCP / IP设置似乎没有与IPv6相当的设置。 IP转发是一个常用的设置,并且可以在两个堆栈中使用 net.ipv4.ip_forward net.ipv6.conf.all.forwarding 但是这些是我需要支持IPv6的一些设置的例子 net.ipv4.ip_nonlocal_bind net.ipv4.ip_local_port_range net.ipv4.tcp_tw_reuse net.ipv4.tcp_rmem net.ipv4.tcp_wmem ip_nonlocal_bind非常重要,而且TCP TIME_WAIT套接字的设置似乎丢失了。 指向我可能已经错过的kernel / iproute文档也会很棒。

高负载平均,高等待,dmesg raid错误信息(debian nfs服务器)

Debian 6在HP raid(2 CPU)上运行raid(2 * 1.5T RAID1 + 2 * 2T RAID1join了RAID0以生成3.5T),主要运行nfs&imapd(加上samba for windows share&local www预览网页)。 与本地ubuntu桌面客户端挂载$ HOME,通过nfs / smb访问imap&odd文件(例如video)的笔记本电脑; 通过家庭路由器/交换机连接100baseT或wifi uname -a Linux prole 2.6.32-5-686 #1 SMP Wed Jan 11 12:29:30 UTC 2012 i686 GNU/Linux 安装程序已经运行了好几个月,但是间歇性地变得很慢(桌面从服务器挂载$ HOME,或者在笔记本电脑上播放video的用户体验),现在一直如此糟糕,以至于我不得不深入研究以找出问题所在(! ) 服务器在低负载下似乎可以,例如(笔记本电脑)客户端(在本地磁盘上有$ HOME),连接到服务器的imapd和nfs,安装RAID以访问1个文件:顶部显示负载约0.1或更less,0等待 但是当(桌面)客户端安装$ HOME并启动用户KDE会话(所有访问服务器)时, 顶部显示例如 top – 13:41:17 up 3:43, 3 users, load average: 9.29, 9.55, […]

如何在AWS上的Linux上创build大型,可扩展的共享文件系统?

在AWS上提供大型,可扩展的共享存储的可接受/合理/最佳方式是什么? 目前,我们正在制作1TB的EBS卷〜双周和NFS导出no_subtree_check和nohide。 在此设置中,不同的导出出现在客户端上的一个挂载下。 这种安排并不好。 我们考虑的选项: LVM2与ext4。 resize2fs太慢了。 Linux上的Btrfs。 尚未准备好黄金时段。 Linux上的ZFS。 没有明显的黄金时间准备(尽pipeLLNL使用它) Solaris上的ZFS。 这个组合的未来是不确定的(对我来说)和新的操作系统 glusterfs。 听到大多是好的,但两个可怕的(也许是老?)的故事。 理想的解决scheme将提供共享,单一的视图,易于扩展,快照和复制。 感谢分享想法和经验。

为高带宽连接设置(非常)大的initcwnd可能有什么缺点?

我一直在使用Linux(使用3.5内核)的TCP参数进行试验。 基本上关于这个连接: 服务器:数据中心中的千兆上行链路,实际带宽(由于共享上行链路)在从另一个数据中心testing时大约为70 MB / s。 客户端:千兆本地局域网连接到200mbit光纤。 获取testing文件实际达到20 MB / s。 延迟:往返时间​​大约为50ms。 远程服务器用作10到100mb范围内的文件的文件服务器。 我注意到,使用10的initcwnd,这些文件的传输时间受到TCP慢启动的严重影响,需要3.5秒来加载10mb(最高速度达到3.3 MB / s),因为它启动缓慢,然后boost在达到最大速度之前完成。 我的目标是调整这些文件的最小加载时间(所以不是最高的原始吞吐量或最低的往返延迟,如果减less了加载文件所需的实际时间,我愿意牺牲这两者) 所以我尝试了一个简单的计算来确定理想的initcwnd应该是什么,忽略任何其他连接和可能的影响。 带宽延迟积是200 Mbit / s * 50ms = 10 Mbit或1.310.720字节。 考虑到initcwnd是以MSS为单位设置的,并且假设MSS大约是1400字节,则需要设置:1.310.720 / 1400 = 936 这个值与默认值(Linux中的10 * MSS,Windows中的64kb)非常相似,因此,将其设置为这样的感觉不是一个好主意。 这样configuration的预期缺点是什么? 例如: 会影响同一networking的其他用户吗? 是否会为其他连接创造不可接受的拥塞? 洪泛路由器缓冲区的path上的某处? 增加小包丢失的影响?

数百万个小文件的块大小

我在Debian Wheezy上安装了2个4TB磁盘,硬件RAID1(可能是LSI MegaRaid)。 物理块大小是4kB。 我要存储1.5亿到2亿个小文件(3到10kB)。 我并不是要求性能,而是为了最好的文件系统和块大小来节省存储空间。 我已经复制了一个8200字节的文件到块大小为4kB的ext4上。 这花了32kB的磁盘!? 是日记的原因呢? 那么有什么select来保存这些小文件的大部分存储?

primefaces在我的系统上写入磁盘的大小是多less?

在access_log指令的文档中,nginx文档说 缓冲区大小不能超过primefaces写入磁盘文件的大小。 我怎样才能确定这个大小是在我的系统上?