Articles of nexenta

为什么MySQL无法打开hosts.allow / hosts.deny?

我有一台存储服务器,在ZFS存储arrays上运行带有MySQL的Nexenta(OpenSolaris内核,Ubuntu用户空间),使用innodb_file_per_table和ulimit -n设置为8K。 mysqltuner.pl确认文件限制并声称有169个文件。 以下命令: pfiles `fuser -c / 2>/dev/null 表示一个具有485个文件/设备描述符的mysqld进程(它们几乎全部用于文件),所以我不知道调优脚本有多可靠,但仍然小于8K,而且这个列表也没有find其他的进程接近于极限。 全球使用的描述符总数约为1K。 那么什么原因可能会导致mysqld不断stream出以下错误? [date] [host] mysqld[pid]: warning: cannot open /etc/hosts.allow: Too many open files [date] [host] mysqld[pid]: warning: cannot open /etc/hosts.deny: Too many open files 一切似乎实际上运行良好,但问题是不断充斥pipe理控制台,立即启动一个新的启动(不仅可重现,但总是从mysqld和总是主机文件,其权限是默认的-rw-r–r– 1 root root )。 我可以,当然,从pipe理控制台,但我宁愿到它的底部,仍然允许mysqld警告/错误到达pipe理控制台。 编辑:不仅是实际的文件描述符在理智的限制之内,即使文件限制提高到65535并始终只在hosts.allow / deny上,问题也会持续(立即出现)。

我如何评价Solaris上的限制/数据包形状/stream量形状

我有一个运行在Nexenta NCP 3盒子上的TCP服务器应用程序。 我想限制它可以使用多less传出带宽。 是否有可能在Solaris上像我可以在Linux中限制一个应用程序? 我已经看到IPQoS和Crossbow的提及,但找不到任何将它们结合在一起的东西。

磁盘replace破坏了zpool中的磁盘命名约定

更换我的RAID-Z2池中的两个损坏的磁盘后, zpool status的输出看起来很奇怪。 磁盘的全path寻址,似乎也包含“切片”,而其他所有的磁盘都没有。 我input这些命令来replace损坏的磁盘(这可能解释了奇怪的命名,但不是片): zpool replace bashpool c2t6d0 /dev/rdsk/c2t6d0 zpool replace bashpool c2t7d0 /dev/rdsk/c2t7d0 zpool状态的输出现在报告为: ~$ zpool status -v bashpool pool: bashpool state: ONLINE scan: resilvered 1.01T in 39h31m with 0 errors on Fri Feb 22 10:50:20 2013 config: NAME STATE READ WRITE CKSUM bashpool ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 […]

使用nexenta与OpenSolaris的优势

我目前正在构build一个大约24TB的NAS存储。 video文件,访问速度慢,长期存储。 没有性能问题。 我目前尚未决定购买JBOD案例和安装OpenSolaris(由于ZFS)或购买Nexenta许可证。 三年内的差额约为$ 12.500。 除了支持之外,您认为购买nexenta许可证的主要优势是什么? Nexenta是否真的提升了基本的OpenSolaris,还是只是大量的市场营销? 没有人真的想回答这个问题。 PS随着nexenta许可证定价,我甚至想到与Windows存储服务器。

Nexenta / OpenSolaris filer内核恐慌/崩溃

我有一个运行NexentaStor Enterprise的x4540 Sun存储服务器 。 它为几台VMWare vSphere主机提供NFS over 10GbE CX4。 有30个虚拟机正在运行。 在过去的几个星期里,我发生了10-14天的随机碰撞。 这个系统用来打开OpenSolaris,并且在这个安排中是稳定的。 崩溃触发硬件上的自动系统恢复function,迫使系统重置。 这是mdbdebugging器的输出 : panic[cpu5]/thread=ffffff003fefbc60: Deadlock: cycle in blocking chain ffffff003fefb570 genunix:turnstile_block+795 () ffffff003fefb5d0 unix:mutex_vector_enter+261 () ffffff003fefb630 zfs:dbuf_find+5d () ffffff003fefb6c0 zfs:dbuf_hold_impl+59 () ffffff003fefb700 zfs:dbuf_hold+2e () ffffff003fefb780 zfs:dmu_buf_hold+8e () ffffff003fefb820 zfs:zap_lockdir+6d () ffffff003fefb8b0 zfs:zap_update+5b () ffffff003fefb930 zfs:zap_increment+9b () ffffff003fefb9b0 zfs:zap_increment_int+68 () ffffff003fefba10 zfs:do_userquota_update+8a () ffffff003fefba70 […]

Nexentastor为什么这么慢 – 尤其是删除文件

我使用以下规格运行Nexentastor服务器: 双核(core2duo)CPU 4GB的ram 1x 160GB的SATA2驱动器的OS 6x 1.5TB的驱动器在RaidZ1驱动器Sata2 复制文件很好,速度还算不错,我通常可以最大千兆这么没有怨言。 但是,当涉及到操纵文件,特别是删除文件时,它是非常痛苦的。 例如,删除一个包含大约30个文件的705MB文件夹需要2分30秒(使用time命令) 我可以同时运行任何命令来缩小这个范围? 谢谢。

NexentaStor vs FreeNAS

我目前有一个Debian Lenny文件服务器用于我的小型networking(4台机器)。 我有一个RAID5configuration4x1TB驱动器。 由于我对Lenny-Squeeze升级进行了拙劣的处理,所以这似乎是给ZFS一个尝试的最佳时机。 我在NexentaStor和FreeNAS之间辩论。 我倾向于NexentaStor,因为它使用原始的ZFS实现,而不是一个端口,但是我想知道如果我这样做的话,我错过了一些真棒function。 我不想留在Debian,因为它更多的是我不得不担心维护。 我很满意coLinux安装,满足我所有的黑客需求。 您的意见非常感谢。

NexentaStor – 从不同子网访问Web控制台

我试图通过端口2000从与系统的主IP地址不同的子网访问NexentaStor Web控制台。 在我的情况下,这是通过VPN或通过专用networking访问远程Nexenta设备。 我可以看到系统通过ping和telnet到端口2000,但NMV接口不起作用。 任何想法如何做到这一点?

如何在Nexenta(Solaris)上设置IP转发?

我正在尝试在Nexenta框上设置IP转发: root@hdd:~# uname -a SunOS hdd 5.11 NexentaOS_134f i86pc i386 i86pc Solaris 该盒子有2个networking接口: root@hdd:~# ifconfig -a lo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 e1000g1: flags=1001100843<UP,BROADCAST,RUNNING,MULTICAST,ROUTER,IPv4,FIXEDMTU> mtu 1500 index 2 inet 192.168.12.2 netmask ffffff00 broadcast 192.168.12.255 ether 68:5:ca:9:51:b8 myri10ge0: flags=1100843<UP,BROADCAST,RUNNING,MULTICAST,ROUTER,IPv4> mtu 9000 index 3 inet 10.10.10.10 netmask ffffff00 broadcast 10.10.10.255 ether 0:60:dd:47:87:2 lo0: […]

configuration通往Nexentastor设备的SSH隧道以配合无人机Crashplan使用的问题

问题 我试图从Windows或Linux计算机上configuration一个到NexentaStor设备的SSH隧道,以便我可以根据Crashplan支持站点上的这些说明将Crashplan桌面GUI连接到在Nexenta盒子上运行的无头Crashplan服务器: Connect到一个无头的CrashPlan桌面 。 到目前为止,我无法从Windows客户端(使用Putty)或Linux客户端(使用命令行SSH)获得有效的SSH隧道。 我相当确定问题出在NexentaStor的接收端。 博客文章 – Nexenta上的CrashPlan备份 – 表明它可以在“在/etc/ssh/sshd_config启用Nexenta中的TCP转发之后”工作 – 尽pipe我不确定如何去做或者特别是什么我需要去做。 我已经尝试过的东西 确保Nexenta框上的Crashplan服务器正在侦听端口4243 $ netstat -na | grep LISTEN | grep 42 127.0.0.1.4243 *.* 0 0 131072 0 LISTEN *.4242 *.* 0 0 65928 0 LISTEN 从Linux主机build立隧道: $ ssh -L 4200:localhost:4243 admin:10.0.0.56 然后从Linux主机的另一个terminal上用telnetvalidation隧道: $ telnet localhost 4200 Trying ::1… Connected to localhost. Escape […]