我在Linux 3.6.11上使用Linux 0.6.0rc11上的ZFS。 我有一个有三个子池的大型ZFS池: zpool1 zpool1/backups zpool1/graphite zpool1/log_backups 机器昨天晚上重新启动,没有明显的原因。 我被分页后,得到一个壳已经备份。 我运行了zfs mount -a来重新装入池。 zpool1/log_backups有数据,但是zpool1/graphite和zpool1/backups是完全空的, df报告这些分区没有使用空间。 不幸的是,我没有设置快照,所以这是不行的。 我试过出口和重新import,但没有改变。 我还可以尝试其他什么? 什么数据恢复选项存在ZFS? 我已经看到了一些通过fs数据结构挖掘的脚本,但是在这一点上它们都比我想要的更糟糕,并且可能具有破坏性。
有没有一种方法可以在严格限制的资源(即cpu,内存,I / O)内运行一个进程(例如ls,du,find ..等),除了使用nice&ionice,因为我没有find它们在我的情况下足够有效。 我有一个生产服务器,有很多文件目录,需要被删除,移动,得到他们的总大小..等
我有一个桌面Linux(基于Ubuntu的12.10,笔记本电脑,1网卡),我通过标准的pptp连接到vpn工作,所以我可以访问本地networking,从机器上工作的networking。 在桌面上我有Windows Server 2008 VirtualBox机器与桥接networking适配器,所以它从本地路由器获取IP。 桌面和虚拟互相看问题没有问题。 桌面请参阅vpn子网好吧,但虚拟当然不。 有没有办法提供访问工作networking到本地局域网上的其他机器(主要是我的虚拟)? 我尝试了像添加路由(虚拟)工作子网来通过我的桌面IP,但我不知道如何设置桌面上的路由器服务(和创build路由到我的VPN连接)。
昨天下午,我们将其中一个Linode实例(CentOS 5.7,64位)从4GB实例调整为12GB。 紧接着重启之后,我注意到缓冲区的内存使用率非常高,比我在任何机器上所见过的都高。 即使在我使用率最高的服务器上,我也很less看到缓冲区使用量超过200MB。 在此服务器上,当前的缓冲区使用率比调整和重新启动之前高两个数量级 。 这是一个有移动前后数据的munin记忆图: “munin”显示的数据被“free”的输出所证实: [erik@host ~]$ free -m total used free shared buffers cached Mem: 11967 10146 1820 0 7374 1132 -/+ buffers/cache: 1639 10327 Swap: 255 0 255 现在,我很清楚内核对caching的未使用内存的使用情况,但是我对缓冲区的理解是缓冲区不同。 它们被用来临时存储写入,直到它们被提交到磁盘。 这是一个正确的理解? 这个服务器有非常小的磁盘IO(这是一个Apache / PHP的networking服务器,数据库是在别处,所以只有实质IO是access_logs),因此,我希望缓冲区的使用率是相当低的。 以下是同一时间段的networkingstream量图: 正如你所看到的,调整前后的stream量并没有实质性的变化。 在重新启动期间,我知道有三件事改变了: 我们select了Linode在本周早些时候给出的另外4个内核,将总内核数量提升到了8。 我们在“最新的64位”内核上,现在是3.7.10-x86_64-linode30。 以前我们在3.0.18我相信。 我们从4GB的RAM到12GB。 在这些变化中,我的预感是这是新内核导致缓冲区使用增加的原因。 不幸的是,目前,我们不能把另一个宕机时间降级到一个较早的内核,尽pipe如果我不能理清这个缓冲区的使用情况,那么这可能最终是必要的。 那么,我有几个问题: 你们有没有运行3.7.10内核?如果是的话,你有没有看到类似的变化? 有哪些工具可用于检查内核缓冲区及其大小? 我认为,就像caching一样,当其他应用程序需要时,内核将释放这个内存。 它是否正确?
我公司有一个产品可以通过我们的网站下载。 从第一天开始,我们一直在不停的试图下载一些内容(通常是15MB中的4MB)的垃圾邮件。 我们尝试了一些技巧来保护自己,但都失败了。 如果没有其他方法,我们最终会使用validation码,但我真的很想避免伤害客户的下载体验。 我见过一些网站build议下载一个没有validation码的软件,所以我很确定有一个解决scheme。 从技术上讲,这是一个Wordpress环境,在一个非常简单的Linux架构中使用Apache web服务器。 我们应该做些什么来避免垃圾邮件发送者? 我不确定这个问题,但是大部分知识产权来自中国。
使用两台运行REL6的虚拟机来解决问题。 我正确设置了主人和代理人,并能够certificate代理人。 当我去跑步: puppet agent -t 在代理上,我收到以下错误: info: Retrieving plugin info: Loading facts in /var/opt/lib/pe-puppet/lib/facter/root_home.rb info: Loading facts in /var/opt/lib/pe-puppet/lib/facter/concat_basedir.rb info: Loading facts in /var/opt/lib/pe-puppet/lib/facter/custom_auth_conf.rb info: Loading facts in /var/opt/lib/pe-puppet/lib/facter/facter_dot_d.rb info: Loading facts in /var/opt/lib/pe-puppet/lib/facter/puppet_vardir.rb info: Loading facts in /var/opt/lib/pe-puppet/lib/facter/pe_version.rb err: Could not retrieve catalog from remote server: Error 400 on SERVER: Error 403 on […]
我有OS RHNL版本6.2并使用NFS服务(nfs-utils-1.2.3)连接到NFS服务器, 并在文件/ var / log / messages中发现了很多消息: Apr 1 11:08:35 XXX rpc.idmapd[3010]: nss_getpwnam: name '2' does not map into domain 'XXXX.com' Apr 1 11:14:26 XXX rpc.idmapd[3010]: nss_getpwnam: name '0' does not map into domain 'XXXX.com' Apr 1 11:18:36 XXX rpc.idmapd[3010]: nss_getpwnam: name '2' does not map into domain 'XXXX.com' Apr 1 11:24:27 XXX rpc.idmapd[3010]: […]
有没有办法在Linux系统上获得正在运行的进程的列表,而不是在每个系统上运行的默认进程(即只有那些在事实之后安装/执行的进程)。 这可以用ps或者其他类似的工具来完成吗? 谢谢
我们在使用SFU安装在Win XP主机上的Debian Linux主机上有一个NFS共享。 我们可以在共享上创build文件夹或从中删除文件,但不可能对其执行文件写入或读取操作(比如copy file.ext n:\ blocks很长时间,最后终止) The remote system refused the network connection错误)。 安装时,我们在客户端尝试了TCP和UDP。 这两台机器之间的所有端口都在防火墙上打开。 Win XP事件日志和服务器端的系统日志中没有任何相关的信息。 这显然不是一个许可问题,因为我们可以创build文件夹。 我们能做些什么来find这个根本原因? 更新:我使用Wireshark捕获了一个NFS会话,发现根本原因是locking问题,NFS服务器密切回答客户端调用的NFS_DENIED_GRACE_PERIOD状态。 现在的问题是如何解决这个locking问题?
试图在这里挤出很多的问题 – 请耐心等待。 尽pipeMongoDB手册页提供了一些关于系统设置的有用build议,如ulimit( http://docs.mongodb.org/manual/reference/ulimit/ )和其他生产因素( http://docs.mongodb.org/manual/pipe理/生产笔记/ ),他们似乎神秘沉默的东西,如虚拟内存和交换设置。 最接近的提示是“…操作系统的虚拟内存子系统pipe理MongoDB的内存…”( http://docs.mongodb.org/manual/faq/fundamentals/#does-mongodb-require-很多公羊 )。 运行同样的工作 – 在单个集合中的大约10,000,000个logging中的高写入和高读取 – 在我的4处理器,4GB RAM macbook和具有64GB RAM的8核ubuntu机箱上,我看到了在Linux盒子上显着的WORSE读取性能出厂设置,并可以听到磁盘不断旋转,表明高I / O和大概交换。 是的,盒子上还有其他的东西,但是有足够的可用RAM,磁盘空间等等。 此外,我没有看到有证据表明Mongo正在扩大,以利用所有可用的RAM,因为它被吹捧。 Linux机器的默认设置如下:vm.swappiness = 60 vm.dirty_background_ratio = 10 vm.dirty_ratio = 20 vm.dirty_expire_centisecs = 3000 vm.dirty_writeback_centisecs = 500 我对一些其他types的数据库(Oracle,MYSQL等)的文档和博客进行了一些猜测,并进行了实验,并进行了如下调整。 vm.swappiness = 10 vm.dirty_background_ratio = 5 vm.dirty_ratio = 5 vm.dirty_writeback_centisecs = 250 vm.dirty_expire_centisecs = 500 我看到一些读取时间有了明显的改善。 […]