我们需要从我们的amazone S3存储caching所有psd / zip文件。 150-200Gb之间的caching量(我们需要存储文件至less2个月)。 现在我们使用透明代理鱿鱼没有任何caching。 所以我的问题:是否有可能configuration“主”鱿鱼这样的方式,所有查询s3.amazonaws.com他将代理的父鱿鱼。 在父鱿鱼,我们只需要从s3.amazonaws.comcaching所有zip和psd文件。 如果caching中没有这样的文件,那么父鱿鱼将被下载并将“新”文件放入caching中。 鱿鱼将如何处理文件1-2 GB? 有什么限制吗? 这个设置的主要证据是amazone存储中的所有psd / zip文件以本地caching的最大速度传送到本地客户端。 由于同一个文件同时被不同的员工使用,我们花费了大量的时间从每个员工那里下载这些文件 这个问题能以不同的方式解决吗?
我遵循了Ubuntu社区文档中为Xen提供的指南,并且我已经在另一台机器上成功安装了八个客户操作系统。 在本指南中,我使用命令: sudo lvcreate -L 4G -n ubuntu /dev/<VG>来创build我的客户操作系统磁盘,其中是卷组。 但是,在这台机器上,我已经使用了一个磁盘上的所有空间来安装操作系统,还有三个其他磁盘可用,我想用它们来安装客户机操作系统磁盘。 PV VG Fmt Attr PSize PFree /dev/sda5 poweredge lvm2 a- 232.59g 44.00m 是否有可能在不同的磁盘上运行客户操作系统? 如果是的话,命令是什么?
我有一个关于nginx上传模块和文件名的问题: 2013/02/05 21:01:55 [info] 23432#0: *5 started uploading file "kvm.pdf" to "/var/www/html/0000000004" (field "file[]", content type "application/pdf"), client: 127.0.0.1, server: , request: "POST /upload/share?X-Progress-ID=0520d308f3b8c4ee5d03b20301416031 HTTP/1.1", host: "localhost", referrer: "***/upload/share?X-Progress-ID=4113dd986661cafbb8cfeede98d9dba2" 2013/02/05 21:01:55 [info] 23432#0: *5 finished uploading file "kvm.pdf" to "/var/www/html/0000000004", client: 127.0.0.1, server: , request: "POST /upload/share?X-Progress-ID=0520d308f3b8c4ee5d03b20301416031 HTTP/1.1", host: "localhost", referrer: "***/upload/share?X-Progress-ID=4113dd986661cafbb8cfeede98d9dba2" 我已经上传文件kvm.pdf,但保存为0000000004,这不是一个好主意。 可以更改为存储具有原始名称的文件吗? upload_set_form_field […]
任何人都知道我为什么收到这个错误? 我从源代码编译最新的libvirt,我也试过各种rpm。 我想得到domus使用的内存,看起来它不适用于CentOS 5上的Xen 3。 virsh # dommemstat mydomainname error: Failed to get memory statistics for domain mydomainname error: this function is not supported by the connection driver: virDomainMemoryStats virsh # domcontrol mydomainname error: this function is not supported by the connection driver: virDomainGetControlInfo 任何帮助将不胜感激。
编辑:在我的情况下,virtual_use_local_privs = TRUE做的伎俩。 我试图强制newly created files and directories内的foo /目录为owned by nginx用户owned by nginx并设置正确的权限,以便nginx group users can execute and modify它们,如果需要的话。 整个事情是我刚才configurationvsftpd服务,其中我的virtual用户作为vsftpd user ,其中vsftpd是一个真正的用户没有壳。 login后,每个用户都被chrooted在user vsftpd和group nginx所拥有的目录中。 为了做到这一点,我创build了chroot目录: mkdir chroot/ 然后给予默认权限: chown -R vsftpd:nginx chroot/ 然后启用SGUID: chmod -R g+s chroot/ 就在这里,当一个vsftpd用户创build一个目录时,默认权限是vsftpd:nginx但是文件的默认权限是nginx:nginx ,这不是我想要的。 然后,因为我需要nginx用户组来运行和修改文件,如果需要我通过vsftpd config设置umask'0022',但我想我会以错误的方式。 任何人都可以指出我正确的方向? 先谢谢了! 编辑: setfacl命令帮助了很多,但我仍然有与umask的问题。 我运行setfacl -R -md:u:vsftpd:rwx,d:g:nginx:rwx,d:m:rx,d:o::r chroot/其中getfacl chroot/ returns: #owner:vsftpd #组:nginx #flags:-s- […]
我有3个硬盘的专用服务器。 系统盘,备份盘(与系统盘相同)和数据盘。 当我用cp复制大量数据时(比如说,在备份磁盘和数据磁盘之间),负载平均值会高出很多。 例如,目前的平均负载约为0.57,拷贝数据时可以超过50或更多。 使用rsync and with –bwlimit=10000进行复制将毫无问题。 较高的值会导致高负载。 文件系统是ext3。 sda – 系统盘: % hdparm -Tt /dev/sda /dev/sda: Timing cached reads: 13444 MB in 2.00 seconds = 6730.82 MB/sec Timing buffered disk reads: 232 MB in 3.02 seconds = 76.73 MB/sec sdb – 数据磁盘: % hdparm -Tt /dev/sdb /dev/sdb: Timing cached reads: 13740 MB in […]
我一直在使用Ubuntu一段时间,但没有真正注意分区,只接受默认值。 但在一个新的项目中,我们计划设置两台旧服务器,HP DL380 G3将具有相同的组件,其中包含72 GB的2个RAID 1 SCSI卷。 这将与DRBD设置故障转移。 服务器的主要function只能作为使用IPTables的防火墙,除了一些networking监控工具外,不会安装其他应用程序,那么可能有2或3个额外的用户。 由于磁盘空间有限,我想保持分区简单。 / (root) /var/log (mostly for firewall logs) (swap) 任何build议将不胜感激。 谢谢。
就在昨天晚上,在几个RHEL服务器上进行了一次yum更新,我确实得到了一个软件包列表,但是其中至less有一个似乎造成了很大的问题。 问题是,两台服务器的SSH似乎随机“丢弃”。 它实际上并没有断开,它只是冻结。 即使使用DEBUG LogLevel设置,服务器端的SSH日志看起来也是正常的。 有时会在“Last login:”行出现之后挂起,有时会持续一段时间,但最终总是挂起(即使发生了不断的活动)。 我最初认为这可能是MTU或其他东西,但没有任何改变,其他服务器运行CentOS而不是RHEL,但昨天没有得到一个yum更新是完全相同的VPN连接罚款。 我的问题是,我似乎没有办法解决这个问题,我试着回滚yum事务,但SSH冻结,并导致它停止工作。 奇怪的是,即使我设法打开屏幕,并设置yum运行回滚,回滚将实际上停止,就像SSH已冻结,但我仍然可以从屏幕上脱离。 这会导致yum在进程列表中显示为睡眠状态,并且必须在强制屏幕会话终止之后实际上终止它。 任何build议,将不胜感激。 编辑:两台服务器正在运行RHEL 6.3 编辑2:一些进一步的信息…似乎SSH连接仍然是活跃的,因为我仍然从系统日志等等的连接,我认为是死的: [root@www www]# ls -la ^C^C Message from syslogd@www at Feb 16 20:18:21 … Message text ^C^C 在我的前两个Ctrl + C和popup的消息之间大约有一个小时,然后你可以看到Ctrl + Cs后也没有做任何事情。 这只是…卡住了。 编辑3:我已经尝试通过更改GRUB默认恢复到较早的内核,并且问题没有解决。 编辑4:有更多的信息。 在通过IPMI进入之后,我也遇到了同样的问题,所以和SSH无关,实际上是另外一个问题。 幸运的是,我现在能够得到相同的堆栈跟踪,并挂在两个完全相互独立的机器上(尽pipe硬件是相同的)相同的地方。 https://dl.dropbox.com/u/28404486/bash_hang.jpg
/dev/watchdog定时器如何正确工作? 我在这里find了一个描述,它说,一旦我从应用程序打开文件,我需要每10秒更新一次。 我想知道这是一个硬限制吗? 例如,如果我在11秒内更新它呢? 有人可以向我解释这个行为吗? 因为在线程调度中没有“硬性限制”,所以我确定文件在10秒内被更新。 除非我使用例如旋转循环而不是sleep否则会严格
有没有可能使用hpacucli升级RAID卷? 例如,我有一个4磁盘Raid-10arrays。 如果我更换每个磁盘(当然允许raid在每种情况下重build),所有4个磁盘已经升级后,将hpacucli能够扩大数组大小? arraysA(SATA,未使用的空间:0 MB) logicaldrive 1 (148.9 GB, RAID 1+0, OK) physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 80.0 GB, OK) physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 80.0 GB, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 80.0 GB, OK) physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 80.0 GB, OK) 我已经看了hpacucli帮助文档,我想下面的命令会做到这一点。 我在做什么风险,还是单用户模式会更好? 任何指导或build议,将不胜感激。 […]