道歉,我会简化我的问题: 在500-1500美元范围内是否有任何消磁器或硬盘粉碎机的devise使用,因此 ,你会build议低量使用?
我们想要encryption运行一些敏感文件,数据库和Web服务的Snow Leopard工作站的整个磁盘。 PGP目前还不能用于10.6,而且我们不能使用FileVault,因为它不符合FIPS,并且需要非标准的服务安装。 已知可与雪豹一起使用的全盘选项?
有没有办法将一个特定的文件夹映射到内存? 说我有C:\ somePath,我希望该文件夹在任何时候都在内存中,也许更改被asynchronous转储到硬盘上,恕不另行通知。 所以这更像是硬盘内存强制caching内存…对于Windows 7或任何Windows操作系统?
我们有许多Server 2012系统,所有这些系统都在Hyper-V 2012服务器上运行。 我们遇到了两个这样的虚拟实例的问题,这两个虚拟实例都被用作文件服务器,偶尔会停止响应向客户端提供文件的请求。 login到服务器后,尝试正常closures失败(没有错误,它只是无法确认closures请求)。 恢复是从Hyper-V控制台对服务器进行重新启动的情况。 这两台服务器并不服务于大量的用户(一个用户不超过6个,另外一个服务于大约20个用户),他们在同一个域中,但是在不同的物理硬件上(以及在不同的站点上)。 他们不同时locking。 他们都使用DFSR通过ADSL连接在它们自己之间(200GB)复制相当大量的数据,这样工作的很好,而且我们已经使用DFSR在我们以前使用的前两代服务器操作系统(Server 2008 R2和Server 2003 – 但这两者都是物理安装)。 今天,当其中一台服务器崩溃时,我注意到事件日志中的一个条目,其类似于以下内容: Log Name: Application Source: ESENT Date: 27/11/2012 10:25:55 Event ID: 533 Task Category: General Level: Warning Keywords: Classic User: N/A Computer: HAL-FS-01.example.com Description: DFSRs (1500) \\.\E:\System Volume Information\DFSR\database_C8CC_101_CC00_EC0E\ dfsr.db: A request to write to the file "\\.\E:\System Volume Information\ DFSR\database_C8CC_101_CC00_EC0E\fsr.log" […]
我目前在Centos 6.6操作系统上运行nginx / 1.0.15。 该服务器具有以下规格: 英特尔(R)Atom(TM)CPU C2750 @ 2.40GHz(8核心) 32GB内存 5 x 6000 GB 7200 RPM(Raid 10) 问题 服务器有一个1Gbit / s的连接,但是在400-500Mbit / s之后会出现瓶颈。 服务在大约100个连接处开始下降..服务器的速度急剧下降(尽pipe仍有50%的带宽可用) NGINX服务器严格用于提供静态.mp4文件。 每个文件通常是400-1200MB(平均700MB) 我已经尝试了很多很多configuration,几乎所有的configuration都给了我相同的结果..我非常沮丧.. 服务器负载也永远不会超过0.3。 在我的configuration中是否有明显的错误或误导? 任何事情都可能有帮助 configuration /etc/nginx/nginx.conf user nginx; worker_processes 9; error_log /var/log/nginx/error.log; pid /var/run/nginx.pid; events { worker_connections 51200; use epoll; } worker_rlimit_nofile 600000; http { include /etc/nginx/mime.types; default_type application/octet-stream; […]
我们正在与微软Azure支持团队进行一场战斗。 我希望Serverfault社区能够支持,因为以前的支持团队已经搞砸了我们。 这是发生了什么事。 作为我们在Azure上托pipe的一个更大的SaaS服务的一部分,我们有一个接受基本HTTP请求的前端应用程序服务,执行一些小的validation,然后将繁重的工作传递给后端服务器。 这个过程不是CPU,内存或networking密集型的,我们根本不接触磁盘子系统。 定价层级是“基本:2中等”,这对我们所承受的负担来说已经足够了。 CPU和内存图表显示系统在很大程度上处于内存使用率的36%左右。 由于我们在服务器学校备受关注,我们使用Azure的标准监控设施主动监控整个解决scheme的各个层面。 我们跟踪的其中一个计数器是“磁盘队列长度”,它是Azure应用服务中可用的极less数计数器之一,因此它必须非常重要。 回到服务器学校,我们被告知,磁盘队列长度理想情况下应该为零,如果它持续超过1,你需要一起行动(某些RAIDconfiguration有一些例外)。 过去几年一切顺利,磁盘队列长度为99%,而当微软维修系统时,磁盘队列长度偶尔会升至5。 几个月前,情况开始发生变化(所以不是在我们推出改变之后)。 磁盘队列警报开始涌入,平均队列长度在30秒。 我们让它运行几天,看看问题是否会消失(性能没有明显的影响,至less在目前的负载下)。 由于问题没有消失,我们认为可能是底层系统有问题,所以我们实例化了一个全新的Azure应用服务并迁移到那个。 同样的问题。 所以我们联系了Azure支持。 当然,他们要求我们运行一些无意义的testing,希望我们能够走开(他们要求networking追踪…对于磁盘队列问题!)。 我们不会轻易放弃,所以我们进行了无意义的testing,最终被告知只要将队列长度设置为50(超过10分钟)即可。 尽pipe我们无法控制底层硬件,基础架构和系统configuration,但这听起来不对。 他们的全部答复如下 我通过收集的信息与我们的产品团队联系。 他们调查了您为磁盘队列长度指定的警报发射频率超出预期的问题。 如果在5分钟内磁盘队列长度平均值超过10,则会将此警报设置为通知您。 此度量标准是采样间隔期间所选磁盘排队的读取和写入请求的平均数量。 对于Azure应用程序服务基础结构,以下文档链接讨论了此指标: https : //docs.microsoft.com/en-us/azure/app-service-web/web-sites-monitor 对于部署的任何types的应用程序,值10非常低,因此您可能会看到误报。 这意味着警报可能比确切的连接数更频繁地触发。 例如,在每个虚拟机上,我们运行防恶意软件服务来保护Azure应用服务基础设施。 在这段时间内,您会看到已build立的连接,如果警报设置为较低的数字,则可以触发。 我们没有发现任何影响您网站可用性的反恶意软件扫描实例。 Microsoftbuild议您考虑在10分钟内将“磁盘队列长度”度量设置为至less50的平均值。 我们相信这个价值应该让你继续监视你的应用程序的性能目的。 它也应该受到我们为维护目的而运行的防恶意软件扫描或其他连接的影响。 任何人想要join?
如何使用os显示6.5G,但在文件/目录中只能看到3.6G? 在Amazon Linux AMI上以root用户身份运行(看起来像Centos),大量可用的内存,没有交换,没有明显的文件描述符问题。 我唯一能想到的就是一个日志文件,在应用程序附加到它的时候被删除了。 磁盘空间使用量正在缓慢但持续上升,达到最高容量(约1k / min,时间非常短) 任何解释? 解? du – 最大深度= 1 -h / 1.2G / usr 4.0K / cgroup 22M / lib64 11M / sbin 19M /等 52K / dev 2.1G / var 4.0K /媒体 0 / sys 4.0K / selinux du:无法访问/proc/14024/task/14024/fd/4': No such file or directory du: cannot access<br/> / proc […]
这是关于大规模HDD擦拭/testing。 我使用的软件WipeDrive Pro 5和7都是受害者。 我原本以为这是软件的一个局限性,但是在和软件公司交谈之后,我被告知没有限制,但是这台机器是有限的。 我经历了很多硬盘驱动器,需要validation它们的完整性,并删除了所有的数据。 我有几个扩展挂钩各种品牌的服务器,IBM,惠普,戴尔。 它们都将我限制在软件中的26个同时可见的可擦除驱动器中。 我刚进入了lsi卡设置,它显示了每个扩展中的每个驱动器,现在总共有32个。 这是一个3Gb / s PCI-E卡,PCI通道,x86平台,还是完全不同的卡的限制? 它甚至可以是SAS电缆types,SFF 8088有26个引脚? 我刚刚遇到,因为我正在查找电缆types。 也许这就是它可以处理的同时活动的最大数量? 任何帮助将不胜感激。
我在Ubuntu 14.04上使用lxc用户空间工具,我想在容器中执行一些压力testing和基准testing。 我知道free和htop在容器中工作不正常。 我在容器中使用dd和bonnie ++来强调硬盘是SSD。 现在在主机端,用iotop我可以看到读写IO使用的带宽,但在cgroups我有不同的结果。 cgroups仅捕获服务字节的一小部分,而iotop显示几百兆字节的带宽使用。 在cgroups中,我正在捕获这个条目:/sys/fs/cgroup/lxc/disk_stress/blkio.throttle.io_service_bytes 任何想法,为什么值不相等? 哪一个是正确的?
我有一个特殊的目录内有很多文件的ext4卷。 每当我试图创build一个特定名称的文件,我得到“没有留下空间的设备”的错误。 $ touch /data/lake/http:____images__br037__319854_366_tp.jpg touch: cannot touch '/data/lake/http:____images__br037__319854_366_tp.jpg': No space left on device 如果我甚至改变了一个字母的文件名,它的作品。 以下是该卷的磁盘使用情况和inode使用情况: # df -h /dev/xvdf Filesystem Size Used Avail Use% Mounted on /dev/xvdf 985G 679G 256G 73% /data # df -i /dev/xvdf Filesystem Inodes IUsed IFree IUse% Mounted on /dev/xvdf 65536000 24751661 40784339 38% /data 我跑fsck也确保它不是一个磁盘损坏问题。 # e2fsck -y /dev/xvdf […]