大多数设备的额定湿度范围很宽(例如,5%至95%不凝结)。 但是,什么是理想的湿度? 更高的湿度将设备的热量带走好一点,但也可能更具腐蚀性。
我在这里阅读有关MRJ-41配线架系统,但不知道我完全理解它。 看起来它允许我连接我自己的配线架,因为它使用特殊的电缆将配线架连接在一起(所以我不需要电工)。 但是,看起来每个48端口面板都需要这8根电缆。 因此,要连接一个机架到另一个机架,我需要2个配线架(每个CDW $ 330),然后是8个电缆( CDW $ 240),每个补丁总共大约2500美元。 我是否正确理解目的和实施?
我正在阅读去年的一些关于数据中心networkingdevise的论文。 http://ccr.sigcomm.org/online/?q=node/523 大部分发表的论文都抱怨数据中心networkingdevise的树状结构。 例如:如果一个networking级别正在接收networking洪泛,则下面这个级别的每个服务器也受到这个洪水的影响。 还有一个问题:由于使用了不同层次的高成本networking硬件,networking资源被分配到了不同的层次。 在数据中心networking中使用基于树的层次结构还有什么其他的缺点? 谢谢。
我有一个关于Apache Spark的基础设施问题,我正在研究在一个新build项目中推出的(至多)大约4 TB用于build模的数据。 应用领域将是分析,模型的培训可能会在一夜之间完成,而不是实时进行。 传统的三层应用程序将工作负载的数据库和应用程序两端分开,这意味着可以优化两个不同的服务器以分别执行存储和计算任务。 这使得build立一个系统变得很容易,因为不同的提供商(例如戴尔 )都有针对每个应用进行优化的产品。 像Spark这样的新框架似乎将两个方面结合起来,以避免在节点之间移动数据 – 以及由此造成的networking负载 – 但是我想知道这是如何在基础设施级别工作的。 人们在一台机器上整合了大量的存储和计算能力吗? 对于我的应用程序来说,标准的系统拓扑结构可能会是什么样子?在计划时我会考虑哪些因素? 最后,有没有提供高存储密度以及良好计算能力的刀片服务器? 理想情况下,我最好喜欢使用不超过5个节点,但我不知道任何指导资源来帮助规划这样的实现。 任何build议在这方面表示赞赏。
我们在数据中心有一个机架,我们怀疑电力不足。 但我们的功率棒说2安培! 它有一个活的指标,所以它不只是一个阅读。 你觉得电源棒有什么问题吗? 值得一提的是:到现在为止,我们从来没有检查过电源栏来validation它说的数字是有意义的。 我们的设备(大约): 6个1U服务器,每个2个磁盘。 一个带有6个驱动器的2U双核一个2U双四核1个装有15个驱动器的MD1000另外两个驱动器机箱共16个驱动器。 我们有很多用户,总是有活动,如果没有,我们正在备份。 有可能是5 mbits / s的小活动,但是2安? 这似乎很奇怪,但我不是电工。 为什么我们认为我们的电源已经耗尽 – 使用一般计算或Dell Capacity Planner( http://www.dell.com/html/us/products/rack_advisor_new/ ),我们的电stream约为17-21安培,这是我们的电路的限制。 我们将2个磁盘放入驱动器机箱,并且机箱旁边的电源sockets上的(完全未连接的)服务器重新启动! 这两个系统之间没有iSCSI或布线。 当我们在两天不同的时间添加磁盘时发生了两次。 重新启动的服务器是坚如磐石的。 我从来没有见过它重新开机,除非我们自己做。 我曾经有权力问题的经验(完全不同的系统),发生的事情现在正在发生..每天或每两天,一台服务器大多数离线30分钟(ping但没有别的)。随机设备奇怪(在这种情况下,驱动器机箱运行速度非常慢( 可能是正常的性能,但低于10 MBytesPS?我们需要移动客户,因为它甚至不能处理FTPstream量)…再次,我非常开放的事实,这是由于其他的事情,但它看起来很熟悉。
我习惯于把美国的configuration提供商看作每机架安培数(假设为120V)。 我正在寻找一个租用服务器空间的地方: “每平方英尺250瓦” 使用具有标准热冷岛configuration的标准机架尺寸,这大致如何转化为每机架允许的安培数?
在我们公司,我们正在考虑将我们的服务器(有些安装在25U机架上,有些是塔式服务器)移动到一个新build的房间(地下,没有窗户),其中包含40个KVa UPS和冗余空调系统,并将不断closures。 这间客房内还有一台中压电动(MV 380V 60A)电路板。 如果我们把服务器与UPS和/或MV放在同一个房间,是否有相当大的电磁干扰风险? PS。 房间是3.5乘3.5米。 我们没有其他的房间可用,服务器分布在多个办事处,周围有工作人员(不好我知道)。 预先感谢您的回答, 最好的祝福
专用服务器相对比较简单:find一个数据中心主机在那里,注册,获得您的凭据,并完成。 但是下一个层面,数据中心似乎并不那么容易。 从我在Stackexchange迁移中读到的内容来看,你似乎买了一切,数据中心只是提供带宽和电力。 我对吗? 这是数据中心通常如何工作? 或者我完全错了
我正在研究不同的方法来安全有效地冷却我们的一台服务器,使用两个GPU卡进行激烈的渲染,需要几个小时才能完成。 整个系统的功率大约是每台服务器1600瓦,并且产生了相当的热量。 考虑到我的目标是保持一个服务器的冷静,安全,有效地做到这一点,我应该如何使用矿物油来实现这一点? 我应该采取什么防火措施? 有没有更好的(更高效,更安全)的技术,我可以使用,而不是使用淹没服务器? (例如用矿物油代替水的水冷却系统)
我在数据中心有一个连接,networking提供商给我两个以太网连接。 他们应该连接到同一个VLAN,这样我就可以将它们连接到我的交换机上,一次只有一个交换机处于活动状态,但任一方都可以进行硬件维护(重新布线,交换机升级等)而不会导致服务中断。 我已经把我的交换机分区,为这个外部边缘有一个单独的VLAN – 比方说,端口1-3在VLAN上,端口1和2是我的colo提供的互联网连接,端口3是外部接口我的防火墙。 这可以正常工作,无论是端口1或端口2连接,但大约2分钟后,两个同时连接,我的交换机变得没有反应,我得到约80%的数据包丢失,做一些诊断显示数以百万计的广播数据包每分钟。 我对STP有一个基本的了解,知道它应该可以使这个工作; 当STP打开时,两个接口仍然被标记为转发。 任何人有什么想法会导致数据包风暴? 有没有更好的方法来build立冗余连接?