弹性群集上负载分布不均匀

亚马逊弹性caching集群看起来是一个非常好的自动缩放select,但似乎负载分布不相等的节点之间。

内存和CPU都明智的节点1似乎需要几乎两倍的资源比其他节点。 这通常会导致在高峰时间增加响应时间,即使其他大多数节点都处于理想状态。

我正在使用r3.2x实例(8cpu,60GB内存)

有没有人有同样的问题? 什么可能导致这种行为(在elasticache或我的memcache模块中)? 在我身边,我正在使用分布一致哈希(Ketamaalgorithm)。 任何更好的select?

如果你有一个单一的caching项目(或非常less的项目)比其他项目更频繁地使用,你会看到负载分布不均匀的行为。

你应该检查你的应用程序这种caching项目。 也许你可以logging所有的memcache请求来查找这些项目。 当你确定这样的项目后,你必须考虑如何拆分和分配到这个项目的电话到许多项目。

我相信这种问题没有单一的解决scheme,因为它取决于应用程序逻辑,读取和写入的数量等。