ZFS使用SAS扩展器写入性能

我有一个运行Ubuntu 16.04的ZFS存储服务器。 我最近添加了一个12G SAS扩展器和6个Seagate ST8000NM0055。

当我创build一个镜像的vdevs池并尝试从服务器中的另一个arrays中同步数据时,性能非常差(rsync在一小时内复制大约130GB)。 此外,看起来设备在zfs池中几乎没有被利用,但是当不在池中时可以饱和。

主板是Super Micro X10DRi-T4 +,我使用的是一块LSI 9300-8E,连接SFF-8644到SFF-8644 SAS电缆连接到一个12G扩展器。

在试图弄清楚,我已经销毁了数组,并单独testing每个磁盘,但同时使用hdparm -Tt读取和dd写入。

有没有人知道什么可能导致这个或更好,但我可以纠正?

请参阅以下内容以获取iostat -dmx 1在单个驱动器和镜像vdev池中的输出。

dd和hdparm asciicasttesting: https ://asciinema.org/a/XPveZvDnpiU9REF6QG8KjfyVK(活动开始于大约23秒标记)

镜像vdev rsync的asciicast(将数据从sdc-sdf上的镜像vdev池复制到服务器内部,以便在扩展器上作为镜像的vdev池,这些驱动器是sdg-sdl: https : //asciinema.org/a/mjv6aiPeoXdu5I1NSccb82MaV