SATA端口倍增器连接的磁盘性能不佳

我在Ubuntu Server 16.04.2上的zfs池中有三个磁盘组成RAID-Z vdev,它们通过廉价的PCIE SATA卡,单个eSATA电缆和另一端的端口倍增器连接。

iostat显示这些磁盘性能非常差,如下所示: 在这里输入图像说明

但我正在努力理解为什么。 控制器( Syba SI-PEX40064 )和端口倍增器( 带有SiI3726芯片组的无品牌 )都支持端口倍增和FIS。

如果是单个磁盘故障,我认为只有一个磁盘上的等待时间很慢,而不是所有的三个都通过端口倍增器连接。

这些磁盘是相对新安装在这种configuration(2-3周),这个问题只发生在最后几个小时,尽pipe不断使用池。 我不确定ZFS是如何工作的,我想这是可能的,到现在为止还没有写入这些磁盘?

任何build议什么调查,或潜在的因素,可能导致这将不胜感激!

DD速度testing

 root@server:~# dd if=/dev/sdi of=/dev/null bs=1M count=10 10+0 records in 10+0 records out 10485760 bytes (10 MB, 10 MiB) copied, 0.00211904 s, 4.9 GB/s root@server:~# dd if=/dev/sdi of=/dev/null bs=1M count=10 iflag=direct 10+0 records in 10+0 records out 10485760 bytes (10 MB, 10 MiB) copied, 12.5821 s, 833 kB/s root@server:~# dd if=/dev/sdj of=/dev/null bs=1M count=10 10+0 records in 10+0 records out 10485760 bytes (10 MB, 10 MiB) copied, 0.00196007 s, 5.3 GB/s root@server:~# dd if=/dev/sdj of=/dev/null bs=1M count=10 iflag=direct 10+0 records in 10+0 records out 10485760 bytes (10 MB, 10 MiB) copied, 11.6849 s, 897 kB/s root@server:~# dd if=/dev/sdk of=/dev/null bs=1M count=10 10+0 records in 10+0 records out 10485760 bytes (10 MB, 10 MiB) copied, 40.8416 s, 257 kB/s root@server:~# dd if=/dev/sdk of=/dev/null bs=1M count=10 iflag=direct 10+0 records in 10+0 records out 10485760 bytes (10 MB, 10 MiB) copied, 6.79282 s, 1.5 MB/s