Hi, I have a pc with a MARVELL AOC-SAT2-MV8 controller and a pool made up of a six disks in a raid-z pool with a hot spare.
<pre> -bash-3.2$ /sbin/zpool status pool: nas stato: ONLINE scrub: scrub in progress for 9h4m, 81,59% done, 2h2m to go config: NAME STATE READ WRITE CKSUM nas ONLINE 0 0 0 raidz1 ONLINE 0 0 0 c2t1d0 ONLINE 0 0 0 c2t4d0 ONLINE 0 0 0 c2t5d0 ONLINE 0 0 0 c2t3d0 ONLINE 0 0 0 c2t2d0 ONLINE 0 0 0 c2t0d0 ONLINE 0 0 0 dischi di riserva c2t7d0 AVAIL errori: nessun errore di dati rilevato </pre> Now, the problem is that issuing an iostat -Cmnx 10 or any other time intervall, I've seen, sometimes, a complete stall of disk I/O due to a disk in the pool (not always the same) being 100% busy. <pre> $ iostat -Cmnx 10 r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,0 0,3 0,0 2,0 0,0 0,0 0,0 0,1 0 0 c1 0,0 0,3 0,0 2,0 0,0 0,0 0,0 0,1 0 0 c1t0d0 1852,1 297,0 13014,9 4558,4 9,2 1,6 4,3 0,7 2 158 c2 311,8 61,3 2185,3 750,7 2,0 0,3 5,5 0,7 17 25 c2t0d0 309,5 34,7 2207,2 769,5 1,6 0,5 4,7 1,4 41 47 c2t1d0 309,3 36,3 2173,0 770,0 1,0 0,3 2,9 0,7 18 26 c2t2d0 296,0 65,5 2057,3 749,2 2,1 0,2 5,9 0,6 16 23 c2t3d0 313,3 64,1 2187,3 748,8 1,7 0,2 4,6 0,5 15 21 c2t4d0 311,9 35,1 2204,8 770,1 0,7 0,2 2,1 0,5 11 17 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,4 14,7 3,2 30,4 0,0 0,2 0,0 13,2 0 2 c1 0,4 14,7 3,2 30,4 0,0 0,2 0,0 13,2 0 2 c1t0d0 1,7 0,0 58,9 0,0 3,0 1,0 1766,4 593,1 2 101 c2 0,3 0,0 7,7 0,0 0,0 0,0 0,3 0,4 0 0 c2t0d0 0,3 0,0 11,5 0,0 0,0 0,0 4,4 8,4 0 0 c2t1d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 100 100 c2t2d0 0,4 0,0 14,1 0,0 0,0 0,0 0,4 6,6 0 0 c2t3d0 0,4 0,0 14,1 0,0 0,0 0,0 0,3 2,5 0 0 c2t4d0 0,3 0,0 11,5 0,0 0,0 0,0 3,6 6,9 0 0 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,0 3,1 0,0 3,1 0,0 0,0 0,0 0,7 0 0 c1 0,0 3,1 0,0 3,1 0,0 0,0 0,0 0,7 0 0 c1t0d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 2 100 c2 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t0d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t1d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 100 100 c2t2d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t3d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t4d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,0 0,1 0,0 0,4 0,0 0,0 0,0 1,2 0 0 c1 0,0 0,1 0,0 0,4 0,0 0,0 0,0 1,2 0 0 c1t0d0 0,0 29,5 0,0 320,2 3,4 1,0 113,9 34,6 2 102 c2 0,0 6,9 0,0 63,3 0,1 0,0 12,6 0,7 0 0 c2t0d0 0,0 4,4 0,0 65,5 0,0 0,0 8,7 0,8 0 0 c2t1d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 100 100 c2t2d0 0,0 7,4 0,0 62,7 0,1 0,0 15,4 0,8 1 1 c2t3d0 0,0 6,8 0,0 63,6 0,1 0,0 13,2 0,7 0 0 c2t4d0 0,0 4,0 0,0 65,1 0,0 0,0 7,9 0,7 0 0 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,0 0,3 0,0 2,4 0,0 0,0 0,0 0,1 0 0 c1 0,0 0,3 0,0 2,4 0,0 0,0 0,0 0,1 0 0 c1t0d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 2 100 c2 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t0d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t1d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 100 100 c2t2d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t3d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t4d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,5 3,5 3,8 17,0 0,0 0,0 0,0 0,9 0 0 c1 0,5 3,5 3,8 17,0 0,0 0,0 0,0 0,9 0 0 c1t0d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 2 100 c2 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t0d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t1d0 0,0 0,0 0,0 0,0 3,0 1,0 0,0 0,0 100 100 c2t2d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t3d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t4d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,1 4,2 0,8 6,5 0,0 0,0 0,0 1,2 0 0 c1 0,1 4,2 0,8 6,5 0,0 0,0 0,0 1,2 0 0 c1t0d0 93,2 84,7 1630,3 439,2 4,5 1,3 25,5 7,1 3 127 c2 15,0 15,5 247,8 60,5 0,3 0,1 9,5 2,1 5 7 c2t0d0 14,5 10,7 281,3 63,8 0,3 0,1 12,2 2,7 6 7 c2t1d0 16,8 16,6 321,0 129,1 3,1 0,9 92,7 28,4 96 95 c2t2d0 17,2 15,5 262,7 60,8 0,3 0,1 9,6 2,1 6 7 c2t3d0 16,5 15,1 237,1 61,0 0,3 0,1 8,8 1,9 6 6 c2t4d0 13,3 11,4 280,5 64,1 0,3 0,1 10,7 2,6 6 7 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 0,0 3,9 0,0 30,3 0,0 0,0 0,0 0,1 0 0 c1 0,0 3,9 0,0 30,3 0,0 0,0 0,0 0,1 0 0 c1t0d0 2941,0 561,1 22458,3 5278,8 11,4 2,4 3,3 0,7 4 235 c2 499,2 118,7 3773,8 859,2 2,7 0,4 4,3 0,7 35 44 c2t0d0 503,7 69,8 3916,4 898,9 1,4 0,4 2,4 0,7 31 38 c2t1d0 473,3 70,7 3800,4 899,3 1,2 0,4 2,1 0,7 28 35 c2t2d0 500,9 113,8 3725,2 861,9 2,6 0,4 4,2 0,7 33 41 c2t3d0 485,3 119,5 3537,0 861,0 2,4 0,4 4,0 0,7 32 40 c2t4d0 478,7 68,7 3705,4 898,5 1,2 0,4 2,2 0,7 28 37 c2t5d0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0 0 c2t7d0 </pre> In this case it was c2t2d0 and it blocked the pool for 30 or 40 seconds. /var/adm/messages does not contain anything related to the pool. What can it be? Thanks. Maurilio. -- This message posted from opensolaris.org _______________________________________________ zfs-discuss mailing list zfs-discuss@opensolaris.org http://mail.opensolaris.org/mailman/listinfo/zfs-discuss