Ahoj, 2009/8/11 Miroslav Lachman <000.f...@quip.cz>: > To pak ale vychazeji uplne jina cisla, nez uvadel v tabulce David Pasek... > takze jak to vlastne je? Co se povazuje za IOPS? > Chapu to spravne, ze je to to same, co se napriklad ve vypisu systat -vm > nebo iostat vypisuje jako "tps"? Tam pak totiz na obycejnem 7k2 rpm SATA II > disku mam treba pri rsync zalohach okolo 150-200 tps, na vytizenem > webserveru temer konstantne 140 tps, na jednom hodne vytizenem serveru to je > dokonce pres 300 tps ve spicce (udaje ziskane prikazem iostat -w 240 ukladam > do MRTG)
Neni to uplne to same viz. vysvetleni nize. > > PS: na webu horde.org jsem narazil napriklad na tabulku: > 15k rpm: 180-210 IOPS > 10k rpm: 130-150 IOPS > 7200 rpm: 80-100 IOPS > 5400 rpm: 50-80 IOPS > ale tam mi porad nejak nepasuji hodnoty, co na svych serverech vidim ja Je to uplne mimo hlavni topic teto konference, takze timto z me strany posledni reakce na toto tema. I kdyz se bavime o disku 15k rpm, tak kazdy model disku je trosku jiny, proto to rozmezi. Na enterprise diskovych polich je mozne sledovat vytizeni jednotlivych disku v RAID skupinach. Uz jsem videl i 220 IOPS per 15k rpm disk, ale jakmile jsou disky vytizeny na vic jak 170 IOPS, tak uz je to na povazenou. Ta cisla nahore v podstate odpovidaji a pro hrubou kalkulaci potrebneho diskoveho vykonu je to dostatecny model. Ty hodnoty jsou to co jeden fyzicky disk je schopen maximalne dosahnout. Budu-li dlouhodobe pretezovat disk, ktery neni urcen pro 24/7/365 tak to zase tak dlouho nebude ;-) Je vsak potreba si uvedomit, ze kdyz mi host (tedy server) posila na target (tedy disk) nejake IO, tak to jeste prochazi napriklad radicem, ktery na sobe muze mit read/write cache a IO prichazejici na disk jsou pak trosku jine hodnoty. Dalsi vec je, ze target nemusi byt vzdy jen jeden disk. Naopak jestlize chci velky vykon, tak musim mit mnoho disku spojenych pomoci vhodneho RAIDu a tim se diskove IOPS scitaji. Pri urcitych RAIDech, je ale zase urcity overhead. Jestlize mam RAID 5, pak se jedna write operace zapisuje na 4 disky, takze mi to vygeneruje 4 IOPS. U RAID 1 nebo 10 jedna write operace vygeneruje na cilove disky 2 IOPSy. RAID 0 je bez write overheadu, ale take bez redundance. Kdybychom chteli jeste do vetsiho detailu, tak se musime bavit o tom, kam se data na diskovych plotnach ukladaji a jak se k datum pristupuje (random/sekvence), ale to uz jsou vetsinou zbytecne detaily pro sizing diskoveho subsystemu, protoze presne to stejne nikdo nikdy nespocita. Takze ze serveru neuvidim nic jineho, nez kolik transakci (operaci) jde na prislusny device a co se deje dal musim odhadovat a nebo kdyz mi to muj diskovy system dovoli, tak to monitorovat az na radicich a discich. David. -- FreeBSD mailing list (users-l@freebsd.cz) http://www.freebsd.cz/listserv/listinfo/users-l