Hey, Siedlaczek, Sandy wrote:
Eine Begrenzung gibt es wohl nicht, da unsere cache_pages gerade auf 8,2 GB angewachsen ist, nachdem ich recache und den indexed_search Crawler angeschmissen habe. Ich frage mich allerdings immer, ob der Cache bei diesen Datenmengen überhaupt noch seinen Zweck erfüllt.
Eine Obergrenze gibt es nicht. Man bekommt halt nur irgendwann Schwierigkeiten genug RAM auf mysql zu werfen damit die Tabelle schnell bleibt. Ein eingeschalteter slow-log sollte erste Hinweise geben wann es wirklich unschön wird.
Abhilfe kann eventuell enetcache [1] schaffen: Die Extension liefert ein Backend für das caching framework mit, das die Daten vorm Stopfen in die Datenbank mit gzip packt (und beim Rausholen entpackt). Damit kann man die Tabelle um den Faktor 6-8 oder so kleiner kriegen, was natürlich extrem praktisch für mysql ist. Natürlich geht diese Lösung zu Lasten der CPU der Maschine, das sollte bedacht / ausprobiert werden. In unseren Fällen ist der Vorteil durch den frei werdenen RAM sehr viel größer als das bisschen zusätzliche Rechenzeit.
Grüße Christian [1] http://typo3.org/extensions/repository/view/enetcache/current/ _______________________________________________ TYPO3-german mailing list [email protected] http://lists.typo3.org/cgi-bin/mailman/listinfo/typo3-german
