* Lorenzo Mainardi (lorma...@gmail.com) [161207 10:37]:
Vorrei evitare cose complicate tipo logstash (un divorato di memoria)
abbisogna mi amore, ma un amico di cui mi fido usò con soddisfazione
https://github.com/python-beaver/python-beaver
e logstash / elasticsearch e le loro pacate richie
link
https://dzone.com/articles/how-setup-realtime-alalytics
Il giorno 7 dicembre 2016 21:02, salvatore monaco <
salvatore.mon...@gmail.com> ha scritto:
> Ciao ,
> non ho letto tutto quanto ma ad occhio e croce dovresti usare gli
> strumenti che il sistema operativo
> ti mette a disposizione per
Ciao ,
non ho letto tutto quanto ma ad occhio e croce dovresti usare gli strumenti
che il sistema operativo
ti mette a disposizione per il logging.
ruota i log, file da 1G non hanno tantissimo senso, processo il file che
non ha in append imput
sarà più agile per la memoria della macchina.
e invec
2016-12-07 17:17 GMT+01:00 Lorenzo Mainardi :
>> Message: 7
>> Date: Wed, 7 Dec 2016 16:02:10 +0100
>> From: Manlio Perillo
>>
>> Scrive sempre sullo stesso file, che quindi cresce indefinitivamente?
>
>
> Sì, lo posso ruotare ogni ora od ogni giorno (a seconda di come mi fa
> comodo).
>
In quest
2016-12-07 17:17 GMT+01:00 Lorenzo Mainardi :
>> Message: 7
>> Date: Wed, 7 Dec 2016 16:02:10 +0100
>> From: Manlio Perillo
>>
>> Scrive sempre sullo stesso file, che quindi cresce indefinitivamente?
>
>
> Sì, lo posso ruotare ogni ora od ogni giorno (a seconda di come mi fa
> comodo).
>
Se sei r
Il 7 dicembre 2016 15:06, Esalando Prassi
ha scritto:
> quando mi sono trovato i dati sul db mi sono reso conto che quelli nei
> logfile erano solo rumore :)
Buttali dopo il parsing ;)
Io uso quasi sempre collector esterni per fare il gioco.
___
Python
>
> Message: 7
> Date: Wed, 7 Dec 2016 16:02:10 +0100
> From: Manlio Perillo
>
> Scrive sempre sullo stesso file, che quindi cresce indefinitivamente?
>
Sì, lo posso ruotare ogni ora od ogni giorno (a seconda di come mi fa
comodo).
>
> > Vorrei parsare il file in tempo reale riga per
> > riga
2016-12-07 10:37 GMT+01:00 Lorenzo Mainardi :
> Buongiorno a tutti, scrivo per chiedere un consiglio alla lista.
> Ho un processo che mi genera un file di log molto grande (un paio di Giga al
> giorno, circa 10 righe).
Scrive sempre sullo stesso file, che quindi cresce indefinitivamente?
> Vo
2016-12-07 14:02 GMT+01:00 Roberto Polli :
> Il 7 dicembre 2016 11:38, Esalando Prassi
> ha scritto:
>>... loggare su rsyslog per poi
>> reindirizzare le righe di log su postgres:
>> ..eviterei..
> Perché?
>
> Usando un log collector hai
> - un buffer per quando il db è giù.
> - componenti sep
Il 7 dicembre 2016 11:38, Esalando Prassi
ha scritto:
>... loggare su rsyslog per poi
> reindirizzare le righe di log su postgres:
> ..eviterei..
Perché?
Usando un log collector hai
- un buffer per quando il db è giù.
- componenti separate.
- scalabilità
Puoi inoltre cambiare soluzione in
Ma crossbar puoi anche installarlo sui tuoi server.
On Dec 7, 2016 1:12 PM, "Lorenzo Mainardi" wrote:
> Message: 3
>> Date: Tue, 6 Dec 2016 18:05:31 +0100
>> From: Carlo Miron
>> To: Discussioni generali sul linguaggio Python
>>
>>
>> Potresti provare con crossbar.io
>> E.
>>
>
> Non posso, son
>
> Message: 3
> Date: Tue, 6 Dec 2016 18:05:31 +0100
> From: Carlo Miron
> To: Discussioni generali sul linguaggio Python
>
>
> Potresti provare con crossbar.io
> E.
>
Non posso, sono dati sensibili e riservati.
--
LORENZO MAINARDI
http://blog.mainardi.me
__
Il giorno 7 dicembre 2016 12:00, Lorenzo Mainardi ha
scritto:
>
>> Dovessi rifarlo eviterei e (qualora concesso dall'applcazione)
>> scriverei direttamente sul DB.
>>
>
> L'applicazione (un server Radius) scrive già su un DB, ma non è più
> gestibile: tutte le volte che devo fare una manutenzione
>
>
> Dovessi rifarlo eviterei e (qualora concesso dall'applcazione)
> scriverei direttamente sul DB.
>
L'applicazione (un server Radius) scrive già su un DB, ma non è più
gestibile: tutte le volte che devo fare una manutenzione sulla tabella (ad
esempio cancellando i record più vecchi di X) mi ri
2016-12-07 10:37 GMT+01:00 Lorenzo Mainardi :
> Buongiorno a tutti, scrivo per chiedere un consiglio alla lista.
> Ho un processo che mi genera un file di log molto grande (un paio di Giga al
> giorno, circa 10 righe). Vorrei parsare il file in tempo reale riga per
> riga e poi inserire i dati
Potresti provare con crossbar.io
E.
On Dec 7, 2016 10:37 AM, "Lorenzo Mainardi" wrote:
Buongiorno a tutti, scrivo per chiedere un consiglio alla lista.
Ho un processo che mi genera un file di log molto grande (un paio di Giga
al giorno, circa 10 righe). Vorrei parsare il file in tempo reale
Buongiorno a tutti, scrivo per chiedere un consiglio alla lista.
Ho un processo che mi genera un file di log molto grande (un paio di Giga
al giorno, circa 10 righe). Vorrei parsare il file in tempo reale riga
per riga e poi inserire i dati in un DB.
Come posso fare? Ho letto un po' di document
17 matches
Mail list logo