On 2014-10-29 15:47, Antonio Conte wrote:
* 29/10/2014, Daniele Varrazzo wrote :

Un modo di coordinarsi piu` robusto sarebbe quello di usare Thread.join,
ma come avrai gia` scoperto questo ti impedirebbe di avere un output
graduale nel thread principale. Lo puoi usare se eviti la print nel loop
principale: lanci prima tutti i processi nei thread separati, poi
t.join() per ogni thread.

questo posso provare a farlo. ma il join lo mettersti DOPO aver lanciato
i singoli thread ? cioe' qualcosa del genere:

[CODE]
    _ths = []
    for k, v in clients.items():
        for scr in v['server']:
            _cmd = [ 'ssh', '%s@%s' % (k, v['host'],),
'"/Users/%s/bin/%s_%s.command"' % (k, k, scr,) ] + _extra_params

_ths.append(thr.Thread(target=run_command, args=(qq, _cmd)))
            _ths[-1].start()

    for _th in _ths:
        _th.join()
[/CODE]

Esatto: prima lanci tutti i thread, poi li joini tutti. Se li joinassi nel for otterresti un'esecuzione serializzata (lanci un thread e poi aspetti finisca). Se un thread termina prima del join non fa niente: in questo caso join() non blocca.


Nel tuo codice, qq.task_done() non credo ti serva a niente: quello serve se es. il thread principale chiamasse qq.put() e poi qq.join() ed avessi
un pool di worker thread che chiamassero qq.get() e qq.task_done():

ah ok ! ho letto malissimo io :-|

cosi' potresti avere es. un pool di workers a lavoro in round-robin
sulla coda dei compiti (es. 10 processi a lavoro su 100 compiti). Tu
invece hai un mapping 1-1 tra processi e compiti e solo una coda di
risultati: la tua struttura e' piu' semplice ma probabilmente scala
peggio: se avessi 1000 compiti da fare la tua macchina non sarebbe molto
felice di lanciare 1000 thread + 1000 processi tutti insieme.

tieni conto che sono degli script da lanciare ogni 10/15 minuti su dei
Mac (con un lock in locale che impedisce di lanciare piu' volte lo
script) quindi niente di trascendentale.

Io ne posso pure tenere conto :) Ti spiego solo che finche' l'input e` contenuto il programma ancora ancora funziona, ma resta uno script che a fronte di un input di dimensioni impreviste avrebbe un'occupazione illimitata di risorse. Sta a te "tenerne conto" :) Se hai gli elementi per essere sicuro che "non succedera` maimaimaimai" puoi tenerlo com'e`, oppure puoi renderlo robusto a fronte di imprevisti (e imparare a coordinare un pool di workers con una queue, che e' un pattern molto utile).

cmq adesso ci provo a fare le correzioni che hai detto, e se ho altre
domande mi faccio risentire.

grazie mille per le spiegazioni !

Di niente, a presto

-- Daniele
_______________________________________________
Python mailing list
Python@lists.python.it
http://lists.python.it/mailman/listinfo/python

Rispondere a