Buongiorno a tutti, sto migrando del codice da requests a asyncio/aiohttp e tutto procede per il meglio. Ho perso un sacco di tempo con robaccia tipo future-request e similia, ma una volta capito, asyncio è potentissimo e facile da usare.
Per l'inserimento nel DB ho del codice pronto che usa Dataset ( https://dataset.readthedocs.io/en/latest/). Sembra però che non supporti asyncio. Qualche suggerimento su come fare a gestire l'inserimento nel DB senza dover riscrivere tutto il codice? Pensavo a una persistent queue nella quale il crawler inserisce i risultati (dizionari) e dalla quale un altro script tira fuori gli oggetti e gli inserisce nel db in maniera sincrona. Che ne pensate? Suggerimenti sulla persistent queue da utilizzare? Non sono riuscito a trovare una persistent queue che supporti sia la modalità asincrona che quella sincrona. Grazie -- LORENZO MAINARDI <http://blog.mainardi.me>
_______________________________________________ Python mailing list Python@lists.python.it https://lists.python.it/mailman/listinfo/python