Ciao, Giacomo.
Riproviamo: 1. >>La tecnologia è neutrale, tutto dipende dall'uso che se ne fa. La tecnologia non è "una": - La tecnologia neutrale è neutrale, ecc., quindi sì; - La tecnologia "di guerra", ...ha già l'uso definito fin dal'inizio (e non c'è inganno). 2. >>Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa. Non ritengo che siano "di guerra" (o, almeno, non concepiti come tali; correggimi se sbaglio), quindi sì. [Dal seguito, vedo che li consideri veramente pericolosi, ma ritengo che sia una percezione ...gonfiata.] 3. >>La tecnologia nel suo complesso non è MAI neutrale NON puoi dire che NON sia neutrale la tecnologia del bastone per il vecchietto, che può essere usato anche per malmenare il medesimo... Se fai l'esempio della mina antiuomo e della bomba atomica, parti da premessa di parte, e quindi sbagliata (si chiama ragionamento "circolare"; lo fanno ad es. i credenti). 4. >>La prima affermazione è facile da falsificare per costruzione: è sufficiente >>elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla >>mina antiuomo alla bomba atomica. La tecnologia "di guerra" sappiamo che esiste; ma non puoi estendere l'affermazione a tutta la tecnologia. La locuzione "tecnologia nel suo complesso" è volutamente ingannevole (a cominciare da te stesso...), perché ti permette di fare l'esempio che conviene a te, deviando / deragliando dal discorso che si faceva. 5. >>Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", >>dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e >>tanto più quelle più complesse) sono politicamente orientate. Posso essere d'accordo che le tecnologie più complesse non nascano nel giardino di casa (anche se ci sono esempi di garage...), ovvero che ci siano di frequente grossi interessi in ballo fin dall'inizio, ma -- di nuovo -- c'è l'interesse del venditore e quello del predatore, e non sono la medesima cosa. E tutto il mio discorso verteva sul fatto che il progresso tecnologico (sottinteso "positivo") può essere girato a vantaggio (predatorio) di qualcuno, e anzi che la cosa avviene praticamente sempre, anche quando la tecnologia nasce neutrale (cfr. l'esempio del bastone del vecchietto). 6. >> Io affermo soltanto: Internet è sin dalla sua ideazione un'arma, progettata per garantire l'esecuzione di un contrattacco nucleare durante la guerra fredda. Si è poi evoluta in un diverso tipo di arma, molto più offensiva. Internet è nata (in ambito militare perché lì ci sono i soldi) per costruire una rete "resiliente" (che serve anche per i disastri naturali, oltre che per aspetti militari). E il web è nato con fini non militari (ed è il web che viene usato "male"; la rete di base è veramente neutra, ...salvo quando il venditore se ne approfitta). 7. >> Anche un coltello può essere progettato per essere usato esclusivamente a >> tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù. Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama. Se fai così, a parte il costo, poi non lo puoi usare per svitare una vite... Il coltello è uno strumento multiuso. 8. >>Per contro, un coltello militare può essere progettato per lacerare i >>tessuti, producendo codette interne per un più rapido dissanguamento del >>nemico. Qui niente da dire. MA SI VEDE: non c'è l'inganno predatorio di farti vedere il coltello da pasto, e poi tagliarti la gola. Sai perché i mancini erano così odiati, in passato? Perché ti salutavano con la destra, a mostrare che erano disarmati, e ti infilavano un pugnale in pancia usando la sinistra. Il punto non era portare il pugnale, era l'inganno di tenerlo con l'altra mano rispetto a quella che porgeva il saluto. 9. >>Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello >>veramente neutrale, ogni coltello reale facilita o impedisce determinati usi, >>avendo effetti politici concreti. Un coltello reale "permette" altri usi (e la cosa è positiva); e la malvagità non sta mai nel coltello, quando l'uso è malvagio. 10. >>I LLM NON sono neutrali. Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente utili per le tecniche di programmazione statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e fondativamente politicamente orientate. Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno come obiettivo minimo superare il test di Turing. Superare il test di Turing è un legittimo obiettivo scientifico. Però inganni più il sempliciotto che non altri (e, se al posto del termine "ingannare", usi "sembrare a", sappi che c'è un intero libro che spiega in dettaglio come costruire una macchina che "appaia" come cosciente, ...come se apparirlo fosse un valido risultato, il che ritengo non sia). 11. >>Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare >>uno o più esseri umani sulla natura della sorgente dei dati sottoposti, >>spingendo le vittime ad attribuirli erroneamente ad un essere umano. V. sopra. 12. >>I creatori di un LLM conversazionale vincono questo "imitation game" se >>persone ignare attribuiscono intelligenza al loro software, e questi software >>sono progettati e continuamente ottimizzati esattamente per questo obiettivo. I creatori di un LLM adottano per "l'intelligenza" una "scorciatoia statistica", ingannando per primi se stessi (parlo di scienza / tecnologia); POI, qualcuno trova interessante ingannare NON in termini scientifici, ma di altro genere. E si torna al punto di partenza. La scienza -- come conoscenza -- è sempre buona in sé (sapere di più è meglio di sapere di meno); peccato che sapere di più da parte di certa gente possa diventare un serio pericolo per altri. Si tratta di una problematica di fondo molto seria, ...ma non diamone la colpa al coltello. Se anche fosse un problema generale, ovvero se tutta la scienza / tecnologia nascondesse un pericolo (che di fatto nasconde, in presenza di predatori), di certo non potremmo spegnere i cervelli di quei pochi che ancora lo usano... 13. >>Obiettivo che è estremamente specifico: ingannare esseri umani affinché >>confondano la macchina con un altro essere umano. Tu ci vedi una malignità che io non ci vedo. DI CERTO, mi serve che forniscano un prodotto simile a quello di un umano (e per i sempliciotti è così), perché altrimenti funzionerebbe come le vecchie traduzioni automatiche, che dovevi rieditare perché grossolane. 14. >>Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in >>particolare) possono essere usate SOLO per ingannare esseri umani. Se scrivi "sembrare a" gli togli quell'aura di malignità che fa solo gioco al tuo discorso, senza essere vera in origine. 15. >>Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a >>costo di miliardi di dollari ed enormi quantità di energia. C'è un grosso valore economico nell'ottenere risultati automatici (pensa a uno spreadsheet); in questo caso "l'inganno originario" sta nella natura del prodotto, ma se l'inganno sia benigno o maligno non viene da come è fatto il prodotto, ma per che cosa e come lo usi. 16. >>Prendiamo, di nuovo (...) il "riassuntino" che un LLM ha fatto del discorso >>della Professoressa Vallor. Omette completamente aspetti fondamentali della metafora che propone su cui la Professoressa si era giustamente soffermata a lungo (omissis). Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista. Qui c'è da dire innanzitutto che l'inganno NON era affatto voluto. Ovvero che non stiamo parlando del problema "politico". Qui stiamo parlando ancora della "tecnica imperfetta" che non ha ingannato chi conosce il problema, e ha ingannato qualcun altro. ACCADE sempre, nel mondo del commercio. E qui, non è neanche un inganno per far male o danni, ma semplicemente un'imperfezione tecnica che qualcuno nota e qualcuno no. Ovvero,stai tirando il ragionamento per la giacchetta dove non c'entra ("inconferente", direbbero i legulei). Devi stare attento, con il linguaggio... (pensa che una tonnellata di filosofi ebeti hanno discusso per millenni di nulla / non-essere, dimenticando che la negazione appartiene solo ai linguaggi, e non all'ontologia -- "non gatto" ha senso insiemistica e tassonomia biologica, non nella realtà -- quando l'ambito del discorso era proprio ...l'ontologia). C'è ingannare e ingannare; da "sembrare a" a "fottere". E NON sono la stessa cosa... 17. >>Se fossimo su twitter, la chiameresti misinformazione. Se Guido fosse russo, la chiameresti disinformazione. Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si inserisce il libro / intervento della Professoressa Vallor. A me sembra solo overlooking (e magari aveva ragione Guido -- de minimis non curat praetor -- se "l'inganno" era della Vallor che dimenticava il tema socio-predatorio per fare un bel discorsino tecnico; qui sono io che la butto in caciara, perché non ho guardato il video). Ci sono discorsi importantissimi in letteratura, o in seghine mentali scientifiche, che poi all'atto pratico contano ben poco. 18. >>Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che >>arriva a difendere i propri carnefici) o, al massimo, al software che ha >>"sfortunatamente" prodotto l'output "errato". Dovremmo invece ricondurla a coloro che hanno programmato quel software per ingannare Guido sulla sua abilità di comprendere un testo e produrne una "sintesi". V. sopra. Stai facendo di un termitaio una piramide egizia. 19. >>Sia che ciò avvenga per ragioni economiche o politiche (che poi... anche >>l'economia è politica...). Economia e politica, nel discorso che facevo io (predazione / sfruttamento / manipolazione) sono la stessa faccia della stessa medaglia (l'altra faccia essendo la scienza / tecnologia). La distinzione fondamentale fra "strumento" e "uso" (che solo in casi specifici -- bomba atomica -- coincidono; poi, anche per la bomba c'è stato l'utilizzo "deterrente" per evitare di usarla, che è un po' l'esempio duale di quanto sostengo). 20. >>Più in generale, una tecnologia progettata e realizzate per ingannare le >>persone può essere utilizzata solo per ingannare persone. V. il discorso sulla parola "ingannare". Non fare sillogismi sul "non-essere", senza pensare alle alternative semantiche in campo (alcune e diverse per "ingannare", solo semantica nulla per il il non-essere). 21. >>E' letteralmente un'arma. Fai gli stessi sillogismi di certa gente sui social: o sbagliano le premesse, o sbagliano le inferenze, o trascurano le semantiche. Tutto hai fatto (in modo veniale); tutti e tre gli errori; ma c'è gente (cfr. i filosofi ebeti di cui sopra) che gli errori li fa ...monumentali. Qualche volta c'è solo un "errore" (V. Guido), non un "inganno". E magari è stato meglio il suo errore che non l'inzuccarsi tanto sul discorso della Vallor. 22. >>Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata >>da terzi contro sé stessi, la puntino quotidianamente alla propria testa, >>dovrebbe rendere evidente la sua potenza e pericolosità. Out of the blue ...cosa? Che ci sono imbecilli che credono alla generatività statistica? C'è gente che ha creduto alle .com, ai subprime, prima ancora ai tulipani, ancor oggi ai bitcoin. Gente che ha votato Trump o Meloni (per altri, gente che ha votato Conte e Di Maio). Ha sempre e soltanto ragione Cipolla: è lo stupido il principale problema... 23. >>Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un >>LLM è sbagliato anche per il semplice fatto che costo e complessità >>realizzativa determinano una barriera all'ingresso tale da determinare >>intrinsecamente un orientamento politico: solo un élite molto ricca può >>permettersi di provare a costruirli, e lo farà solo se vi intravede >>un'utilità per sé nettamente superiore ai rischi. Qui entriamo nel discorso -- socio-economico-politico prima ancora di cominciare -- della ricchezza usata per incrementare ricchezza. Io, nel merito, distingui i ricchi onesti dai ricchi ladri. E mi preoccupo più della distinzione fra onesto e ladro, che non di quella fra ricco e povero. L'occasione (ricchezza) fa l'uomo ladro, ma non si tratta di un'identità (ovvero, finiscila con i proclami vetero-socialisti). 24. >>Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false. E, per le mie risposte, ritengo che tu abbia distorto in vari modi i termini del tema "inganno" (che ha semantica, e anche origine, varia), quando poi in realtà il discorso verteva su predazione / sfruttamento / manipolazione, dove alla fin fine al predatore va bene qualunque strumento, per perseguire i suoi scopi (zucchine, denaro, coltelli, bombe, ...). 25. >>Sono d'accordo che gli intenti "predatori" di molti esseri umani sono >>socialmente dannosi e vadano contenuti. Ma va...? 26. >>E sono anche d'accordo che tali intenti siano alla base di molti dei problemi >>di cui discutiamo speso in questa lista. Nulla da eccepire. 27. >>Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi >>e costituenti degli LLM, così come di molte altre armi. E qui si torna a sopra. 28. >>La tecnologia, spero di averti mostrato, è sempre una espressione umana >>politicamente orientata, intrinsecamente, ancora prima che venga >>effettivamente utilizzata. Prova a spiegarlo a chi (Edward Jenner) ha inventato il vaccino, ...quanto deve essersi rivoltato nella tomba, con il Covid!! 29. >>Gli LLM conversazionali esistono per ingannare le menti, esattamente come le >>mine antiuomo esistono per uccidere e mutilare i corpi. V. sopra, again. 30. >>Non possono essere usate per niente altro. Io ho trovato utilissimo chatGPT per contestare un'affermazione demente, tanto quanto l'ho trovato ondivago su altri temi, scolastico in altri, ...creativo mai. E' uno strumento, e lo usi come più conviene (io mi sono rifiutato di progettare mine antiuomo, dove l'obiettivo era chiaro e senza alternative); se poi sei uno stronzo (tu generico, ovviamente), ecco che le cose girano al male. 31. >>E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte >>persone (anche colte e intelligenti) finiscono per credersi e dichiararsi >>poco diverse da questi software. Non solo la madre dei fessi è sempre incinta, ma anche quella dei superficiali, dei troppo semplici (anche se di essi è il regno dei cieli), dei disattenti (io ho il problema opposto: troppa gente parla come se fosse un ripetitore statistico...). 32. >>Allo stesso modo possiamo creare software emancipatori e socialmente utili. >>Io ci provo da tempo sebbene sia una lotta impari. Il problema è sempre il vecchio "panem et circenses" (oppure la miopia manageriale): io ho provato a liberare la democrazia soffocata da mille interferenze di questi tempi, tramite uno strumento tecnico, ma la gente non ama alzare il deretano dalla sedia e rimboccarsi le maniche per diventare libera (e lo scriveva Tocqueville già parecchi decenni fa); preferisce godere del poco che ha; non ha la "fame" di chi non ha nulla, e lotta. 33. >>Spero vivamente di essere stato finalmente più chiaro (omissis) Non ti incazzare: ...sei stato solo verboso; se ti fossi messo in concreto di fronte a uno specchio :-) avresti visto che sai girare bene i discorsi (anche troppo), ma ti lasci ingannare dalle parole. Abbracci, A ----- Original Message ----- From: Giacomo Tesio To: nexa@server-nexa.polito.it Sent: Wednesday, January 08, 2025 12:26 PM Subject: Re: [nexa] In a mirror Mi spiace Alfredo per averti dato l'impressione di volerla buttare in caciara, ti assicuro che credevo le mie parole fossero chiare e persino autoevidenti, ovvie... tanto da temere di annoiare la lista. Riproviamo. A quanto ho capito del tuo ragionamento, tu fai due affermazioni distinte, che ritieni entrambe vere: 1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa. 2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa. Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla realtà. Permettimi di (ri)spiegarti il perché. # La tecnologia nel suo complesso non è MAI neutrale La prima affermazione è facile da falsificare per costruzione: è sufficiente elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla mina antiuomo alla bomba atomica. Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e tanto più quelle più complesse) sono politicamente orientate. Internet è sin dalla sua ideazione un'arma, progettata per garantire l'esecuzione di un controattacco nucleare durante la guerra fredda. Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1]. Anche un coltello può essere progettato per essere usato esclusivamente a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù. Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama. Per contro, un coltello militare può essere progettato per lacerare i tessuti, producendo codette interne per un più rapido dissanguamento del nemico. Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello veramente neutrale [2], ogni coltello _reale_ facilita o impedisce determinati usi, avendo effetti politici concreti. # I LLM NON sono neutrali. Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente utili per le tecniche di programmazione statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e fondativamente politicamente orientate. Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno come obiettivo minimo superare il test di Turing. Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare uno o più esseri umani sulla natura della sorgente dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_ ad un essere umano. I creatori di un LLM conversazionale vincono questo "imitation game" se persone ignare attribuiscono intelligenza al loro software, e questi software sono progettati e continuamente ottimizzati esattamente per questo obiettivo. Obiettivo che è estremamente specifico: ingannare esseri umani affinché confondano la macchina con un altro essere umano. Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in particolare) possono essere usate SOLO per ingannare esseri umani. Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a costo di miliardi di dollari ed enormi quantità di energia. Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico esempio di pessimo uso di un LLM che può apparire ragionevole all'utente ignorante ormai succube della propaganda), il "riassuntino" che un LLM ha fatto del discorso della Professoressa Vallor. [3] Omette completamente aspetti fondamentali della metafora che propone su cui la Professoressa si era giustamente soffermata a lungo, riducendola ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano e distorcono i dati umani da cui derivano. La Professoressa ha detto altro! Ha usato una metafora abbastanza attinente da un punto di vista tecnico per spiegare _come_ e _perché_ i software programmati statisticamente elaborano i dati in input e quelli sorgente compressi al proprio interno. E questa è solo una delle omissioni e banalizzazioni che l'output del LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle "AI generative" dalle tecnologie che potrebbero essere impiegate in modo socialmente utile. Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista. Se fossimo su twitter, la chiameresti misinformazione. Se Guido fosse russo, la chiameresti disinformazione. :-D Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si inserisce il libro / intervento della Professoressa Vallor [4]. Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che arriva a difendere i propri carnefici [5]) o, al massimo, al software che ha "sfortunatamente" prodotto l'output "errato". Dovremmo invece ricondurla a coloro che hanno programmato quel software per ingannare Guido sulla sua abilità di comprendere un testo e produrne una "sintesi". Sia che ciò avvenga per ragioni economiche o politiche. (che poi... anche l'economia è politica...) Più in generale, una tecnologia progettata e realizzate per ingannare le persone può essere utilizzata _solo_ per ingannare persone. E' letteralmente un'arma. Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata da terzi contro sé stessi, la puntino quotidianamente alla propria testa, dovrebbe rendere evidente la sua potenza e pericolosità. Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un LLM è sbagliato anche per il semplice fatto che costo e complessità realizzativa determinano una barriera all'ingresso tale da determinare intrinsecamente un orientamento politico: solo un élite molto ricca può permettersi di provare a costruirli, e lo farà solo se vi intravede un'utilità per sé nettamente superiore ai rischi. Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false. Sono d'accordo che gli intenti "predatori" di molti esseri umani sono socialmente dannosi e vadano contenuti. E sono anche d'accordo che tali intenti siano alla base di molti dei problemi di cui discutiamo speso in questa lista. Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi e costituenti degli LLM, così come di molte altre armi. La tecnologia, spero di averti mostrato, è _sempre_ una espressione umana politicamente orientata, intrinsecamente, ancora prima che venga effettivamente utilizzata. Gli LLM conversazionali esistono per ingannare le menti, esattamente come le mine antiuomo esistono per uccidere e mutilare i corpi. Non possono essere usate per niente altro. E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte persone (anche colte e intelligenti) finiscono per credersi e dichiararsi poco diverse da questi software. Allo stesso modo possiamo creare software emancipatori e socialmente utili. Io ci provo da tempo [6] sebbene sia una lotta impari. Spero vivamente di essere stato finalmente più chiaro (di certo Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori dubbi, forse potremmo continuare in privato per non tediare la lista. Giacomo [1] https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html i sono stati (e vi sono) diversi tentativi di rimuoverne (o mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli. Si potrebbe dire che, di fatto, è come se stessimo conversando amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di non guardarle, di ignorare chi le indica e persino di arrestare chi prova a rimuoverle. [2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI! Coltelli da cucina automaticamente impegnati a mantenere l'equilibrio fra bene e male! Quanti miliardari in meno! :-D https://assortedmeeples.com/true-neutral-dnd-alignment-guide [3] Per chi volesse rileggerlo: https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html [4] come, in fondo, ha delicatamente provato a fargli notare Alberto https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html [5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto del transcript della Prof. Vallor qualche anno fa ce lo sognavamo, credimi." https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di andare a dormire, che nemmeno l'impepata di cozze..." :-D [6] https://jehanne.h--k.it/ https://monitora-pa.it/ https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip https://monitora-pa.it/LICENSE.txt