Ciao, Giacomo.


Riproviamo:



1.

>>La tecnologia è neutrale, tutto dipende dall'uso che se ne fa.

 

La tecnologia non è "una":

- La tecnologia neutrale è neutrale, ecc., quindi sì;

- La tecnologia "di guerra", ...ha già l'uso definito fin dal'inizio (e non c'è 
inganno).

 

2.

>>Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa.

 

Non ritengo che siano "di guerra" (o, almeno, non concepiti come tali; 
correggimi se sbaglio), quindi sì.

[Dal seguito, vedo che li consideri veramente pericolosi, ma ritengo che sia 
una percezione ...gonfiata.]

 

3.

>>La tecnologia nel suo complesso non è MAI neutrale

 

NON puoi dire che NON sia neutrale la tecnologia del bastone per il vecchietto, 
che può essere usato anche per malmenare il medesimo...

Se fai l'esempio della mina antiuomo e della bomba atomica, parti da premessa 
di parte, e quindi sbagliata (si chiama ragionamento "circolare"; lo fanno ad 
es. i credenti).



4.

>>La prima affermazione è facile da falsificare per costruzione: è sufficiente 
>>elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla 
>>mina antiuomo alla bomba atomica.

 

La tecnologia "di guerra" sappiamo che esiste; ma non puoi estendere 
l'affermazione a tutta la tecnologia.

La locuzione "tecnologia nel suo complesso" è volutamente ingannevole (a 
cominciare da te stesso...), perché ti permette di fare l'esempio che conviene 
a te, deviando / deragliando dal discorso che si faceva.

 

5.

>>Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", 
>>dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e 
>>tanto più quelle più complesse) sono politicamente orientate.

 

Posso essere d'accordo che le tecnologie più complesse non nascano nel giardino 
di casa (anche se ci sono esempi di garage...), ovvero che ci siano di 
frequente grossi interessi in ballo fin dall'inizio, ma -- di nuovo -- c'è 
l'interesse del venditore e quello del predatore, e non sono la medesima cosa.

E tutto il mio discorso verteva sul fatto che il progresso tecnologico 
(sottinteso "positivo") può essere girato a vantaggio (predatorio) di qualcuno, 
e anzi che la cosa avviene praticamente sempre, anche quando la tecnologia 
nasce neutrale (cfr. l'esempio del bastone del vecchietto).

 

6.

>> Io affermo soltanto:

Internet è sin dalla sua ideazione un'arma, progettata per garantire 
l'esecuzione di un contrattacco nucleare durante la guerra fredda.

Si è poi evoluta in un diverso tipo di arma, molto più offensiva.

 

Internet è nata (in ambito militare perché lì ci sono i soldi) per costruire 
una rete "resiliente" (che serve anche per i disastri naturali, oltre che per 
aspetti militari). E il web è nato con fini non militari (ed è il web che viene 
usato "male"; la rete di base è veramente neutra, ...salvo quando il venditore 
se ne approfitta).

 

7.

>> Anche un coltello può essere progettato per essere usato esclusivamente a 
>> tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù.

Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima 
pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per 
accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama.

 

Se fai così, a parte il costo, poi non lo puoi usare per svitare una vite... Il 
coltello è uno strumento multiuso.



8.

>>Per contro, un coltello militare può essere progettato per lacerare i 
>>tessuti, producendo codette interne per un più rapido dissanguamento del 
>>nemico.

 

Qui niente da dire. MA SI VEDE: non c'è l'inganno predatorio di farti vedere il 
coltello da pasto, e poi tagliarti la gola.

Sai perché i mancini erano così odiati, in passato? Perché ti salutavano con la 
destra, a mostrare che erano disarmati, e ti infilavano un pugnale in pancia 
usando la sinistra.

Il punto non era portare il pugnale, era l'inganno di tenerlo con l'altra mano 
rispetto a quella che porgeva il saluto.

 

9.

>>Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello 
>>veramente neutrale, ogni coltello reale facilita o impedisce determinati usi, 
>>avendo effetti politici concreti.

 

Un coltello reale "permette" altri usi (e la cosa è positiva); e la malvagità 
non sta mai nel coltello, quando l'uso è malvagio.

 

10.

>>I LLM NON sono neutrali.

Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene 
esistano molti usi potenzialmente utili per le tecniche di programmazione 
statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di 
cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e 
fondativamente politicamente orientate.

Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno 
come obiettivo minimo superare il test di Turing.

 

Superare il test di Turing è un legittimo obiettivo scientifico. Però inganni 
più il sempliciotto che non altri (e, se al posto del termine "ingannare", usi 
"sembrare a", sappi che c'è un intero libro che spiega in dettaglio come 
costruire una macchina che "appaia" come cosciente, ...come se apparirlo fosse 
un valido risultato, il che ritengo non sia).

 

11.

>>Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare 
>>uno o più esseri umani sulla natura della sorgente dei dati sottoposti, 
>>spingendo le vittime ad attribuirli erroneamente ad un essere umano.

 

V. sopra.

 

12.

>>I creatori di un LLM conversazionale vincono questo "imitation game" se 
>>persone ignare attribuiscono intelligenza al loro software, e questi software 
>>sono progettati e continuamente ottimizzati esattamente per questo obiettivo.

 

I creatori di un LLM adottano per "l'intelligenza" una "scorciatoia 
statistica", ingannando per primi se stessi (parlo di scienza / tecnologia); 
POI, qualcuno trova interessante ingannare NON in termini scientifici, ma di 
altro genere. E si torna al punto di partenza.

 

La scienza -- come conoscenza -- è sempre buona in sé (sapere di più è meglio 
di sapere di meno); peccato che sapere di più da parte di certa gente possa 
diventare un serio pericolo per altri.

Si tratta di una problematica di fondo molto seria, ...ma non diamone la colpa 
al coltello. Se anche fosse un problema generale, ovvero se tutta la scienza / 
tecnologia nascondesse un pericolo (che di fatto nasconde, in presenza di 
predatori), di certo non potremmo spegnere i cervelli di quei pochi che ancora 
lo usano...

 

13.

>>Obiettivo che è estremamente specifico: ingannare esseri umani affinché 
>>confondano la macchina con un altro essere umano.

 

Tu ci vedi una malignità che io non ci vedo. DI CERTO, mi serve che forniscano 
un prodotto simile a quello di un umano (e per i sempliciotti è così), perché 
altrimenti funzionerebbe come le vecchie traduzioni automatiche, che dovevi 
rieditare perché grossolane.

 

14.

>>Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in 
>>particolare) possono essere usate SOLO per ingannare esseri umani.



Se scrivi "sembrare a" gli togli quell'aura di malignità che fa solo gioco al 
tuo discorso, senza essere vera in origine.

 

15.

>>Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a 
>>costo di miliardi di dollari ed enormi quantità di energia.

 

C'è un grosso valore economico nell'ottenere risultati automatici (pensa a uno 
spreadsheet); in questo caso "l'inganno originario" sta nella natura del 
prodotto, ma se l'inganno sia benigno o maligno non viene da come è fatto il 
prodotto, ma per che cosa e come lo usi.

 

16.

>>Prendiamo, di nuovo (...) il "riassuntino" che un LLM ha fatto del discorso 
>>della Professoressa Vallor.

Omette completamente aspetti fondamentali della metafora che propone su cui la 
Professoressa si era giustamente soffermata a lungo (omissis).

Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi 
dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una 
mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a 
sua volta sulla lista.

 

Qui c'è da dire innanzitutto che l'inganno NON era affatto voluto. Ovvero che 
non stiamo parlando del problema "politico". Qui stiamo parlando ancora della 
"tecnica imperfetta" che non ha ingannato chi conosce il problema, e ha 
ingannato qualcun altro. ACCADE sempre, nel mondo del commercio. E qui, non è 
neanche un inganno per far male o danni, ma semplicemente un'imperfezione 
tecnica che qualcuno nota e qualcuno no.

Ovvero,stai tirando il ragionamento per la giacchetta dove non c'entra 
("inconferente", direbbero i legulei).

Devi stare attento, con il linguaggio... (pensa che una tonnellata di filosofi 
ebeti hanno discusso per millenni di nulla / non-essere, dimenticando che la 
negazione appartiene solo ai linguaggi, e non all'ontologia -- "non gatto" ha 
senso insiemistica e tassonomia biologica, non nella realtà -- quando l'ambito 
del discorso era proprio ...l'ontologia). C'è ingannare e ingannare; da 
"sembrare a" a "fottere". E NON sono la stessa cosa...

 

17.

>>Se fossimo su twitter, la chiameresti misinformazione.

Se Guido fosse russo, la chiameresti disinformazione.

Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad 
ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si 
inserisce il libro / intervento della Professoressa Vallor.



A me sembra solo overlooking (e magari aveva ragione Guido -- de minimis non 
curat praetor -- se "l'inganno" era della Vallor che dimenticava il tema 
socio-predatorio per fare un bel discorsino tecnico; qui sono io che la butto 
in caciara, perché non ho guardato il video).

Ci sono discorsi importantissimi in letteratura, o in seghine mentali 
scientifiche, che poi all'atto pratico contano ben poco.

 

18.

>>Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che 
>>arriva a difendere i propri carnefici) o, al massimo, al software che ha 
>>"sfortunatamente" prodotto l'output "errato".

Dovremmo invece ricondurla a coloro che hanno programmato quel software per 
ingannare Guido sulla sua abilità di comprendere un testo e produrne una 
"sintesi".

 

V. sopra. Stai facendo di un termitaio una piramide egizia.

 

19.

>>Sia che ciò avvenga per ragioni economiche o politiche (che poi... anche 
>>l'economia è politica...).

 

Economia e politica, nel discorso che facevo io (predazione / sfruttamento / 
manipolazione) sono la stessa faccia della stessa medaglia (l'altra faccia 
essendo la scienza / tecnologia).

La distinzione fondamentale fra "strumento" e "uso" (che solo in casi specifici 
-- bomba atomica -- coincidono; poi, anche per la bomba c'è stato l'utilizzo 
"deterrente" per evitare di usarla, che è un po' l'esempio duale di quanto 
sostengo).

 

20.

>>Più in generale, una tecnologia progettata e realizzate per ingannare le 
>>persone può essere utilizzata solo per ingannare persone.

 

V. il discorso sulla parola "ingannare". Non fare sillogismi sul "non-essere", 
senza pensare alle alternative semantiche in campo (alcune e diverse per 
"ingannare", solo semantica nulla per il il non-essere).

 

21.

>>E' letteralmente un'arma.

 

Fai gli stessi sillogismi di certa gente sui social: o sbagliano le premesse, o 
sbagliano le inferenze, o trascurano le semantiche. Tutto hai fatto (in modo 
veniale); tutti e tre gli errori; ma c'è gente (cfr. i filosofi ebeti di cui 
sopra) che gli errori li fa ...monumentali.

Qualche volta c'è solo un "errore" (V. Guido), non un "inganno". E magari è 
stato meglio il suo errore che non l'inzuccarsi tanto sul discorso della Vallor.

 

22.

>>Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata 
>>da terzi contro sé stessi, la puntino quotidianamente alla propria testa, 
>>dovrebbe rendere evidente la sua potenza e pericolosità.

 

Out of the blue ...cosa?

Che ci sono imbecilli che credono alla generatività statistica?

C'è gente che ha creduto alle .com, ai subprime, prima ancora ai tulipani, 
ancor oggi ai bitcoin.

Gente che ha votato Trump o Meloni (per altri, gente che ha votato Conte e Di 
Maio). Ha sempre e soltanto ragione Cipolla: è lo stupido il principale 
problema...

 

23.

>>Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un 
>>LLM è sbagliato anche per il semplice fatto che costo e complessità 
>>realizzativa determinano una barriera all'ingresso tale da determinare 
>>intrinsecamente un orientamento politico: solo un élite molto ricca può 
>>permettersi di provare a costruirli, e lo farà solo se vi intravede 
>>un'utilità per sé nettamente superiore ai rischi.

 

Qui entriamo nel discorso -- socio-economico-politico prima ancora di 
cominciare -- della ricchezza usata per incrementare ricchezza. Io, nel merito, 
distingui i ricchi onesti dai ricchi ladri. E mi preoccupo più della 
distinzione fra onesto e ladro, che non di quella fra ricco e povero.

L'occasione (ricchezza) fa l'uomo ladro, ma non si tratta di un'identità 
(ovvero, finiscila con i proclami vetero-socialisti).

 

24.

>>Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false.

 

E, per le mie risposte, ritengo che tu abbia distorto in vari modi i termini 
del tema "inganno" (che ha semantica, e anche origine, varia), quando poi in 
realtà il discorso verteva su predazione / sfruttamento / manipolazione, dove 
alla fin fine al predatore va bene qualunque strumento, per perseguire i suoi 
scopi (zucchine, denaro, coltelli, bombe, ...).

 

25.

>>Sono d'accordo che gli intenti "predatori" di molti esseri umani sono 
>>socialmente dannosi e vadano contenuti.

 

Ma va...?

 

26.

>>E sono anche d'accordo che tali intenti siano alla base di molti dei problemi 
>>di cui discutiamo speso in questa lista.

 

Nulla da eccepire.

 

27.

>>Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi 
>>e costituenti degli LLM, così come di molte altre armi.

 

E qui si torna a sopra.



28.

>>La tecnologia, spero di averti mostrato, è sempre una espressione umana 
>>politicamente orientata, intrinsecamente, ancora prima che venga 
>>effettivamente utilizzata.

 

Prova a spiegarlo a chi (Edward Jenner) ha inventato il vaccino, ...quanto deve 
essersi rivoltato nella tomba, con il Covid!!

 

29.

>>Gli LLM conversazionali esistono per ingannare le menti, esattamente come le 
>>mine antiuomo esistono per uccidere e mutilare i corpi.

 

V. sopra, again.



30.

>>Non possono essere usate per niente altro.

 

Io ho trovato utilissimo chatGPT per contestare un'affermazione demente, tanto 
quanto l'ho trovato ondivago su altri temi, scolastico in altri, ...creativo 
mai.

E' uno strumento, e lo usi come più conviene (io mi sono rifiutato di 
progettare mine antiuomo, dove l'obiettivo era chiaro e senza alternative); se 
poi sei uno stronzo (tu generico, ovviamente), ecco che le cose girano al male.

 

31.

>>E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte 
>>persone (anche colte e intelligenti) finiscono per credersi e dichiararsi 
>>poco diverse da questi software.

 

Non solo la madre dei fessi è sempre incinta, ma anche quella dei superficiali, 
dei troppo semplici (anche se di essi è il regno dei cieli), dei disattenti (io 
ho il problema opposto: troppa gente parla come se fosse un ripetitore 
statistico...).

 

32.

>>Allo stesso modo possiamo creare software emancipatori e socialmente utili. 
>>Io ci provo da tempo sebbene sia una lotta impari.

 

Il problema è sempre il vecchio "panem et circenses" (oppure la miopia 
manageriale): io ho provato a liberare la democrazia soffocata da mille 
interferenze di questi tempi, tramite uno strumento tecnico, ma la gente non 
ama alzare il deretano dalla sedia e rimboccarsi le maniche per diventare 
libera (e lo scriveva Tocqueville già parecchi decenni fa); preferisce godere 
del poco che ha; non ha la "fame" di chi non ha nulla, e lotta.

 

33.

>>Spero vivamente di essere stato finalmente più chiaro (omissis)

 

Non ti incazzare: ...sei stato solo verboso; se ti fossi messo in concreto di 
fronte a uno specchio :-) avresti visto che sai girare bene i discorsi (anche 
troppo), ma ti lasci ingannare dalle parole.

 

Abbracci,

A

 

 

  ----- Original Message ----- 
  From: Giacomo Tesio 
  To: nexa@server-nexa.polito.it 
  Sent: Wednesday, January 08, 2025 12:26 PM
  Subject: Re: [nexa] In a mirror


  Mi spiace Alfredo per averti dato l'impressione di volerla buttare in
  caciara, ti assicuro che credevo le mie parole fossero chiare e persino
  autoevidenti, ovvie... tanto da temere di annoiare la lista.

  Riproviamo.


  A quanto ho capito del tuo ragionamento, tu fai due affermazioni
  distinte, che ritieni entrambe vere:

  1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa.
  2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa.

  Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla
  realtà. Permettimi di (ri)spiegarti il perché.


  # La tecnologia nel suo complesso non è MAI neutrale

  La prima affermazione è facile da falsificare per costruzione: è
  sufficiente elencare le diverse tecnologie progettate esplicitamente
  per nuocere, dalla mina antiuomo alla bomba atomica.


  Se riduciamo l'affermazione a "esistono anche tecnologie neutrali",
  dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate
  (e tanto più quelle più complesse) sono politicamente orientate.


  Internet è sin dalla sua ideazione un'arma, progettata per garantire
  l'esecuzione di un controattacco nucleare durante la guerra fredda.
  Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1].


  Anche un coltello può essere progettato per essere usato esclusivamente
  a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù.
  Può ad esempio essere progettato per spezzarsi se sottoposto ad una
  minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile
  per accoltellare chicchessia pur essendo ottimo per tagliare la carne
  lungo la lama.

  Per contro, un coltello militare può essere progettato per lacerare i
  tessuti, producendo codette interne per un più rapido dissanguamento 
  del nemico.

  Dunque, anche se possiamo usare la nostra fantasia per immaginare un
  coltello veramente neutrale [2], ogni coltello _reale_ facilita o
  impedisce determinati usi, avendo effetti politici concreti.


  # I LLM NON sono neutrali.

  Per tornare alla questione sollevata dalla Professoressa Vallor, 
  sebbene esistano molti usi potenzialmente utili per le tecniche di
  programmazione statistica adottate anche per realizzare le "AI
  generative" (di cui gli LLM di cui parliamo sono un esempio),
  queste tecnologie sono intrinsecamente e fondativamente 
  politicamente orientate.

  Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti
  hanno come obiettivo minimo superare il test di Turing.

  Il test di Turing consiste, temo urga ricordarlo anche qui,
  nell'ingannare uno o più esseri umani sulla natura della sorgente
  dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_
  ad un essere umano.

  I creatori di un LLM conversazionale vincono questo "imitation game" se
  persone ignare attribuiscono intelligenza al loro software, e questi
  software sono progettati e continuamente ottimizzati esattamente per
  questo obiettivo.


  Obiettivo che è estremamente specifico: ingannare esseri umani affinché
  confondano la macchina con un altro essere umano.


  Per questa semplice ragione, le "AI generative" (e gli LLM di cui
  parliamo in particolare) possono essere usate SOLO per ingannare 
  esseri umani.

  Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate
  a costo di miliardi di dollari ed enormi quantità di energia.



  Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico
  esempio di pessimo uso di un LLM che può apparire ragionevole all'utente
  ignorante ormai succube della propaganda), il "riassuntino" che un LLM
  ha fatto del discorso della Professoressa Vallor. [3]

  Omette completamente aspetti fondamentali della metafora che propone su
  cui la Professoressa si era giustamente soffermata a lungo, riducendola
  ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano
  e distorcono i dati umani da cui derivano.

  La Professoressa ha detto altro!

  Ha usato una metafora abbastanza attinente da un punto di vista tecnico
  per spiegare _come_ e _perché_ i software programmati statisticamente
  elaborano i dati in input e quelli sorgente compressi al proprio
  interno.

  E questa è solo una delle omissioni e banalizzazioni che l'output del
  LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle
  "AI generative" dalle tecnologie che potrebbero essere impiegate
  in modo socialmente utile.


  Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi
  dell'intervento". Ingannato sulla natura di quell'output, non prodotto
  da una mente intelligente che abbia compreso l'intervento, ha
  perpetuato l'inganno a sua volta sulla lista.

  Se fossimo su twitter, la chiameresti misinformazione.
  Se Guido fosse russo, la chiameresti disinformazione. :-D

  Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad
  ingannare sé stesso sul tempo necessario a partecipare al dibattito in
  cui si inserisce il libro / intervento della Professoressa Vallor [4].

  Ma tutti ricondurrebbero la responsabilità a Guido (vittima
  inconsapevole che arriva a difendere i propri carnefici [5]) o, al
  massimo, al software che ha "sfortunatamente" prodotto l'output
  "errato".
  Dovremmo invece ricondurla a coloro che hanno programmato quel software
  per ingannare Guido sulla sua abilità di comprendere un testo e
  produrne una "sintesi".

  Sia che ciò avvenga per ragioni economiche o politiche.
  (che poi... anche l'economia è politica...)



  Più in generale, una tecnologia progettata e realizzate per ingannare
  le persone può essere utilizzata _solo_ per ingannare persone.

  E' letteralmente un'arma.


  Il fatto che persone lontanissime dall'idea di rivolgere un'arma
  controllata da terzi contro sé stessi, la puntino quotidianamente
  alla propria testa, dovrebbe rendere evidente la sua potenza e
  pericolosità.


  Inoltre, paragonare tecnologie semplici come un coltello o un
  martello ad un LLM è sbagliato anche per il semplice fatto che costo e
  complessità realizzativa determinano una barriera all'ingresso tale
  da determinare intrinsecamente un orientamento politico: solo un élite
  molto ricca può permettersi di provare a costruirli, e lo farà solo
  se vi intravede un'utilità per sé nettamente superiore ai rischi.



  Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false.


  Sono d'accordo che gli intenti "predatori" di molti esseri umani sono
  socialmente dannosi e vadano contenuti.

  E sono anche d'accordo che tali intenti siano alla base di molti
  dei problemi di cui discutiamo speso in questa lista.


  Tanto d'accordo che ho provato a spiegarti COME tali intenti siano
  fondativi e costituenti degli LLM, così come di molte altre armi.


  La tecnologia, spero di averti mostrato, è _sempre_ una espressione
  umana politicamente orientata, intrinsecamente, ancora prima
  che venga effettivamente utilizzata.


  Gli LLM conversazionali esistono per ingannare le menti, esattamente
  come le mine antiuomo esistono per uccidere e mutilare i corpi.

  Non possono essere usate per niente altro.


  E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che
  molte persone (anche colte e intelligenti) finiscono per credersi 
  e dichiararsi poco diverse da questi software.



  Allo stesso modo possiamo creare software emancipatori e socialmente
  utili. Io ci provo da tempo [6] sebbene sia una lotta impari.


  Spero vivamente di essere stato finalmente più chiaro (di certo
  Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori
  dubbi, forse potremmo continuare in privato per non tediare la lista.


  Giacomo

  [1]
  https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html
      i sono stati (e vi sono) diversi tentativi di rimuoverne (o
      mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli.

      Si potrebbe dire che, di fatto, è come se stessimo conversando
      amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di
      non guardarle, di ignorare chi le indica e persino di arrestare chi
      prova a rimuoverle.

  [2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI!
      Coltelli da cucina automaticamente impegnati a mantenere
      l'equilibrio fra bene e male! Quanti miliardari in meno! :-D
      https://assortedmeeples.com/true-neutral-dnd-alignment-guide

  [3] Per chi volesse rileggerlo:
      https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html

  [4] come, in fondo, ha delicatamente provato a fargli notare Alberto
      https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html

  [5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto
       del transcript della Prof. Vallor qualche anno fa ce lo sognavamo,
       credimi."
      https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html

      NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di
      andare a dormire, che nemmeno l'impepata di cozze..." :-D

  [6] https://jehanne.h--k.it/
      https://monitora-pa.it/
      https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip
      https://monitora-pa.it/LICENSE.txt

Reply via email to