Caro Enrico,

anche io condivido la formulazione molto concisa ed efficace, in particolare il fatto che proiettiamo noi ciò (il significato) che la macchina non possiede.

Aggiungo una precisazione sul piano semiotico e sulle conseguenze politiche di questo nefasto inganno.

Accettata la competenza sintattica e certamente quella lessicale, possiamo anche ammettere che la competenza emulativa della macchina possa sconfinare nella semantica, cioè che la macchina scelga termini all'interno di un campo semantico in modo appropriato; ma quello che rende la macchina completamente diversa dall'umano non è a mio avviso quel gradino della scala semiotica, ma quello successivo, la pragmatica. E questo ha delle conseguenze.

Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_. Stiamo parlando di cose che gli uomini _fanno_ nella loro vita sociale nel mondo.

La semiotica di Saussure distingue tra significato e significante, ma quella di Peirce aggiunge il referente, cioè ciò a cui nel mondo il segno si riferisce. Se Saussure dice 'gatto' parla del _segno_ /gatto/ e dell'immagine mentale del felino, cioè la rappresentazione psichica della cosa. Per Peirce il referente è l'esistenza dell'animale che chiamiamo /gatto/ nel mondo del quale abbiamo fatto tutti esperienza. Nel caso dell'unicorno, esso vive in un mondo immaginale, ma altrettanto condiviso nella pratica letteraria; mondo nel quale, ad esempio, nessun unicorno don due corni è ammesso. L'associazione del suono e della rappresentazione è in ogni caso il frutto di un "tirocinio collettivo".

La macchina che emula la lingua calcola in modo verosimile la distribuzione di probabilità dei significanti all'interno degli scritti che produce, ed in questo modo induce l'umano a cogliere un significato semanticamente appropriato perché lessicalmente corretto. Ma il punto è che se anche la macchina può imbroccare alcuni significati (pur senza possederne una immagine mentale), non è in grado di considerare in nessun modo il mondo dei referenti, che invece è proprio quello a partire dal quale l'umano _conosce_ il mondo, cioè lo sperimenta.

La macchina non conosce, non apprende, non sa nulla di nulla se non la distribuzione probabilistica dei significanti, perché (1) non vive nel mondo a cui questi si riferiscono, (2) non possiede una mente che ospiti concetti. Non abita né il mondo dei referenti, quello in cui i gatti graffiano, né quello dei significati, in cui 'gatto' è un concetto con una sua infinita ricchezza polisemica, ma solo quello dei significanti e delle loro probabilità.

Ma allora cosa fanno queste macchine linguistiche? Usando un _simulacro_ della lingua, operano "una sostituzione di ogni processo reale col suo doppio operativo, che però offre tutti i segni del reale" (Baudrillard). Sono un simulacro, un doppio mimetico completamente disfunzionale che però è a disposizione di chi lo controlla e dei suoi interessi.

Dobbiamo ricordare che la lingua è plastica, viene cioè formata dai parlanti (o scriventi): l'atto della /parole/ degli individui parlanti fa evolvere o stabilizza la convenzione della lingua. La lingua adottata dal corpo sociale è plasmata dalle scelte linguistiche di chi la usa. Scelte spesso controverse, come sappiamo da polemiche recenti e remote (dall'uso del 'lei'/'voi' al genere).

Ma non solo, la lingua è ciò con cui formiamo e scambiamo i concetti coi quali rappresentiamo il mondo. E' lo strumento col quale pensiamo e descriviamo il mondo, e siamo /obbligati/ a pensarlo e descriverlo con la lingua che abbiamo a disposizione, se vogliamo pensare ed essere capiti.

Per cui, cosa succede ammettendo questi simulacri, che possono essere pilotati, nel processo di produzione della lingua? Banalmente, alcuni termini o usi linguistici possono essere censurati, banditi, o al contrario promossi, come avviene coi motori di ricerca, in cambio di denaro, a chi lo chiede.

Plasmare la lingua è sempre stato un potere usato dagli Stati, ora è un processo industriale privatizzato alla portata del miglior offerente.

Ciao,

Alberto


On 17/03/23 10:26, Enrico Nardelli wrote:

Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese

Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.

Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.

Ciao, Enrico

--

-- EN

https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
        ======================================================
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: narde...@mat.uniroma2.it
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================


--

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to