Caro Enrico,
anche io condivido la formulazione molto concisa ed efficace, in
particolare il fatto che proiettiamo noi ciò (il significato) che la
macchina non possiede.
Aggiungo una precisazione sul piano semiotico e sulle conseguenze
politiche di questo nefasto inganno.
Accettata la competenza sintattica e certamente quella lessicale,
possiamo anche ammettere che la competenza emulativa della macchina
possa sconfinare nella semantica, cioè che la macchina scelga termini
all'interno di un campo semantico in modo appropriato; ma quello che
rende la macchina completamente diversa dall'umano non è a mio avviso
quel gradino della scala semiotica, ma quello successivo, la pragmatica.
E questo ha delle conseguenze.
Il segno non esiste come informazione astratta, ma fa parte di un
/processo interpretativo/ che è prettamente _umano_. Stiamo parlando di
cose che gli uomini _fanno_ nella loro vita sociale nel mondo.
La semiotica di Saussure distingue tra significato e significante, ma
quella di Peirce aggiunge il referente, cioè ciò a cui nel mondo il
segno si riferisce. Se Saussure dice 'gatto' parla del _segno_ /gatto/ e
dell'immagine mentale del felino, cioè la rappresentazione psichica
della cosa. Per Peirce il referente è l'esistenza dell'animale che
chiamiamo /gatto/ nel mondo del quale abbiamo fatto tutti esperienza.
Nel caso dell'unicorno, esso vive in un mondo immaginale, ma altrettanto
condiviso nella pratica letteraria; mondo nel quale, ad esempio, nessun
unicorno don due corni è ammesso. L'associazione del suono e della
rappresentazione è in ogni caso il frutto di un "tirocinio collettivo".
La macchina che emula la lingua calcola in modo verosimile la
distribuzione di probabilità dei significanti all'interno degli scritti
che produce, ed in questo modo induce l'umano a cogliere un significato
semanticamente appropriato perché lessicalmente corretto. Ma il punto è
che se anche la macchina può imbroccare alcuni significati (pur senza
possederne una immagine mentale), non è in grado di considerare in
nessun modo il mondo dei referenti, che invece è proprio quello a
partire dal quale l'umano _conosce_ il mondo, cioè lo sperimenta.
La macchina non conosce, non apprende, non sa nulla di nulla se non la
distribuzione probabilistica dei significanti, perché (1) non vive nel
mondo a cui questi si riferiscono, (2) non possiede una mente che ospiti
concetti. Non abita né il mondo dei referenti, quello in cui i gatti
graffiano, né quello dei significati, in cui 'gatto' è un concetto con
una sua infinita ricchezza polisemica, ma solo quello dei significanti e
delle loro probabilità.
Ma allora cosa fanno queste macchine linguistiche? Usando un _simulacro_
della lingua, operano "una sostituzione di ogni processo reale col suo
doppio operativo, che però offre tutti i segni del reale" (Baudrillard).
Sono un simulacro, un doppio mimetico completamente disfunzionale che
però è a disposizione di chi lo controlla e dei suoi interessi.
Dobbiamo ricordare che la lingua è plastica, viene cioè formata dai
parlanti (o scriventi): l'atto della /parole/ degli individui parlanti
fa evolvere o stabilizza la convenzione della lingua. La lingua adottata
dal corpo sociale è plasmata dalle scelte linguistiche di chi la usa.
Scelte spesso controverse, come sappiamo da polemiche recenti e remote
(dall'uso del 'lei'/'voi' al genere).
Ma non solo, la lingua è ciò con cui formiamo e scambiamo i concetti coi
quali rappresentiamo il mondo. E' lo strumento col quale pensiamo e
descriviamo il mondo, e siamo /obbligati/ a pensarlo e descriverlo con
la lingua che abbiamo a disposizione, se vogliamo pensare ed essere capiti.
Per cui, cosa succede ammettendo questi simulacri, che possono essere
pilotati, nel processo di produzione della lingua? Banalmente, alcuni
termini o usi linguistici possono essere censurati, banditi, o al
contrario promossi, come avviene coi motori di ricerca, in cambio di
denaro, a chi lo chiede.
Plasmare la lingua è sempre stato un potere usato dagli Stati, ora è un
processo industriale privatizzato alla portata del miglior offerente.
Ciao,
Alberto
On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di
realizzazione pratica dell'esperimento mentale della Stanza Cinese di
John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri
umani sul livello sintattico ma è lontana anni luce dalla nostra
competenza semantica. Essa non ha alcuna reale comprensione del
significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano
sociale) poiché ciò che fa lo esprime in una forma che per noi ha
significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
======================================================
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: narde...@mat.uniroma2.it
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa