Caro Guido,
grazie della precisazione.
Certamente! Mi riferisco esclusivamente a questo tipo di _emulazione_
del linguaggio, non a future (immagino molto future) macchine che
"sanno" quello che dicono.
La facoltà del linguaggio è, stando alle conoscenze attuali [1],
profondamente radicata nel corpo: aree motorie e dell'elaborazione del
linguaggio si attivano e influenzano reciprocamente; per cui dire che il
linguaggio non è alla portata di macchine senza corpo non mi pare una
forzatura assiomatica.
Se delle macchine potessero formulare frasi avendo esperienza sensoria
del mondo, farebbero una cosa molto diversa da quelle di cui stiamo
parlando: non è da escludere che accada, visto che un ramo di
applicazione dei LLM è quello della robotica, in cui alla combinatoria
linguistica si associa presenza attiva nello spazio, riconoscimento
degli oggetti, ecc.. Penso che un robot di questo tipo a cui si chieda:
"c'è un libro sullo scaffale, prendilo" si muoverà diversamente che se
si chiede "colora i fegatini sul parafango del cellulare". Secondo un
punto di vista verificazionista, la robot potrà _verificare_ il primo
enunciato ma non il secondo ("The sense of a proposition is the method
of its verification" per restare con Wittgenstein); gli attuali
emulatori non si curano di verificare nemmeno ciò che non richiede un
corpo, pur potendolo fare: se esista una data pubblicazione o una certa
persona sia in vita o no.
Diversamente da una autentica 'capacità linguistica' in cui il segno
appoggia nel mondo da una parte e nella mente dall'altra,
nell'emulazione di un simulacro la successione di parole nasce -come
dici- da una pura combinatoria. Una combinatoria demente e scorporata
(senza mente e senza corpo).
Se domani avessimo macchine con competenza linguistica, ma embodied,
capaci di queste operazioni di verifica e di capacità di previsione,
ecc, non avrei difficoltà a considerarle in qualche povera maniera
intelligenti.
Questo in attesa che vengano macchine capaci di intelligenza benevola e
razionale, e possano rimediare alla nostra umana nequizia... "All
watched over by machines of loving grace".
Buona domenica!
Alberto
[1] Horchak, O. V., Giger, J.-C., Cabral, M., & Pochwatko, G. (2014).
/From demonstration to theory in embodied language comprehension: A
review. Cognitive Systems Research, 29-30, 66–85./
doi:10.1016/j.cogsys.2013.09.00210.1016/j.cogsys.2013.09.002
On 18/03/23 08:10, Guido Vetere wrote:
> Il segno non esiste come informazione astratta, ma fa parte di un
/processo interpretativo/ che è prettamente _umano_.
La caratterizzazione di questo "processo interpretativo" è il grande
mistero filosofico che prende il nome di "teoria del significato".
Dire che questo processo possa avvenire solo all'interno di organismi
umani consociati, in una teoria del significato, si può dire solo in
modo assiomatico. Un teorema che giunga a questa conclusione, in una
teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia.
Peirce (che peraltro parla di linguaggio in modo molto marginale) non
avrebbe avuto difficoltà - credo - a dire che le sue ipotesi
interpretative (abduzioni) potessero avvenire negli ingranaggi di un
automa.
C'è poi pure Wittgenstein che ha detto che comprendere una frase è
come comprendere una melodia, cioè restando sul piano
dell'espressione. Certo, non avrebbe - credo - mai sottoscritto la
dissoluzione della semantica in pura combinatoria che avviene nei
modelli neurali, però insomma questo è per dire che le vie del segno
sono molte e molto tortuose, e la questione della capacità linguistica
delle macchine di oggi non si può liquidare con una petizione di
principio.
Buona domenica,
Guido
On Fri, 17 Mar 2023 at 13:19, Alberto Cammozzo via nexa
<nexa@server-nexa.polito.it> wrote:
Caro Enrico,
anche io condivido la formulazione molto concisa ed efficace, in
particolare il fatto che proiettiamo noi ciò (il significato) che
la macchina non possiede.
Aggiungo una precisazione sul piano semiotico e sulle conseguenze
politiche di questo nefasto inganno.
Accettata la competenza sintattica e certamente quella lessicale,
possiamo anche ammettere che la competenza emulativa della
macchina possa sconfinare nella semantica, cioè che la macchina
scelga termini all'interno di un campo semantico in modo
appropriato; ma quello che rende la macchina completamente diversa
dall'umano non è a mio avviso quel gradino della scala semiotica,
ma quello successivo, la pragmatica. E questo ha delle conseguenze.
Il segno non esiste come informazione astratta, ma fa parte di un
/processo interpretativo/ che è prettamente _umano_. Stiamo
parlando di cose che gli uomini _fanno_ nella loro vita sociale
nel mondo.
La semiotica di Saussure distingue tra significato e significante,
ma quella di Peirce aggiunge il referente, cioè ciò a cui nel
mondo il segno si riferisce. Se Saussure dice 'gatto' parla del
_segno_ /gatto/ e dell'immagine mentale del felino, cioè la
rappresentazione psichica della cosa. Per Peirce il referente è
l'esistenza dell'animale che chiamiamo /gatto/ nel mondo del quale
abbiamo fatto tutti esperienza. Nel caso dell'unicorno, esso vive
in un mondo immaginale, ma altrettanto condiviso nella pratica
letteraria; mondo nel quale, ad esempio, nessun unicorno don due
corni è ammesso. L'associazione del suono e della rappresentazione
è in ogni caso il frutto di un "tirocinio collettivo".
La macchina che emula la lingua calcola in modo verosimile la
distribuzione di probabilità dei significanti all'interno degli
scritti che produce, ed in questo modo induce l'umano a cogliere
un significato semanticamente appropriato perché lessicalmente
corretto. Ma il punto è che se anche la macchina può imbroccare
alcuni significati (pur senza possederne una immagine mentale),
non è in grado di considerare in nessun modo il mondo dei
referenti, che invece è proprio quello a partire dal quale l'umano
_conosce_ il mondo, cioè lo sperimenta.
La macchina non conosce, non apprende, non sa nulla di nulla se
non la distribuzione probabilistica dei significanti, perché (1)
non vive nel mondo a cui questi si riferiscono, (2) non possiede
una mente che ospiti concetti. Non abita né il mondo dei
referenti, quello in cui i gatti graffiano, né quello dei
significati, in cui 'gatto' è un concetto con una sua infinita
ricchezza polisemica, ma solo quello dei significanti e delle loro
probabilità.
Ma allora cosa fanno queste macchine linguistiche? Usando un
_simulacro_ della lingua, operano "una sostituzione di ogni
processo reale col suo doppio operativo, che però offre tutti i
segni del reale" (Baudrillard). Sono un simulacro, un doppio
mimetico completamente disfunzionale che però è a disposizione di
chi lo controlla e dei suoi interessi.
Dobbiamo ricordare che la lingua è plastica, viene cioè formata
dai parlanti (o scriventi): l'atto della /parole/ degli individui
parlanti fa evolvere o stabilizza la convenzione della lingua. La
lingua adottata dal corpo sociale è plasmata dalle scelte
linguistiche di chi la usa. Scelte spesso controverse, come
sappiamo da polemiche recenti e remote (dall'uso del 'lei'/'voi'
al genere).
Ma non solo, la lingua è ciò con cui formiamo e scambiamo i
concetti coi quali rappresentiamo il mondo. E' lo strumento col
quale pensiamo e descriviamo il mondo, e siamo /obbligati/ a
pensarlo e descriverlo con la lingua che abbiamo a disposizione,
se vogliamo pensare ed essere capiti.
Per cui, cosa succede ammettendo questi simulacri, che possono
essere pilotati, nel processo di produzione della lingua?
Banalmente, alcuni termini o usi linguistici possono essere
censurati, banditi, o al contrario promossi, come avviene coi
motori di ricerca, in cambio di denaro, a chi lo chiede.
Plasmare la lingua è sempre stato un potere usato dagli Stati, ora
è un processo industriale privatizzato alla portata del miglior
offerente.
Ciao,
Alberto
On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di
realizzazione pratica dell'esperimento mentale della Stanza
Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli
esseri umani sul livello sintattico ma è lontana anni luce dalla
nostra competenza semantica. Essa non ha alcuna reale
comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul
piano sociale) poiché ciò che fa lo esprime in una forma che per
noi ha significato, proiettiamo su di essa il significato che è
in noi.
Ciao, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
======================================================
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: narde...@mat.uniroma2.it
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa