Caro Guido,

grazie della precisazione.

Certamente! Mi riferisco esclusivamente a questo tipo di _emulazione_ del linguaggio, non a future (immagino molto future) macchine che "sanno" quello che dicono.

La facoltà del linguaggio è, stando alle conoscenze attuali [1], profondamente radicata nel corpo: aree motorie e dell'elaborazione del linguaggio si attivano e influenzano reciprocamente; per cui dire che il linguaggio non è alla portata di macchine senza corpo non mi pare una forzatura assiomatica.

Se delle macchine potessero formulare frasi avendo esperienza sensoria del mondo, farebbero una cosa molto diversa da quelle di cui stiamo parlando: non è da escludere che accada, visto che un ramo di applicazione dei LLM è quello della robotica, in cui alla combinatoria linguistica si associa presenza attiva nello spazio, riconoscimento degli oggetti, ecc.. Penso che un robot di questo tipo a cui si chieda: "c'è un libro sullo scaffale, prendilo" si muoverà diversamente che se si chiede "colora i fegatini sul parafango del cellulare". Secondo un punto di vista verificazionista, la robot potrà _verificare_ il primo enunciato ma non il secondo ("The sense of a proposition is the method of its verification" per restare con Wittgenstein); gli attuali emulatori non si curano di verificare nemmeno ciò che non richiede un corpo, pur potendolo fare: se esista una data pubblicazione o una certa persona sia in vita o no.

Diversamente da una autentica 'capacità linguistica' in cui il segno appoggia nel mondo da una parte e nella mente dall'altra, nell'emulazione di un simulacro la successione di parole nasce -come dici- da una pura combinatoria. Una combinatoria demente e scorporata (senza mente e senza corpo).

Se domani avessimo macchine con competenza linguistica, ma embodied, capaci di queste operazioni di verifica e di capacità di previsione, ecc, non avrei difficoltà a considerarle in qualche povera maniera intelligenti.

Questo in attesa che vengano macchine capaci di intelligenza benevola e razionale, e possano rimediare alla nostra umana nequizia... "All watched over by machines of loving grace".

Buona domenica!

Alberto

[1] Horchak, O. V., Giger, J.-C., Cabral, M., & Pochwatko, G. (2014). /From demonstration to theory in embodied language comprehension: A review. Cognitive Systems Research, 29-30, 66–85./ doi:10.1016/j.cogsys.2013.09.00210.1016/j.cogsys.2013.09.002



On 18/03/23 08:10, Guido Vetere wrote:
> Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_.

La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia. Peirce (che peraltro parla di linguaggio in modo molto marginale) non avrebbe avuto difficoltà - credo - a dire che le sue ipotesi interpretative (abduzioni) potessero avvenire negli ingranaggi di un automa. C'è poi pure Wittgenstein che ha detto che comprendere una frase è come comprendere una melodia, cioè restando sul piano dell'espressione. Certo, non avrebbe - credo - mai sottoscritto la dissoluzione della semantica in pura combinatoria che avviene nei modelli neurali, però insomma questo è per dire che le vie del segno sono molte e molto tortuose, e la questione della capacità linguistica delle macchine di oggi non si può liquidare con una petizione di principio.

Buona domenica,
Guido


On Fri, 17 Mar 2023 at 13:19, Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> wrote:

    Caro Enrico,

    anche io condivido la formulazione molto concisa ed efficace, in
    particolare il fatto che proiettiamo noi ciò (il significato) che
    la macchina non possiede.

    Aggiungo una precisazione sul piano semiotico e sulle conseguenze
    politiche di questo nefasto inganno.

    Accettata la competenza sintattica e certamente quella lessicale,
    possiamo anche ammettere che la competenza emulativa della
    macchina possa sconfinare nella semantica, cioè che la macchina
    scelga termini all'interno di un campo semantico in modo
    appropriato; ma quello che rende la macchina completamente diversa
    dall'umano non è a mio avviso quel gradino della scala semiotica,
    ma quello successivo, la pragmatica. E questo ha delle conseguenze.

    Il segno non esiste come informazione astratta, ma fa parte di un
    /processo interpretativo/ che è prettamente _umano_. Stiamo
    parlando di cose che gli uomini _fanno_ nella loro vita sociale
    nel mondo.

    La semiotica di Saussure distingue tra significato e significante,
    ma quella di Peirce aggiunge il referente, cioè ciò a cui nel
    mondo il segno si riferisce. Se Saussure dice 'gatto' parla del
    _segno_ /gatto/ e dell'immagine mentale del felino, cioè la
    rappresentazione psichica della cosa. Per Peirce il referente è
    l'esistenza dell'animale che chiamiamo /gatto/ nel mondo del quale
    abbiamo fatto tutti esperienza. Nel caso dell'unicorno, esso vive
    in un mondo immaginale, ma altrettanto condiviso nella pratica
    letteraria; mondo nel quale, ad esempio, nessun unicorno don due
    corni è ammesso. L'associazione del suono e della rappresentazione
    è in ogni caso il frutto di un "tirocinio collettivo".

    La macchina che emula la lingua calcola in modo verosimile la
    distribuzione di probabilità dei significanti all'interno degli
    scritti che produce, ed in questo modo induce l'umano a cogliere
    un significato semanticamente appropriato perché lessicalmente
    corretto. Ma il punto è che se anche la macchina può imbroccare
    alcuni significati (pur senza possederne una immagine mentale),
    non è in grado di considerare in nessun modo il mondo dei
    referenti, che invece è proprio quello a partire dal quale l'umano
    _conosce_ il mondo, cioè lo sperimenta.

    La macchina non conosce, non apprende, non sa nulla di nulla se
    non la distribuzione probabilistica dei significanti, perché (1)
    non vive nel mondo a cui questi si riferiscono, (2) non possiede
    una mente che ospiti concetti. Non abita né il mondo dei
    referenti, quello in cui i gatti graffiano, né quello dei
    significati, in cui 'gatto' è un concetto con una sua infinita
    ricchezza polisemica, ma solo quello dei significanti e delle loro
    probabilità.

    Ma allora cosa fanno queste macchine linguistiche? Usando un
    _simulacro_ della lingua, operano "una sostituzione di ogni
    processo reale col suo doppio operativo, che però offre tutti i
    segni del reale" (Baudrillard). Sono un simulacro, un doppio
    mimetico completamente disfunzionale che però è a disposizione di
    chi lo controlla e dei suoi interessi.

    Dobbiamo ricordare che la lingua è plastica, viene cioè formata
    dai parlanti (o scriventi): l'atto della /parole/ degli individui
    parlanti fa evolvere o stabilizza la convenzione della lingua. La
    lingua adottata dal corpo sociale è plasmata dalle scelte
    linguistiche di chi la usa. Scelte spesso controverse, come
    sappiamo da polemiche recenti e remote (dall'uso del 'lei'/'voi'
    al genere).

    Ma non solo, la lingua è ciò con cui formiamo e scambiamo i
    concetti coi quali rappresentiamo il mondo. E' lo strumento col
    quale pensiamo e descriviamo il mondo, e siamo /obbligati/ a
    pensarlo e descriverlo con la lingua che abbiamo a disposizione,
    se vogliamo pensare ed essere capiti.

    Per cui, cosa succede ammettendo questi simulacri, che possono
    essere pilotati, nel processo di produzione della lingua?
    Banalmente, alcuni termini o usi linguistici possono essere
    censurati, banditi, o al contrario promossi, come avviene coi
    motori di ricerca, in cambio di denaro, a chi lo chiede.

    Plasmare la lingua è sempre stato un potere usato dagli Stati, ora
    è un processo industriale privatizzato alla portata del miglior
    offerente.

    Ciao,

    Alberto


    On 17/03/23 10:26, Enrico Nardelli wrote:

    Mi è venuto in mente che ciò che fa ChatGPT è una sorta di
    realizzazione pratica dell'esperimento mentale della Stanza
    Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese

    Ovvero, ChatGPT esibisce una competenza simile a quella degli
    esseri umani sul livello sintattico ma è lontana anni luce dalla
    nostra competenza semantica. Essa non ha alcuna reale
    comprensione del significato di ciò che sta facendo.

    Purtroppo (e questo è un problema nostro di grande rilevanza sul
    piano sociale) poiché ciò che fa lo esprime in una forma che per
    noi ha significato, proiettiamo su di essa il significato che è
    in noi.

    Ciao, Enrico

--
    -- EN

    https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html

        ======================================================
    Prof. Enrico Nardelli
    Presidente di "Informatics Europe"
    Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
    Dipartimento di Matematica - Università di Roma "Tor Vergata"
    Via della Ricerca Scientifica snc - 00133 Roma
    home page: https://www.mat.uniroma2.it/~nardelli
    blog: https://link-and-think.blogspot.it/
    tel: +39 06 7259.4204 fax: +39 06 7259.4699
    mobile: +39 335 590.2331 e-mail: narde...@mat.uniroma2.it
    online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
    ======================================================


--
    _______________________________________________
    nexa mailing list
    nexa@server-nexa.polito.it
    https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
    _______________________________________________
    nexa mailing list
    nexa@server-nexa.polito.it
    https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to