[Disclaimer: non sono esperto di niente (men che mai di linguistica); esprimo 
opinioni.]

A livello di LINGUAGGIO, mi par di capire, ci sono modi di gestire la cosa 
(...che sanno solo i "neuroni elettronici" degli LLM) che non separano sintassi 
da semantica.
Al punto di suscitare interesse (più che legittimo).

A livello di DISCORSO, mi sento di dire, almeno sapere in che dominio di 
discussione ci si trovi a parlare..., sarebbe non poco utile; altrimenti, si fa 
la fine dei filosofi che hanno discusso per millenni di non-essere, senza 
capire che:
a) la negazione appartiene solo ai linguaggi, e non -- esempio non casuale -- 
all'ontologia,
b) che il dominio "naturale" di discussione del non essere è -- guarda caso -- 
l'ontologia,
c) ne consegue che hanno blaterato al vento per millenni su un concetto 
PURAMENTE LINGUISTICO con SEMANTICA NULLA (ovvero, proprio non ha senso alcuno) 
nell'ambito appunto del DISCORSO (che non è emettere parole con un significato 
apparente, ma "indicare" uno straccio di qualcosa).

Mi chiarite cortesemente il dubbio (legittimo anche questo, spero) sulla 
faccenda?

Molte grazie.


  ----- Original Message ----- 
  From: Guido Vetere 
  To: Giuseppe Attardi 
  Cc: nexa@server-nexa.polito.it 
  Sent: Saturday, March 01, 2025 11:40 AM
  Subject: Re: [nexa] Perché Richard Stallman sbaglia in tema di intelligenza 
artificiale


  La bipartizione sintassi-semantica (che data indietro almeno al '600) fu già 
rifiutata dalla Lexicon-Grammar di Maurice Gross (Méthodes en syntaxe, 1975), 
portata anche in Italia da Annibale Elia.

  Gli LLM confermano oggi che i 'pattern' sintattico-semantici, benché 
esibiscano 'somiglianze di famiglia', vanno presi uno a uno, e di fatto solo la 
forza bruta computazionale può compiere l'impresa. Credo (l'ho scritto anche 
qui) che la lessicografia dovrà trovare il modo di estrarre conoscenze dalle 
miniere degli LLM, e che queste conoscenze dovranno basarsi su modelli teorici 
adeguati, che forse ancora non abbiamo. Ma cento miliardi di numeri in virgola 
mobile non sono una teoria linguistica, perché una teoria è un modello causale. 
Il fatto che per fare certe operazioni non ce ne sia bisogno non significa 
nulla: si riusciva a navigare anche senza l'idraulica, per dire ...


  G.


  On Tue, 25 Feb 2025 at 05:52, Giuseppe Attardi <atta...@di.unipi.it> wrote:

    Per anni ho pensato che per capire il linguaggio si dovesse passare 
attraverso l’analisi sintattica e poi per quella semantica, perché così 
dicevano i testi di linguistica.
    Ho sviluppato un parser a dipendenze multiligua basato su word embedding e 
rete neurale che funzionava molto bene.
    L’ultima incarnazione si chiama DiaParser e si trova su GitHub:
    https://github.com/Unipisa/diaparser


    Tuttavia John Hewitt ha scoperto, usando un probe sintattico, che le 
matrici di attention dei transformer contengono una rappresentazione 
dell’albero sintattico della frase.
    Altri layer delle metrici corrispondono ad altri fenomeni, come l’anafora.
    I word embedding, che sono al primo livello del transformer, danno una 
rappresentazione molto articolata del significato delle parole, inclusi 
sinonimi e relazioni semantiche tra parole.


    A questo punto l’ipotesi che si debba insegnare esplicitamente la 
grammatica e la semantica a un modello ha vacillato.
    Del resto i bambini imparano a capire e parlare una lingua ben prima di 
andare a scuola e che gli vengano insegnati i concetti linguistici astratti.
    Probabilmente l’esposizione a 30 milioni di frasi nei primi tre anni di 
vita è sufficiente (c’è chi dice siano di più, tenendo conto anche dei feedback 
visivi).


    Quindi, mai dare per scontate certe ipotesi che ci sembrano ovvie.


    Ho provato quindi a chiedere questo a ChatGPT.




    Analizza questa frase: lei suona il violino e lui la tromba. Cosa fa lui 
esattamente?




    ChatGPT: La frase è ambigua perché la costruzione grammaticale lascia 
spazio a due interpretazioni:

    1. Interpretazione comune e probabile: “Lei suona il violino e lui [suona] 
la tromba.” Qui si sottintende il verbo “suonare” anche per il secondo 
soggetto, quindi si capisce che entrambi stanno suonando strumenti musicali.

    2. Interpretazione ambigua e comica: “Lei suona il violino e lui la tromba” 
potrebbe essere letto in modo diverso, dove “la tromba” non è lo strumento 
musicale ma un’azione riferita a “lei”. In italiano colloquiale, “trombare” può 
avere un significato volgare (sinonimo di “fare sesso”). Se si legge in questo 
modo, la frase assume un doppio senso ironico.




    Il contesto in cui viene detta o scritta la frase aiuta a chiarire quale 
delle due interpretazioni sia corretta.




    Potrebbe darsi che ChatGPT abbia letto da qualche parte la spiegazione di 
ARM.

    Ma anche concludere che il modello non sa fare certe cose potrebbe essere 
azzardato.



      On 14 Feb 2025, at 16:59, Angelo Raffaele Meo <angelo....@polito.it> 
wrote:


       
      Difendo Richard Stallman ed anche l'Intelligenza Artificiale.
      Nel 1960, quando quasi tutti i partecipanti a questo dibattito non erano 
ancora nati oppure frequentavano l'asilo, io realizzai uno dei primi prototipi 
di quel capitolo dell'Intelligenza Artificiale che chiamiamo "riconoscimento 
della voce". Riconosceva sotto dettatura una ventina di parole distinte, 
isolate, basandosi sull'analisi acustico-lessicale del segnale vocale. Ad 
esempio, i brevissimi istanti di silenzio caratteristici della lettera 
esplosiva "t" suggerivano la parola "sette" oppure la parola "otto", mentre le 
vocali hanno spettri di frequenza diversi. 
      In quella prima fase della ricerca comprendemmo, ad esempio, che la 
dettatura automatica o la traduzione da una lingua ad un'altra richiedono 
l'integrazione dell'analisi lessicale con l'analisi sintattica, ma è ancora più 
importante l'analisi semantica.
      Fui io ad introdurre un esempio significativo che è stato citato più 
volte. Consideriamo la frase "lei suona il piano e lui la tromba". Due diversi 
alberi sintattici possono sottendere quella frase. Nel primo albero sintattico 
la parola "tromba" è un'unità nominale; nel secondo albero sintattico la stessa 
parola è unità verbale.
      Per l'ascoltatore che non sa nulla della vita sentimentale di lei e lui, 
"tromba" è un'unità nominale; invece, per l'ascoltatore che sa che lei e lui 
sono amanti, in un particolare contesto della conversazione, in virtù di quel 
capitolo della semantica che è chiamato "pragmatica", "tromba" diventa un'unità 
verbale, con implicazioni importanti sul processo di traduzione.
      In questo momento, introdurre la semantica o la pragmatica 
nell'elaborazione del linguaggio naturale è ancora difficilissimo. Quindi, 
Intelligenza Artificiale interpretata alla lettera non esiste ancora. Sono 
sicuro che questo fosse il significato della provocatoria affermazione di 
Stallman e quindi che Stallman abbia ragione.
      Comunque, senza usare semantica o pragmatica, in virtù di una raffinata 
elaborazione statistica e della capacità tecnologica di trattare immensi volumi 
di dati, quel nuovo insieme di discipline scientifiche che chiamiamo 
Intelligenza Artificiale sta producendo risultati meravigliosi. La dettatura 
automatica e la traduzione da una lingua all'altra sono due esempi 
significativi. Commettono ancora qualche errorino ma sono di grandissima 
utilità.
      Viva l'Intelligenza Artificiale, chiara dimostrazione dell'intelligenza 
naturale di homo sapiens.                 

--------------------------------------------------------------------------

      From: nexa <nexa-boun...@server-nexa.polito.it> on behalf of Giuseppe 
Attardi <atta...@di.unipi.it>
      Sent: Friday, February 14, 2025 12:20 PM
      To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it>
      Subject: Re: [nexa] Perché Richard Stallman sbaglia in tema di 
intelligenza artificiale 

      È anche peggio di così, come ammettono nei manuali per medici:


      I medici spesso utilizzano termini vaghi come "altamente probabile", 
"improbabile" o "non è da escludere" per descrivere la possibilità di una 
malattia.


            <default_share_msd.jpg> 
                  Strategie per il processo decisionale clinico - Argomenti 
speciali - Manuali MSD Edizione Professionisti
                  msdmanuals.com 
           





        On 14 Feb 2025, at 12:00, nexa-requ...@server-nexa.polito.it wrote:


        From: Giacomo Tesio <giac...@tesio.it>
        To: nexa@server-nexa.polito.it
        Subject: Re: [nexa]  Perché Richard Stallman sbaglia in tema di
           intelligenza artificiale
        Message-ID: <5fabc401-5b15-4a28-9850-5bc9ed4e2...@tesio.it>
        Content-Type: text/plain; charset=UTF-8

        Giuseppe, mi permetto un buon consiglio non richiesto:

        Il 14 Febbraio 2025 10:36:55 UTC, Giuseppe Attardi ha scritto:


          Quante probabilità ho che sia questo o quello?



          Quant’è la probabilità di guarigione?



          Quanto stima possa durare la riabilitazione?



          Quant’è il rischio di ricadute?





          È tutto un ragionare a spanne su probabilità stimate a naso.


        se il tuo medico risponde a domande come queste con stime numeriche
        delle probabilità (a naso o meno), cambia medico.

Reply via email to