On mar, 2025-02-25 at 05:52 +0100, Giuseppe Attardi wrote:
> Per anni ho pensato che per capire il linguaggio si dovesse passare
> attraverso l’analisi sintattica e poi per quella semantica, perché
> così dicevano i testi di linguistica.
> Ho sviluppato un parser a dipendenze multiligua basato su word
> embedding e rete neurale che funzionava molto bene.
> L’ultima incarnazione si chiama DiaParser e si trova su GitHub:
> https://github.com/Unipisa/diaparser
> 
> Tuttavia John Hewitt ha scoperto, usando un probe sintattico, che le
> matrici di attention dei transformer contengono una rappresentazione
> dell’albero sintattico della frase.
> Altri layer delle metrici corrispondono ad altri fenomeni, come
> l’anafora.
> I word embedding, che sono al primo livello del transformer, danno
> una rappresentazione molto articolata del significato delle parole,
> inclusi sinonimi e relazioni semantiche tra parole.
> 
> A questo punto l’ipotesi che si debba insegnare esplicitamente la
> grammatica e la semantica a un modello ha vacillato.
> Del resto i bambini imparano a capire e parlare una lingua ben prima
> di andare a scuola e che gli vengano insegnati i concetti
> linguistici astratti.
> Probabilmente l’esposizione a 30 milioni di frasi nei primi tre anni
> di vita è sufficiente (c’è chi dice siano di più, tenendo conto
> anche dei feedback visivi).
> 
> Quindi, mai dare per scontate certe ipotesi che ci sembrano ovvie.
> 
> Ho provato quindi a chiedere questo a ChatGPT.
> 
> Analizza questa frase: lei suona il violino e lui la tromba. Cosa fa
> lui esattamente?
> 
> ChatGPT: La frase è ambigua perché la costruzione grammaticale
> lascia spazio a due interpretazioni:
> 1. Interpretazione comune e probabile: “Lei suona il violino e lui
> [suona] la tromba.” Qui si sottintende il verbo “suonare” anche per
> il secondo soggetto, quindi si capisce che entrambi stanno suonando
> strumenti musicali.
> 2. Interpretazione ambigua e comica: “Lei suona il violino e lui la
> tromba” potrebbe essere letto in modo diverso, dove “la tromba” non
> è lo strumento musicale ma un’azione riferita a “lei”. In italiano
> colloquiale, “trombare” può avere un significato volgare (sinonimo
> di “fare sesso”). Se si legge in questo modo, la frase assume un
> doppio senso ironico.
> 
> Il contesto in cui viene detta o scritta la frase aiuta a chiarire
> quale delle due interpretazioni sia corretta.
> 
> Potrebbe darsi che ChatGPT abbia letto da qualche parte la
> spiegazione di ARM.
> Ma anche concludere che il modello non sa fare certe cose potrebbe
> essere azzardato.

Ciao Giuseppe, ciao tutti.

Mi lascia perplesso questo tuo ultimo inciso.

Come tutti gli LLM, ChatGPT è stato esposto alla conoscenza umana
pregressa, molta di essa proveniente da Internet.
Ti sta semplicemente restituendo quello che ha letto. Se avesse letto
solo e ripetutamente una fake news ti restituirebbe quella.
Il rasoio di Occam pretende di restare aderenti alla spiegazione più
semplice.

Nel momento in cui una ricerca sottoposta a peer review *dimostrerà*
che gli strati di una rete neurale rappresentano i diversi livelli di
strutturazione del linguaggio, allora potremo cambiare idea.

Sai, sono povero ingegnere, non riesco a ragionare diversamente.  ;-)

Buona giornata a tutti.   Marco
> 
> > On 14 Feb 2025, at 16:59, Angelo Raffaele Meo
> > <angelo....@polito.it> wrote:
> > 
> > Difendo Richard Stallman ed anche l'Intelligenza Artificiale.
> > Nel 1960, quando quasi tutti i partecipanti a questo dibattito non
> > erano ancora nati oppure frequentavano l'asilo, io realizzai uno
> > dei primi prototipi di quel capitolo dell'Intelligenza Artificiale
> > che chiamiamo "riconoscimento della voce". Riconosceva sotto
> > dettatura una ventina di parole distinte, isolate, basandosi
> > sull'analisi acustico-lessicale del segnale vocale. Ad esempio, i
> > brevissimi istanti di silenzio caratteristici della lettera
> > esplosiva "t" suggerivano la parola "sette" oppure la parola
> > "otto", mentre le vocali hanno spettri di frequenza diversi. 
> > In quella prima fase della ricerca comprendemmo, ad esempio, che
> > la dettatura automatica o la traduzione da una lingua ad un'altra
> > richiedono l'integrazione dell'analisi lessicale con l'analisi
> > sintattica, ma è ancora più importante l'analisi semantica.
> > Fui io ad introdurre un esempio significativo che è stato citato
> > più volte. Consideriamo la frase "lei suona il piano e lui la
> > tromba". Due diversi alberi sintattici possono sottendere quella
> > frase. Nel primo albero sintattico la parola "tromba" è un'unità
> > nominale; nel secondo albero sintattico la stessa parola è unità
> > verbale.
> > Per l'ascoltatore che non sa nulla della vita sentimentale di lei
> > e lui, "tromba" è un'unità nominale; invece, per l'ascoltatore che
> > sa che lei e lui sono amanti, in un particolare contesto della
> > conversazione, in virtù di quel capitolo della semantica che è
> > chiamato "pragmatica", "tromba" diventa un'unità verbale, con
> > implicazioni importanti sul processo di traduzione.
> > In questo momento, introdurre la semantica o la pragmatica
> > nell'elaborazione del linguaggio naturale è ancora difficilissimo.
> > Quindi, Intelligenza Artificiale interpretata alla lettera non
> > esiste ancora. Sono sicuro che questo fosse il significato della
> > provocatoria affermazione di Stallman e quindi che Stallman abbia
> > ragione.
> > Comunque, senza usare semantica o pragmatica, in virtù di una
> > raffinata elaborazione statistica e della capacità tecnologica di
> > trattare immensi volumi di dati, quel nuovo insieme di discipline
> > scientifiche che chiamiamo Intelligenza Artificiale sta producendo
> > risultati meravigliosi. La dettatura automatica e la traduzione da
> > una lingua all'altra sono due esempi significativi. Commettono
> > ancora qualche errorino ma sono di grandissima utilità.
> > Viva l'Intelligenza Artificiale, chiara dimostrazione
> > dell'intelligenza naturale di homo sapiens.                 
> > From: nexa <nexa-boun...@server-nexa.polito.it> on behalf of
> > Giuseppe Attardi <atta...@di.unipi.it>
> > Sent: Friday, February 14, 2025 12:20 PM
> > To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it>
> > Subject: Re: [nexa] Perché Richard Stallman sbaglia in tema di
> > intelligenza artificiale 
> > È anche peggio di così, come ammettono nei manuali per medici:
> > 
> > I medici spesso utilizzano termini vaghi come "altamente
> > probabile", "improbabile" o "non è da escludere" per descrivere la
> > possibilità di una malattia.
> > 
> > <default_share_msd.jpg>
> > 
> > Strategie per il processo decisionale clinico - Argomenti speciali
> > - Manuali MSD Edizione Professionisti
> > msdmanuals.com
> > 
> > 
> > 
> > 
> > 
> > > On 14 Feb 2025, at 12:00, nexa-requ...@server-nexa.polito.it
> > > wrote:
> > > 
> > > From: Giacomo Tesio <giac...@tesio.it>
> > > To: nexa@server-nexa.polito.it
> > > Subject: Re: [nexa]  Perché Richard Stallman sbaglia in tema di
> > >    intelligenza artificiale
> > > Message-ID: <5fabc401-5b15-4a28-9850-5bc9ed4e2...@tesio.it>
> > > Content-Type: text/plain; charset=UTF-8
> > > 
> > > Giuseppe, mi permetto un buon consiglio non richiesto:
> > > 
> > > Il 14 Febbraio 2025 10:36:55 UTC, Giuseppe Attardi ha scritto:
> > > 
> > > > Quante probabilità ho che sia questo o quello?
> > > > 
> > > > Quant’è la probabilità di guarigione?
> > > > 
> > > > Quanto stima possa durare la riabilitazione?
> > > > 
> > > > Quant’è il rischio di ricadute?
> > > > 
> > > > 
> > > > È tutto un ragionare a spanne su probabilità stimate a naso.
> > > 
> > > se il tuo medico risponde a domande come queste con stime
> > > numeriche
> > > delle probabilità (a naso o meno), cambia medico.

Reply via email to