Ciao Diego,

vi confesso che fra un po' mi toccherà chiedere al mio medico come si
cura la gastrite da ChatGPT... :-D


On Thu, 23 Feb 2023 07:16:59 +0000 Diego Giorio wrote:

> Tempo fa la bimba di miei amici, circa tre anni e mezzo, mi disse:
> "Io l'ho vista la mamma, che di nascosto se lo mette anche lei il
> pannetto. Ma allora, se le bimbe piccole lo possono mettere e le
> mamme lo mettono, perchè non lo possono mettere anche le bimbe
> grandi?" (era stato laborioso convinverla a non usare il pannolino e
> si era puntato soprattutto sul fatto che oramai fosse grande). Al di
> là del sorriso, la domanda era tutt'altro che stupida, ed aveva
> comportato osservazione, ragionamento, astrazione, anche perchè gli
> assorbenti sono piuttosto diversi dai pannolini; ciò che mancava era
> l'informazione fondamentale, ovvero "perché lo mettono le bimbe
> piccole e perché lo mettono le mamme".

La domanda della bimba in questione è estremamente intelligente (nonché
astuta!): dimostra un modello mentale molto chiaro (seppure ingenuo)
dello sviluppo di un essere umano di sesso femminile che viene
contraddetto da un'osservazione esterna.

A tale contraddizione, la bimba reagisce ponendo una domanda a cui
pretende una risposta convincente, coerente con gli altri suoi modelli
mentali e le altre sue esperienze.


La bimba ragiona in termini di informazioni, esperienze soggettive di
pensiero comunicabile: comunica il suo dubbio per ascoltare e
comprendere le spiegazioni.

Non si limita a misurare la frequenza con cui un token segue un insieme
di altri token.


> In questo caso mi sembra un problema analogo: ha dato una risposta
> generica e tutto sommato corretta (per quanto possa capirne io di
> gastrite), ha capito che si tratta di un animale (ha parlato di
> veterinario, non di medico), ma gli è mancata l'informazione
> fondamentale, ovvero che si tratta di un animale immaginario. D'altra
> parte viene di solito rappresentato come un cavallo con l'aggiunta di
> un corno, non so se il suo addestramento sia limitato ai testi oppure
> includa anche le immagini.

Stai proiettando la tua esperienza su una cosa che non funziona
assolutamente come immagini.

Davvero credi che nei vari testi usati per programmare ChatGPT unicorno
non fosse mai associato con leggenda, fantasia o immaginario?
Che i creatori di ChatGPT non abbiano banalmente usato anche Wikipedia?
https://en.wikipedia.org/wiki/Unicorn

Non è questione di fonte: manca qualsiasi comprensione del dato perché
non c'è una mente che possa interpretarlo e comprendere l'informazione
che veicola.


> Riassumendo, trovo tutto sommato più logica - o quantomeno credo di
> intuire il "ragionamento" che ha fatto

Non si tratta di un'intuizione, ma di un'allucinazione.

Tu immagini come TU potresti giungere a scrivere quelle frasi e
proietti tale fantasia su una macchina che funziona in modo
completamente diverso (e infinitamente più semplice della mente umana).


Non c'è alcun "ragionamento". Non c'è alcuna logica.

Che una sequenza di moltiplicatori, tipicamente inizializzati con valori
randomici, e calibrati per ingannare un essere umano da altri esseri
umani tramite un processo statistico.


E' questo il valore d'uso (e commerciale) di ChatGPT: ingannare persone
che non ne comprendono il funzionamento. 

Non produrre testi o rispondere a domande.
Non può proprio farlo.


Il suo output non ha alcun significato.
Contrariamente alla domanda della bimba tua amica.

Perché quella domanda ha significato per lei anche se tu non la ascolti.
L'output di chatGPT non ha significato per lui neanche se tu gli
rispondi.

Per questo non può essere qualificato come corretto o scorretto.


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to