Ciao Diego, vi confesso che fra un po' mi toccherà chiedere al mio medico come si cura la gastrite da ChatGPT... :-D
On Thu, 23 Feb 2023 07:16:59 +0000 Diego Giorio wrote: > Tempo fa la bimba di miei amici, circa tre anni e mezzo, mi disse: > "Io l'ho vista la mamma, che di nascosto se lo mette anche lei il > pannetto. Ma allora, se le bimbe piccole lo possono mettere e le > mamme lo mettono, perchè non lo possono mettere anche le bimbe > grandi?" (era stato laborioso convinverla a non usare il pannolino e > si era puntato soprattutto sul fatto che oramai fosse grande). Al di > là del sorriso, la domanda era tutt'altro che stupida, ed aveva > comportato osservazione, ragionamento, astrazione, anche perchè gli > assorbenti sono piuttosto diversi dai pannolini; ciò che mancava era > l'informazione fondamentale, ovvero "perché lo mettono le bimbe > piccole e perché lo mettono le mamme". La domanda della bimba in questione è estremamente intelligente (nonché astuta!): dimostra un modello mentale molto chiaro (seppure ingenuo) dello sviluppo di un essere umano di sesso femminile che viene contraddetto da un'osservazione esterna. A tale contraddizione, la bimba reagisce ponendo una domanda a cui pretende una risposta convincente, coerente con gli altri suoi modelli mentali e le altre sue esperienze. La bimba ragiona in termini di informazioni, esperienze soggettive di pensiero comunicabile: comunica il suo dubbio per ascoltare e comprendere le spiegazioni. Non si limita a misurare la frequenza con cui un token segue un insieme di altri token. > In questo caso mi sembra un problema analogo: ha dato una risposta > generica e tutto sommato corretta (per quanto possa capirne io di > gastrite), ha capito che si tratta di un animale (ha parlato di > veterinario, non di medico), ma gli è mancata l'informazione > fondamentale, ovvero che si tratta di un animale immaginario. D'altra > parte viene di solito rappresentato come un cavallo con l'aggiunta di > un corno, non so se il suo addestramento sia limitato ai testi oppure > includa anche le immagini. Stai proiettando la tua esperienza su una cosa che non funziona assolutamente come immagini. Davvero credi che nei vari testi usati per programmare ChatGPT unicorno non fosse mai associato con leggenda, fantasia o immaginario? Che i creatori di ChatGPT non abbiano banalmente usato anche Wikipedia? https://en.wikipedia.org/wiki/Unicorn Non è questione di fonte: manca qualsiasi comprensione del dato perché non c'è una mente che possa interpretarlo e comprendere l'informazione che veicola. > Riassumendo, trovo tutto sommato più logica - o quantomeno credo di > intuire il "ragionamento" che ha fatto Non si tratta di un'intuizione, ma di un'allucinazione. Tu immagini come TU potresti giungere a scrivere quelle frasi e proietti tale fantasia su una macchina che funziona in modo completamente diverso (e infinitamente più semplice della mente umana). Non c'è alcun "ragionamento". Non c'è alcuna logica. Che una sequenza di moltiplicatori, tipicamente inizializzati con valori randomici, e calibrati per ingannare un essere umano da altri esseri umani tramite un processo statistico. E' questo il valore d'uso (e commerciale) di ChatGPT: ingannare persone che non ne comprendono il funzionamento. Non produrre testi o rispondere a domande. Non può proprio farlo. Il suo output non ha alcun significato. Contrariamente alla domanda della bimba tua amica. Perché quella domanda ha significato per lei anche se tu non la ascolti. L'output di chatGPT non ha significato per lui neanche se tu gli rispondi. Per questo non può essere qualificato come corretto o scorretto. Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa