Ciao Giuseppe Il 16 Ottobre 2023 03:13:31 UTC, Giuseppe Attardi ha scritto: > Bell’esempio che illustra perché l’Explainable AI non funziona, > almeno non come vorrebbero i suoi sostenitori.
Finalmente siamo d'accordo! È stata la prima cosa che ho pensato. La seconda è stata: "ma perché chiedere ad un software un riassunto pasticciato dei propri testi sorgente?" > La spiegazione che viene fornita è una ricostruzione razionale della > risposta, No: è un riassunto approssimativo (e ottimizzato per apparire credibile) di ciò che era presente nei testi usati per la programmazione statistica. > che è simile a quanto fanno gli esperti umani quando devono spiegare > le loro risposte. Uhm per la verità io non lavoro così. L'esperienza mi permettono di individuare rapidamente le dimensioni rilevanti del problema che ho davanti, ma le mie risposte includono sempre lunghe (qualcuno osa dire "troppo" lunghe :-D) descrizioni dei ragionamenti che conducono a tali conclusioni. Spesso includono anche lunghe descrizioni dei percorsi analizzati ma scartati. Nella mia testa è come ripercorrere a ritroso il grafo di conoscenze ed esperienze che ho percorso in andata per giungere alla conclusione. Tant'è che, contrariamente ad un LLM, io posso identificare le mie lacune lungo il percorso, documentarmi in merito fino a poter fornire una conclusione solida e responsabile. Questa è la ragione per cui l'approccio attuale alle "explainable AI" è irrimediabilmente fallato: come con tutto il resto deve ridefinire la "spiegazione" con "giustificazione". Io spiego i ragionamenti che mi portano ad una conclusione, non invento giustificazioni. I LLM non spiegano il significato dei calcoli che determinano il proprio output, ma cercano di giustificazioni coerenti all'interno di ciò che rimane al proprio interno dei testi sorgente. > Infatti nessuno di noi applicherebbe pedissequamente le regole > grammaticali per rispondere alla domanda: risponderebbe d’acchito. Dipende da quanto ti ricordi quelle regole. :-) Se non sei certo di conoscerle (e fornire la risposta giusta è sufficientemente importante per te) allora andrai a ripassarle e le applicherai pedissequamente. Ma soprattutto, se le hai comprese le applicherai in modo coerente. Facendo calcolare l'output di un input come questo > La frase "Marco si interrogava dall'inizio" è attiva o passiva? E > perché? Stando al proxy (sorvegliato... usate le dovute cautele) https://talkai.info/it/chat/ otteniamo sistematicamente un output interpretabile come "la frase è passiva perché..." Tuttavia chiedendo sostituendo la parola "attiva" con "riflessiva" otteniamo sistematicamente un output interpretabile come "la frase è riflessiva perché..." Insomma scopriamo l'acqua calda: GPT4 non comprende la grammatica, né sa di non comprenderla semplicemente perché non è intelligente. > Anche se chiedi a un medico di giustificare la sua diagnosi, ci mette > molte più parole e tempo di quanto ci ha messo per produrla, perché > non è in quel modo che l’ha ottenuta. Mia moglie è medico e ti posso assicurare che non spara la prima diagnosi che gli viene in mente. Alcune volte, pur non pressata in alcun modo, condivide con me i propri ragionamenti perché le mie domande l'aiutano proprio ad evitare errori di valutazione. Di tali ragionamenti io comprendo una frazione appena sufficiente a fare le domande giuste, ma ai pazienti riporta poi una spiegazione enormemente semplificata rispetto a quella condivisa con me. > Il Deep Learning opera a livello di System 1, secondo la terminologia > di Daniel Kahneman, ossia di conoscenza “compilata" per una fruizione > diretta. Ti rendi conto che stai applicato categorie pensate per la mente umana ad una serie di moltiplicazioni fra matrici? :-D Peraltro rifletti su questo: il modello stesso di Kahneman è basato su ipotesi non verificate o verificabili, come lui stesso ammise dopo le critiche sulla replicabilità degli studi da lui citati. [1] Il fatto che l'interpretazione di LLM e altre tecniche di programmazione statistica si basi su questa fuffa para-scientifica [2] è indicativo di quanto sia ancora primitiva l'informatica. Giacomo [1] https://retractionwatch.com/2017/02/20/placed-much-faith-underpowered-studies-nobel-prize-winner-admits-mistakes/ [2] https://replicationindex.com/2020/12/30/a-meta-scientific-perspective-on-thinking-fast-and-slow/ _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa