Per "Explainable AI” (XAI) si intende un insieme di tecniche che cercano di ricavare una spiegazione comprensibile delle risposte di un’applicazione di AI, trattata come black box.
> On 16 Oct 2023, at 10:00, 380° <g...@biscuolo.net> wrote: > > Buongiorno, > > più leggo, più divento cyber-luddista [1] :-D > > Giuseppe Attardi <atta...@di.unipi.it <mailto:atta...@di.unipi.it>> writes: > >> Bell’esempio che illustra perché l’Explainable AI non funziona, almeno >> non come vorrebbero i suoi sostenitori. > > e invece FUNZIONICCHIA discretamente bene l'Unexplainable AI, tranne > quando non funziona, a volte drammaticamente male. > Anche gli esperti umani sbagliano, con una percentuale a volte maggiore. A te scegliere tra una risposta sbagliata, ma ben spiegata e una corretta, ma difficile da spiegare. Comunque, non sto proponendo di dare agli algoritmi la capacità di agire al posto degli umani, ma di dare loro dei suggerimenti. Una madre a cui 17 medici specialisti non erano stati in grado di diagnosticare una malattia rara, non si è accontentata delle loro spiegazioni e ha avuto la risposta da ChatGPT: https://www.hcltech.com/trends-and-insights/chatgpt-correctly-diagnoses-childs-illness#:~:text=After%2017%20doctors%27%20visits%20and,known%20as%20tethered%20cord%20syndrome. — Beppe
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa