Bell’esempio che illustra perché l’Explainable AI non funziona, almeno non come vorrebbero i suoi sostenitori.
La spiegazione che viene fornita è una ricostruzione razionale della risposta, che è simile a quanto fanno gli esperti umani quando devono spiegare le loro risposte. Infatti nessuno di noi applicherebbe pedissequamente le regole grammaticali per rispondere alla domanda: risponderebbe d’acchito. Poi, se pressato a spiegare il perché, cercherebbe nelle sue reminiscenze di grammatica della scuola media per una giustificazione. Anche se chiedi a un medico di giustificare la sua diagnosi, ci mette molte più parole e tempo di quanto ci ha messo per produrla, perché non è in quel modo che l’ha ottenuta. Il Deep Learning opera a livello di System 1, secondo la terminologia di Daniel Kahneman, ossia di conoscenza “compilata" per una fruizione diretta. — Beppe > On 15 Oct 2023, at 20:48, Guido Vetere <vetere.gu...@gmail.com> wrote: > > User > la frase "il topo è inseguito dal gatto" è attiva o passiva? > > ChatGPT > La frase "il topo è inseguito dal gatto" è in forma passiva. > > User > come fai a saperlo? > > ChatGPT > Posso determinare che la frase "il topo è inseguito dal gatto" è in forma > passiva seguendo alcune caratteristiche grammaticali tipiche delle frasi > passive in italiano: > Struttura della frase: Nelle frasi passive, il soggetto riceve l'azione > piuttosto che eseguirla. Nell'esempio fornito, il topo (soggetto) riceve > l'azione di essere inseguito. > Verbo: La frase utilizza una forma del verbo "essere" seguita dal > participio passato del verbo principale. In questo caso, "è inseguito". > Agente della passiva: Nelle frasi passive, l'entità che esegue l'azione è > spesso introdotta dalla preposizione "da". In questo esempio, l'agente > dell'azione è "il gatto", e viene introdotto appunto con "dal". > Combinando queste caratteristiche, è chiaro che la frase è in forma passiva. > > User > per determinare la forma di una frase, tu applichi esattamente le regole che > hai appena elencato? > > ChatGPT > No, non utilizzo una lista di regole in modo rigido e sequenziale come > potrebbe fare un algoritmo tradizionale di elaborazione del linguaggio. > Invece, il mio modello è basato su una vasta quantità di dati testuali che ho > analizzato durante la mia formazione. Quando "valuto" una frase, riconosco > schemi e strutture linguistiche basati su quel vasto corpus di dati. > Tuttavia, quando ti ho fornito quelle caratteristiche grammaticali, ho voluto > spiegare in modo esplicito e comprensibile come si può riconoscere una frase > passiva in italiano. Era un modo per fornirti una spiegazione chiara e > didattica. Nel "pensiero" interno del modello, la determinazione avviene in > maniera molto più fluida e basata sul riconoscimento di schemi nei dati. > > > > Per ora è tutto, a voi la linea :-) > > G. > > On Sun, 15 Oct 2023 at 20:21, 380° <g...@biscuolo.net > <mailto:g...@biscuolo.net>> wrote: >> Buonasera, >> >> Giuseppe Attardi <atta...@di.unipi.it <mailto:atta...@di.unipi.it>> writes: >> >> > C’è tutta un’area di ricerca, che passa sotto il nome di BERTology, >> > che analizza la questione e si dimostra ad esempio che dalle relazioni >> > presenti nella matrici di attention delle frasi, si può ricavare >> > l’intero albero sintattico della frase: >> > https://aclanthology.org/N19-1419.pdf >> >> «A Structural Probe for Finding Syntax in Word Representations» >> John Hewitt, Christopher D. Manning >> Published 1 June 2019 >> (via >> https://www.semanticscholar.org/paper/A-Structural-Probe-for-Finding-Syntax-in-Word-Hewitt-Manning/455a8838cde44f288d456d01c76ede95b56dc675) >> >> --8<---------------cut here---------------start------------->8--- >> >> Recent work has improved our ability to detect linguistic knowledge in >> word representations. However, current methods for detecting syntactic >> knowledge do not test whether syntax trees are represented in their >> entirety. In this work, we propose a structural probe, which evaluates >> whether syntax trees are embedded in a linear transformation of a neural >> network’s word representation space. The probe identifies a linear >> transformation under which squared L2 distance encodes the distance >> between words in the parse tree, and one in which squared L2 norm >> encodes depth in the parse tree. Using our probe, we show that such >> transformations exist for both ELMo and BERT but not in baselines, >> providing evidence that entire syntax trees are embedded implicitly in >> deep models’ vector geometry. >> >> --8<---------------cut here---------------end--------------->8--- >> >> Interessante, ma se davvero vogliamo parlare di BERTology allora, ripeto >> [1] che nel Vol. 8 del Transactions of the Association for Computational >> Linguistics del MIT (2020) è pubblicato questo articolo: >> >> «A Primer in BERTology: What We Know About How BERT Works» >> by Anna Rogers, Olga Kovaleva, Anna Rumshisky >> >> https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00349/96482/A-Primer-in-BERTology-What-We-Know-About-How-BERT >> >> che cita il paper sopra tra le fonti per descrivere le caratteristiche >> di syntactic knowledge di BERT, mentre più avanti, nel capitolo "3.3 >> World Knowledge" e "3.4 Limitations" scrive: >> >> --8<---------------cut here---------------start------------->8--- >> >> However, BERT cannot reason based on its world knowledge. Forbes et >> al. (2019) show that BERT can “guess” the affordances and properties of >> many objects, but cannot reason about the relationship between >> properties and affordances. For example, it “knows” that people can walk >> into houses, and that houses are big, but it cannot infer that houses >> are bigger than people. Zhou et al. (2020) and Richardson and Sabharwal >> (2019) also show that the performance drops with the number of necessary >> inference steps. Some of BERT’s world knowledge success comes from >> learning stereotypical associations (Poerner et al., 2019), for example, >> a person with an Italian-sounding name is predicted to be Italian, even >> when it is incorrect. >> >> 3.4 Limitations >> >> Multiple probing studies in section 3 and section 4 report that BERT >> possesses a surprising amount of syntactic, semantic, and world >> knowledge. However, Tenney et al. (2019a) remark, “the fact that a >> linguistic pattern is not observed by our probing classifier does not >> guarantee that it is not there, and the observation of a pattern does >> not tell us how it is used.” There is also the issue of how complex a >> probe should be allowed to be (Liu et al., 2019a). If a more complex >> probe recovers more information, to what extent are we still relying on >> the original model? >> >> Furthermore, different probing methods may lead to complementary or even >> contradictory conclusions, which makes a single test (as in most >> studies) insufficient (Warstadt et al., 2019). A given method might also >> favor one model over another, for example, RoBERTa trails BERT with one >> tree extraction method, but leads with another (Htut et al., 2019). The >> choice of linguistic formalism also matters (Kuznetsov and Gurevych, >> 2020). >> >> [...] >> >> --8<---------------cut here---------------end--------------->8--- >> >> Nel 2020 i ricercatori citati sopra sostenevano che BERT non è in grado >> di ragionare. >> >> Sullo stesso numero della rivista è pubblicato anche questo articolo: >> >> «What BERT Is Not: Lessons from a New Suite of Psycholinguistic >> Diagnostics for Language Models» >> by Allyson Ettinger >> >> https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00298/43535/What-BERT-Is-Not-Lessons-from-a-New-Suite-of >> >> cito dalle conclusioni: >> >> --8<---------------cut here---------------start------------->8--- >> >> In this paper we have introduced a suite of diagnostic tests for >> language models to better our understanding of the linguistic >> competencies acquired by pre-training via language modeling. We draw our >> tests from psycholinguistic studies, allowing us to target a range of >> linguistic capacities by testing word prediction accuracies and >> sensitivity of model probabilities to linguistic distinctions. As a case >> study, we apply these tests to analyze strengths and weaknesses of the >> popular BERT model, finding that it shows sensitivity to role reversal >> and same-category distinctions, albeit less than humans, and it succeeds >> with noun hypernyms, but it struggles with challenging inferences and >> role-based event prediction—and it shows clear failures with the meaning >> of negation. We make all test sets and experiment code available (see >> Footnote 1), for further experiments. >> >> The capacities targeted by these test sets are by no means >> comprehensive, and future work can build on the foundation of these >> datasets to expand to other aspects of language processing. Because >> these sets are small, we must also be conservative in the strength of >> our conclusions—different formulations may yield different performance, >> and future work can expand to verify the generality of these results. In >> parallel, we hope that the weaknesses highlighted by these diagnostics >> can help to identify areas of need for establishing robust and >> generalizable models for language understanding. >> >> --8<---------------cut here---------------end--------------->8--- >> >> Allora ripeto la mia domanda: ci sono nuovi studi che dimostrino che le >> limitazioni evidenziate nei test sulla competenza logico/linguistica di >> BERT siano stati risolti da altri LLM? >> >> Perché credo che sulla _perfomance_ sintattica degli LLM nessuno abbia >> proprio nulla da ridire. >> >> Saluti, 380° >> >> [...] >> >> [1] Message-id: 87o7ux2i16....@xelera.eu <mailto:87o7ux2i16....@xelera.eu> >> https://server-nexa.polito.it/pipermail/nexa/2022-September/049508.html >> >> >> -- >> 380° (Giovanni Biscuolo public alter ego) >> >> «Noi, incompetenti come siamo, >> non abbiamo alcun titolo per suggerire alcunché» >> >> Disinformation flourishes because many people care deeply about injustice >> but very few check the facts. Ask me about <https://stallmansupport.org >> <https://stallmansupport.org/>>. >> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa