Grazie della precisazione. Temo di non aver formulato la frase in modo chiaro, visto che l'hai intesa come la tesi sciocca che correttamente confuti. Mi riferivo solo e specificamente a ciò che ho elencato.
Quello che ho scritto è attestato dagli stessi produttori: "allucinazioni", ad esempio, è un'antropomorfizzazione ed è pericolosamente fuorviante, perchè sappiamo (questo, intendevo) che il sistema non ha alcuna allucinazione, nel senso proprio del termine. Lo rileva esplicitamente OpenAI in GPT-4 technical report, https://arxiv.org/abs/2303.08774: "We use the term 'hallucinations,' though we recognize ways this framing may suggest anthropomorphization, which in turn can lead to harms or incorrect mental models of how the model learns"(1) Sul resto, sarei interessata a conoscere il tuo parere sulla tesi formulata in I. van Rooij, O. Guest, F.G. Adolfi, R. de Haan, A. Kolokolova, P. Rich, Reclaiming AI as a theoretical tool for cognitive science, August 1, 2023, https://doi.org/10.31234/osf.io/4cbuv: The contemporary field of AI, however, has taken the theoretical possibility of explaining human cognition as a form of computation to imply the practical feasibility of realising human(-like or -level) cognition in factual computational systems; and, the field frames this realisation as a short-term inevitability. Yet, as we formally prove herein, creating systems with human(-like or -level) cognition is intrinsically computationally intractable. This means that any factual AI systems created in the short-run are at best decoys. When we think these systems capture something deep about ourselves and our thinking, we induce distorted and impoverished images of ourselves and our cognition. In other words, AI in current practice is deteriorating our theoretical understanding of cognition rather than advancing and enhancing it. Grazie, buona giornata, Daniela ________________________________________ Da: Giuseppe Attardi <atta...@di.unipi.it> Inviato: venerdì 13 ottobre 2023 09:21 A: Daniela Tafani Cc: nexa Oggetto: Re: [nexa] Can Large Language Models reason? Non so quello che “sanno tutti”, e quanto a me sono più le cose che non so di quelle che so. Alcune cose le so perché ho evidenza diretta della loro verità (so che adesso è venerdì), altre perché qualcuno di cui mi fido, ha prodotto tale evidenza e altri non sono stati in grado di confutarla (conoscenza scientifica), altre non le so perché tale evidenza non l’ho ancora trovata, altre infine non le so perché non sono in grado di capirle. Quest’ultimo potrebbe essere il caso in questione. L’articolo di Norvig ha sollevato un dibattito tra gli esperti, cercando di interpretare questa affermazione dell’articolo: "Given example inputs and outputs of any function that can be computed by any computer, a neural net can learn to approximate that function. " L’affermazione fa riferimento a quest’altro articolo: <https://arxiv.org/pdf/2309.06979.pdf> arxiv.org<https://arxiv.org/pdf/2309.06979.pdf> [X] <https://arxiv.org/pdf/2309.06979.pdf> Che conclude: given suitable data, simple next-token predictors can be trained to effectively learn virtually any function of interest. Consequently, if there exists some computer program capable of realizing AGI, then it is theoretically plausible to attain AGI through training simple next token predictors, given the appropriate data. L’articolo non è facile da capire, ma questa è la mia interpretazione, approvata da altri partecipanti alla discussione. In the paper by Malach, he fine-tunes the LLM to produce the CoT prompt, which is then used to drive the model to perform an unlearnable task. In the example of multiplication, the task is split into several subtasks, which involve the learnable tasks of addition and subtraction. The number of examples to fine-tune the CoT generator is a limitation of the approach, which is acknowledged in the paper. In tutta onestà, non credo di sapere “cosa il sistema faccia ordinariamente” né tantomeno di cosa sia in grado di fare. Spero che gli altri, qui, lo sappiano. — Beppe On 12 Oct 2023, at 22:38, Daniela Tafani <daniela.taf...@unipi.it> wrote: L'ho trovato sconcertante: sappiamo tutti, qui, credo, che errori o allucinazioni o bias non sono errori, sono solo i momenti in cui ci accorgiamo di cosa il sistema ordinariamente faccia ________________________________________ Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giuseppe Attardi <atta...@di.unipi.it> Inviato: giovedì 12 ottobre 2023 21:50 A: nexa Oggetto: [nexa] Can Large Language Models reason? Secondo Peter Norvig stanno addirittura raggiungendo la AGI: https://www.noemamag.com/artificial-general-intelligence-is-already-here/ — Beppe On 12 Oct 2023, at 15:00, nexa-requ...@server-nexa.polito.it wrote: From: Daniela Tafani <daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>> To: "nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> Subject: [nexa] Can Large Language Models reason? Message-ID: <c57ae4ebaa76494ea2f7ec1ef19b3...@unipi.it<mailto:c57ae4ebaa76494ea2f7ec1ef19b3...@unipi.it>> Content-Type: text/plain; charset="iso-8859-1" Melanie Mitchell, Can Large Language Models reason? https://aiguide.substack.com/p/can-large-language-models-reason (non lo copio di seguito perchè immagini e formattazione servono) _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa