Grazie della precisazione. 
Temo di non aver formulato la frase in modo chiaro, visto che l'hai intesa come 
la tesi sciocca che correttamente confuti. 
Mi riferivo solo e specificamente a ciò che ho elencato. 

Quello che ho scritto è attestato dagli stessi produttori: 
"allucinazioni", ad esempio, è un'antropomorfizzazione ed è pericolosamente 
fuorviante,
perchè sappiamo (questo, intendevo) che il sistema non ha alcuna allucinazione, 
nel senso proprio del termine.

Lo rileva esplicitamente OpenAI in GPT-4 technical report, 
https://arxiv.org/abs/2303.08774:

"We use the term 'hallucinations,' though we recognize ways this framing may 
suggest anthropomorphization,
which in turn can lead to harms or incorrect mental models of how the model 
learns"(1)

Sul resto, sarei interessata a conoscere il tuo parere sulla tesi formulata in
I. van Rooij, O. Guest, F.G. Adolfi, R. de Haan, A. Kolokolova, P. Rich, 
Reclaiming AI as a theoretical tool for cognitive science, 
August 1, 2023, https://doi.org/10.31234/osf.io/4cbuv:

The contemporary field of AI, however, has taken the theoretical possibility of 
explaining human cognition as a form of computation to imply the practical 
feasibility of realising human(-like or -level) cognition in factual 
computational systems; and, the field frames this realisation as a short-term 
inevitability. Yet, as we formally prove herein, creating systems with 
human(-like or -level) cognition is intrinsically computationally intractable. 
This means that any factual AI systems created in the short-run are at best 
decoys. When we think these systems capture something deep about ourselves and 
our thinking, we induce distorted and impoverished images of ourselves and our 
cognition. In other words, AI in current practice is deteriorating our 
theoretical understanding of cognition rather than advancing and enhancing it.

Grazie, buona giornata,
Daniela

________________________________________
Da: Giuseppe Attardi <atta...@di.unipi.it>
Inviato: venerdì 13 ottobre 2023 09:21
A: Daniela Tafani
Cc: nexa
Oggetto: Re: [nexa] Can Large Language Models reason?

Non so quello che “sanno tutti”, e quanto a me sono più le cose che non so di 
quelle che so. Alcune cose le so perché ho evidenza diretta della loro verità 
(so che adesso è venerdì), altre perché qualcuno di cui mi fido, ha prodotto 
tale evidenza e altri non sono stati in grado di confutarla (conoscenza 
scientifica), altre non le so perché tale evidenza non l’ho ancora trovata, 
altre infine non le so perché non sono in grado di capirle.

Quest’ultimo potrebbe essere il caso in questione.
L’articolo di Norvig ha sollevato un dibattito tra gli esperti, cercando di 
interpretare questa affermazione dell’articolo:

"Given example inputs and outputs of any function that can be computed by any 
computer, a neural net can learn to approximate that function. "

L’affermazione fa riferimento a quest’altro articolo:

<https://arxiv.org/pdf/2309.06979.pdf>
arxiv.org<https://arxiv.org/pdf/2309.06979.pdf>
        [X] <https://arxiv.org/pdf/2309.06979.pdf>


Che conclude:

given suitable data, simple next-token predictors can be trained to effectively 
learn virtually any function of interest. Consequently, if there exists some 
computer program capable of realizing AGI, then it is theoretically plausible 
to attain AGI through training simple next­ token predictors, given the 
appropriate data.

L’articolo non è facile da capire, ma questa è la mia interpretazione, 
approvata da altri partecipanti alla discussione.

In the paper by Malach, he fine-tunes the LLM to produce the CoT prompt, which 
is then used to drive the model to perform an unlearnable task.
In the example of multiplication, the task is split into several subtasks, 
which involve the learnable tasks of addition and subtraction.
The number of examples to fine-tune the CoT generator is a limitation of the 
approach, which is acknowledged in the paper.

In tutta onestà, non credo di sapere “cosa il sistema faccia ordinariamente” né 
tantomeno di cosa sia in grado di fare.
Spero che gli altri, qui, lo sappiano.

— Beppe

On 12 Oct 2023, at 22:38, Daniela Tafani <daniela.taf...@unipi.it> wrote:

L'ho trovato sconcertante: sappiamo tutti, qui, credo, che errori o 
allucinazioni o bias
non sono errori, sono solo i momenti in cui ci accorgiamo di cosa il sistema 
ordinariamente faccia

________________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giuseppe Attardi 
<atta...@di.unipi.it>
Inviato: giovedì 12 ottobre 2023 21:50
A: nexa
Oggetto: [nexa] Can Large Language Models reason?

Secondo Peter Norvig stanno addirittura raggiungendo la AGI:
https://www.noemamag.com/artificial-general-intelligence-is-already-here/

— Beppe

On 12 Oct 2023, at 15:00, nexa-requ...@server-nexa.polito.it wrote:

From: Daniela Tafani <daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>>
To: "nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>" 
<nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>>
Subject: [nexa] Can Large Language Models reason?
Message-ID: 
<c57ae4ebaa76494ea2f7ec1ef19b3...@unipi.it<mailto:c57ae4ebaa76494ea2f7ec1ef19b3...@unipi.it>>
Content-Type: text/plain; charset="iso-8859-1"

Melanie Mitchell, Can Large Language Models reason?

https://aiguide.substack.com/p/can-large-language-models-reason

(non lo copio di seguito perchè immagini e formattazione servono)


_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to