Non so quello che “sanno tutti”, e quanto a me sono più le cose che non so di quelle che so. Alcune cose le so perché ho evidenza diretta della loro verità (so che adesso è venerdì), altre perché qualcuno di cui mi fido, ha prodotto tale evidenza e altri non sono stati in grado di confutarla (conoscenza scientifica), altre non le so perché tale evidenza non l’ho ancora trovata, altre infine non le so perché non sono in grado di capirle.

Quest’ultimo potrebbe essere il caso in questione.
L’articolo di Norvig ha sollevato un dibattito tra gli esperti, cercando di interpretare questa affermazione dell’articolo:

"Given example inputs and outputs of any function that can be computed by any computer, a neural net can learn to approximate that function. "

L’affermazione fa riferimento a quest’altro articolo:

Che conclude:

given suitable data, simple next-token predictors can be trained to effectively learn virtually any function of interest. Consequently, if there exists some computer program capable of realizing AGI, then it is theoretically plausible to attain AGI through training simple next­ token predictors, given the appropriate data.

L’articolo non è facile da capire, ma questa è la mia interpretazione, approvata da altri partecipanti alla discussione.

In the paper by Malach, he fine-tunes the LLM to produce the CoT prompt, which is then used to drive the model to perform an unlearnable task.
In the example of multiplication, the task is split into several subtasks, which involve the learnable tasks of addition and subtraction.
The number of examples to fine-tune the CoT generator is a limitation of the approach, which is acknowledged in the paper.

In tutta onestà, non credo di sapere “cosa il sistema faccia ordinariamente” né tantomeno di cosa sia in grado di fare.
Spero che gli altri, qui, lo sappiano.

— Beppe

On 12 Oct 2023, at 22:38, Daniela Tafani <daniela.taf...@unipi.it> wrote:

L'ho trovato sconcertante: sappiamo tutti, qui, credo, che errori o allucinazioni o bias
non sono errori, sono solo i momenti in cui ci accorgiamo di cosa il sistema ordinariamente faccia

________________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giuseppe Attardi <atta...@di.unipi.it>
Inviato: giovedì 12 ottobre 2023 21:50
A: nexa
Oggetto: [nexa] Can Large Language Models reason?

Secondo Peter Norvig stanno addirittura raggiungendo la AGI:
https://www.noemamag.com/artificial-general-intelligence-is-already-here/

— Beppe

On 12 Oct 2023, at 15:00, nexa-requ...@server-nexa.polito.it wrote:

From: Daniela Tafani <daniela.taf...@unipi.it<mailto:daniela.taf...@unipi.it>>
To: "nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>>
Subject: [nexa] Can Large Language Models reason?
Message-ID: <c57ae4ebaa76494ea2f7ec1ef19b3...@unipi.it<mailto:c57ae4ebaa76494ea2f7ec1ef19b3...@unipi.it>>
Content-Type: text/plain; charset="iso-8859-1"

Melanie Mitchell, Can Large Language Models reason?

https://aiguide.substack.com/p/can-large-language-models-reason

(non lo copio di seguito perchè immagini e formattazione servono)


_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to