Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi di NLP che si sono dimostrati praticamente inattaccabili con tecniche tradizionali, tipo summarization o semantic role labelling. Per questo, sono già largamente impiegati per compiti relativamente 'modesti' di estrazione, elaborazione e ricerca di informazione da documenti, ad esempio archivistici. In questi impieghi, la pappagallagine è un beneficio e le allucinazioni, se ci sono, sono nei documenti sorgente, non nelle piattaforme (pseudo) linguistiche. Questa roba è qui per restare, facciamocene una ragione. Ma non esistono solo le Big Tech US in questa storia: escono LLM dalle maledette pareti! Molte di queste pareti sono europee, accademiche o pubblico-private. Insomma i margini di manovra ci sono, ma bisogna capire meglio quali siano le manovre. Non credo che andremo lontano a colpi di regolamenti, certificazioni e relativi enti, simposi e convegni, comitati etici, et ceteris.
G. On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giac...@tesio.it> wrote: > Salve Daniela, > > come avrai certamentr notato il postmortem può essere diviso in 3 parti: > > 1. L'elenco di fatti non negabili > > > On February 20, 2024, an optimization to the user experience introduced > a bug [...] > > > > LLMs generate responses by randomly sampling words based in part on > probabilities. [...] > > > > In this case, the bug was in the step where the model chooses these > numbers. [...] > > > > Upon identifying the cause of this incident, we rolled out a fix and > confirmed that > > the incident was resolved. > > > 2. L'antropomorfizzazione del modello > > > [... a bug] with how the model processes language. > > > > [...] Their “language” consists of numbers that map to tokens. > > > > [...] Akin to being lost in translation, the model chose slightly wrong > numbers, which > > produced word sequences that made no sense. > > Povero! Povero modellino! :-D > > Notare le espressioni "processes language", "language consists", "lost in > translation" > e soprattutto "choose". > > E notare come quando gli output non supportano la loro narrazione sulla > "intelligenza artificiale" > diventano subito "word sequences that made no sense". > > L'output passa da "language" a "word sequences". > > Come se gli output prodotti "randomly sampling words based in part on > probabilities" > avessero un avuto senso prima del bug! > > > 3. La supercazzola magica > > > More technically, inference kernels produced incorrect results when used > in certain > > GPU configurations. > > Data la menzione delle probabilità e delle configurazioni delle GPU, > scommetterei > un caffé che il bug era riconducibile ad un overflow numerico o qualcosa > di simile. > > Il software si rivela semplicemente per quello che è, privo di qualsiasi > intelligenza. > > > > Come hanno osservato in molti, la definizione di chatGPT fornita dai > tecnici di OpenAI > > è quella a cui ci si riferisce con "pappagallo stocastico". > > Ed è anche quella considerata blasfema dai "believers" della AI. > > Che però si aggrapperanno a quell'innocente "in part" per continuare a > credere alle favole. > > > Piuttosto, su cosa si basa il software ChatGPT oltre alle probabilità? > > Semplicemente, la volontà di OpenAI/Microsoft, impressa nel codice delle > varie parti > dell'applicazione, dalla selezione dei contenuti, alle configurazioni, ai > prefiltri e ai post filtri. > > Volontà che ChatGPT riprodurrà pedissequamente su vastissima scala, in > tutti gli output rilevanti. > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa