> Amplificare a dismisura gli errori delle menti umane è un errore specifico dei nuovi sistemi computerizzati, e questa è una loro pericolosità specifica
secondo me l'AI fa errori tutti suoi: noi ragioniamo male (l'elenco delle fallacie argomentative è impressionante) ma quella (parlo dei 'pappagalli') non ragiona affatto, il che, dicevo, per le applicazioni modeste (ma utili) è un bene. ma concordo: l'AGI è una devastante narrazione che va smontata G. On Sat, 24 Feb 2024 at 11:12, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote: > Computers are often being used for what the computer does poorly and the > human mind does well. > At the same time the human mind is being used for what the human mind does > poorly and the computer does well. > Even worse, impossible tasks are attempted while achievable and important > goals are ignored. > > Forrester, J. W. (1971). *Counterintuitive behavior of social systems. > Theory and Decision, 2(2), 109–140.* doi:10.1007/bf00148991 > > Distinguiamo gli scopi 'modesti' e 'noiosi' (per i quali nessuno si > preoccupa) da quelli pericolosi. > Amplificare a dismisura gli errori delle menti umane è un errore specifico > dei nuovi sistemi computerizzati, e questa è una loro pericolosità > specifica. > > > Alberto > > > On 24/02/24 10:37, Guido Vetere wrote: > > Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi di NLP > che si sono dimostrati praticamente inattaccabili con tecniche > tradizionali, tipo summarization o semantic role labelling. > Per questo, sono già largamente impiegati per compiti relativamente > 'modesti' di estrazione, elaborazione e ricerca di informazione da > documenti, ad esempio archivistici. In questi impieghi, la pappagallagine è > un beneficio e le allucinazioni, se ci sono, sono nei documenti sorgente, > non nelle piattaforme (pseudo) linguistiche. > Questa roba è qui per restare, facciamocene una ragione. > Ma non esistono solo le Big Tech US in questa storia: escono LLM dalle > maledette pareti! Molte di queste pareti sono europee, accademiche o > pubblico-private. > Insomma i margini di manovra ci sono, ma bisogna capire meglio quali siano > le manovre. Non credo che andremo lontano a colpi di regolamenti, > certificazioni e relativi enti, simposi e convegni, comitati etici, et > ceteris. > > G. > > > > > On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giac...@tesio.it> wrote: > >> Salve Daniela, >> >> come avrai certamentr notato il postmortem può essere diviso in 3 parti: >> >> 1. L'elenco di fatti non negabili >> >> > On February 20, 2024, an optimization to the user experience introduced >> a bug [...] >> > >> > LLMs generate responses by randomly sampling words based in part on >> probabilities. [...] >> > >> > In this case, the bug was in the step where the model chooses these >> numbers. [...] >> > >> > Upon identifying the cause of this incident, we rolled out a fix and >> confirmed that >> > the incident was resolved. >> >> >> 2. L'antropomorfizzazione del modello >> >> > [... a bug] with how the model processes language. >> > >> > [...] Their “language” consists of numbers that map to tokens. >> > >> > [...] Akin to being lost in translation, the model chose slightly wrong >> numbers, which >> > produced word sequences that made no sense. >> >> Povero! Povero modellino! :-D >> >> Notare le espressioni "processes language", "language consists", "lost in >> translation" >> e soprattutto "choose". >> >> E notare come quando gli output non supportano la loro narrazione sulla >> "intelligenza artificiale" >> diventano subito "word sequences that made no sense". >> >> L'output passa da "language" a "word sequences". >> >> Come se gli output prodotti "randomly sampling words based in part on >> probabilities" >> avessero un avuto senso prima del bug! >> >> >> 3. La supercazzola magica >> >> > More technically, inference kernels produced incorrect results when >> used in certain >> > GPU configurations. >> >> Data la menzione delle probabilità e delle configurazioni delle GPU, >> scommetterei >> un caffé che il bug era riconducibile ad un overflow numerico o qualcosa >> di simile. >> >> Il software si rivela semplicemente per quello che è, privo di qualsiasi >> intelligenza. >> >> >> > Come hanno osservato in molti, la definizione di chatGPT fornita dai >> tecnici di OpenAI >> > è quella a cui ci si riferisce con "pappagallo stocastico". >> >> Ed è anche quella considerata blasfema dai "believers" della AI. >> >> Che però si aggrapperanno a quell'innocente "in part" per continuare a >> credere alle favole. >> >> >> Piuttosto, su cosa si basa il software ChatGPT oltre alle probabilità? >> >> Semplicemente, la volontà di OpenAI/Microsoft, impressa nel codice delle >> varie parti >> dell'applicazione, dalla selezione dei contenuti, alle configurazioni, ai >> prefiltri e ai post filtri. >> >> Volontà che ChatGPT riprodurrà pedissequamente su vastissima scala, in >> tutti gli output rilevanti. >> >> >> Giacomo >> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >> > > _______________________________________________ > nexa mailing > listnexa@server-nexa.polito.ithttps://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa