certo, ma cerchiamo di non farla diventare anche analitica :-) On Sat, 24 Feb 2024 at 11:02, Stefano Quintarelli <stef...@quintarelli.it> wrote:
> che regole sbagliate possano favorire i monopolisti non e' una > affermazione vera a > prescindere ? > > On 24/02/24 11:00, Guido Vetere wrote: > > non è che non ci vogliono regole, è che regole sbagliate possono > favorire i monopolisti > > quanto ai simposi e ai comitati, sono diventati quasi più noiosi > dell'AI :-)) > > G. > > > > On Sat, 24 Feb 2024 at 10:50, Stefano Quintarelli < > stef...@quintarelli.it > > <mailto:stef...@quintarelli.it>> wrote: > > > > non mi a pare nessuno discuta cio'. > > la "AI noiosa" e' tra noi da anni e lo sara' sempre di piu' > > solo che non e' la tecnologia salvifica, taumaturgica, human-like > che alcuni narrano. > > e' uno strumento e va usato e considerato come tale. > > come la calcolatrice. > > IMHO > > > > come per ogni strumento, la regolazione e', per metterla in termini > semplici, necessaria. > > > > ciao, s. > > > > On 24/02/24 10:37, Guido Vetere wrote: > > > Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi > di NLP che si sono > > > dimostrati praticamente inattaccabili con tecniche tradizionali, > tipo summarization o > > > semantic role labelling. > > > Per questo, sono già largamente impiegati per compiti > relativamente 'modesti' di > > > estrazione, elaborazione e ricerca di informazione da documenti, > ad esempio > > archivistici. > > > In questi impieghi, la pappagallagine è un beneficio e le > allucinazioni, se ci > > sono, sono > > > nei documenti sorgente, non nelle piattaforme (pseudo) > linguistiche. > > > Questa roba è qui per restare, facciamocene una ragione. > > > Ma non esistono solo le Big Tech US in questa storia: escono LLM > dalle maledette > > pareti! > > > Molte di queste pareti sono europee, accademiche o > pubblico-private. > > > Insomma i margini di manovra ci sono, ma bisogna capire meglio > quali siano le > > manovre. Non > > > credo che andremo lontano a colpi di regolamenti, certificazioni > e relativi enti, > > simposi > > > e convegni, comitati etici, et ceteris. > > > > > > G. > > > > > > > > > > > > > > > On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giac...@tesio.it > > <mailto:giac...@tesio.it> <mailto:giac...@tesio.it <mailto: > giac...@tesio.it>>> > > > wrote: > > > > > > Salve Daniela, > > > > > > come avrai certamentr notato il postmortem può essere diviso > in 3 parti: > > > > > > 1. L'elenco di fatti non negabili > > > > > > > On February 20, 2024, an optimization to the user > experience introduced a > > bug [...] > > > > > > > > LLMs generate responses by randomly sampling words based > in part on > > probabilities. > > > [...] > > > > > > > > In this case, the bug was in the step where the model > chooses these numbers. > > [...] > > > > > > > > Upon identifying the cause of this incident, we rolled out > a fix and > > confirmed that > > > > the incident was resolved. > > > > > > > > > 2. L'antropomorfizzazione del modello > > > > > > > [... a bug] with how the model processes language. > > > > > > > > [...] Their “language” consists of numbers that map to > tokens. > > > > > > > > [...] Akin to being lost in translation, the model chose > slightly wrong > > numbers, which > > > > produced word sequences that made no sense. > > > > > > Povero! Povero modellino! :-D > > > > > > Notare le espressioni "processes language", "language > consists", "lost in > > translation" > > > e soprattutto "choose". > > > > > > E notare come quando gli output non supportano la loro > narrazione sulla > > "intelligenza > > > artificiale" > > > diventano subito "word sequences that made no sense". > > > > > > L'output passa da "language" a "word sequences". > > > > > > Come se gli output prodotti "randomly sampling words based in > part on > > probabilities" > > > avessero un avuto senso prima del bug! > > > > > > > > > 3. La supercazzola magica > > > > > > > More technically, inference kernels produced incorrect > results when used in > > certain > > > > GPU configurations. > > > > > > Data la menzione delle probabilità e delle configurazioni > delle GPU, scommetterei > > > un caffé che il bug era riconducibile ad un overflow numerico > o qualcosa di simile. > > > > > > Il software si rivela semplicemente per quello che è, privo > di qualsiasi > > intelligenza. > > > > > > > > > > Come hanno osservato in molti, la definizione di chatGPT > fornita dai tecnici > > di OpenAI > > > > è quella a cui ci si riferisce con "pappagallo stocastico". > > > > > > Ed è anche quella considerata blasfema dai "believers" della > AI. > > > > > > Che però si aggrapperanno a quell'innocente "in part" per > continuare a credere alle > > > favole. > > > > > > > > > Piuttosto, su cosa si basa il software ChatGPT oltre alle > probabilità? > > > > > > Semplicemente, la volontà di OpenAI/Microsoft, impressa nel > codice delle varie > > parti > > > dell'applicazione, dalla selezione dei contenuti, alle > configurazioni, ai > > prefiltri e > > > ai post filtri. > > > > > > Volontà che ChatGPT riprodurrà pedissequamente su vastissima > scala, in tutti gli > > > output rilevanti. > > > > > > > > > Giacomo > > > _______________________________________________ > > > nexa mailing list > > > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > > <mailto:nexa@server-nexa.polito.it <mailto: > nexa@server-nexa.polito.it>> > > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> > > > <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>> > > > > > > > > > _______________________________________________ > > > nexa mailing list > > > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> > > >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa