non è che non ci vogliono regole, è che regole sbagliate possono
favorire i monopolisti
quanto ai simposi e ai comitati, sono diventati quasi più noiosi
dell'AI :-))
G.
On Sat, 24 Feb 2024 at 10:50, Stefano Quintarelli
<stef...@quintarelli.it <mailto:stef...@quintarelli.it>> wrote:
non mi a pare nessuno discuta cio'.
la "AI noiosa" e' tra noi da anni e lo sara' sempre di piu'
solo che non e' la tecnologia salvifica, taumaturgica, human-like
che alcuni narrano.
e' uno strumento e va usato e considerato come tale.
come la calcolatrice.
IMHO
come per ogni strumento, la regolazione e', per metterla in
termini semplici, necessaria.
ciao, s.
On 24/02/24 10:37, Guido Vetere wrote:
> Gufare sui LLM è divertentissimo, tuttavia hanno risolto
problemi di NLP che si sono
> dimostrati praticamente inattaccabili con tecniche
tradizionali, tipo summarization o
> semantic role labelling.
> Per questo, sono già largamente impiegati per compiti
relativamente 'modesti' di
> estrazione, elaborazione e ricerca di informazione da
documenti, ad esempio
archivistici.
> In questi impieghi, la pappagallagine è un beneficio e le
allucinazioni, se ci
sono, sono
> nei documenti sorgente, non nelle piattaforme (pseudo)
linguistiche.
> Questa roba è qui per restare, facciamocene una ragione.
> Ma non esistono solo le Big Tech US in questa storia: escono
LLM dalle maledette
pareti!
> Molte di queste pareti sono europee, accademiche o
pubblico-private.
> Insomma i margini di manovra ci sono, ma bisogna capire meglio
quali siano le
manovre. Non
> credo che andremo lontano a colpi di regolamenti,
certificazioni e relativi enti,
simposi
> e convegni, comitati etici, et ceteris.
>
> G.
>
>
>
>
> On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giac...@tesio.it
<mailto:giac...@tesio.it> <mailto:giac...@tesio.it
<mailto:giac...@tesio.it>>>
> wrote:
>
> Salve Daniela,
>
> come avrai certamentr notato il postmortem può essere
diviso in 3 parti:
>
> 1. L'elenco di fatti non negabili
>
> > On February 20, 2024, an optimization to the user
experience introduced a
bug [...]
> >
> > LLMs generate responses by randomly sampling words
based in part on
probabilities.
> [...]
> >
> > In this case, the bug was in the step where the model
chooses these numbers.
[...]
> >
> > Upon identifying the cause of this incident, we rolled
out a fix and
confirmed that
> > the incident was resolved.
>
>
> 2. L'antropomorfizzazione del modello
>
> > [... a bug] with how the model processes language.
> >
> > [...] Their “language” consists of numbers that map to
tokens.
> >
> > [...] Akin to being lost in translation, the model
chose slightly wrong
numbers, which
> > produced word sequences that made no sense.
>
> Povero! Povero modellino! :-D
>
> Notare le espressioni "processes language", "language
consists", "lost in
translation"
> e soprattutto "choose".
>
> E notare come quando gli output non supportano la loro
narrazione sulla
"intelligenza
> artificiale"
> diventano subito "word sequences that made no sense".
>
> L'output passa da "language" a "word sequences".
>
> Come se gli output prodotti "randomly sampling words based
in part on
probabilities"
> avessero un avuto senso prima del bug!
>
>
> 3. La supercazzola magica
>
> > More technically, inference kernels produced incorrect
results when used in
certain
> > GPU configurations.
>
> Data la menzione delle probabilità e delle configurazioni
delle GPU, scommetterei
> un caffé che il bug era riconducibile ad un overflow
numerico o qualcosa di simile.
>
> Il software si rivela semplicemente per quello che è,
privo di qualsiasi
intelligenza.
>
>
> > Come hanno osservato in molti, la definizione di
chatGPT fornita dai tecnici
di OpenAI
> > è quella a cui ci si riferisce con "pappagallo
stocastico".
>
> Ed è anche quella considerata blasfema dai "believers"
della AI.
>
> Che però si aggrapperanno a quell'innocente "in part" per
continuare a credere alle
> favole.
>
>
> Piuttosto, su cosa si basa il software ChatGPT oltre alle
probabilità?
>
> Semplicemente, la volontà di OpenAI/Microsoft, impressa
nel codice delle varie
parti
> dell'applicazione, dalla selezione dei contenuti, alle
configurazioni, ai
prefiltri e
> ai post filtri.
>
> Volontà che ChatGPT riprodurrà pedissequamente su
vastissima scala, in tutti gli
> output rilevanti.
>
>
> Giacomo
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>
<mailto:nexa@server-nexa.polito.it
<mailto:nexa@server-nexa.polito.it>>
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
<https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
> <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
<https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>>
>
>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
<https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>