Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi di NLP
che si sono dimostrati praticamente inattaccabili con tecniche
tradizionali, tipo summarization o semantic role labelling.
Per questo, sono già largamente impiegati per compiti relativamente
'modesti' di estrazione, elaborazio
non mi a pare nessuno discuta cio'.
la "AI noiosa" e' tra noi da anni e lo sara' sempre di piu'
solo che non e' la tecnologia salvifica, taumaturgica, human-like che alcuni
narrano.
e' uno strumento e va usato e considerato come tale.
come la calcolatrice.
IMHO
come per ogni strumento, la regola
non è che non ci vogliono regole, è che regole sbagliate possono favorire i
monopolisti
quanto ai simposi e ai comitati, sono diventati quasi più noiosi dell'AI
:-))
G.
On Sat, 24 Feb 2024 at 10:50, Stefano Quintarelli
wrote:
> non mi a pare nessuno discuta cio'.
> la "AI noiosa" e' tra noi da a
che regole sbagliate possano favorire i monopolisti non e' una affermazione vera a
prescindere ?
On 24/02/24 11:00, Guido Vetere wrote:
non è che non ci vogliono regole, è che regole sbagliate possono favorire i
monopolisti
quanto ai simposi e ai comitati, sono diventati quasi più noiosi dell'
Computers are often being used for what the computer does poorly and
the human mind does well.
At the same time the human mind is being used for what the human
mind does poorly and the computer does well.
Even worse, impossible tasks are attempted while achievable and
important g
certo, ma cerchiamo di non farla diventare anche analitica :-)
On Sat, 24 Feb 2024 at 11:02, Stefano Quintarelli
wrote:
> che regole sbagliate possano favorire i monopolisti non e' una
> affermazione vera a
> prescindere ?
>
> On 24/02/24 11:00, Guido Vetere wrote:
> > non è che non ci vogliono
Il 24/02/24 11:02, Stefano Quintarelli ha scritto:
che regole sbagliate possano favorire i monopolisti non e' una
affermazione vera a prescindere ?
È anche vero che:
- l'assenza di regole può favorire i monopolisti,
- regole giuste possono favorire gli altri (quelli che non sono
monopolisti)
> Amplificare a dismisura gli errori delle menti umane è un errore
specifico dei nuovi sistemi computerizzati, e questa è una loro
pericolosità specifica
secondo me l'AI fa errori tutti suoi: noi ragioniamo male (l'elenco delle
fallacie argomentative è impressionante) ma quella (parlo dei 'pappaga
Salve Marco e Stefano
Il 24 Febbraio 2024 11:22:33 CET, Marco Ciurcina via nexa
ha scritto:
> Il 24/02/24 11:02, Stefano Quintarelli ha scritto:
> > che regole sbagliate possano favorire i monopolisti non e' una affermazione
> > vera a prescindere ?
>
> È anche vero che:
>
> - l'assenza di re
> 1) L'AGI è una devastante narrazione che va smontata
Faccio l'LLM umana e riassumo, con licenza di interpretare alcune frasi, il
thread (in particolare le mail di Guido).
2) con l'AI sta per crollare (finalmente) il diritto d'autore (pagare pegno al
NYT e a tutti gli altri)
3) per i matematic
Il 24 Febbraio 2024 13:23:47 CET, Antonio ha scritto:
> 2) con l'AI sta per crollare (finalmente) il diritto d'autore (pagare pegno
> al NYT e a tutti gli altri)
Sta per crollare? Sicuro? Per chi?
Potremo usare Windows e Office aggratis?
I dipendenti potranno diffondere i sorgenti proprietari
> Sta per crollare? Sicuro? Per chi?
No, no, era un riferimento alla frase di Guido:
"a me piace pensare che stiano lavorando per evitare sequenze 'verbatim' e
dover pagare pegno al NYT e a tutti gli altri"
Nel software sono d'accordo con te, altro che crollo, i sorgenti, sempre più
proprietari
12 matches
Mail list logo