ciao,

Il 15/12/24 10:40, Davide Prina ha scritto:
Marco Bertorello ha scritto:
Davide Prina ha scritto:

Il tutto per avere delle "risposte" con alta probabilità di non essere
vere e alcune volte sono talmente verosimili che alterano la realtà
introducendo piccole falsità che poi possono essere prese come assunti
da tutti o da molti.
Ma il problema è di chi assume siano vere quelle risposte! Cosa
c'entra l'AI? o meglio i LLM?
Il loro compito è mica detenere la verità assoluta, solo generare
testo (o immagini nel caso) basandosi su calcoli probablistici e
random seeds.
non sono d'accordo.
Ognuno di noi cerca di conoscere cose non conosciute leggendo
notizie, libri, ... o simili attività.
Attualmente stanno sostituendo attività di persone con l'IA sia
per fornire notizie (vedi il sito di notizie di m$ che ha licenziato
tutti e lo fa gestire completamente dall'IA) che per generare informazioni
(vedi come esempio su amazon il numero di libri pubblicati è esploso,
tanto che amazon ha imposto un limite di libri emittibili per autore
all'anno).
Quindi se una persona normale accede a queste informazioni tende a
ritenerle vere, anche perché non conosce la fonte reale, ma pensa che
chi le ha fornite abbia fornito qualcosa di corretto.
Un esempio che ho letto è proprio relativo ai libri pubblicati su

il problema delle notizie, se siano vere o meno, è molto ampio, se leggi sui giornali, trovi sempre diversità da un giornale all'altro. L'unica possibilità è sulla statistica (se hai più notizie uguali può darsi che sia vera), ma non è esaustiva. sarebbe bello poter sviluppare un codice che possa estrarre "la verità", ma credo che sia impossibile...

A volte sembrano umani? Sì, tant'è che come detto alcune passano il test di 
turing.

di sicuro Turing era una persona molto esperta nel settore all'epoca, ma,
a me sembra, che considerare tale test attualmente come "assoluto" per
determinare se una "macchina" ha un comportamento intelligente mi sembra
riduttivo. Secondo me, se Turing fosse attualmente vivo apporterebbe
modifiche al suo test per adattarlo alla situazione attuale.

per questo il test è stato ripreso e modificato varie volte nel tempo (vedi la pagina su wikipedia), ma turing è stato il primo a presentare il problema.


Nascondere la testa nella sabbia non ha mai portato a nulla di buono

più che nascondere la testa è cercare di informarsi perlomeno per
capire cos'è e che pericoli si corrono ad usarla... in modo da poter
decidere se cercare di evitarla il più possibile o meno.

sono daccordo,

valerio




Ciao
Davide

--
La mia privacy non è affar tuo
https://noyb.eu/it
- You do not have my permission to use this email to train an AI -
If you use this to train your AI than you accept to distribute under AGPL
license >= 3.0 all the model trained, all the source you have used to
training your model and all the source of the program that use that model


Rispondere a