>>NON è intelligenza artificiale consapevole

Però l'hanno chiamata "IA". Vedi un po'... (Vup).

>>NON è un database esplicito di fatti memorizzati

Però c'è dietro il web. Vup.

>>NON ha "comprensione" nel senso umano

E infatti è una "scorciatoia". Vup.

>>NON "ragiona" nel senso umano: calcola probabilità.

E infatti è una "scorciatoia". Vup.

>>NON ha un meccanismo nativo di verifica logica / fattuale delle sue risposte.

Quando vanno bene, vanno bene; quando vanno male, vanno male.
Come la statistica.

>>NON apprende ma adatta i pesi durante l'inferenza.

Se usate reti neurali, ...quello fanno.

>>NON contiene neuroni in senso organico, ma numeri, numeri e solo numeri.

Però reti "neurali" le avete chiamate voi.

>>NON ha memoria permanente tra le conversazioni (a meno che il sistema esterno 
>>non la aggiunga).

Questa è una scelta, e c'è -- almeno su google AI -- un elenco di conversazioni 
richiamabili.

Ma la domanda vera è: che male c'è a usare i "confezionatori di testi" -- e 
cugini vari in altri ambiti -- PER QUELLO CHE SONO??
Mi va bene il dibattito, ma la domanda è sempre la medesima: di cosa ci 
preoccupiamo?
Del fatto che le persone sono "esposte" (a qualche sorta di inganno?)?

COME GIA' DETTO, c'è BEN ALTRO che ci frega.
Vogliamo COME AL SOLITO montare un falso problema e parlare di quello, ... così 
EVITIAMO di parlare di quello VERO?
Perché alla fine l'impressione ...è quella. VUP-VUP.


  ----- Original Message ----- 
  From: antonio via nexa 
  To: [email protected] 
  Sent: Tuesday, May 12, 2026 8:35 PM
  Subject: [nexa] Re: Forma mentis


  > No: sono archivi compressi con perdita di sequenze testuali di cui è
  > possibile decomprimere approssimazioni di alcune zone fornendo in input
  > una sequenza testuale prossima a quelle presenti nei testi sorgente.
  > E' una spiegazione semplice, comprensibile ed esaustiva.

  Aggiungo (tratto da [1]) ...

  Quello che NON è un modello

  NON è intelligenza artificiale consapevole
  NON è un database esplicito di fatti memorizzati
  NON ha "comprensione" nel senso umano
  NON "ragiona" nel senso umano: calcola probabilità
  NON ha un meccanismo nativo di verifica logica/fattuale delle sue risposte
  NON apprende ma adatta i pesi durante l'inferenza
  NON contiene neuroni in senso organico, ma numeri, numeri e solo numeri
  NON ha memoria permanente tra le conversazioni (a meno che il sistema esterno 
non la aggiunga)

  [1] https://ilcibernetico.it/autopsia-di-un-llm-parte-prima/
  [2] 
https://ilcibernetico.it/il-tokenizzatore-autopsia-di-un-llm-parte-seconda/

  A.

Reply via email to