>>NON è intelligenza artificiale consapevole Però l'hanno chiamata "IA". Vedi un po'... (Vup).
>>NON è un database esplicito di fatti memorizzati Però c'è dietro il web. Vup. >>NON ha "comprensione" nel senso umano E infatti è una "scorciatoia". Vup. >>NON "ragiona" nel senso umano: calcola probabilità. E infatti è una "scorciatoia". Vup. >>NON ha un meccanismo nativo di verifica logica / fattuale delle sue risposte. Quando vanno bene, vanno bene; quando vanno male, vanno male. Come la statistica. >>NON apprende ma adatta i pesi durante l'inferenza. Se usate reti neurali, ...quello fanno. >>NON contiene neuroni in senso organico, ma numeri, numeri e solo numeri. Però reti "neurali" le avete chiamate voi. >>NON ha memoria permanente tra le conversazioni (a meno che il sistema esterno >>non la aggiunga). Questa è una scelta, e c'è -- almeno su google AI -- un elenco di conversazioni richiamabili. Ma la domanda vera è: che male c'è a usare i "confezionatori di testi" -- e cugini vari in altri ambiti -- PER QUELLO CHE SONO?? Mi va bene il dibattito, ma la domanda è sempre la medesima: di cosa ci preoccupiamo? Del fatto che le persone sono "esposte" (a qualche sorta di inganno?)? COME GIA' DETTO, c'è BEN ALTRO che ci frega. Vogliamo COME AL SOLITO montare un falso problema e parlare di quello, ... così EVITIAMO di parlare di quello VERO? Perché alla fine l'impressione ...è quella. VUP-VUP. ----- Original Message ----- From: antonio via nexa To: [email protected] Sent: Tuesday, May 12, 2026 8:35 PM Subject: [nexa] Re: Forma mentis > No: sono archivi compressi con perdita di sequenze testuali di cui è > possibile decomprimere approssimazioni di alcune zone fornendo in input > una sequenza testuale prossima a quelle presenti nei testi sorgente. > E' una spiegazione semplice, comprensibile ed esaustiva. Aggiungo (tratto da [1]) ... Quello che NON è un modello NON è intelligenza artificiale consapevole NON è un database esplicito di fatti memorizzati NON ha "comprensione" nel senso umano NON "ragiona" nel senso umano: calcola probabilità NON ha un meccanismo nativo di verifica logica/fattuale delle sue risposte NON apprende ma adatta i pesi durante l'inferenza NON contiene neuroni in senso organico, ma numeri, numeri e solo numeri NON ha memoria permanente tra le conversazioni (a meno che il sistema esterno non la aggiunga) [1] https://ilcibernetico.it/autopsia-di-un-llm-parte-prima/ [2] https://ilcibernetico.it/il-tokenizzatore-autopsia-di-un-llm-parte-seconda/ A.
