> No: sono archivi compressi con perdita di sequenze testuali di cui è
> possibile decomprimere approssimazioni di alcune zone fornendo in input
> una sequenza testuale prossima a quelle presenti nei testi sorgente.
> E' una spiegazione semplice, comprensibile ed esaustiva.

Aggiungo (tratto da [1]) ...

Quello che NON è un modello

NON è intelligenza artificiale consapevole
NON è un database esplicito di fatti memorizzati
NON ha "comprensione" nel senso umano
NON "ragiona" nel senso umano: calcola probabilità
NON ha un meccanismo nativo di verifica logica/fattuale delle sue risposte
NON apprende ma adatta i pesi durante l'inferenza
NON contiene neuroni in senso organico, ma numeri, numeri e solo numeri
NON ha memoria permanente tra le conversazioni (a meno che il sistema esterno 
non la aggiunga)

[1] https://ilcibernetico.it/autopsia-di-un-llm-parte-prima/
[2] https://ilcibernetico.it/il-tokenizzatore-autopsia-di-un-llm-parte-seconda/

A.

Reply via email to