> No: sono archivi compressi con perdita di sequenze testuali di cui è > possibile decomprimere approssimazioni di alcune zone fornendo in input > una sequenza testuale prossima a quelle presenti nei testi sorgente. > E' una spiegazione semplice, comprensibile ed esaustiva.
Aggiungo (tratto da [1]) ... Quello che NON è un modello NON è intelligenza artificiale consapevole NON è un database esplicito di fatti memorizzati NON ha "comprensione" nel senso umano NON "ragiona" nel senso umano: calcola probabilità NON ha un meccanismo nativo di verifica logica/fattuale delle sue risposte NON apprende ma adatta i pesi durante l'inferenza NON contiene neuroni in senso organico, ma numeri, numeri e solo numeri NON ha memoria permanente tra le conversazioni (a meno che il sistema esterno non la aggiunga) [1] https://ilcibernetico.it/autopsia-di-un-llm-parte-prima/ [2] https://ilcibernetico.it/il-tokenizzatore-autopsia-di-un-llm-parte-seconda/ A.
