Scusate, [2] era semplicemente un riferimento a questa mail di Giuseppe
in risposta ad Antonio e me:
<https://server-nexa.polito.it/hyperkitty/list/[email protected]/message/FCCMLFB4FNUH36VNP2T5BFPWKBEKYBQN/>

(meglio leggibile nell'allegato html)

Giacomo

Il 14 Maggio 2026 13:01:27 UTC, Giacomo Tesio via nexa 
<[email protected]> ha scritto:
> Ciao Giuseppe,
> [...]
> Per questo nella definizione che hai definito semplicistica [2] avevo
> scritto "sono archivi compressi con perdita di sequenze testuali di
> cui è possibile decomprimere _approssimazioni_di_alcune_zone_ fornendo
> in input una sequenza testuale prossima a quelle presenti nei testi
> sorgente".
> 
> 
> Le zone di attivazione non rappresentano "conoscenza acquisita", o
> "rappresentazioni astratte", bensì sequenze di token che si comprimono
> meglio insieme rispetto che separatamente.
> 
> In altri termini, non si tratta di "un effetto secondario del processo
> di ottimizzazione durante l’apprendimentonto", ma del meccanismo di
> funzionamento del processo di compressione con perdita di _sequenze_ 
> di token in atto.
> 
> 
> Giacomo
> 
> [1] non credo sia necessario citarlo esplicitamente, ma comunque è qui
>     https://en.wikipedia.org/wiki/Attention_Is_All_You_Need

Reply via email to