Re: [nexa] Tutto quello che i linguisti computazionali avrebbero voluto sapere sul linguaggio ma non hanno avuto il coraggio di chiedere

2025-02-27 Thread Giuseppe Attardi
Concordo pienamente. Forse manca un riferimento al meccanismo dell’attention, la parte cruciale dei Transformer (Attention is all you need), oltre ai word embedding al loro primo livello, che forniscono la rappresentazione frattale del significato delle parole. La attention è quella che esprim

[nexa] Consultazione pubblica su "Linee guida per la digitalizzazione 3D di beni storico-artistici e museali" - ParteciPa

2025-02-27 Thread Antonio Vetro'
Segnalo questa consultazione pubblica, qualora in lista ci sia qualcuno che segue la digitalizzazione dei beni artistici e museali: L’obiettivo della consultazione è di raccogliere contributi e commenti sulle Linee guida pe la digitalizzazione 3D di beni storico-artistici e museali che costitui