Searle diceva: "la sintassi non è sufficiente per la semantica". Lerchner dice: 
"i simboli non hanno contenuto causale intrinseco senza un agente che li 
alfabetizzi". Entrambi danno per certo di sapere dove sta l'esperienza senza 
spiegare perché una specifica organizzazione fisica la possa produrre e 
un’altra invece non potrà mai. Lerchner costruisce una critica più sofisticata 
al funzionalismo, ma la premessa è la stessa di Searle e come hanno osservato 
in molti (es. Nagel col suo famoso pipistrello) si tratta di qualcosa di molto 
opinabile.

Detto questo, un paper DeepMind che dice che i sistemi AI sono fuori dalla 
morale (in quanto pazienti, dunque anche in quanto agenti) a me pare un po’ 
sospetto.

G.  



 


> Il giorno 28 apr 2026, alle ore 21:13, Giacomo Tesio via nexa 
> <[email protected]> ha scritto:
> 
> Ovvero la scoperta dell'acqua calda
> 
> https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-conscious/
> 
> 
> Giacomo

Reply via email to