Caro Giacomo,
grazie per la tua articolata risposta. Per motivi di spazio e per
restare in tema rispondo solo alla tua osservazione che "sostenere che
le AI non siano intelligenti perché non dotate di corpo è ingenuo".
Il corpo è _condizione necessaria_ ma non _sufficiente_ per una
qualsiasi interazione "intelligente" che non sia solo un simulacro:
chiaramente serve poi molto altro.
Il fatto è ben chiaro a chi ci lavora:
[...] a significant weakness of language models is that they lack
real-world experience, which makes it difficult to leverage them for
decision making within a given embodiment.
<https://arxiv.org/pdf/2204.01691.pdf>
Tanto che il problema del 'grounding' dei modelli linguistici nel mondo
viene affrontato esplicitamente attraverso la *incorporazione*:
However, a limitation of such models for inference in the real world
is the issue of grounding: while training LLMs on massive textual
data may lead to representations that relate to our physical world,
connectingthose representationstoreal-world visual and physical
sensor modalities is essential to solving a wider range
ofgroundedreal-world problems in computer vision and robotics
[...]
We propose embodied language models to directly incorporate
real-world continuous sensor modalities into language models and
thereby establish the link between words and percepts.
<https://palm-e.github.io/>
Attraverso l'approccio 'embodied' vengono realizzate macchine che
rispondono con una azione corporea a uno stimolo verbale e che cercano
di integrare informazioni linguistiche, sensoriali e motorie in modo che
il prodotto di queste informazioni fornisca un comportamento complesso
non ottenibile altrimenti.
LLMs planning in embodied environments need to consider not just
what skills to do, but also how and when to do them - answers that
change over time in response to the agent’s own choices. In this
work, we investigate to what extent LLMs used in such embodied
contexts can reason over sources of feedback provided through
natural language, without any additional training. We propose that
by leveraging environment feedback, LLMs are able to form an inner
monologue that allows them to more richly process and plan in
robotic control scenarios. We investigate a variety of sources of
feedback, such as success detection, object recognition, scene
description, and human interaction.
<https://innermonologue.github.io/>
In questi esperimenti la macchina condivide uno stesso mondo spaziale e
percettivo con l'umano: "portami il giornale" farà si che la macchina
(se capisce e agisce correttamente) porti il giornale; se lo facesse un
cane lo definiremmo "intelligente".
Non si tratta semplicemente di integrare algoritmi di visione e mobilità
con quelli linguistici, ma di cercare _caratteristiche emergenti_ che
nascano dalle interazioni di questi diversi elementi.
Al di là di ciò che vogliamo definire come 'intelligente' o meno (per
chi, per quale contesto, poi?), non possiamo escludere che da queste
interazioni "incorporate" possano emergere comportamenti complessi ben
diversi da quelli puramente emulativi di un LLM che non ha alcuna
esperienza del mondo.
Se anche avessero successo, esperimenti di questo tipo aprono altri
ordini di problemi: la macchina potrebbe distinguere "portami il
giornale" da "portami la pistola"? Anche un cane molto intelligente non
saprebbe farlo.
Ciao, Alberto
On 3/19/23 16:55, Giacomo Tesio wrote:
Salve Guido, Alberto e Nexa... buona domenica!
Sarà perché sono solo un informatico, ma io la faccio più semplice.
On Sat, 18 Mar 2023 08:10:04 +0100 Guido Vetere wrote:
Il segno non esiste come informazione astratta, ma fa parte di un
/processo interpretativo/ che è prettamente _umano_.
La caratterizzazione di questo "processo interpretativo" è il grande
mistero filosofico che prende il nome di "teoria del significato".
Dire che questo processo possa avvenire solo all'interno di organismi
umani consociati, in una teoria del significato, si può dire solo in
modo assiomatico. Un teorema che giunga a questa conclusione, in una
teoria semiotica comunemente accettata, nessuno ce l'ha, che io
sappia.
La consistenza della conoscenza umana è indecidibile (per l'uomo).
Cercare di dimostrare matematicamente che il processo interpretativo
tipico della mente umana possa avvenire solo nella mente umana è
futile, per una mente umana.
Vedi teoremi di incompletezza di Gödel.
Più semplicemente possiamo definire l'informazione come l'esperienza
soggettiva di pensiero comunicabile che una mente umana (ciascuno di
noi) può percepire in sé stessa, durante il proprio pensare.
La mente è l'insieme delle informazioni acquisite, che determinano
(insieme ad alcuni aspetti evolutivamente determinati) come ogni
informazione viene elaborata.
L'informazione è un fenomeno soggettivo con effetti oggettivi.
L'informazione esiste esclusivamente in una mente umana, effetto
collaterale del vantaggio evolutivo che il linguaggio ha fornito
ad una specie fragile come la nostra.
L'esigenza di una comunità (e dunque di comunicazione e comunione)
nasce dal bisogno di regolare l'accesso, la produzione e la protezione
di beni in comune, come la prole o le riserve di cibo.
Così abbiamo dovuto sviluppare un linguaggio sufficientemente
preciso da permetterci di comunicare efficientemente le esperienze
soggettive che avvenivano nella nostra mente e abbiamo selezionato via
via nel corso dei millenni, una specie capace di esperienze soggettive
di pensiero comunicabile astratte rispetto alle esperienze quotidiane.
Il numero, la retta, la legge, la termodinamica, la relatività come la
meccanica quantistica e oggi l'informatica.
Non possiamo sapere (e io mi sentirei di escludere) se ciascuno di noi
condivide la stessa immagine mentale del punto, dello zero o del gatto.
Tuttavia possiamo condividere definizioni ed esperienze tramite
il linguaggio, costruendo una cultura condivisa che è la ragion
d'essere della comunicazione stessa.
Dunque non ci sarebbe comunicazione, linguaggio, informazione o
significato se non ci fosse un "noi" a cui tutti abbiamo bisogno di
fare riferimento per sopravvivere.
E' fantastico quanto paradossale che una specie debole e fragile come
la nostra abbia tratto un vantaggio evolutivo formidabile dall'affidare
il 20% delle energie consumate dal proprio corpo ad un organo che
ne costituisce meno del 4% del peso.
Un organo che non fornisce alcun contributo sostanziale alla
sopravvivenza di un individuo se non all'interno di una comunità.
Rimane infatti inspiegabile finché che ci concentriamo sull'individuo.
Ma nonappena alziamo gli occhi dall'IO e pensiamo a NOI, quel 20%
di energie spese dal nostro cervello diventa assolutamente efficiente.
Per quanto ce la conti la propaganda liberista, non siamo solo
individui: l'essere umano è davvero un animale sociale.
Grazie al linguaggio infatti, abbiamo imparato a costruire menti
collettive molto più potenti di ogni singola mente umana, capaci di
elaborare informazioni ed esperienze che riusciamo a SINCRONIZZARE fra
le NOSTRE menti, sebbene non escano il alcun modo dalla testa di
ciascuno di noi.
Voi non state vedendo le informazioni nella mia mente: state leggendo
rappresentazioni, dati, che interpreterete alla luce delle esperienze
soggettive di pensiero comunicabile già parte della vostra mente.
Eppure leggendo cosa ciascuno di NOI scrive in questa lista,
costruiamo una cultura condivisa, sincronizzando alcune informazioni
fra le nostre menti.
Le rappresentazioni dell'informazione, fenomeno soggettivo, che
comunemente chiamiamo "dati" perché possiamo darle a chi vogliamo, sono
il sorgente utilizzato per programmare statisticamente LLM ed altre
macchine virtuali, ma non costituiscono informazioni, perché non c'è
una mente umana ad averne esperienza soggettiva.
Non sarebbe informazione nemmeno se a questi software programmati
statisticamente connettessimo sensori che gli permettano di recuperare
informazioni localizzate nello spazio e nel tempo, Alberto.
Le "AI" di Google sono costantemente connesse a decine di miliardi di
sensori, molti dei quali ce li portiamo in tasca o aspettano in agguato
su siti web (Google Analytics) o dietro caselle di posta apparentemente
innocue (GMail quando usato per domini diversi da gmail.com).
Questi sensori registrano terabyte di dati geolocalizzati e
temporizzati ogni giorno su miliardi di cose, animali e persone.
Eppure non sono (intrinsecamente) intelligenti.
Dunque sostenere che le AI non siano intelligenti perché non dotate
di corpo è ingenuo.
Un corpo fragile e debole è certamente utilissimo a sviluppare una
specie capace di intelligenza, ma non è la ragione per cui siamo
intelligenti.
Siamo intelligenti perché abbiamo bisogno di stare insieme.
Siamo intelligenti perché abbiamo bisogno di mettere in comune risorse
e regole per proteggerle durante il loro utilizzo.
Siamo intelligenti perché (e fintanto che) siamo parte di comunità.
Giacomo
PS: Va però osservato anche che le "AI" di Google non sono che una parte
del controllore dell'agente cibernetico Google.
Oltre alle "AI", vi sono decine di migliaia di menti umane che lavorano
per Google (esplicitamente o meno) e che governano Google (CdA etc..).
Dunque sebbene le "AI" di Google non siano intelligenti, lo è certamente
Google nel suo complesso, come agente cibernetico a sé stante.
Ed in questo senso forse non dovremmo aspettare che un AGI
super-intelligente cerchi di prendere il sopravvento sull'umanità.
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa