Da quando è nata, nell'IA si confrontano due approcci profondamente diversi: quello connessionista, nato col 'percettrone' di Rosenblat, e quello rappresentazionale, legato alla logica (e oggi si dice) all'ontologia, che fece esordio coi 'frames' di Minsky. Mentre quest'ultimo si propone come ipotesi, cioè dispositivo puramente teoretico, il primo approccio ha in genere ambizioni realistiche, cioè si propone come mimesi effettiva della cognitività umana. Dovremmo a mio avviso prestare attenzione a questa distinzione. Oggi si mostra come i sistemi basati su LLM, derivanti dalla tradizione connessionista, sono sostanzialmente incapaci di ragionamento, e questo ripete, su una scala diversa, la classica dimostrazione di Minsky sulla incapacità dei percettroni di apprendere l'aritmetica. Ma non credo che i LLM, benché privi di corpo, emozioni e desideri, siano costituzionalmente incapaci di costruire al loro interno il corrispettivo di modelli concettuali del tipo di Cyc o Yago, o perfino qualcosa di molto più ampio e accurato, e di arrivare ad esempio a risolvere ragionamenti di senso comune come quelli del Winograd schema challenge. Basare la nostra riflessione, oggi, su questa presunta incapacità sarebbe fuorviante e pericoloso. Mettiamoci invece nell'ordine di idee che queste capacità siano alla portata degli automi del domani. Come rapportarci con questa 'specie aliena' che noi stessi stiamo popolando? L'approccio repressivo (regole, limiti, ecc) può avere successo? Non ci vengono idee migliori? G.
On Mon, 20 Mar 2023 at 11:33, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote: > Caro Giacomo, > > grazie per la tua articolata risposta. Per motivi di spazio e per restare > in tema rispondo solo alla tua osservazione che "sostenere che le AI non > siano intelligenti perché non dotate di corpo è ingenuo". > > Il corpo è _condizione necessaria_ ma non _sufficiente_ per una qualsiasi > interazione "intelligente" che non sia solo un simulacro: chiaramente serve > poi molto altro. > > Il fatto è ben chiaro a chi ci lavora: > > [...] a significant weakness of language models is that they lack > real-world experience, which makes it difficult to leverage them for > decision making within a given embodiment. > <https://arxiv.org/pdf/2204.01691.pdf> > > Tanto che il problema del 'grounding' dei modelli linguistici nel mondo > viene affrontato esplicitamente attraverso la *incorporazione*: > > However, a limitation of such models for inference in the real world is > the issue of grounding: while training LLMs on massive textual data may > lead to representations that relate to our physical world, connecting those > representations to real-world visual and physical sensor modalities is > essential to solving a wider range of grounded real-world problems in > computer vision and robotics > > [...] > > We propose embodied language models to directly incorporate real-world > continuous sensor modalities into language models and thereby establish > the link between words and percepts. > <https://palm-e.github.io/> <https://palm-e.github.io/> > > Attraverso l'approccio 'embodied' vengono realizzate macchine che > rispondono con una azione corporea a uno stimolo verbale e che cercano di > integrare informazioni linguistiche, sensoriali e motorie in modo che il > prodotto di queste informazioni fornisca un comportamento complesso non > ottenibile altrimenti. > > LLMs planning in embodied environments need to consider not just what > skills to do, but also how and when to do them - answers that change over > time in response to the agent’s own choices. In this work, we investigate > to what extent LLMs used in such embodied contexts can reason over sources > of feedback provided through natural language, without any additional > training. We propose that by leveraging environment feedback, LLMs are able > to form an inner monologue that allows them to more richly process and plan > in robotic control scenarios. We investigate a variety of sources of > feedback, such as success detection, object recognition, scene description, > and human interaction. > <https://innermonologue.github.io/> > > In questi esperimenti la macchina condivide uno stesso mondo spaziale e > percettivo con l'umano: "portami il giornale" farà si che la macchina (se > capisce e agisce correttamente) porti il giornale; se lo facesse un cane lo > definiremmo "intelligente". > > Non si tratta semplicemente di integrare algoritmi di visione e mobilità > con quelli linguistici, ma di cercare _caratteristiche emergenti_ che > nascano dalle interazioni di questi diversi elementi. > > Al di là di ciò che vogliamo definire come 'intelligente' o meno (per chi, > per quale contesto, poi?), non possiamo escludere che da queste interazioni > "incorporate" possano emergere comportamenti complessi ben diversi da > quelli puramente emulativi di un LLM che non ha alcuna esperienza del mondo. > > Se anche avessero successo, esperimenti di questo tipo aprono altri ordini > di problemi: la macchina potrebbe distinguere "portami il giornale" da > "portami la pistola"? Anche un cane molto intelligente non saprebbe farlo. > > Ciao, Alberto > > > > On 3/19/23 16:55, Giacomo Tesio wrote: > > Salve Guido, Alberto e Nexa... buona domenica! > > Sarà perché sono solo un informatico, ma io la faccio più semplice. > > > On Sat, 18 Mar 2023 08:10:04 +0100 Guido Vetere wrote: > > > Il segno non esiste come informazione astratta, ma fa parte di un > /processo interpretativo/ che è prettamente _umano_. > > La caratterizzazione di questo "processo interpretativo" è il grande > mistero filosofico che prende il nome di "teoria del significato". > Dire che questo processo possa avvenire solo all'interno di organismi > umani consociati, in una teoria del significato, si può dire solo in > modo assiomatico. Un teorema che giunga a questa conclusione, in una > teoria semiotica comunemente accettata, nessuno ce l'ha, che io > sappia. > > La consistenza della conoscenza umana è indecidibile (per l'uomo). > Cercare di dimostrare matematicamente che il processo interpretativo > tipico della mente umana possa avvenire solo nella mente umana è > futile, per una mente umana. > Vedi teoremi di incompletezza di Gödel. > > > Più semplicemente possiamo definire l'informazione come l'esperienza > soggettiva di pensiero comunicabile che una mente umana (ciascuno di > noi) può percepire in sé stessa, durante il proprio pensare. > La mente è l'insieme delle informazioni acquisite, che determinano > (insieme ad alcuni aspetti evolutivamente determinati) come ogni > informazione viene elaborata. > > > L'informazione è un fenomeno soggettivo con effetti oggettivi. > L'informazione esiste esclusivamente in una mente umana, effetto > collaterale del vantaggio evolutivo che il linguaggio ha fornito > ad una specie fragile come la nostra. > > L'esigenza di una comunità (e dunque di comunicazione e comunione) > nasce dal bisogno di regolare l'accesso, la produzione e la protezione > di beni in comune, come la prole o le riserve di cibo. > > Così abbiamo dovuto sviluppare un linguaggio sufficientemente > preciso da permetterci di comunicare efficientemente le esperienze > soggettive che avvenivano nella nostra mente e abbiamo selezionato via > via nel corso dei millenni, una specie capace di esperienze soggettive > di pensiero comunicabile astratte rispetto alle esperienze quotidiane. > > Il numero, la retta, la legge, la termodinamica, la relatività come la > meccanica quantistica e oggi l'informatica. > > Non possiamo sapere (e io mi sentirei di escludere) se ciascuno di noi > condivide la stessa immagine mentale del punto, dello zero o del gatto. > Tuttavia possiamo condividere definizioni ed esperienze tramite > il linguaggio, costruendo una cultura condivisa che è la ragion > d'essere della comunicazione stessa. > > > Dunque non ci sarebbe comunicazione, linguaggio, informazione o > significato se non ci fosse un "noi" a cui tutti abbiamo bisogno di > fare riferimento per sopravvivere. > > E' fantastico quanto paradossale che una specie debole e fragile come > la nostra abbia tratto un vantaggio evolutivo formidabile dall'affidare > il 20% delle energie consumate dal proprio corpo ad un organo che > ne costituisce meno del 4% del peso. > Un organo che non fornisce alcun contributo sostanziale alla > sopravvivenza di un individuo se non all'interno di una comunità. > > Rimane infatti inspiegabile finché che ci concentriamo sull'individuo. > > Ma nonappena alziamo gli occhi dall'IO e pensiamo a NOI, quel 20% > di energie spese dal nostro cervello diventa assolutamente efficiente. > > Per quanto ce la conti la propaganda liberista, non siamo solo > individui: l'essere umano è davvero un animale sociale. > > Grazie al linguaggio infatti, abbiamo imparato a costruire menti > collettive molto più potenti di ogni singola mente umana, capaci di > elaborare informazioni ed esperienze che riusciamo a SINCRONIZZARE fra > le NOSTRE menti, sebbene non escano il alcun modo dalla testa di > ciascuno di noi. > > > Voi non state vedendo le informazioni nella mia mente: state leggendo > rappresentazioni, dati, che interpreterete alla luce delle esperienze > soggettive di pensiero comunicabile già parte della vostra mente. > > Eppure leggendo cosa ciascuno di NOI scrive in questa lista, > costruiamo una cultura condivisa, sincronizzando alcune informazioni > fra le nostre menti. > > > > Le rappresentazioni dell'informazione, fenomeno soggettivo, che > comunemente chiamiamo "dati" perché possiamo darle a chi vogliamo, sono > il sorgente utilizzato per programmare statisticamente LLM ed altre > macchine virtuali, ma non costituiscono informazioni, perché non c'è > una mente umana ad averne esperienza soggettiva. > > > > Non sarebbe informazione nemmeno se a questi software programmati > statisticamente connettessimo sensori che gli permettano di recuperare > informazioni localizzate nello spazio e nel tempo, Alberto. > > Le "AI" di Google sono costantemente connesse a decine di miliardi di > sensori, molti dei quali ce li portiamo in tasca o aspettano in agguato > su siti web (Google Analytics) o dietro caselle di posta apparentemente > innocue (GMail quando usato per domini diversi da gmail.com). > Questi sensori registrano terabyte di dati geolocalizzati e > temporizzati ogni giorno su miliardi di cose, animali e persone. > > Eppure non sono (intrinsecamente) intelligenti. > > > Dunque sostenere che le AI non siano intelligenti perché non dotate > di corpo è ingenuo. > > Un corpo fragile e debole è certamente utilissimo a sviluppare una > specie capace di intelligenza, ma non è la ragione per cui siamo > intelligenti. > > Siamo intelligenti perché abbiamo bisogno di stare insieme. > Siamo intelligenti perché abbiamo bisogno di mettere in comune risorse > e regole per proteggerle durante il loro utilizzo. > Siamo intelligenti perché (e fintanto che) siamo parte di comunità. > > > Giacomo > > PS: Va però osservato anche che le "AI" di Google non sono che una parte > del controllore dell'agente cibernetico Google. > > Oltre alle "AI", vi sono decine di migliaia di menti umane che lavorano > per Google (esplicitamente o meno) e che governano Google (CdA etc..). > > Dunque sebbene le "AI" di Google non siano intelligenti, lo è certamente > Google nel suo complesso, come agente cibernetico a sé stante. > > Ed in questo senso forse non dovremmo aspettare che un AGI > super-intelligente cerchi di prendere il sopravvento sull'umanità. > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa