Il giorno mer 17 lug 2024 alle ore 16:24 Giacomo Tesio <giac...@tesio.it> ha scritto:
> On Wed, 17 Jul 2024 12:39:12 Fabio Alemagna <falem...@gmail.com> wrote: > > > > I've developed Molly, a conversational agent with an inner > > > monologue, using OpenAI's Large Language Model (LLM). > > Ehm... no. > > L'autore ha sviluppato un agente che _simula_ un monologo interiore. > Ogni modello che viene elaborato da un computer è una simulazione, ma l'appunto appare irrilevante, specialmente nel contesto di questa specifica discussione in cui si parte dall'assunto che una simulazione di coscienza È essa stessa coscienza, come teorizzato dall'Attention Schema Theory. Ma... lool! :-D > > Quello non è il dialogo interiore di Molly, ma un testo generato da > GPT-3 sulla base di un prompt a partire da un dialogo di esempio. > Le due cose non si escludono a vicenda, fino a dimostrazione contraria. Puoi fornire questa dimostrazione? > > PS: ho replicato l'esperimento con ChatGPT-4. con risultati del tutto > > analoghi, se non migliori. > > Se vuoi possiamo fare lo stesso gioco via mail: riuscirò a convincerti > che Molly ha una coscienza se ti scrivo un po' di frasi che iniziano > con "Molly (to herself): " prima di una frase che inizia con "Molly: "? > (vedi https://github.com/marmelab/molly/blob/main/src/Discussion.tsx ) > 1. Non sono convinto che Molly abbia una coscienza, non salto così velocemente a conclusioni. La discussione però è affascinante, non falle nel sillogismo esposto in calce all'articolo menzionato. 2. Non mi è chiaro come un testo da te personalmente scritto dovrebbe convincermi dell'esistenza della coscienza di qualcun altro, che sia un agente artificial o naturale. E se cambiassimo il prompt descrivendo una Molly schizofrenica, > sosterresti che GPT è schizofrenico? Se la nostra Molly fosse > un'assassina psicopatica, crederesti GPT psicopatico? > Non vedo perché no, non mi stai dando alcuna ragione per non farlo. L'apparente assurdità di una conclusione, sulla base di una personale definizione di "assurdo", non è prova della erroneità di quella conclusione. Fabio