Il giorno mer 17 lug 2024 alle ore 16:24 Giacomo Tesio <giac...@tesio.it>
ha scritto:

> On Wed, 17 Jul 2024 12:39:12 Fabio Alemagna <falem...@gmail.com> wrote:
>
> > > I've developed Molly, a conversational agent with an inner
> > > monologue, using OpenAI's Large Language Model (LLM).
>
> Ehm... no.
>
> L'autore ha sviluppato un agente che _simula_ un monologo interiore.
>

Ogni modello che viene elaborato da un computer è una simulazione, ma
l'appunto appare irrilevante, specialmente nel contesto di questa specifica
discussione in cui si parte dall'assunto che una simulazione di coscienza È
essa stessa coscienza, come teorizzato dall'Attention Schema Theory.

Ma... lool! :-D
>

> Quello non è il dialogo interiore di Molly, ma un testo generato da
> GPT-3 sulla base di un prompt a partire da un dialogo di esempio.
>


Le due cose non si escludono a vicenda, fino a dimostrazione contraria.
Puoi fornire questa dimostrazione?



> > PS: ho replicato l'esperimento con ChatGPT-4. con risultati del tutto
> > analoghi, se non migliori.
>
> Se vuoi possiamo fare lo stesso gioco via mail: riuscirò a convincerti
> che Molly ha una coscienza se ti scrivo un po' di frasi che iniziano
> con "Molly (to herself): " prima di una frase che inizia con "Molly: "?
> (vedi https://github.com/marmelab/molly/blob/main/src/Discussion.tsx )
>

1. Non sono convinto che Molly abbia una coscienza, non salto così
velocemente a conclusioni. La discussione però è affascinante, non falle
nel sillogismo esposto in calce all'articolo menzionato.
2.  Non mi è chiaro come un testo da te personalmente scritto dovrebbe
convincermi dell'esistenza della coscienza di qualcun altro, che sia un
agente artificial o naturale.

E se cambiassimo il prompt descrivendo una Molly schizofrenica,
> sosterresti che GPT è schizofrenico? Se la nostra Molly fosse
> un'assassina psicopatica, crederesti GPT psicopatico?
>

Non vedo perché no, non mi stai dando alcuna ragione per non farlo.
L'apparente assurdità di una conclusione, sulla base di una personale
definizione di "assurdo", non è prova della erroneità di quella conclusione.

Fabio

Reply via email to