Grazie per il feedback e soprattutto per la domanda.

Non so dire se le parole abbiano, sul piano filosofico, un peso forte o debole ma da osservatore del fenomeno, nella prospettiva del diritto, considero il linguaggio uno dei modi di espressione del pensiero. Per dirla con le parole di Carlo Esposito, le parole appartengono ad una relazione, ove la libertà è garantita «perché l’uomo possa unirsi all’altro uomo nel pensiero…: i vivi con i vivi ed i morti con i vivi..».

Non ritengo, sia detto a evitare equivoci, che la macchina eserciti un diritto di libertà ma, egualmente all’esercizio della libertà di espressione dei vivi, ad essa deve corrispondere l’assunzione di doveri e responsabilità. Non tanto in termini di qualità, veridicità e correttezza delle informazioni sintetizzate, ma sulla base di nuovi modelli di autorialità connessi alla creazione di ‘informazioni sintetizzate’.

Detto altrimenti, al di là del quesito prettamente epistemologico circa la creatività, originalità o capacità di apprendimento dei LLM, non v’è dubbio che essi, pur non esprimendo un pensiero, producano informazioni testuali indirizzate alle persone, che sono portate a realizzare una similitudine tra pensiero umano e informazioni sintetizzate, sono portate a vivere una suggestione che può incidere, con differenti gradazioni, sulla libertà di formare i propri convincimenti interiori e di conseguentemente agire (diritto all'informazione).

Cosa deve fare il legislatore?

Non penso debba 'impegnarsi filosoficamente' ma occorre prendere atto che la tecnologia, cioè l'uomo, ha disunito la capacità di comprendere dalla capacità di produrre informazioni sintetizzate, ha creato autori senza persona, senza libertà ma che, nei fatti, simulano (fingono) l’esercizio di quella. Abbiamo il compito, adesso, di individuare modelli normativi per gestire le responsabilità derivanti da questi nuovi modelli di autorialità, e superare lo scarto culturale che vede il concetto di autorialità legato alla sola categoria persona, un individuo che crea o origina qualcosa, come un libro, un dipinto, una musica, una teoria o qualsiasi altra forma di espressione artistica o intellettuale.

Grazie ancora e buona giornata.

Gianluca Fasano





Il 07/05/2024 18:42, Guido Vetere ha scritto:
Wittgenstein ha notoriamente definito linguaggio come una 'cassetta degli attrezzi' con cui si possono fare 'giochi' che vanno dalle serissime denotazioni alle frivole 'boutade', in contesti diversi e con gli scopi più vari. mi rendo conto dei motivi per cui la legislazione attuale si attiene a una visione 'robusta' dell'esercizio della parola, però oggi abbiamo a che fare con 'intelligenze aliene' che parlano basandosi su presupposti del tutto inediti. la legge, comprensibilmente, fatica a inquadrarli. personalmente, condivido l'idea che l'umano che mette in esercizio un llm debba assumersi la responsabilità di quello che dice come se fosse egli stesso a parlare diversa (e tecnicamente insipiente) è l'idea che il modello linguistico debba inerentemente garantire veridicità, correttezza, eccetera. cosa possiamo accettare come *prova* di queste inerenti capacità? la certificazione del processo di costruzione? suvvia .. purtroppo mi sembra di ravvisare un orientamento di questo tipo nell'AI Act, ma potrei sbagliare, mi smentisca chi può :-)
G.





On Tue, 7 May 2024 at 14:51, alessandro marzocchi <alemar...@gmail.com> wrote:

    A mio parere sono “”VERE”” entrambe le opinioni che operano su
    piani differenti.
    La parola non esiste in natura, è un flatus vocis umano.
    Però … gli umani usano le parole per descrivere / indicare /
    interpretare / raccontare la natura ed i “”fatti”” degli stessi
    umani.  I problemi cominciano quando lenta mente noi umani abbiamo
    cominciato a SOSTITUIRE LA REALTA' con le nostre parole, dando
    alle stesse una forza che non hanno, meglio: cominciando a dar
    loro forza crescente fino ad illuderci / pretendere che abbiano
    forza autonoma (autòs nomos, che si regola da sè) non dipendente
    da / non collegata a la natura.
    Credo Gianluca faccia riferimento alle cosiddette preleggi -
    disposizioni sulla legge in generale / disposizioni preliminari al
    codice civile -: all’art 12 danno per acquisito il potere di
    regolare i fatti umani ed affermano un principio a mio avviso
    corretto e semplice “” Nell'applicare la legge non si può ad essa
    attribuire altro senso che quello fatto palese dal significato
    proprio delle parole secondo la connessione di esse, e dalla
    intenzione del legislatore. “”
    Mia opinione: il dibattito sull’IA è su questo punto, in sostanza
    l'IA non seleziona le parole per il loro senso comune? Cioè la
    macchina fa quello che l'art 12 preleggi prescrive, meglio: indica
    come criterio interpretativo?
    Al centro sta il confronto uomo e macchina, riaprendo domande
    fondamentali, fra le quali la questione se siamo davvero non
    ripetibili, questione che un tempo vedeva la sede dell’umanità nel
    ““cuore”” ed ora la vede in “”mente / intelligenza”” le quali
    hanno origine da parola, linguaggio e quest’ultimo si basa su
    significati accettati dalla maggioranza. Ricordo l’opinione
    contraria di Guido e riconosco che la sua autorevolezza,
    giustamente riconosciuta, mi scuso se vi faccio perder tempo.
    Cordialmente.
    Duccio (Alessandro Marzocchi)

    Il giorno mar 7 mag 2024 alle ore 10:48
    <nexa-requ...@server-nexa.polito.it> ha scritto:

        Date: Tue, 7 May 2024 10:47:57 +0200
        From: Guido Vetere <vetere.gu...@gmail.com>
        To: Gianluca Fasano <gianluca.fas...@cnr.it>
        ottimo articolo, grazie per la condivisione, consiglio a tutte
        [femminile
        sovraesteso] di prendersi una mezz'ora per leggerlo da cima a
        fondo - vi
        vedo che state facendo summarization :-))
        una piccola chiosa profana:

        > le associazioni di parole prodotte [dai language model]
        > implicano un significato per i destinatari, un significato
        fatto palese
        dal senso
        > comune delle parole, secondo il linguaggio naturale, che va
        a influire
        sulla libertà
        > di formazione del pensiero; implicano un significato che va
        a incidere
        sulla libertà
        > di raccogliere le informazioni, di informarsi, su quella che
        viene
        indicata come il
        > profilo passivo della libertà di informazione

        qui mi sembra che si assuma una posizione 'forte' (realistica) nei
        confronti del linguaggio, ma c'è chi ha sostenuto posizioni
        'deboli'
        (nominalistiche) per le quali, per dirla con Roscellino, le
        parole sono
        solo 'emissioni della voce' (flatus vocis).

        domanda: fino a dove il legislatore può impegnarsi
        filosoficamente?
        e perché, anche abbracciando il realismo, non ci soddisfa il
        'disclaimer'
        di OpenAI che recita (molto piccolo, ma vabbè):
        "ChatGPT può commettere errori. Ti consigliamo di verificare le
        informazioni importanti." ?
        grazie ancora e buona giornata
        G.

        On Mon, 6 May 2024 at 17:18, Gianluca Fasano
        <gianluca.fas...@cnr.it> wrote:
        > Buon pomeriggio,
        > colgo l'occasione degli ultimi scambi sui LLMs per
        segnalarvi un mio
        > articolo pubblicato su Dirittifondamentali.it [1], dal titolo:
        > *Le ‘informazioni sintetizzate’ generate dai large language
        models e le
        > esigenze di tutela del diritto all’informazione*: valori
        costituzionali e
        > nuove regole
        > Cordiali saluti.
        > Gianluca
        > [1]
        >
        
http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-generate-dai-large-language-models-e-le-esigenze-di-tutela-del-diritto-allinformazione-valori-costituzionali-e-nuove-regole/

Reply via email to