Wittgenstein ha notoriamente definito linguaggio come una 'cassetta degli
attrezzi' con cui si possono fare 'giochi' che vanno dalle serissime
denotazioni alle frivole 'boutade', in contesti diversi e con gli scopi più
vari.
mi rendo conto dei motivi per cui la legislazione attuale si attiene a una
visione 'robusta' dell'esercizio della parola, però oggi abbiamo a che fare
con 'intelligenze aliene' che parlano basandosi su presupposti del tutto
inediti. la legge, comprensibilmente, fatica a inquadrarli.
personalmente, condivido l'idea che l'umano che mette in esercizio un llm
debba assumersi la responsabilità di quello che dice come se fosse egli
stesso a parlare
diversa (e tecnicamente insipiente) è l'idea che il modello linguistico
debba inerentemente garantire veridicità, correttezza, eccetera. cosa
possiamo accettare come *prova* di queste inerenti capacità? la
certificazione del processo di costruzione? suvvia ..
purtroppo mi sembra di ravvisare un orientamento di questo tipo nell'AI
Act, ma potrei sbagliare, mi smentisca chi può :-)
G.





On Tue, 7 May 2024 at 14:51, alessandro marzocchi <alemar...@gmail.com>
wrote:

> A mio parere sono “”VERE”” entrambe le opinioni che operano su piani
> differenti.
> La parola non esiste in natura, è un flatus vocis umano.
> Però … gli umani usano le parole per descrivere / indicare / interpretare
> / raccontare la natura ed i “”fatti”” degli stessi umani.  I problemi
> cominciano quando lenta mente noi umani abbiamo cominciato a SOSTITUIRE LA
> REALTA' con le nostre parole, dando alle stesse una forza che non hanno,
> meglio: cominciando a dar loro forza crescente fino ad illuderci /
> pretendere che abbiano forza autonoma (autòs nomos, che si regola da sè)
> non dipendente da / non collegata a la natura.
> Credo Gianluca faccia riferimento alle cosiddette preleggi - disposizioni
> sulla legge in generale / disposizioni preliminari al codice civile -:
> all’art 12 danno per acquisito il potere di regolare i fatti umani ed
> affermano un principio a mio avviso corretto e semplice “” Nell'applicare
> la legge non si può ad essa attribuire altro senso che quello fatto palese
> dal significato proprio delle parole secondo la connessione di esse, e
> dalla intenzione del legislatore. “”
> Mia opinione: il dibattito sull’IA è su questo punto, in sostanza l'IA non
> seleziona le parole per il loro senso comune? Cioè la macchina fa quello
> che l'art 12 preleggi prescrive, meglio: indica come criterio
> interpretativo?
> Al centro sta il confronto uomo e macchina, riaprendo domande
> fondamentali, fra le quali la questione se siamo davvero non ripetibili,
> questione che un tempo vedeva la sede dell’umanità nel ““cuore”” ed ora la
> vede in “”mente / intelligenza”” le quali hanno origine da parola,
> linguaggio e quest’ultimo si basa su significati accettati dalla
> maggioranza. Ricordo l’opinione contraria di Guido e riconosco che la sua
> autorevolezza, giustamente riconosciuta, mi scuso se vi faccio perder tempo.
> Cordialmente.
> Duccio (Alessandro Marzocchi)
>
> Il giorno mar 7 mag 2024 alle ore 10:48 <
> nexa-requ...@server-nexa.polito.it> ha scritto:
>
> Date: Tue, 7 May 2024 10:47:57 +0200
>> From: Guido Vetere <vetere.gu...@gmail.com>
>> To: Gianluca Fasano <gianluca.fas...@cnr.it>
>> ottimo articolo, grazie per la condivisione, consiglio a tutte [femminile
>> sovraesteso] di prendersi una mezz'ora per leggerlo da cima a fondo - vi
>> vedo che state facendo summarization :-))
>> una piccola chiosa profana:
>>
>> > le associazioni di parole prodotte [dai language model]
>> > implicano un significato per i destinatari, un significato fatto palese
>> dal senso
>> > comune delle parole, secondo il linguaggio naturale, che va a influire
>> sulla libertà
>> > di formazione del pensiero; implicano un significato che va a incidere
>> sulla libertà
>> > di raccogliere le informazioni, di informarsi, su quella che viene
>> indicata come il
>> > profilo passivo della libertà di informazione
>>
>> qui mi sembra che si assuma una posizione 'forte' (realistica) nei
>> confronti del linguaggio, ma c'è chi ha sostenuto posizioni 'deboli'
>> (nominalistiche) per le quali, per dirla con Roscellino, le parole sono
>> solo 'emissioni della voce' (flatus vocis).
>>
>> domanda: fino a dove il legislatore può impegnarsi filosoficamente?
>> e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer'
>> di OpenAI che recita (molto piccolo, ma vabbè):
>> "ChatGPT può commettere errori. Ti consigliamo di verificare le
>> informazioni importanti." ?
>> grazie ancora e buona giornata
>> G.
>>
>> On Mon, 6 May 2024 at 17:18, Gianluca Fasano <gianluca.fas...@cnr.it>
>> wrote:
>> > Buon pomeriggio,
>> > colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio
>> > articolo pubblicato su Dirittifondamentali.it [1], dal titolo:
>> > *Le ‘informazioni sintetizzate’ generate dai large language models e le
>> > esigenze di tutela del diritto all’informazione*: valori costituzionali
>> e
>> > nuove regole
>> > Cordiali saluti.
>> > Gianluca
>> > [1]
>> >
>> http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-generate-dai-large-language-models-e-le-esigenze-di-tutela-del-diritto-allinformazione-valori-costituzionali-e-nuove-regole/
>>
>>

Reply via email to