non mi è chiaro il motivo per cui un disclaimer appropriato non offrirebbe
garanzie sufficienti (se questo è il punto)
supponiamo che io metta online una tavola parolibera di marinettiana
memoria che genera frasi a caso, eventualmente anche diffamatorie
se dichiarassi che il sito è programmaticamente situazionista e
non-veritativo, sarei comunque soggetto a censura?
non credo, ma i giuristi mi confortino
G.


On Fri, 10 May 2024 at 11:37, 380° <g...@biscuolo.net> wrote:

> Buongiorno,
>
> Guido Vetere <vetere.gu...@gmail.com> writes:
>
> [...]
>
> > una mezz'ora per leggerlo da cima a fondo - vi vedo che state facendo
> > summarization :-))
>
> a me ci vuole di più, non sono ancora riuscito a finirlo, ma pian
> piano... :-)
>
> chiedo scusa nel caso qualcuno dei miei commenti sia già stato
> affrontato nel paper in oggetto, dal quale è partito questo thread.
>
> [...]
>
> > e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer'
> > di OpenAI che recita (molto piccolo, ma vabbè):
> >
> > "ChatGPT può commettere errori. Ti consigliamo di verificare le
> > informazioni importanti." ?
>
> Perché è drammaticamente fuorviante dire che un LLM "commette errori":
> errori rispetto a cosa?  Rispetto alla veridicità delle informazioni
> fornite?
>
> Mi pare che ci sia un sufficiente consenso tecnico/scientifico sul fatto
> che _nulla_ si possa dire in merito all'"inerente veridicità" ecc., il
> contrario l'hai definito "tecnicamente insipiente" [1], a meno che io
> abbia capito male.
>
> Quindi, un 'disclaimer' più adeguato OpenAI (& co.) dovrebbero copiarlo
> dal famigerrimo "all persons fictitious" disclaimer:
>
> --8<---------------cut here---------------start------------->8---
>
> The story, all names, characters, and incidents portrayed in this
> production are fictitious. No identification with actual persons (living
> or deceased), places, buildings, and products is intended or should be
> inferred.
>
> --8<---------------cut here---------------end--------------->8---
>
> ...con tutte le varianti divertentissime che si sono succedute nel
> tempo.
>
> Perché l'output degli LLM è semplicemente _fiction_ [2], e come fiction
> dovrebbe essere trattata anche dal punto di vista /giuriduco/.
>
> Ora, oggettivamente importa poco (a me) quali parole sono le più
> corrette per un simile disclaimer, quale tecnica di "watermaking" o
> dimesione di font usare; la cosa che io ritengo fondamentale è che
> _nessuna_ persona possa essere indotta a credere che l'output di un LLM
> NON sia _fittizio_ (fictitious).  E nemmeno importa stabilire una
> ipotetica "percentuale di fittizitudine" (stima dell'errore), ammesso e
> non concesso sia possibile calcolarla (sarebbe "tecnicamente
> insipiente"?).
>
> ...in caso contrario sarebbe come _far_ credere (anche attraverso una
> sofisticata /narrazione/ propagandistica posta in atto all'uopo, a volte
> partecipata inconsapevolmente) che i fatti siano accaduti esattamente
> come raccontati nei film o nei romanzi e le persone siano così indotte a
> giudicarli come fatti corrispondenti al vero.
>
> Le persone non devono avere dubbi di dover verificare _altrove_.
>
> Il fatto è che _purtroppo_ ben pochi dispongono delle risorse
> finanziarie e delle conoscenze ad altissimissimo livello della
> principessa Irina Alexandrovna di Russia, che nel 1934 vinse una causa
> per diffamazione contro la Metro-Goldwyn-Mayer e ottenne un notevole
> risarcimento [3] nelle giurisdizioni Inglese e Statunitense
> (quest'ultima con un accordo extragiudiziale).
>
> Non solo l'industria della _fiction_ usa quel disclaimer per levarsi
> d'impiccio: nel tempo ha affinato un processo definito "negative
> checking"
>
> --8<---------------cut here---------------start------------->8---
>
> Negative checking is a process by which producers of film, television
> and radio programs will attempt to ensure that the names of fictional
> characters cannot be confused with real life people. [...] The primary
> reason for this practice is to prevent any possible legal action for
> libel which could result.
>
> --8<---------------cut here---------------end--------------->8---
> (https://en.wikipedia.org/wiki/Negative_checking)
>
> ...che immagino costi parecchie risorse.
>
> Dopo, però, si dovrebbe anche aprire il vaso di pandora in merito al
> (presunto?) trattamento dei dati _personali_ che farebbe parte del
> processo di addestramento degli LLM: per esempio, che tipo di
> trattamento giuridico occorrerebbe riservare alle aziende che utilizzano
> il contenuto delle email, delle chat e dei post social _privati_ per il
> "machine learning" dei nei propri LLM usati per erogare servizi come
> quelli di OpenAI?
>
> [...]
>
> Saluti, 380°
>
>
> [1] Messaggio id:CAD3hHB52iop9xiWWOkYCAQ1wWi-NdW=_
> iarrn4wjdr2tobq...@mail.gmail.com
>
> [2] Messaggio id:87bkjwqccs....@xelera.eu
>
> [3]
> https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer#Origins
> https://en.wikipedia.org/wiki/Rasputin_and_the_Empress#Lawsuit
>
> --
> 380° (Giovanni Biscuolo public alter ego)
>
> «Noi, incompetenti come siamo,
>  non abbiamo alcun titolo per suggerire alcunché»
>
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts.  Ask me about <https://stallmansupport.org>.
>

Reply via email to