non mi è chiaro il motivo per cui un disclaimer appropriato non offrirebbe garanzie sufficienti (se questo è il punto) supponiamo che io metta online una tavola parolibera di marinettiana memoria che genera frasi a caso, eventualmente anche diffamatorie se dichiarassi che il sito è programmaticamente situazionista e non-veritativo, sarei comunque soggetto a censura? non credo, ma i giuristi mi confortino G.
On Fri, 10 May 2024 at 11:37, 380° <g...@biscuolo.net> wrote: > Buongiorno, > > Guido Vetere <vetere.gu...@gmail.com> writes: > > [...] > > > una mezz'ora per leggerlo da cima a fondo - vi vedo che state facendo > > summarization :-)) > > a me ci vuole di più, non sono ancora riuscito a finirlo, ma pian > piano... :-) > > chiedo scusa nel caso qualcuno dei miei commenti sia già stato > affrontato nel paper in oggetto, dal quale è partito questo thread. > > [...] > > > e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer' > > di OpenAI che recita (molto piccolo, ma vabbè): > > > > "ChatGPT può commettere errori. Ti consigliamo di verificare le > > informazioni importanti." ? > > Perché è drammaticamente fuorviante dire che un LLM "commette errori": > errori rispetto a cosa? Rispetto alla veridicità delle informazioni > fornite? > > Mi pare che ci sia un sufficiente consenso tecnico/scientifico sul fatto > che _nulla_ si possa dire in merito all'"inerente veridicità" ecc., il > contrario l'hai definito "tecnicamente insipiente" [1], a meno che io > abbia capito male. > > Quindi, un 'disclaimer' più adeguato OpenAI (& co.) dovrebbero copiarlo > dal famigerrimo "all persons fictitious" disclaimer: > > --8<---------------cut here---------------start------------->8--- > > The story, all names, characters, and incidents portrayed in this > production are fictitious. No identification with actual persons (living > or deceased), places, buildings, and products is intended or should be > inferred. > > --8<---------------cut here---------------end--------------->8--- > > ...con tutte le varianti divertentissime che si sono succedute nel > tempo. > > Perché l'output degli LLM è semplicemente _fiction_ [2], e come fiction > dovrebbe essere trattata anche dal punto di vista /giuriduco/. > > Ora, oggettivamente importa poco (a me) quali parole sono le più > corrette per un simile disclaimer, quale tecnica di "watermaking" o > dimesione di font usare; la cosa che io ritengo fondamentale è che > _nessuna_ persona possa essere indotta a credere che l'output di un LLM > NON sia _fittizio_ (fictitious). E nemmeno importa stabilire una > ipotetica "percentuale di fittizitudine" (stima dell'errore), ammesso e > non concesso sia possibile calcolarla (sarebbe "tecnicamente > insipiente"?). > > ...in caso contrario sarebbe come _far_ credere (anche attraverso una > sofisticata /narrazione/ propagandistica posta in atto all'uopo, a volte > partecipata inconsapevolmente) che i fatti siano accaduti esattamente > come raccontati nei film o nei romanzi e le persone siano così indotte a > giudicarli come fatti corrispondenti al vero. > > Le persone non devono avere dubbi di dover verificare _altrove_. > > Il fatto è che _purtroppo_ ben pochi dispongono delle risorse > finanziarie e delle conoscenze ad altissimissimo livello della > principessa Irina Alexandrovna di Russia, che nel 1934 vinse una causa > per diffamazione contro la Metro-Goldwyn-Mayer e ottenne un notevole > risarcimento [3] nelle giurisdizioni Inglese e Statunitense > (quest'ultima con un accordo extragiudiziale). > > Non solo l'industria della _fiction_ usa quel disclaimer per levarsi > d'impiccio: nel tempo ha affinato un processo definito "negative > checking" > > --8<---------------cut here---------------start------------->8--- > > Negative checking is a process by which producers of film, television > and radio programs will attempt to ensure that the names of fictional > characters cannot be confused with real life people. [...] The primary > reason for this practice is to prevent any possible legal action for > libel which could result. > > --8<---------------cut here---------------end--------------->8--- > (https://en.wikipedia.org/wiki/Negative_checking) > > ...che immagino costi parecchie risorse. > > Dopo, però, si dovrebbe anche aprire il vaso di pandora in merito al > (presunto?) trattamento dei dati _personali_ che farebbe parte del > processo di addestramento degli LLM: per esempio, che tipo di > trattamento giuridico occorrerebbe riservare alle aziende che utilizzano > il contenuto delle email, delle chat e dei post social _privati_ per il > "machine learning" dei nei propri LLM usati per erogare servizi come > quelli di OpenAI? > > [...] > > Saluti, 380° > > > [1] Messaggio id:CAD3hHB52iop9xiWWOkYCAQ1wWi-NdW=_ > iarrn4wjdr2tobq...@mail.gmail.com > > [2] Messaggio id:87bkjwqccs....@xelera.eu > > [3] > https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer#Origins > https://en.wikipedia.org/wiki/Rasputin_and_the_Empress#Lawsuit > > -- > 380° (Giovanni Biscuolo public alter ego) > > «Noi, incompetenti come siamo, > non abbiamo alcun titolo per suggerire alcunché» > > Disinformation flourishes because many people care deeply about injustice > but very few check the facts. Ask me about <https://stallmansupport.org>. >