Carissimi, seguo il dibattito con estremo interesse, per la sua incomparabile ricchezza. Aggiungo alcune osservazioni sulla "diffamazione automatica".
Al di là della circostanza che la diffamazione in USA non è reato (con tutto ciò che comporta) concordo con Carlo che, laddove fosse per avventura applicabile la legge italiana, il problema non si porrebbe comunque, dal punto di vista penalistisco, non solo e non tanto per la difficoltà di individuare se un secondo soggetto abbia visualizzato la stessa informazione (come sappiamo, non è detto che succeda, per non essere costanti le risposte), ma per assenza di dolo. Solo che il punto fondamentale a mio parere è un altro: un servizio che diffonda simili informazioni false può andare esente da responsabilità civile extracontrattuale, semplicemente sostenendo che le informazioni che genera non sono nè vere ne false, ma verisimili, e che quindi non si tratti di un bug ma di una feature? Mi pare di rivivere, sia pure con i dovuti distinguo, le querelle connesse a google autocomplete, con le varie ordinanze del Tribunale di Milano, e le stesse difese di Google ante Google Spain, ove si sosteneva (mi chiedo come facessero a rimanere seri) che l'attività di un motore di ricerca non fosse un trattamento di dati personali (par. 22 della sentenza Costeja Gonzales - "Secondo Google Spain e Google Inc., l’attività dei motori di ricerca non può essere considerata quale trattamento dei dati che appaiono sulle pagine web di terzi visualizzate nell’elenco dei risultati della ricerca, dato che detti motori di ricerca trattano le informazioni accessibili su Internet nel loro insieme senza operare una selezione tra i dati personali e le altre informazioni. Inoltre, anche supponendo che tale attività debba essere qualificata come «trattamento di dati», il gestore di un motore di ricerca non può essere considerato come «responsabile» di tale trattamento, dal momento che egli non ha conoscenza dei dati in questione e non esercita alcun controllo su di essi"). Leggere questo periodo a distanza di meno di 10 anni mi fa anche riflettere su come un ragionamento così palesemente specioso e infondato abbia resistito fino al 2014. Per cui mi chiedo in che modo possiamo accettare che un ragionamento sostanzialmente analogo venga oggi sostenuto da OpenAI. E questo senza andare a approfondire i profili di responsabilità collegati al Digital Governance act... Grazie a Nexa e a tutti coloro che animano la lista per gli spunti preziosissimi. GB Gallus -- Avv. Giovanni Battista Gallus Patrocinante in Cassazione LL.M. Master of Laws - Ph.D. ISO/IEC 27001/2013 Lead Auditor Array - Studio Legale Via Castelvì n. 9 09129 Cagliari (Italy) phone +390707966538 fax +390702041360 Piazza San Nazaro in Brolo 15 20121 Milano (Italy) phone +390287075914 fax +391782709429 e-mail gal...@array.law PEC g.gal...@legalmail.it twitter @gbgallus http://www.array.eu PGP key fingerprint 1278 C257 1372 8307 FD8A B625 502B E542 4123 3AED Sent with Proton Mail secure email. ------- Original Message ------- On Wednesday, April 12th, 2023 at 15:46, 380° <g...@biscuolo.net> wrote: > Buongiorno, > > avrei bisogno di un chiarimento per favore > > Carlo Blengino bleng...@penalistiassociati.it writes: > > > Mah, ho dei dubbi. > > I punti 0 e 1 sono nodali per una qualche responsabilità > > > li riporto qui per completezza > > > > 0. un generatore di stringhe di testo (nel caso citato, ChatGPT) > > > restituisce, a x oppure a y, un output D, diffamatorio nei riguardi > > > di x; > > > > > > 1. x rettifica pubblicamente, online, ovviamente citando il testo > > > della diffamazione D; > > > e qui manca un pezzo fondamentale: la diffamazione si consuma quando > > la frase lesiva viene percepita almeno dal secondo soggetto (io posso > > dire o sentire le peggiori cose riguardanti un terzo in una > > conversazione 1a1 e per fortuna non è reato!!) > > > il fatto è descritto nell'articolo in questo modo: > > --8<---------------cut here---------------start------------->8--- > > > One night last week, the law professor Jonathan Turley got a troubling > email. As part of a research study, a fellow lawyer in California had > asked the AI chatbot ChatGPT to generate a list of legal scholars who > had sexually harassed someone. Turley’s name was on the list. > > The chatbot, created by OpenAI, said Turley had made sexually suggestive > comments and attempted to touch a student while on a class trip to > Alaska, citing a March 2018 article in The Washington Post as the source > of the information. The problem: No such article existed. There had > never been a class trip to Alaska. And Turley said he’d never been > accused of harassing a student. > > --8<---------------cut here---------------end--------------->8--- > > > Quindi una persona y chiede un elenco di giuristi che hanno molestato > sessualmente qualcuno a ChatGPT, non è x (Turley) a chiedere l'elenco a > ChatGPT; x (Turley) ne viene a conoscenza perché è y che glielo > riferisce > > > Chi è responsabile di aver diffuso ad almeno due persone le frasi > > diffamatorie in questo caso? > > > Quindi ChatGPT fornisce a un terzo un messaggio che è SPACCIATO [1] > come notizia, contiene informazioni false e /potenzialmente/ > diffamatorie portando a sostegno un articolo inventato e il cornuto è > Turley? :-D > > > Poi il problema resta eh, ma non nei termini indicati. > > > In che termini giuridici possiamo inquadrare allora questo problema? > > Turley a chi si può rivolgere per tutelare la propria reputazione? > > In che modo le persone possono difendersi dal fatto che ChatGPT (et al) > diffondono notizie false sul proprio conto? > > Perché OpenAI e tutti quelli che offrono servizi analoghi non scrivono > chiaramente in ogni messaggio che si tratta di /fiction/ e > intimano a tutti i propri utenti che non devono rimuovere tale > disclaimer? > > Ma anche se ci fosse tale "disclaimer" per evitare potenziale > diffamazione, sarebbe sufficiente a tutelare il diritto delle persone > nei confronti dei propri dati personali? > > [...] > > > È tutto complicato... > > > Secondo me invece è "solo" complesso... ma neanche tanto > > Credo che la soluzione più semplice per OpenAI et al sia di programmare > un filtro di ChatGPT per non diffondere nessuna /stronzata/ (cit.) in > merito alle persone (rimarrebbe comunque il "problemino" della > legittimità "da GDPR" della raccolta dei dati personali per il > training). > > Ci sono tante altre cose sulle quali ChatGPT può continuare a > diffondere... parodie :-D > > [...] > > saluti, 380° > > > -- > 380° (Giovanni Biscuolo public alter ego) > > «Noi, incompetenti come siamo, > non abbiamo alcun titolo per suggerire alcunché» > > Disinformation flourishes because many people care deeply about injustice > but very few check the facts. Ask me about https://stallmansupport.org. > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa