Carissimi,
seguo il dibattito con estremo interesse, per la sua incomparabile ricchezza.
Aggiungo alcune osservazioni sulla "diffamazione automatica".

Al di là della circostanza che la diffamazione in USA non è reato (con tutto 
ciò che comporta) concordo con Carlo che, laddove fosse per avventura 
applicabile la legge italiana, il problema non si porrebbe comunque, dal punto 
di vista penalistisco, non solo e non tanto per la difficoltà di individuare se 
un secondo soggetto abbia visualizzato la stessa informazione (come sappiamo, 
non è detto che succeda, per non essere costanti le risposte), ma per assenza 
di dolo.
Solo che il punto fondamentale a mio parere è un altro: un servizio che 
diffonda simili informazioni false può andare esente da responsabilità civile 
extracontrattuale, semplicemente sostenendo che le informazioni che genera non 
sono nè vere ne false, ma verisimili, e che quindi non si tratti di un bug ma 
di una feature?

Mi pare di rivivere, sia pure con i dovuti distinguo, le querelle connesse a 
google autocomplete, con le varie ordinanze del Tribunale di Milano, e le 
stesse difese di Google ante Google Spain, ove si sosteneva (mi chiedo come 
facessero a rimanere seri) che l'attività di un motore di ricerca non fosse un 
trattamento di dati personali (par. 22 della sentenza Costeja Gonzales - 
"Secondo Google Spain e Google Inc., l’attività dei motori di ricerca non può 
essere considerata quale trattamento dei dati che appaiono sulle pagine web di 
terzi visualizzate nell’elenco dei risultati della ricerca, dato che detti 
motori di ricerca trattano le informazioni accessibili su Internet nel loro 
insieme senza operare una selezione tra i dati personali e le altre 
informazioni. Inoltre, anche supponendo che tale attività debba essere 
qualificata come «trattamento di dati», il gestore di un motore di ricerca non 
può essere considerato come «responsabile» di tale trattamento, dal momento che 
egli non ha conoscenza dei dati in questione e non esercita alcun controllo su 
di essi").

Leggere questo periodo a distanza di meno di 10 anni mi fa anche riflettere su 
come un ragionamento così palesemente specioso e infondato abbia resistito fino 
al 2014.
Per cui mi chiedo in che modo possiamo accettare che un ragionamento 
sostanzialmente analogo venga oggi sostenuto da OpenAI.
E questo senza andare a approfondire i profili di responsabilità collegati al 
Digital Governance act...

Grazie a Nexa e a tutti coloro che animano la lista per gli spunti 
preziosissimi.
GB Gallus
--
Avv. Giovanni Battista Gallus
Patrocinante in Cassazione
LL.M. Master of Laws - Ph.D.
ISO/IEC 27001/2013 Lead Auditor

Array - Studio Legale

Via Castelvì n. 9
09129 Cagliari (Italy)
phone +390707966538 fax +390702041360

Piazza San Nazaro in Brolo 15
20121 Milano (Italy)
phone +390287075914 fax +391782709429

e-mail gal...@array.law
PEC g.gal...@legalmail.it
twitter @gbgallus

http://www.array.eu

PGP key fingerprint
1278 C257 1372 8307 FD8A B625 502B E542 4123 3AED


Sent with Proton Mail secure email.

------- Original Message -------
On Wednesday, April 12th, 2023 at 15:46, 380° <g...@biscuolo.net> wrote:


> Buongiorno,
> 
> avrei bisogno di un chiarimento per favore
> 
> Carlo Blengino bleng...@penalistiassociati.it writes:
> 
> > Mah, ho dei dubbi.
> > I punti 0 e 1 sono nodali per una qualche responsabilità
> 
> 
> li riporto qui per completezza
> 
> > > 0. un generatore di stringhe di testo (nel caso citato, ChatGPT)
> > > restituisce, a x oppure a y, un output D, diffamatorio nei riguardi
> > > di x;
> > > 
> > > 1. x rettifica pubblicamente, online, ovviamente citando il testo
> > > della diffamazione D;
> 
> > e qui manca un pezzo fondamentale: la diffamazione si consuma quando
> > la frase lesiva viene percepita almeno dal secondo soggetto (io posso
> > dire o sentire le peggiori cose riguardanti un terzo in una
> > conversazione 1a1 e per fortuna non è reato!!)
> 
> 
> il fatto è descritto nell'articolo in questo modo:
> 
> --8<---------------cut here---------------start------------->8---
> 
> 
> One night last week, the law professor Jonathan Turley got a troubling
> email. As part of a research study, a fellow lawyer in California had
> asked the AI chatbot ChatGPT to generate a list of legal scholars who
> had sexually harassed someone. Turley’s name was on the list.
> 
> The chatbot, created by OpenAI, said Turley had made sexually suggestive
> comments and attempted to touch a student while on a class trip to
> Alaska, citing a March 2018 article in The Washington Post as the source
> of the information. The problem: No such article existed. There had
> never been a class trip to Alaska. And Turley said he’d never been
> accused of harassing a student.
> 
> --8<---------------cut here---------------end--------------->8---
> 
> 
> Quindi una persona y chiede un elenco di giuristi che hanno molestato
> sessualmente qualcuno a ChatGPT, non è x (Turley) a chiedere l'elenco a
> ChatGPT; x (Turley) ne viene a conoscenza perché è y che glielo
> riferisce
> 
> > Chi è responsabile di aver diffuso ad almeno due persone le frasi
> > diffamatorie in questo caso?
> 
> 
> Quindi ChatGPT fornisce a un terzo un messaggio che è SPACCIATO [1]
> come notizia, contiene informazioni false e /potenzialmente/
> diffamatorie portando a sostegno un articolo inventato e il cornuto è
> Turley? :-D
> 
> > Poi il problema resta eh, ma non nei termini indicati.
> 
> 
> In che termini giuridici possiamo inquadrare allora questo problema?
> 
> Turley a chi si può rivolgere per tutelare la propria reputazione?
> 
> In che modo le persone possono difendersi dal fatto che ChatGPT (et al)
> diffondono notizie false sul proprio conto?
> 
> Perché OpenAI e tutti quelli che offrono servizi analoghi non scrivono
> chiaramente in ogni messaggio che si tratta di /fiction/ e
> intimano a tutti i propri utenti che non devono rimuovere tale
> disclaimer?
> 
> Ma anche se ci fosse tale "disclaimer" per evitare potenziale
> diffamazione, sarebbe sufficiente a tutelare il diritto delle persone
> nei confronti dei propri dati personali?
> 
> [...]
> 
> > È tutto complicato...
> 
> 
> Secondo me invece è "solo" complesso... ma neanche tanto
> 
> Credo che la soluzione più semplice per OpenAI et al sia di programmare
> un filtro di ChatGPT per non diffondere nessuna /stronzata/ (cit.) in
> merito alle persone (rimarrebbe comunque il "problemino" della
> legittimità "da GDPR" della raccolta dei dati personali per il
> training).
> 
> Ci sono tante altre cose sulle quali ChatGPT può continuare a
> diffondere... parodie :-D
> 
> [...]
> 
> saluti, 380°
> 
> 
> --
> 380° (Giovanni Biscuolo public alter ego)
> 
> «Noi, incompetenti come siamo,
> non abbiamo alcun titolo per suggerire alcunché»
> 
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts. Ask me about https://stallmansupport.org.
> 
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to