Buongiorno,

avrei bisogno di un chiarimento per favore

Carlo Blengino <bleng...@penalistiassociati.it> writes:

> Mah, ho dei dubbi.
> I punti 0 e 1 sono nodali per una qualche responsabilità

li riporto qui per completezza

>> 0. un generatore di stringhe di testo (nel caso citato, ChatGPT)
>> restituisce, a x oppure a y, un output D, diffamatorio nei riguardi
>> di x;
>>
>> 1.  x rettifica pubblicamente, online, ovviamente citando il testo
>> della diffamazione D;

> e qui manca un pezzo fondamentale: la diffamazione si consuma quando
> la frase lesiva viene percepita almeno dal secondo soggetto (io posso
> dire o sentire le peggiori cose riguardanti un terzo in una
> conversazione 1a1 e per fortuna non è reato!!)

il fatto è descritto nell'articolo in questo modo:

--8<---------------cut here---------------start------------->8---

One night last week, the law professor Jonathan Turley got a troubling 
email. As part of a research study, a fellow lawyer in California had 
asked the AI chatbot ChatGPT to generate a list of legal scholars who 
had sexually harassed someone. Turley’s name was on the list.

The chatbot, created by OpenAI, said Turley had made sexually suggestive 
comments and attempted to touch a student while on a class trip to 
Alaska, citing a March 2018 article in The Washington Post as the source 
of the information. The problem: No such article existed. There had 
never been a class trip to Alaska. And Turley said he’d never been 
accused of harassing a student.

--8<---------------cut here---------------end--------------->8---

Quindi una persona y chiede un elenco di giuristi che hanno molestato
sessualmente qualcuno a ChatGPT, non è x (Turley) a chiedere l'elenco a
ChatGPT; x (Turley) ne viene a conoscenza perché è y che glielo
riferisce

> Chi è responsabile di aver diffuso ad almeno due  persone le frasi
> diffamatorie in questo caso?

Quindi ChatGPT fornisce a un terzo un messaggio che è **SPACCIATO** [1]
come notizia, contiene informazioni false e /potenzialmente/
diffamatorie portando a sostegno un articolo inventato e il *cornuto* è
Turley? :-D

> Poi il problema resta eh, ma non nei termini indicati.

In che termini giuridici possiamo inquadrare allora questo problema?

Turley a chi si può rivolgere per tutelare la propria reputazione?

In che modo le persone possono difendersi dal fatto che ChatGPT (et al)
diffondono notizie false sul proprio conto?

Perché OpenAI e tutti quelli che offrono servizi analoghi non scrivono
chiaramente in **ogni** messaggio che si tratta di /fiction/ _e_
intimano a tutti i propri utenti che non devono rimuovere tale
disclaimer?

Ma anche se ci fosse tale "disclaimer" per evitare potenziale
diffamazione, sarebbe sufficiente a tutelare il diritto delle persone
nei confronti dei propri dati personali?

[...]

> È tutto complicato...

Secondo me invece è "solo" complesso... ma neanche tanto

Credo che la soluzione più semplice per OpenAI et al sia di programmare
un filtro di ChatGPT per non diffondere nessuna /stronzata/ (cit.) in
merito alle persone (rimarrebbe comunque il "problemino" della
legittimità "da GDPR" della raccolta dei dati personali per il
training).

Ci sono tante altre _cose_ sulle quali ChatGPT può continuare a
diffondere... parodie :-D

[...]

saluti, 380°


-- 
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about <https://stallmansupport.org>.

Attachment: signature.asc
Description: PGP signature

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to