Il 03/04/2023 11:35, Giuseppe Attardi ha scritto:
On 3 Apr 2023, at 11:09, Benedetto Ponti <benedetto.po...@unipg.it>
wrote:
Il 03/04/2023 10:46, Giuseppe Attardi ha scritto:
On 3 Apr 2023, at 10:03, Benedetto
Ponti<benedetto.po...@unipg.it>wrote:
mi pare che ci siano un po' di punti fermi da cui partire, sul
piano della disciplina e del regime giuridico a tutela dei dati
personali (non solo e non tanto della "privacy"), se si vuole
impostare un ragionamento (non tanto sulla bontà o meno della
decisione del Garante, in sè, quanto) sull'impatto di tale regime
giuridico su chatGPT (o chi per lei).
1) vorrei intanto ricordare che la diffamazione non richiede che il
fatto narrato/rappresentato sia falso. Si può essere diffamati
anche mediante l'allegazione di un fatto vero. La verità opera come
scriminante in caso di esercizio del diritto di cronaca (rende non
punibile il reato commesso).
Quindi di diffamazione si tratta, questo era il mio punto.
No, è vero il contrario: l'alternativa vero/falso non opera sul piano
della diffamazione (si può essere incrimitati per diffamazione per
diffusione di un fatto vero), ma su piani diversi.
Non ci capiamo. Siamo d’accordo che c’è diffamazione, nel diffondere
affermazioni che un soggetto non vorrebbe fossero diffuse?
- no, non siamo d'accordo.
1) C'è diffamazione solo se le informazioni diffuse sono lesive della
reputazione.
2) Se vengono diffuse notizie che non sono lesive della reputazione, ma
rappresentano in modo falsato/scorretto i miei gusti, preferenze,
vicende, etc., c'è lesione dell'identità personale;
3) se vengono diffuse notizie vere che riguardano la sfera intima e
strettamente personale, senza un giustificato motivo per la loro
diffusione (interesse pubblico della notizia), c'è lesione della
riservatezza
4) se - in presenza di diffusioni di dati personali - non si verifica
nessuna delle condizioni precedenti, residua l'applicazione del GDPR:
diritto di opposizione, diritto di cancellazione, con i connessi
presupposti e casi di non applicazione/deroga
2) c'è poi da aggiungere che la diffamazione è la lesione della
reputazione, mentre nel discorso che qui ci occupa (il fatto che le
risposte di chatGPT forniscano informazione false, scorrette,
datate, etc. riguardo a persone identificate o identificabili) il
profilo rilevante è quello del diritto alla (corretta
rappresentazione dell')identità personale, che è un piano
differente rispetto a quello della reputazione. Rileva cioè - per
essere schematici - il GDPR come legslazione a tutela dei dati
personali, anche in quanto funzionale alla_tutela del diritto
fondamentale all'identità personale_. (correttezza, aggiornamento,
esattezza dei dati sono requisiti funzionali a tale tutela).
Quindi il diritto da tutelare è quello all’identità personale, non
alla protezione dei dati. La GDPR viene invocata surrettiziamente
per difendere il primo, ma è una estrapolazione.
Capisco che tu sostieni che bisogna fare uso delle leggi esistenti,
ma non mi pare corretto stiracchiarle verso altre finalità.
- ah, ma non lo sostengo mica io, eh! questa che ti ho riportato è
giurisprudenza consolidata: la tutela dei dati personali è anche
funzionale/strumentale alla tutela di altri diritti.
Mah, io qui vedo il percorso opposto: si pretende che il diritto
all’identità sia tutelato da una regola che non si applica, e si forza
tale regola ad essere applicabile in funzione del diritto all’identità.
libero di vederla così: chi applica il diritto in italia ed in UE la
vede diversamente (lo vogliamo chiamare "il diritto vivente"?)
3) Fatte queste precisazioni, vorrei venire ad alcune affermazioni,
tipo: "Se il solo rimettere in circolazione dati pubblicati su web
violasse la GDPR, anche i motori di ricerca sarebbero vietati.". Si
dà il caso che dalla sentenza della Corte di giustizia "Google
Spain" in poi (una sentenza del 2014), i motori di ricerca sono
tenuti alla deindicizzazione dei link prodotti da una query basata
su nome e cognome dell'interessato, qualora il link punti ad una
pagina web in cui siano contenuti dati scorretti/inesatti/non (più)
aggiornati. Il diritto al delisting (come strumento che consente di
far valere in diritto alla cancellazione come strumentale, in
particolare, non tanto alla tutela della reputazione, ma più
ampiamente alla tutela dell'identità personale) è oramai
consolidato. Possiamo discutere di come sia costruito l'equilibrio,
se l'eccezione fondata sul diritto di espressione sia adeguata,
etc.; ma che il diritto alla cancellazione (art. 17 GDPR) combinato
con il diritto di opposizione (art. 21) impatti sui motori di
ricerca oramai è un dato acquisito. I motori di ricerca non sono
vietati, ma regolati sì!
Quindi il singolo interessato, non l’Autorità, dovrebbe richiedere
ad OpenAI di eliminare le fonti che lo riferiscono.
(se rischio sistemico, vedi quanto detto sotto, al punto 4). E poi,
attenzione perché la tutela dei dati personali NON si riduce negli
strumenti a disposizione del singolo interessato. Il principio di
responsabilizzazione (art. 6, comma 2) ci dice che la compliance
grava come responsabilità su chi tratta i dati personali, e le
autorità stanno lì a verificare che il gdpr sia rispettato. C'è un
interesse pubblico (una dimensione pubblica, di interesse generale)
alla tutela dei dati personali (proprio perché strumentale alla
tutela di diritti fondamentali della persona), non soltanto
l'interesse specifico deill'interessato.
4)/mutatis mutandis/, quali ricadute del combinato disposto
(diritto di cancellazione+diritto di opposizione) sui chatbot LLM?
Questo a mio parere è il nodo. Il delisting ha funzionato, e
funziona, perché il motore di ricerca non costruisce un contenuto
ad hoc, ma linka a contenuti già esistenti. Diversamente, il
sistema basato sul LLM come chat GPT, non si limita a linkare, anzi
fa tutt'altro. Assembla di volta in volta informazioni che trae dal
web, e fornisce un contenuto ad hoc. Se in questo contenuto sono
presenti inesattezze, dati non aggiornati, dati falsi etc. che sono
riferiti ad una persona identificata o identificabile, i diritti di
cui sopra possono essere fatti valere nei confronti del titolare
del trattamento (che è OpenAI). Se la presenza di errori,
scorrettezze, dati vecchi/non aggiornati è sistematica (by
design),_l'impatto è enorme_, dal momento che varrebbe il principio
opposto (art. 25 del gdpr cd. "privacy by design", espressione
sintetica fuorviante perché l'articolo in questione impone una
conformità della progettazione dei mezzi del trattamento alla
tutela di tutti i diritti degli interessati, non solo della "privacy")
5) si dice, ancora: "Nel produrre le risposte risposte di ChatGPT
non ci sono dati personali che vengono elaborati, solo dati
“manifestly made public” nelle fonti web da cui li trae"
- ora, il fatto che i dati personali siano tratti dal web non
comporta anche che i dati siano stati “manifestly made public”
dallo stesso interessato cui si riferiscono (potrebbe averli
pubblicati qualcun altro). Ed anche nel caso in cui quei dati li
abbia effettivamente resi pubblici l'interessato, ciò non comporta
di per sè che ai trattamenti di quei dati non si applichi tutto il
regime del GDPR. Quella disposizione serve a disattivare il divieto
con cui si apre all'art. 9 (divieto di trattamento), senza però che
questo disattivi tutto il resto del GDPR. In particolare non viene
meno la cogenza del principio di finalità. Tendenzialmente, sono
leciti solo i trattamenti che abbiano una finalità compatibile con
la finalità della pubblicazione da parte dell'interessato. Qual è
la finalità del/dei trattamento/i realizzati per erogare chatCPT?
chi le stabilisce? sono compatibili con quelle per le quali
l'interessato aveva reso pubblici i dati (qui c'è un enorme tema di
rilevanza del contesto).
Me ne rendevo conto, ma interpretavo il fatto che se il soggetto non
ha richiesto la cancellazione della fonte, come nel caso precedente,
li abbia di fatto resi pubblici.
No, questa lettura è improponibile (nel senso che contrasta con tutti
i principi del GDPR, e non solo). In questo modo un diritto si
trasforma in un onere: se non passo la vita a verificare che qualcun
altro abbia pubblicato i miei dati, chiedendogli di cancellarli,
allora è come se quei dati li avessi pubblicati io? Dai, sù...
NB: non sto dicendo che il GDPR sia sempre e cmq soddisfacente
(ieri scrivevo che per molti aspetti si rivela molto rigido, poco
adatto a alle caratteristiche di determinati trattamenti, etc.), ma
la legge vigente è quella lì, non quella che noi vorremmo che ci fosse.
Se non muoviamo, nelle nostre analisi, dal corretto inquadramento
di ciò che il regime attualmente vigente impone, faremo fatica a
comprendere le ragioni dei regolatori (che ci piacciano o meno), e
faremo fatica a immaginare come tale normativa dovrebbe essere
modificata (eventualmente).
Sono d’accordo, ma servono regole idonee allo scopo, non
stiracchiare regole fatte per altri scopi e per altre tecnologie.
Anche il Copyright non si applica a ChatGPT, perché protegge la
forma dell’opera, che ChatGPT non replica mai esattamente.
Ciò che servirebbe sono regole contro la concentrazione di potere
tecnologico in poche aziende.
Come dice Daniela Tafani, occorre garantire il "il rispetto dei
diritti umani [rispetto a] il modello di business dei grandi
monopoli del capitalismo intellettuale.”
È una questione più di politica economica che giuridica.
non ho capito: "servono regole idonee" (e allora è una questione -
anche - giuridica) oppure "È una questione più di politica economica
che giuridica" ? devo citare Natalino Irti (il mercato è una
costruzione del diritto)?
Intendo che occorre un intervento sui meccanismi economici, la
concentrazione di mercato (che l’antitrust depotenziato in USA non
protegge più) e sul capitalismo di sorveglianza (servizi gratuiti in
cambio di profilazione).
Le norme per attuare tali interventi richiedono un accordo di politica
economica su scala internazionale che non c’è: vedi l’accantonamento
della Minimum Tax.
BP
— Beppe
Benedetto Ponti
<firma nuova mail_3.png>
Il 03/04/2023 08:39, Giuseppe Attardi ha scritto:
Non sono d’accordo, anch’io la considero diffamazione.
L’art. 9 della GDPR dice:
1. Processing of personal data revealing racial or ethnic origin,
political opinions, religious or philosophical beliefs, or trade union
membership, and the processing of genetic data, biometric data for the purpose
of uniquely identifying a natural person, data concerning health or data
concerning a natural person’s sex life or sexual orientation shall be
prohibited.
ma esclude:
(e) processing relates to personal data which are manifestly made public by
the data subject;
Nel produrre le risposte risposte di ChatGPT non ci sono dati personali che
vengono elaborati, solo dati “manifestly made public” nelle fonti web da cui li
trae, e le risposte sono solo affermazioni, senza garanzia di verità.
Se fossero vere, si potrebbe contestare che rivelano fatti personali, ma se
sono falsi si tratta di diffamazione.
Delle due l’una: o riteniamo che ChatGPT dica cose vere o non lo crediamo.
Se il solo rimettere in circolazione dati pubblicati su web violasse la GDPR,
anche i motori di ricerca sarebbero vietati.
Non dobbiamo vedere tutto come chiodi perché siamo un martello (GDPR).
Per la diffamazione c’è un reato apposito.
È abbastanza evidente che le norme attuali, GDPR, Copyright e annunciato
European AI Act, sono inadeguati.
Ma intervenire adesso a bloccare una tecnologia che non fa danni, certamente di
meno di tanto software di cui non ci curiamo, è prematuro e controproducente.
— Beppe
On 3 Apr 2023, at 07:19,<nexa-requ...@server-nexa.polito.it>
<nexa-requ...@server-nexa.polito.it> wrote:
Date: Sun, 2 Apr 2023 22:14:12 +0200
From: Maria Chiara Pievatolo<mariachiara.pievat...@unipi.it>
To:<nexa@server-nexa.polito.it>
Subject: Re: [nexa] ChatGPT disabled for users in Italy
Message-ID:<c3aee1da-ee0f-4ea4-4581-4b0a45515...@unipi.it>
Content-Type: text/plain; charset="utf-8"; Format="flowed"
On 02/04/23 20:19, Stefano Zacchiroli wrote:
Che GhatGPT dica panzane a proposito di persone specifiche (viventi) è
in effetti evidente a tutti. Ma, da non giurista, faccio veramente
fatica a capire perché questo ponga problemi al Garante per la
protezione dei dati personali. Se pubblico un sito web pieno di panzane
su persone viventi, il Garante ha il potere di farmelo chiudere? Direi
(sempre da non giurista), che al massimo rischio una querela per
diffamazione dagli interessati.
Se si rivelano dati particolari (ex sensibili) senza il consenso
esplicito dell'interessato si viola l'articolo 9 della GDPR. I dati
particolari, perfino quando sono falsi, mi rappresentano. Se un SALAMI
allucinato mi arruola nei testimoni di Geova, descrive comunque le mie
(presunte) convinzioni religiose senza il mio consenso.
In questo sito
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304030519280824639&URLID=11&ESV=10.0.19.7431&IV=FD30D571A9BE34FDF44C2AE7DE8A8F75&TT=1680499341788&ESN=Q06ji5erVxjVyeKJcOpKxNnU4nl6Pbng%2BSqum1y3kKg%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cucHJpdmFjeWxhYi5pdC9JVC8yMDUvSS1kYXRpLXNlbnNpYmlsaS1uZWwtR0RQUi8&HK=E91FDE7B5CA871A40A3B0BA6B29B00290E68F18CA87F36FF0D9792A2FDE0F002
c'è un
fantastico esempio, quello della malattia di un Peppino agente di
commercio in realtà fin troppo sano, in cui una rivelazione in buona
fede di un dato particolare *falso* senza il consenso dell'interessato
provoca pure una tragedia familiare.
Buonanotte,
MCP
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa