ringrazio davvero molto Carlo,
che mette in fila una serie di argomenti e di considerazioni che mi
trovo a condividere.
Vorrei fare una sottolineatura: già nelle parole di Carlo ci sono le
tracce di una impianto normativo (quello del GDPR) che mostrava già al
momento della sua formale adozione (parliamo del 2016) molti limiti in
termini di adeguatezza regolativa rispetto ai fenomeni (già allora) in
essere. Da allora le cose, evidentemente, sono molto peggiorate (sempre
in termini di adeguatezza regolativa).
E, tuttavia, il GDPR offre molte munizioni se si volesse approcciare
alla regolazione dei trattamenti dei dati personali, anche con
riferimento alle cd. intelligenze artificiali. Quello che noto, però, è
che, per un verso, in sede UE ci si è imbarcati nella elaborazione di
una disciplina specifica "ad hoc" - il regolamento AI - per altro non
pefettamente coordinata con la disciplina GDPR e che presenta già molti
profili di perplessità/inadeguatezza (per fare solo un esempio, il più
immediato rispetto al nostor tema: non avevano previsto il caso delle
chatbot!).
Dall'altra parte, la regolamentazione che invece c'è (il GDPR) presenta
sì molte inadeguatezze, ma soprattutto mostra - sul piano della
governance - un assetto (ancora) estremamente frammetato che comporta
tempi e modalità di intervento farraginosi e (a volte) barocchi. C'è un
tema di fondo (quanta capacità decisionale si è voluto trattenere in
sede nazionale), che è un nodo gordiano. C'è un tema connesso al modello
della tutela di diritti fondamentali basata su tante autorità
indipendenti quanti sono i paesi membri (non sto criticando l'istituto,
sto sottolineando che non è affatto detto che 27 autorità nazionali
indipendenti siano capaci di coordinarsi adeguatamente; né è dimostrato
che siano capaci di farlo meglio di 27 governi, per intenderci). Per
arrivare ad affermare che Meta (in riferimento ai servizi di Facebook e
Instagram) tratta i dati degli utenti (e anche di terzi non utenti) in
modo che non corrisponde alle basi giuridiche legittimanti previste nel
GDPR (in base ad una causa intentata il giorno stesso che il GDPR è
entrato in vigore, cioè nel maggio del 2018), ed irrogare una
(sostanziosa) multa, _ci sono voluti quasi 5 anni_ (e adesso ci sarà
tutta la trafila dei ricorsi giurisdizionali)! Senza contare la
diversità di vedute mostrata dalle autorità di garanzia nazionali, e che
pare riproporsi anche in sede giurisdizionale (vedi le recenti sentenze
olandesi relative ai terms of service come base contrattuale dei
trattamenti).
Insomma, il tanto decantato "brussel effect" mi pare che debba fare i
conti con una governance ed una capacità di enforcement che non sono
all'altezza degli obiettivi (e dell'ambiente in cui si deve operare). La
scelta, un po' estemporanea e in effetti abbastanza "oscura" nelle sue
motivazioni, del Garante italiano, mi pare un sintomo di questa
situazione complessiva.
(mi associo sempre a Carlo nei ringraziamento per il privilegio di poter
fruire di questo spazio di discussione).
Benedetto
Il 02/04/2023 09:12, Carlo Blengino ha scritto:
Provo a proporvi alcune considerazioni in diritto, giusto per tentare
di dare un contributo, per quel che posso, nell'interpretare un
provvedimento che mi lascia molto perplesso.
1) Il provvedimento è un provvedimento connotato da “particolare
urgenza ed indifferibilità” tanto da non consentire neppure la
convocazione in tempo utile del Garante, ovvero del Collegio dei
Garanti, ed è firmato ed adottato dal solo Presidente. Le ragioni di
tale straordinaria urgenza ed indifferibilità non sono note e non sono
espresse nel provvedimento. Non è una buona partenza e la cosa si
presta a polemiche più o meno strumentali.
2) E’ un provvedimento di _limitazione provvisoria del trattamento
_dei dati personali delle persone che si trovano nel territorio
italiano (a prescindere da cittadinanza oresidenza) e la predetta
limitazione _ha effetto immediato a decorrere dalla data di
ricezione_del provvedimento. Dunque dal 31/03/2023.
C’è poi una seconda imposizione che assegna 20 giorni per comunicare
quali iniziative siano state intraprese al fine di dare attuazione a
quanto prescritto, ovvero l’immediata limitazione del trattamento (io
non leggo altre prescrizioni),e perfornire ogni elemento ritenuto
utile a giustificare le violazioni evidenziate. Violazioni per cui
sussiste un /fumus boni juris/e che saranno oggetto di futura istruttoria.
Non sono stati concessi 20 giorni per conformarsi al GDPR, ma 20
giorni per spiegare cosa hanno immediatamente fatto in relazione al
provvedimento.
3) Prima di affrontare il tema centrale su cosa si intenda per
“limitazione del trattamento” è opportuno precisare quali profili di
illiceità individui il provvedimento. Mi paiono 4, ma non sono sicuro:
i) l’assenza di informativa (che invece c’è); ii l’assenza di base
giuridica neltrattamento dei dati personali nei grandi dataset di
addestramento (tema amplissimo che incide su tutti i sistemi di ML e
non solo); iii) l’inesattezza di dati personali rivelatadagli
out-put errati della chat (questa è davvero significativadi un grave
problema di comprensione del servizio stesso) ed in ultimo iv) il
problema dell'accesso dei minori.
4) Ora, tralasciando le molte considerazioni in diritto che potrebbero
farsi su queste più o meno provate violazioni,ed a prescindere dalla
loro fondatezza, è necessario capire cosa è una “limitazione del
trattamento”. E’fondamentale credoper capire la reale portata del
provvedimento emesso dal Presidente del Garante e quali opzioni avesse
OpenAI al di là di quella, piuttosto semplice, di fregarsene del
provvedimento non essendo stabilita in EU e non essendo pensabile
alcuna capacità esecutiva o impositiva da parte dell’Autorità
Italiana, soprattuttoal di fuori di qualsiasi coordinamento con le
omologhe Autority europee, efficacequanto meno a livello di pressione
politica.
Purtroppo ancora una volta il provvedimento non aiuta a capire quale
limitazione il provider avrebbe dovuto applicare, a quali dati in
concretoe a quali specifici trattamenti; in un sistema in
cuiprobabilmente manco OpenAi sa granularmentecosa c’èe cosaaccade,
non mi pare facile “adempiere” all’ordine immediato...
Sul punto può aiutare ilConsiderando 67 del GDPR ove si legge: N/egli
archivi automatizzati, la limitazione del trattamento dei dati
personali dovrebbe in linea di massima essere assicurata mediante
dispositivi tecnici in modo tale che i dati personali non siano
sottoposti a ulteriori trattamenti e non possano più essere
modificati. Il sistema dovrebbe indicare chiaramente che il
trattamento dei dati personali è stato limitato./
Gli informatici della lista mi aiuteranno a capire come si applica una
limitazione del trattamento sui dati personali di interessati
stabiliti in Italia in una rete quale quella utilizzata da ChatGpt. Mi
chiedo ad esempio come nell’ampio data-set formato dagli archivi delle
principali testate giornalistiche statunitensi (uno negli n° data set
dichiarati)possano esserindividuati, contrassegnati e bloccatii soli
dati delle persone, non italiane, ma stabilite in Italia. Il
provvedimento credo implicherebbe il blocco dell’intera rete, ma sul
punto gli informatici mi aiuteranno.Io non saprei che fare.
Ma al di là dei dati già archiviati, OpenAI dal 31/03/2023 non può
ovviamente trattare, e dunque acquisire, dati di interessati stabiliti
in Italia. Sarebbe singolare non applicare una generica limitazione
all’acquisizione.
Bloccare l’accesso dall’italia, a fronte di un provvedimento così
generico è la prima soluzioneche io suggerirei alprovider ed
ètemol’unica cosa che si puòfare senza bloccare l’intero servizio
worldwide.
_Quel provvedimento d’urgenzanon chiede adeguamenti al GDPR o la messa
in conformità: individua eipotizza alcune possibili violazioni e opera
cautelativamente la limitazione di alcuni dati personali (quelli delle
persone che si trovano nel territorio italiano), alla data31/03/2023.
Punto._
Le critiche al blocco operato da OpenAI ieri mi pare possano avere una
loro fondatezza solo se rapportate alla scelta, del tutto
legittima,tra due opzioni:fregarsene del provvedimento oppurein
qualche modo adempiere nell’unico modo possibile: bloccare l’Italia. E
probabilmente per sfruttare l’abnormità del provvedimento esollevare
un caso OpenAI ha scelto la seconda.
Concordo con Casilli: ci sono analogie con la vicenda Berlusconi degli
anni ‘80. Anche in quel caso una legge inadeguata ed inattuale (e
incompatibile con l’art.21 Cost) si scontrava con una evoluzione
tecnologica che ne palesava l’assoluta iniquità. La mossa di
Berlusconi fu una forzatura del tutto legittima, e fu scelta efficace.
I benefici in termini pluralismo nel settore dei media ed i danni e i
disastri della televisione commerciale sono poi un’altro capitolo
della storia.
Io mi fermo qui, e ringrazio ancora una volta Nexa per questo spazio
di discussione che da mesi, con competenza, dibatte su una cosa grossa
che ci sta accadendo: il tema mi pare davvero non meriti di esser
affrontata dagli enti regolatori italiani con provvedimenti d’urgenza
inutili, inefficaci e forieri di danno per l’Italia. Purtroppo
l’andazzo è questo, non solo nell’approccio alle questioni
tecnologiche a noi care.
Buona domenica
Carlo
Il giorno sab 1 apr 2023 alle ore 16:38 de petra giulio
<giulio.depe...@gmail.com> ha scritto:
Leggo sul sito del Garante il testo del provvedimento:
OpenAI, che non ha una sede nell’Unione ma ha designato un
rappresentante nello Spazio economico europeo, deve comunicare
entro 20 giorni le misure intraprese in attuazione di quanto
richiesto dal Garante, pena una sanzione fino a 20 milioni di euro
o fino al 4% del fatturato globale annuo.
Non è una drammatizzazione, ma un provvedimento coerente con i
rilievi formulati e in linea con altri provvedimenti emanati dal
Garante.
Entro 20 giorni Open AI deve comunicare quali misure intende
adottare per eliminare le cause dei rilievi formulati. Non attuare
le misure, che possono richiedere tempo, ma solo comunicarle al
Garante.
Non comprendo proprio perché con questa decisione:
‘lo Stato regola i comportamenti dei cittadini riducendo i gradi
di libertà e l'agibilità dello spazio pubblico.’
Al contrario mi sembra che l’Autorita’ di garanzia, organo dello
Stato, ma non del governo, cerchi di svolgere il suo compito di
tutela dei cittadini, provando a rendere meno infrequentabile uno
spazio pubblico colonizzato da imprese private digitali.
A meno di eccepire sul merito dei rilievi del Garante, o di
contestare le regole che il Garante ha l’obbligo (non la
discrezione) di attuare, la questione politica evidente è quella
della enorme sproporzione di potere tra gli organismi pubblici
nazionali che hanno il compito di attuare le regole decise in sede
politica e le grandi imprese digitali alle quali quelle regole
sono destinate.
Il richiamo che fa Antonio Casilli ad un altro momento della
recente storia italiana mi sembra efficace e pertinente.
G.
Il giorno sab 1 apr 2023 alle 12:05 Guido Vetere
<vetere.gu...@gmail.com> ha scritto:
Mentre continuo a veleggiare su ChatGPT con una banalissima
VPN, mi inoltro in qualche tentativo di ragionamento.
Immagino che il Garante abbia valutato che le garanzie di
protezione dei dati personali fornite da OpenAI siano
insufficienti, e non ho ragione di credere che tali
valutazioni siano erronee.
Ma a questo punto interviene una decisione: diffidare OpenAI e
minacciare una multa. A fronte di questa, la società
statunitense decide a sua volta di sospendere il servizio in
Italia.
Entrambe le opzioni mi sembrano fuori misura: da una parte
sarebbe bastata, di primo acchito, una richiesta di
chiarimenti e un invito alla cautela alla nostra cittadinanza;
dall'altra si sarebbe potuto attendere il decorso dei termini
della diffida italiana.
Siamo pertanto di fronte a una drammatizzazione.
L'authority italiana, che non è il Governo ma forse coglie lo
'spirito dei tempi', agisce in modo patriarcale: lo Stato
regola i comportamenti dei cittadini riducendo i gradi di
libertà e l'agibilità dello spazio pubblico.
OpenAI coglie l'occasione per ridurre all'assurdo la posizione
di chi critica gli sviluppi e gli impieghi della loro loro
tecnologia.
Vittime di questa drammatizzazione sono coloro che in tutto il
mondo stanno cercando di costruire uno sviluppo sostenibile,
sicuro e sociale delle tecnologie.
G.
On Sat, 1 Apr 2023 at 11:19, Enrico Nardelli
<narde...@mat.uniroma2.it> wrote:
A me pare che la decisione del Garante sia formalmente
ineccepibile: sarò lieto di leggere pareri difformi da
parte degli avvocati esperti di privacy presenti in lista.
Per il momento è un atto urgente del Presidente che il
collegio deve confermare entro 30 giorni (come immagino
accadrà).
Però penso che quelli che ritengo siano i due punti
principali contestati:
- la mancanza di un'informativa rispondente al GDPR sui
dati raccolti
- la mancanza di un sistema di verifica dell'età
possano essere rimediati in un tempo sicuramente inferiore
a 6 mesi (la moratoria richiesta dalla famosa lettera).
Personalmente proverei a fare qualcos'altro, basandomi
sulla legislazione in materia di informazione al pubblico.
Non sono un avvocato, quindi non posso dire se sia
fattibile, ma in sostanza qui abbiamo un sistema che - a
differenza dei motori di ricerca che rispondono agli
utenti con qualcosa di realmente esistente sul web -
fabbrica informazioni false.
Questo difetto può essere corretto con molta più
difficoltà e quindi quest'approccio fornirebbe, se
fattibile, una base legale per bloccare l'uso di ChatGPT
per un tempo molto più lungo.
Sia chiaro: non ritengo abbia senso bloccare ricerca e
sviluppo in questo settore, ma qui c'è qualcosa di
equivalente (anzi, probabilmente superiore) ad una
tecnologia per costruire a costo irrisorio reattori
nucleari portatili. Possono essere un enorme vantaggio per
tutti, ma possono essere anche assai pericolosi. Una
qualche forma di regolamentazione va trovata.
Aggiungo che un reclamo presentato negli USA alla Federal
Trade Commission da parte del Center for AI and Digital
Policy
(https://s899a9742c3d83292.jimcontent.com/download/version/1680174583/module/8450182663/name/PRESS-CAIDP-OpenAI-FTC-Complaint.pdf)
cita, tra l'altro, la "consumer deception" come motivo per
bloccare l'utilizzo di questi strumenti.
Concludo osservando che il paragone con regimi autoritari
mi sembra un po' fuor di luogo: questo collegio non è
espressione dell'attuale governo (che comunque è il
risultato di elezioni democraticamente svolte) ma del
governo Draghi.
Ciao, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
======================================================
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola"
del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: narde...@mat.uniroma2.it
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--
*
*
*Avv. Carlo Blengino*
*
*
/Via Duchessa Jolanda n. 19,/
/10138 Torino (TO) - Italy/
/tel. +39 011 4474035/
Penalistiassociati.it
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa