In non vedo niente di sbagliato nel tuo ragionamento, Stefano Zacchiroli.

Da non giurista, ma da amante della logica, avverto anche io la dissonanza
dell'affermazione che ChatGPT rivela dati personali sensibili e al contempo
falsi. Nella sua teoria dell'"informazione semantica", Floridi dice che una
affermazione falsa non reca in effetti alcuna informazione. Non so quanto
essere d'accordo col filosofo, ma l'incongruenza del Garante mi sembra
comunque evidente.

@Stefano Quintarelli <stef...@quintarelli.it>, in effetti sembra stiano
'incoraggiando' (reinforcement learning) ChatGPT ad essere più cauto
riguardo alle vicende delle persone, e facendo qualche prova ho constatato
che il sistema si rifiuta di rispondere a domande 'sensibili'. Resta
comunque valida la tua osservazione: basterebbe dire chiaramente che
ChatGPT inventa storie, più o meno come un sito di satira. Invece - e qui
c'è il dolo di OpenAI - è stato inizialmente proposto come un sistema di
question-answering, dal quale ci si possono aspettare risposte autentiche.
La storia poi che GPT-4 sarebbe stato più veridico del suo predecessore si
sta rivelando alquanto inattendibile. Su questo - l'ho detto già ma ci
torno - andrebbe fatta una seria riflessione tecnica.

G.





On Sun, 2 Apr 2023 at 20:19, Stefano Zacchiroli <z...@upsilon.cc> wrote:

> On Sun, Apr 02, 2023 at 06:34:50PM +0200, Maurizio Borghi wrote:
> > aggiungerei soltanto che il problema principale emerge a mio parere
> > dall'effetto congiunto di due dei profili di illegittimità individuati
> > dal Garante: il trattamento di milioni di dati personali senza base
> > giuridica E la sistematica produzione di informazioni false su
> > soggetti interessati. Questo secondo profilo (riscontrabile da
> > chiunque faccia uso del sistema), oltre a costituire un illecito di
> > per sè, esclude secondo me categoricamente il "legittimo interesse"
> > come possibile base giuridica del trattamento. Dunque si configura una
> > violazione grave del GDPR che può anche motivare un provvedimento
> > d'urgenza.
>
> Se capisco bene, la seconda parte del tuo "E" qui sopra è il punto
> seguente evocato da Carlo nella sua (ottima!, grazie!!) analisi:
>
> > iii) l’inesattezza di dati personali rivelata dagli out-put errati
> > della chat (questa è davvero significativa di un grave problema di
> > comprensione del servizio stesso)
>
> Che GhatGPT dica panzane a proposito di persone specifiche (viventi) è
> in effetti evidente a tutti. Ma, da non giurista, faccio veramente
> fatica a capire perché questo ponga problemi al Garante per la
> protezione dei dati personali. Se pubblico un sito web pieno di panzane
> su persone viventi, il Garante ha il potere di farmelo chiudere? Direi
> (sempre da non giurista), che al massimo rischio una querela per
> diffamazione dagli interessati.
>
> Cosa sbaglio nella analogia e/o nella mia comprensione di questo aspetto
> del problema?
>
> Grazie a tutt*,
> a presto!
> --
> Stefano Zacchiroli . z...@upsilon.cc . https://upsilon.cc/zack  _. ^ ._
> Full professor of Computer Science              o     o   o     \/|V|\/
> Télécom Paris, Polytechnic Institute of Paris     o     o o    </>   <\>
> Co-founder & CTO Software Heritage            o o o     o       /\|^|/\
> https://twitter.com/zacchiro . https://mastodon.xyz/@zacchiro   '" V "'
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to