[nexa] Forse su AI e Data Protection Europa e USA riusciranno a mettersi d'accordo

2023-04-03 Thread Diego Giorio
O almeno sembra essercene l'intenzione, che è già un'ottima notizia per sé

https://www.corrierecomunicazioni.it/podcast/intelligenza-artificiale-sulla-data-protection-linea-comune-ue-usa/
[https://d110erj175o600.cloudfront.net/wp-content/uploads/2023/01/02154729/shutterstock_2183452323.jpg]
Intelligenza artificiale, sulla data protection linea comune 
Ue-Usa?
Sul tavolo la questione regolatoria a fronte di una repentina evoluzione dello 
scenario con l'avvento di ChatGpt e dei sistemi di AI generativa. Autorità, 
aziende e stakeholder dovranno riuscire a trovare il giusto equilibrio. 
L'analisi dell'avvocato Rocco Panetta
www.corrierecomunicazioni.it

Buona settimana a tutti

D.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Benedetto Ponti
mi pare che ci siano un po' di punti fermi da cui partire, sul piano 
della disciplina e del regime giuridico a tutela dei dati personali (non 
solo e non tanto della "privacy"), se si vuole impostare un ragionamento 
(non tanto sulla bontà o meno della decisione del Garante, in sè, 
quanto) sull'impatto di tale regime giuridico su chatGPT (o chi per lei).


1) vorrei intanto ricordare che la diffamazione non richiede che il 
fatto narrato/rappresentato sia falso. Si può essere diffamati anche 
mediante l'allegazione di un fatto vero. La verità opera come 
scriminante in caso di esercizio del diritto di cronaca (rende non 
punibile il reato commesso).


2) c'è poi da aggiungere che la diffamazione è la lesione della 
reputazione, mentre nel discorso che qui ci occupa (il fatto che le 
risposte di chatGPT forniscano informazione false, scorrette, datate, 
etc. riguardo a  persone identificate o identificabili) il profilo 
rilevante è quello del diritto alla (corretta rappresentazione 
dell')identità personale, che è un piano differente rispetto a quello 
della reputazione. Rileva cioè - per essere schematici - il GDPR come 
legslazione a tutela dei dati personali, anche in quanto funzionale alla 
_tutela del diritto fondamentale all'identità personale_. (correttezza, 
aggiornamento, esattezza dei dati sono requisiti funzionali a tale tutela).


3) Fatte queste precisazioni, vorrei venire ad alcune affermazioni, 
tipo: "Se il solo rimettere in circolazione dati pubblicati su web 
violasse la GDPR, anche i motori di ricerca sarebbero vietati.". Si dà 
il caso che dalla sentenza della Corte di giustizia "Google Spain" in 
poi (una sentenza del 2014), i motori di ricerca sono tenuti alla 
deindicizzazione dei link prodotti da una query basata su nome e cognome 
dell'interessato, qualora il link punti ad una pagina web in cui siano 
contenuti dati scorretti/inesatti/non (più) aggiornati. Il diritto al 
delisting (come strumento che consente di far valere in diritto alla 
cancellazione come strumentale, in particolare, non tanto alla tutela 
della reputazione, ma più ampiamente alla tutela dell'identità 
personale) è oramai consolidato. Possiamo discutere di come sia 
costruito l'equilibrio, se l'eccezione fondata sul diritto di 
espressione sia adeguata, etc.; ma che il diritto alla cancellazione 
(art. 17 GDPR) combinato con il diritto di opposizione (art. 21) impatti 
sui motori di ricerca oramai è un dato acquisito. I motori di ricerca 
non sono vietati, ma regolati sì!


4) /mutatis mutandis/, quali ricadute del combinato disposto (diritto di 
cancellazione+diritto di opposizione) sui chatbot LLM? Questo a mio 
parere è il nodo. Il delisting ha funzionato, e funziona, perché il 
motore di ricerca non costruisce un contenuto ad hoc, ma linka a 
contenuti già esistenti. Diversamente, il sistema basato sul LLM come 
chat GPT, non si limita a linkare, anzi fa tutt'altro. Assembla di volta 
in volta informazioni che trae dal web, e fornisce un contenuto ad hoc. 
Se in questo contenuto sono presenti inesattezze, dati non aggiornati, 
dati falsi etc. che sono riferiti ad una persona identificata o 
identificabile, i diritti di cui sopra possono essere fatti valere nei 
confronti del titolare del trattamento (che è OpenAI). Se la presenza di 
errori, scorrettezze, dati vecchi/non aggiornati è sistematica (by 
design), _l'impatto è enorme_, dal momento che varrebbe il principio 
opposto (art. 25 del gdpr cd. "privacy by design", espressione sintetica 
fuorviante perché l'articolo in questione impone una conformità della 
progettazione dei mezzi del trattamento alla tutela di tutti i diritti 
degli interessati, non solo della "privacy")


5) si dice, ancora: "Nel produrre le risposte risposte di ChatGPT non ci 
sono dati personali che vengono elaborati, solo dati “manifestly made 
public” nelle fonti web da cui li trae"
- ora, il fatto che i dati personali siano tratti dal web non comporta 
anche che i dati siano stati “manifestly made public” dallo stesso 
interessato cui si riferiscono (potrebbe averli pubblicati qualcun 
altro). Ed anche nel caso in cui quei dati li abbia effettivamente resi 
pubblici l'interessato, ciò non comporta di per sè che ai trattamenti di 
quei dati non si applichi tutto il regime del GDPR. Quella disposizione 
serve a disattivare il divieto con cui si apre all'art. 9 (divieto di 
trattamento), senza però che questo disattivi tutto il resto del GDPR. 
In particolare non viene meno la cogenza del principio di finalità. 
Tendenzialmente, sono leciti solo i trattamenti che abbiano una finalità 
compatibile con la finalità della pubblicazione da parte 
dell'interessato. Qual è la finalità del/dei trattamento/i realizzati 
per erogare chatCPT? chi le stabilisce? sono compatibili con quelle per 
le quali l'interessato aveva reso pubblici i dati (qui c'è un enorme 
tema di rilevanza del contesto).


NB: non sto dicendo che il GDPR sia sempre e cmq soddisfacente (ieri 
scrivevo che per molti aspet

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Antonio Vetro'
Sperando di non sbagliarmi, mi sembra che nel thread non si sia ricordato che i 
dati di training di GPT-4 non sono esclusivamente dati già pubblici,
ma anche dati acquisiti commercialmente e legalmente da altre aziende (non mi 
stupirei se rientrasse in questa categoria
anche la corrispondenza mail di centinaia di milioni di utenti che usano la 
posta di Microsoft, o la chat Whatsapp, ecc.).

"GPT-4 is a Transformer-style model pre-trained to predict the next token in a 
document,
using both publicly available data (such as internet data) and data licensed 
from third-party providers"

Fonte: GPT-4 Technical Report, pag. 2

A.


Il giorno 3 apr 2023, alle ore 07:50, Maurizio Borghi 
 ha scritto:

La mia ipotesi è che il Garante consideri i due aspetti come collegati. La 
finalità del trattamento determina infatti la liceità del trattamento, in 
particolare quando si invoca il legittimo interesse come base giuridica. Se la 
finalità è produrre in serie informazioni errate su persone fisiche, viene meno 
questa base giuridica per il trattamento.

Buona giornata

Il giorno lun 3 apr 2023 alle ore 07:19 Stefano Zacchiroli 
mailto:z...@upsilon.cc>> ha scritto:
Certo. Ma questo è l'altro aspetto: quello del trattamento dei dati in *input* 
a ChatGPT, che esiste ed è potenzialmente problematico dal punto di vista della 
privacy, a prescindere dalla veridicità delle risposte date.

La mia domanda era su quale sia l'impatto della falsità dell'*output* (che 
sollevavi come fattore a se stante nella mail precedente) sui profili giuridici 
di violazione della privacy.

Saluti

>
>Se la produzione di quelle panzane richiede il trattamento dei dati di
>milioni di ignari cittadini, allora sì, attrai le ire del Garante (oltre
>che quelle dei destinatari delle tue panzane).
>
>>
>> --
>___
>*Maurizio Borghi*
>Università di Torino
>https://www.dg.unito.it/persone/maurizio.borghi
>Co-Director Nexa Center for Internet & Society 
>
>My Webex room: https://unito.webex.com/meet/maurizio.borghi

--
Sent from my mobile phone. Please excuse my brevity and top-posting.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Benedetto Ponti
mi pare che ci siano un po' di punti fermi da cui partire, sul piano 
della disciplina e del regime giuridico a tutela dei dati personali (non 
solo e non tanto della "privacy"), se si vuole impostare un ragionamento 
(non tanto sulla bontà o meno della decisione del Garante, in sè, 
quanto) sull'impatto di tale regime giuridico su chatGPT (o chi per lei).


1) vorrei intanto ricordare che la diffamazione non richiede che il 
fatto narrato/rappresentato sia falso. Si può essere diffamati anche 
mediante l'allegazione di un fatto vero. La verità opera come 
scriminante in caso di esercizio del diritto di cronaca (rende non 
punibile il reato commesso).


2) c'è poi da aggiungere che la diffamazione è la lesione della 
reputazione, mentre nel discorso che qui ci occupa (il fatto che le 
risposte di chatGPT forniscano informazione false, scorrette, datate, 
etc. riguardo a  persone identificate o identificabili) il profilo 
rilevante è quello del diritto alla (corretta rappresentazione 
dell')identità personale, che è un piano differente rispetto a quello 
della reputazione. Rileva cioè - per essere schematici - il GDPR come 
legslazione a tutela dei dati personali, anche in quanto funzionale alla 
_tutela del diritto fondamentale all'identità personale_. (correttezza, 
aggiornamento, esattezza dei dati sono requisiti funzionali a tale tutela).


3) Fatte queste precisazioni, vorrei venire ad alcune affermazioni, 
tipo: "Se il solo rimettere in circolazione dati pubblicati su web 
violasse la GDPR, anche i motori di ricerca sarebbero vietati.". Si dà 
il caso che dalla sentenza della Corte di giustizia "Google Spain" in 
poi (una sentenza del 2014), i motori di ricerca sono tenuti alla 
deindicizzazione dei link prodotti da una query basata su nome e cognome 
dell'interessato, qualora il link punti ad una pagina web in cui siano 
contenuti dati scorretti/inesatti/non (più) aggiornati. Il diritto al 
delisting (come strumento che consente di far valere in diritto alla 
cancellazione come strumentale, in particolare, non tanto alla tutela 
della reputazione, ma più ampiamente alla tutela dell'identità 
personale) è oramai consolidato. Possiamo discutere di come sia 
costruito l'equilibrio, se l'eccezione fondata sul diritto di 
espressione sia adeguata, etc.; ma che il diritto alla cancellazione 
(art. 17 GDPR) combinato con il diritto di opposizione (art. 21) impatti 
sui motori di ricerca oramai è un dato acquisito. I motori di ricerca 
non sono vietati, ma regolati sì!


4) /mutatis mutandis/, quali ricadute del combinato disposto (diritto di 
cancellazione+diritto di opposizione) sui chatbot LLM? Questo a mio 
parere è il nodo. Il delisting ha funzionato, e funziona, perché il 
motore di ricerca non costruisce un contenuto ad hoc, ma linka a 
contenuti già esistenti. Diversamente, il sistema basato sul LLM come 
chat GPT, non si limita a linkare, anzi fa tutt'altro. Assembla di volta 
in volta informazioni che trae dal web, e fornisce un contenuto ad hoc. 
Se in questo contenuto sono presenti inesattezze, dati non aggiornati, 
dati falsi etc. che sono riferiti ad una persona identificata o 
identificabile, i diritti di cui sopra possono essere fatti valere nei 
confronti del titolare del trattamento (che è OpenAI). Se la presenza di 
errori, scorrettezze, dati vecchi/non aggiornati è sistematica (by 
design), _l'impatto è enorme_, dal momento che varrebbe il principio 
opposto (art. 25 del gdpr cd. "privacy by design", espressione sintetica 
fuorviante perché l'articolo in questione impone una conformità della 
progettazione dei mezzi del trattamento alla tutela di tutti i diritti 
degli interessati, non solo della "privacy")


5) si dice, ancora: "Nel produrre le risposte risposte di ChatGPT non ci 
sono dati personali che vengono elaborati, solo dati “manifestly made 
public” nelle fonti web da cui li trae"
- ora, il fatto che i dati personali siano tratti dal web non comporta 
anche che i dati siano stati “manifestly made public” dallo stesso 
interessato cui si riferiscono (potrebbe averli pubblicati qualcun 
altro). Ed anche nel caso in cui quei dati li abbia effettivamente resi 
pubblici l'interessato, ciò non comporta di per sè che ai trattamenti di 
quei dati non si applichi tutto il regime del GDPR. Quella disposizione 
serve a disattivare il divieto con cui si apre all'art. 9 (divieto di 
trattamento), senza però che questo disattivi tutto il resto del GDPR. 
In particolare non viene meno la cogenza del principio di finalità. 
Tendenzialmente, sono leciti solo i trattamenti che abbiano una finalità 
compatibile con la finalità della pubblicazione da parte 
dell'interessato. Qual è la finalità del/dei trattamento/i realizzati 
per erogare chatCPT? chi le stabilisce? sono compatibili con quelle per 
le quali l'interessato aveva reso pubblici i dati (qui c'è un enorme 
tema di rilevanza del contesto).


NB: non sto dicendo che il GDPR sia sempre e cmq soddisfacente (ieri 
scrivevo che per molti aspet

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Giacomo Tesio
Ciao Giuseppe, Stefano, Guido e Nexa.

L'articolo 9 del GDPR al comma 2(e) esclude i dati personali
pubblicamente condivisi dal DIVIETO di trattarmento per le 
categorie di dato personale elencate al comma 1 dello stesso articolo.

Non esclude in alcun modo gli stessi dati dalla protezione prevista dal
resto del GDPR.

On Mon, 3 Apr 2023 08:39:11 +0200 Giuseppe Attardi wrote:

> Nel produrre le risposte risposte di ChatGPT non ci sono dati
> personali che vengono elaborati, solo dati “manifestly made public”

No, Giuseppe: quelli utilizzati per la programmazione statistica di
GPT4 sono dati personali. Il fatto che siano stati resi pubblici dagli
interessati (se dimostrabile, caso per caso), li esclude dal divieto
di cui all'articolo 9, ma non inficia in alcun modo il resto dei
diritti che il GDPR garantisce alle persone interessate.

> Se fossero vere, si potrebbe contestare che rivelano fatti
> personali, ma se sono falsi si tratta di diffamazione. Delle due
> l’una: o riteniamo che ChatGPT dica cose vere o non lo crediamo.

Falsa dicotomia.

ChatGPT può tranquillamente rivelare dati personali VERI che i soggetti
non hanno mai rivelato a nessuno con la stessa probabilità con cui può
diffondere dati personali FALSI.

Spero che siamo d'accordo sul fatto che, se sulla base di correlazioni
statistiche a noi ignote, rivelasse ad esempio l'omossessualità di una
persona effettivamente omosessuale ma che non avesse liberamente deciso
di rivelare tale omosessualità, ci troveremmo di fronte ad una violenza
psicologica terribile fatta ad una persona reale.

Che dovrebbe fare quella persona?
Negare pubblicamente e con forza la propria omosessualità (mentendo e
magari offendendo la sensibilità del proprio partner) o rivelare a tutti
qualcosa che preferiva tenere per sé?

Dunque, nello stesso output, ChatGPT può diffondere, contemporaneamente
e con la stessa probabilità, informazioni accidentalmente vere e
pubbliche, informazioni false (diffamazione/calunnia) e informazioni
vere (sempre accidentalmente) ma riservate.

Nel caso del mio esempio, si tratterebbe pure di una violazione
dell'articolo 9 del GDPR che OpenAI^W Microsoft deve essere in
condizione di IMPEDIRE SEMPRE per qualunque cittadino europeo,
se vuole elaborare dati di cittadini europei.

> È abbastanza evidente che le norme attuali, GDPR, Copyright e
> annunciato European AI Act, sono inadeguati. Ma intervenire adesso a
> bloccare una tecnologia che non fa danni, certamente di meno di tanto
> software di cui non ci curiamo, è prematuro e controproducente.

Prima di dichiarare la normativa attuale inadeguata, sarebbe utile
conoscerla ed averla studiata BENE.

In qualunque caso, il diritto fondamentale protetto dal GDPR, il
diritto alla protezione dei dati come parte della persona in una
società cibernetica, è sempre più fondamentale.

L'inadeguatezza del GDPR, al limite, sta nell'enorme difficoltà che
abbiamo in questo momento a farlo rispettare, sia dai Titolari (che
continuano a scegliere fornitori in violazione degli articoli 25 e 28)
sia dai fornitori che, di fatto, se ne sbattono, circuendo gli
interessati e la norma, sia dei molti Data Protection Officer
che si "dimenticano" di segnalare gli uni e gli altri al Garante 
con cui dovrebbero invece cooperare lealmente ai sensi 
dell'articolo 39, comma 1(d).

Sugli enormi limiti del diritto d'autore (e del copyright) potremmo poi
aprire un thread dedicato, ma di certo, la sua violazione sistematica a
mezzo LLM, già evidenziata da GitHub CopyALot (sempre di Microsoft),
sulla base del "fair use" è proprio uno di questi limiti.


Tuttavia Giuseppe, il fatto che i diritti fondamentali delle persone
escludano certi percorsi di ricerca tecnologica (e certi business
model), non rende quei diritti "inadeguati".

Sostenerlo significherebbe, di fatto, privare gli esseri umani di
qualsiasi dignità, riducendoli a cavie da laboratorio, oggetti da
studiare e sfruttare per il profitto (di altri esseri umani).

Anche no, grazie.


On Sun, 2 Apr 2023 20:19:40 +0200 Stefano Zacchiroli wrote:

> Che GhatGPT dica panzane a proposito di persone specifiche (viventi) è
> in effetti evidente a tutti. Ma, da non giurista, faccio veramente
> fatica a capire perché questo ponga problemi al Garante per la
> protezione dei dati personali. Se pubblico un sito web pieno di
> panzane su persone viventi, il Garante ha il potere di farmelo
> chiudere? Direi (sempre da non giurista), che al massimo rischio una
> querela per diffamazione dagli interessati.

Semplicemente, come Floridi (per quanto riportato da Guido Vetere qui
https://server-nexa.polito.it/pipermail/nexa/2023-April/025257.html )
non hai un idea chiara del concetto di informazione.

Anzitutto, il dato rappresenta sempre un informazione per il semplice
fatto di essere interpretabile da un essere umano. In particolare,
l'output di ChatGPT è specificatamente studiato per essere
interpretabile da un essere umano, dunque veicola sempre informazione,
ovvero un'esperienza soggettiva 

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Giuseppe Attardi
Secondo me si stanno confondendo due atti separati, che sono regolati e 
protetti da leggi distinte:
1. Il regolamento sulla protezione dei dati personali, regola e disciplina 
l’uso e l’abuso di dati personali
2. Il reato di diffamazione protegge contro la diffusione al pubblico di 
affermazioni diffamatorie

ChatGPT non fa né l’una né l’altra cosa: non usa dati personali, se non quelli 
per l’iscrizione al servizio, ma quelli non vanno dentro il modello.
Se qualcuno interroga e ottiene informazioni inaccurate (che statisticamente 
avviene in un numero minimo di casi), lo fa a suo rischio e pericolo, come 
indicato nella pagina iniziale di ChatGPT. Se qualcuno prende quella 
informazione e la diffonde per vera, lo fa consapevolmente e se si tratta di 
informazioni non veritiere, ne diventa comunque responsabile.
Ricordiamo che per legge la responsabilità è personale, non può essere mai 
delle macchine o di chi le produce (se non per negligenza nei confronti di chi 
le utilizza).
Per chi diffama, non basta la scusa di dire: me lo ha detto ChatGPT, come un 
tempo si diceva: l’ho sentito in TV.
Chi prende quell’informazione per buona e la diffonde se ne assume la 
responsabilità.

Le norme sul giornalismo, assicurano appunto questo, che si possa risalire a 
una persona fisica a cui addossare la responsabilità di ciò che viene 
pubblicato, ossia il direttore responsabile.
Chi ritiene di essere oggetto di una notizia errata, ha diritto alla rettifica.

Chi usa ChatGPT è il responsabile dell’informazione che produce usando uno 
strumento, come sappiamo imperfetto, come imperfetti sono molti altri che 
usiamo da tempo, da quando abbiamo iniziato ad affidarci a tecniche statistiche.
Basta pensare ad esempio ai sondaggi di ogni tipo: sono imprecisi e dobbiamo 
prenderli per quel che valgono.

— Beppe

> On 2 Apr 2023, at 15:20, nexa-requ...@server-nexa.polito.it wrote:
> 
> Date: Sun, 2 Apr 2023 13:12:37 +
> From: Roberto Dolci mailto:rob.do...@aizoon.us>>
> To: Stefano Quintarelli  >,
>   "nexa@server-nexa.polito.it " 
> mailto:nexa@server-nexa.polito.it>>
> Subject: Re: [nexa] ChatGPT disabled for users in Italy
> Message-ID: <33d561c628a34abeb120479ebdcf6...@aizoon.us 
> >
> Content-Type: text/plain; charset="utf-8"
> 
> Ti capisco, purtroppo quello che noi vediamo come notizie, per il ranocchio 
> elettronico sono solo sequenze di termini che hanno la miglior probabilita' 
> di seguire il filo del discorso.  Il fatto che siano vere, false, mezze 
> verita', e' incidentale per la macchina.
> 
> Ovviamente gli puoi chiedere di correggerle, ma non ci sara' un ingresso in 
> database per dire "guarda che Stefano e'   XXX", perche' non c'e' un 
> database, ma ci sono matrici multidimensionali.  Quindi alla tua legittima 
> richiesta non risponde la macchina, ma un curatore in carne ed ossa che fa in 
> modo che in futuro non ti arrabbi/offenda/abbia un danno.
> 
> L'azienda per ora si nasconde dietro al solito paravento del "beta / in fase 
> di sviluppo / scusateci se sbaglia ma stiamo lavorando per voi" per vedere 
> come scalare e fare in modo di massimizzare i profitti. Oggi ogni tua domanda 
> a ChatGPT son $0.22 di corrente e spese vive, un enormita', quindi ci sono in 
> corso lavori sofisticati per ridurre consumo energetico ed efficienza dei 
> processi,  e specialmente per capire come meglio sfruttare questi 200 milioni 
> di beati allenatori di ChatGPT che stanno lavorando gratis per loro, tra cui 
> te. 
> 
> Hanno tutto l'interesse non solo a non offenderti, ma a tenerti al remo.  Ed 
> e' per questo che han chiuso in Italia, senza star dietro ad un 
> interpretazione legale che, come leggiamo nel thread, e' quantomeno 
> complessa. Adesso in Italia ci son migliaia di persone che pensavano di farci 
> un guadagno su ChatGPT, ed in qualche modo ci sara' pressione per venire a 
> piu' miti consigli. Poi conosciamo Microsoft, tempo che confezioni il 
> pacchetto corretto, si copriranno il capo di cenere e ci sbologneranno 
> licenze in tutte le scuole, enti pubblici e privati dove riescano... e 
> mediamente son tanti.
> 
> Ciao
> roberto
> 
> -Original Message-
> From: nexa  > On Behalf Of Stefano Quintarelli
> Sent: Sunday, April 2, 2023 7:50 AM
> To: nexa@server-nexa.polito.it 
> Subject: Re: [nexa] ChatGPT disabled for users in Italy
> 
> non mi interessa il processo con cui emettono informazioni su di me, non mi 
> riguarda. 
> pero' danno informazioni sbagliate, reiteratamente.
> 
> posso chiedergli di correggerle ?
> 
> detto in altri termini, il dato e' solo quello codificato "non lossy" e 
> inserito in un record di un DB relazionale o anche quello codificato "lossy" 
> e sparso in una matrice ?
> 
> se la risposta e' affermativa (come mi pare dovrebbe essere) e dato che e' 
> palese che s

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Benedetto Ponti




Il 03/04/2023 10:46, Giuseppe Attardi ha scritto:



On 3 Apr 2023, at 10:03, Benedetto Ponti  
wrote:


mi pare che ci siano un po' di punti fermi da cui partire, sul piano 
della disciplina e del regime giuridico a tutela dei dati personali 
(non solo e non tanto della "privacy"), se si vuole impostare un 
ragionamento (non tanto sulla bontà o meno della decisione del 
Garante, in sè, quanto) sull'impatto di tale regime giuridico su 
chatGPT (o chi per lei).


1) vorrei intanto ricordare che la diffamazione non richiede che il 
fatto narrato/rappresentato sia falso. Si può essere diffamati anche 
mediante l'allegazione di un fatto vero. La verità opera come 
scriminante in caso di esercizio del diritto di cronaca (rende non 
punibile il reato commesso).



Quindi di diffamazione si tratta, questo era il mio punto.


No, è vero il contrario: l'alternativa vero/falso non opera sul piano 
della diffamazione (si può essere incrimitati per diffamazione per 
diffusione di un fatto vero), ma su piani diversi.





2) c'è poi da aggiungere che la diffamazione è la lesione della 
reputazione, mentre nel discorso che qui ci occupa (il fatto che le 
risposte di chatGPT forniscano informazione false, scorrette, datate, 
etc. riguardo a  persone identificate o identificabili) il profilo 
rilevante è quello del diritto alla (corretta rappresentazione 
dell')identità personale, che è un piano differente rispetto a quello 
della reputazione. Rileva cioè - per essere schematici - il GDPR come 
legslazione a tutela dei dati personali, anche in quanto funzionale 
alla _tutela del diritto fondamentale all'identità personale_. 
(correttezza, aggiornamento, esattezza dei dati sono requisiti 
funzionali a tale tutela).


Quindi il diritto da tutelare è quello all’identità personale, non 
alla protezione dei dati. La GDPR viene invocata surrettiziamente per 
difendere il primo, ma è una estrapolazione.
Capisco che tu sostieni che bisogna fare uso delle leggi esistenti, ma 
non mi pare corretto stiracchiarle verso altre finalità.


- ah, ma non lo sostengo mica io, eh! questa che ti ho riportato è 
giurisprudenza consolidata: la tutela dei dati personali è anche 
funzionale/strumentale alla tutela di altri diritti.





3) Fatte queste precisazioni, vorrei venire ad alcune affermazioni, 
tipo: "Se il solo rimettere in circolazione dati pubblicati su web 
violasse la GDPR, anche i motori di ricerca sarebbero vietati.". Si 
dà il caso che dalla sentenza della Corte di giustizia "Google Spain" 
in poi (una sentenza del 2014), i motori di ricerca sono tenuti alla 
deindicizzazione dei link prodotti da una query basata su nome e 
cognome dell'interessato, qualora il link punti ad una pagina web in 
cui siano contenuti dati scorretti/inesatti/non (più) aggiornati. Il 
diritto al delisting (come strumento che consente di far valere in 
diritto alla cancellazione come strumentale, in particolare, non 
tanto alla tutela della reputazione, ma più ampiamente alla tutela 
dell'identità personale) è oramai consolidato. Possiamo discutere di 
come sia costruito l'equilibrio, se l'eccezione fondata sul diritto 
di espressione sia adeguata, etc.; ma che il diritto alla 
cancellazione (art. 17 GDPR) combinato con il diritto di opposizione 
(art. 21) impatti sui motori di ricerca oramai è un dato acquisito. I 
motori di ricerca non sono vietati, ma regolati sì!


Quindi il singolo interessato, non l’Autorità, dovrebbe richiedere ad 
OpenAI di eliminare le fonti che lo riferiscono.
(se rischio sistemico, vedi quanto detto sotto, al punto 4). E poi, 
attenzione perché la tutela dei dati personali NON si riduce negli 
strumenti a disposizione del singolo interessato. Il principio di 
responsabilizzazione  (art. 6, comma 2) ci dice che la compliance grava 
come responsabilità su chi tratta i dati personali, e le autorità stanno 
lì a verificare che il gdpr sia rispettato. C'è un interesse pubblico 
(una dimensione pubblica, di interesse generale) alla tutela dei dati 
personali (proprio perché strumentale alla tutela di diritti 
fondamentali della persona), non soltanto l'interesse specifico 
deill'interessato.



4) /mutatis mutandis/, quali ricadute del combinato disposto (diritto 
di cancellazione+diritto di opposizione) sui chatbot LLM? Questo a 
mio parere è il nodo. Il delisting ha funzionato, e funziona, perché 
il motore di ricerca non costruisce un contenuto ad hoc, ma linka a 
contenuti già esistenti. Diversamente, il sistema basato sul LLM come 
chat GPT, non si limita a linkare, anzi fa tutt'altro. Assembla di 
volta in volta informazioni che trae dal web, e fornisce un contenuto 
ad hoc. Se in questo contenuto sono presenti inesattezze, dati non 
aggiornati, dati falsi etc. che sono riferiti ad una persona 
identificata o identificabile, i diritti di cui sopra possono essere 
fatti valere nei confronti del titolare del trattamento (che è 
OpenAI). Se la presenza di errori, scorrettezze, dati vecchi/non 
aggiornati è sistematica (by d

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Maurizio Borghi
Trovo l'analisi di Bendetto Ponti molto chiara e condivivisibile.

Maurizio Borghi

Il giorno lun 3 apr 2023 alle ore 09:41 Benedetto Ponti <
benedetto.po...@unipg.it> ha scritto:

> mi pare che ci siano un po' di punti fermi da cui partire, sul piano della
> disciplina e del regime giuridico a tutela dei dati personali (non solo e
> non tanto della "privacy"), se si vuole impostare un ragionamento (non
> tanto sulla bontà o meno della decisione del Garante, in sè, quanto)
> sull'impatto di tale regime giuridico su chatGPT (o chi per lei).
>
> 1) vorrei intanto ricordare che la diffamazione non richiede che il fatto
> narrato/rappresentato sia falso. Si può essere diffamati anche mediante
> l'allegazione di un fatto vero. La verità opera come scriminante in caso di
> esercizio del diritto di cronaca (rende non punibile il reato commesso).
>
> 2) c'è poi da aggiungere che la diffamazione è la lesione della
> reputazione, mentre nel discorso che qui ci occupa (il fatto che le
> risposte di chatGPT forniscano informazione false, scorrette, datate, etc.
> riguardo a  persone identificate o identificabili) il profilo rilevante è
> quello del diritto alla (corretta rappresentazione dell')identità
> personale, che è un piano differente rispetto a quello della reputazione.
> Rileva cioè - per essere schematici - il GDPR come legslazione a tutela dei
> dati personali, anche in quanto funzionale alla *tutela del diritto
> fondamentale all'identità personale*. (correttezza, aggiornamento,
> esattezza dei dati sono requisiti funzionali a tale tutela).
>
> 3) Fatte queste precisazioni, vorrei venire ad alcune affermazioni, tipo:
> "Se il solo rimettere in circolazione dati pubblicati su web violasse la
> GDPR, anche i motori di ricerca sarebbero vietati.". Si dà il caso che
> dalla sentenza della Corte di giustizia "Google Spain" in poi (una sentenza
> del 2014), i motori di ricerca sono tenuti alla deindicizzazione dei link
> prodotti da una query basata su nome e cognome dell'interessato, qualora il
> link punti ad una pagina web in cui siano contenuti dati
> scorretti/inesatti/non (più) aggiornati. Il diritto al delisting (come
> strumento che consente di far valere in diritto alla cancellazione come
> strumentale, in particolare, non tanto alla tutela della reputazione, ma
> più ampiamente alla tutela dell'identità personale) è oramai consolidato.
> Possiamo discutere di come sia costruito l'equilibrio, se l'eccezione
> fondata sul diritto di espressione sia adeguata, etc.; ma che il diritto
> alla cancellazione (art. 17 GDPR) combinato con il diritto di opposizione
> (art. 21) impatti sui motori di ricerca oramai è un dato acquisito. I
> motori di ricerca non sono vietati, ma regolati sì!
>
> 4) *mutatis mutandis*, quali ricadute del combinato disposto (diritto di
> cancellazione+diritto di opposizione) sui chatbot LLM? Questo a mio parere
> è il nodo. Il delisting ha funzionato, e funziona, perché il motore di
> ricerca non costruisce un contenuto ad hoc, ma linka a contenuti già
> esistenti. Diversamente, il sistema basato sul LLM come chat GPT, non si
> limita a linkare, anzi fa tutt'altro. Assembla di volta in volta
> informazioni che trae dal web, e fornisce un contenuto ad hoc. Se in questo
> contenuto sono presenti inesattezze, dati non aggiornati, dati falsi etc.
> che sono riferiti ad una persona identificata o identificabile, i diritti
> di cui sopra possono essere fatti valere nei confronti del titolare del
> trattamento (che è OpenAI). Se la presenza di errori, scorrettezze, dati
> vecchi/non aggiornati è sistematica (by design), *l'impatto è enorme*,
> dal momento che varrebbe il principio opposto (art. 25 del gdpr cd.
> "privacy by design", espressione sintetica fuorviante perché l'articolo in
> questione impone una conformità della progettazione dei mezzi del
> trattamento alla tutela di tutti i diritti degli interessati, non solo
> della "privacy")
>
> 5) si dice, ancora: "Nel produrre le risposte risposte di ChatGPT non ci
> sono dati personali che vengono elaborati, solo dati “manifestly made
> public” nelle fonti web da cui li trae"
> - ora, il fatto che i dati personali siano tratti dal web non comporta
> anche che i dati siano stati “manifestly made public” dallo stesso
> interessato cui si riferiscono (potrebbe averli pubblicati qualcun altro).
> Ed anche nel caso in cui quei dati li abbia effettivamente resi pubblici
> l'interessato, ciò non comporta di per sè che ai trattamenti di quei dati
> non si applichi tutto il regime del GDPR. Quella disposizione serve a
> disattivare il divieto con cui si apre all'art. 9 (divieto di trattamento),
> senza però che questo disattivi tutto il resto del GDPR. In particolare non
> viene meno la cogenza del principio di finalità. Tendenzialmente, sono
> leciti solo i trattamenti che abbiano una finalità compatibile con la
> finalità della pubblicazione da parte dell'interessato. Qual è la finalità
> del/dei trattamento/i realizzati per erogare chatCPT? chi

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Stefano Quintarelli
Basta dire "lo fa una macchina" per escludere responsabilità ? no. La cronaca è 
densa di condanne di amministratori delegati...

C'è responsabilità probabilmente in chi prende e diffonde, ma anche in chi 
genera

imho

Il 3 aprile 2023 08:54:43 UTC, Giuseppe Attardi  ha 
scritto:
>Secondo me si stanno confondendo due atti separati, che sono regolati e 
>protetti da leggi distinte:
>1. Il regolamento sulla protezione dei dati personali, regola e disciplina 
>l’uso e l’abuso di dati personali
>2. Il reato di diffamazione protegge contro la diffusione al pubblico di 
>affermazioni diffamatorie
>
>ChatGPT non fa né l’una né l’altra cosa: non usa dati personali, se non quelli 
>per l’iscrizione al servizio, ma quelli non vanno dentro il modello.
>Se qualcuno interroga e ottiene informazioni inaccurate (che statisticamente 
>avviene in un numero minimo di casi), lo fa a suo rischio e pericolo, come 
>indicato nella pagina iniziale di ChatGPT. Se qualcuno prende quella 
>informazione e la diffonde per vera, lo fa consapevolmente e se si tratta di 
>informazioni non veritiere, ne diventa comunque responsabile.
>Ricordiamo che per legge la responsabilità è personale, non può essere mai 
>delle macchine o di chi le produce (se non per negligenza nei confronti di chi 
>le utilizza).
>Per chi diffama, non basta la scusa di dire: me lo ha detto ChatGPT, come un 
>tempo si diceva: l’ho sentito in TV.
>Chi prende quell’informazione per buona e la diffonde se ne assume la 
>responsabilità.
>
>Le norme sul giornalismo, assicurano appunto questo, che si possa risalire a 
>una persona fisica a cui addossare la responsabilità di ciò che viene 
>pubblicato, ossia il direttore responsabile.
>Chi ritiene di essere oggetto di una notizia errata, ha diritto alla rettifica.
>
>Chi usa ChatGPT è il responsabile dell’informazione che produce usando uno 
>strumento, come sappiamo imperfetto, come imperfetti sono molti altri che 
>usiamo da tempo, da quando abbiamo iniziato ad affidarci a tecniche 
>statistiche.
>Basta pensare ad esempio ai sondaggi di ogni tipo: sono imprecisi e dobbiamo 
>prenderli per quel che valgono.
>
>— Beppe
>
>> On 2 Apr 2023, at 15:20, nexa-requ...@server-nexa.polito.it wrote:
>> 
>> Date: Sun, 2 Apr 2023 13:12:37 +
>> From: Roberto Dolci mailto:rob.do...@aizoon.us>>
>> To: Stefano Quintarelli > >,
>>  "nexa@server-nexa.polito.it " 
>> mailto:nexa@server-nexa.polito.it>>
>> Subject: Re: [nexa] ChatGPT disabled for users in Italy
>> Message-ID: <33d561c628a34abeb120479ebdcf6...@aizoon.us 
>> >
>> Content-Type: text/plain; charset="utf-8"
>> 
>> Ti capisco, purtroppo quello che noi vediamo come notizie, per il ranocchio 
>> elettronico sono solo sequenze di termini che hanno la miglior probabilita' 
>> di seguire il filo del discorso.  Il fatto che siano vere, false, mezze 
>> verita', e' incidentale per la macchina.
>> 
>> Ovviamente gli puoi chiedere di correggerle, ma non ci sara' un ingresso in 
>> database per dire "guarda che Stefano e'   XXX", perche' non c'e' un 
>> database, ma ci sono matrici multidimensionali.  Quindi alla tua legittima 
>> richiesta non risponde la macchina, ma un curatore in carne ed ossa che fa 
>> in modo che in futuro non ti arrabbi/offenda/abbia un danno.
>> 
>> L'azienda per ora si nasconde dietro al solito paravento del "beta / in fase 
>> di sviluppo / scusateci se sbaglia ma stiamo lavorando per voi" per vedere 
>> come scalare e fare in modo di massimizzare i profitti. Oggi ogni tua 
>> domanda a ChatGPT son $0.22 di corrente e spese vive, un enormita', quindi 
>> ci sono in corso lavori sofisticati per ridurre consumo energetico ed 
>> efficienza dei processi,  e specialmente per capire come meglio sfruttare 
>> questi 200 milioni di beati allenatori di ChatGPT che stanno lavorando 
>> gratis per loro, tra cui te. 
>> 
>> Hanno tutto l'interesse non solo a non offenderti, ma a tenerti al remo.  Ed 
>> e' per questo che han chiuso in Italia, senza star dietro ad un 
>> interpretazione legale che, come leggiamo nel thread, e' quantomeno 
>> complessa. Adesso in Italia ci son migliaia di persone che pensavano di 
>> farci un guadagno su ChatGPT, ed in qualche modo ci sara' pressione per 
>> venire a piu' miti consigli. Poi conosciamo Microsoft, tempo che confezioni 
>> il pacchetto corretto, si copriranno il capo di cenere e ci sbologneranno 
>> licenze in tutte le scuole, enti pubblici e privati dove riescano... e 
>> mediamente son tanti.
>> 
>> Ciao
>> roberto
>> 
>> -Original Message-
>> From: nexa > > On Behalf Of Stefano Quintarelli
>> Sent: Sunday, April 2, 2023 7:50 AM
>> To: nexa@server-nexa.polito.it 
>> Subject: Re: [nexa] ChatGPT disabled for users in Italy
>> 
>> non mi interessa il processo con cui emettono informazioni su di me, non mi 
>> riguarda. 
>

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Guido Vetere
facciamo un esperimento mentale

metto in piedi (senza GPT) un sito che, dato un nome qualsiasi, inventa una
storia sulla persona a cui quel nome si riferisce (per una qualsiasi
nozione di 'riferimento' estesa anche a entità inesistenti), utilizzando
come 'seed' dell'algoritmo generativo le consonanti del nome

il mio sito presenta un disclaimer che recita: "Le mie storie sono
inventate *così* e *così*".

il Garante deve intervenire in questo caso?

in seguito, modifico l'algoritmo implementando una qualsiasi elaborazione
delle prime tre pagine che ottengo cercando quel nome su Google

il mio sito presenta un disclaimer che recita: "Le mie storie sono
inventate *così* e *così*".

il Garante deve intervenire in questo caso?

mi scuso per l'ingenuità di questo esperimento, spero che qualche giurista
voglia comunque rispondere

G.


On Mon, 3 Apr 2023 at 10:30, Giacomo Tesio  wrote:

> Ciao Giuseppe, Stefano, Guido e Nexa.
>
> L'articolo 9 del GDPR al comma 2(e) esclude i dati personali
> pubblicamente condivisi dal DIVIETO di trattarmento per le
> categorie di dato personale elencate al comma 1 dello stesso articolo.
>
> Non esclude in alcun modo gli stessi dati dalla protezione prevista dal
> resto del GDPR.
>
> On Mon, 3 Apr 2023 08:39:11 +0200 Giuseppe Attardi wrote:
>
> > Nel produrre le risposte risposte di ChatGPT non ci sono dati
> > personali che vengono elaborati, solo dati “manifestly made public”
>
> No, Giuseppe: quelli utilizzati per la programmazione statistica di
> GPT4 sono dati personali. Il fatto che siano stati resi pubblici dagli
> interessati (se dimostrabile, caso per caso), li esclude dal divieto
> di cui all'articolo 9, ma non inficia in alcun modo il resto dei
> diritti che il GDPR garantisce alle persone interessate.
>
> > Se fossero vere, si potrebbe contestare che rivelano fatti
> > personali, ma se sono falsi si tratta di diffamazione. Delle due
> > l’una: o riteniamo che ChatGPT dica cose vere o non lo crediamo.
>
> Falsa dicotomia.
>
> ChatGPT può tranquillamente rivelare dati personali VERI che i soggetti
> non hanno mai rivelato a nessuno con la stessa probabilità con cui può
> diffondere dati personali FALSI.
>
> Spero che siamo d'accordo sul fatto che, se sulla base di correlazioni
> statistiche a noi ignote, rivelasse ad esempio l'omossessualità di una
> persona effettivamente omosessuale ma che non avesse liberamente deciso
> di rivelare tale omosessualità, ci troveremmo di fronte ad una violenza
> psicologica terribile fatta ad una persona reale.
>
> Che dovrebbe fare quella persona?
> Negare pubblicamente e con forza la propria omosessualità (mentendo e
> magari offendendo la sensibilità del proprio partner) o rivelare a tutti
> qualcosa che preferiva tenere per sé?
>
> Dunque, nello stesso output, ChatGPT può diffondere, contemporaneamente
> e con la stessa probabilità, informazioni accidentalmente vere e
> pubbliche, informazioni false (diffamazione/calunnia) e informazioni
> vere (sempre accidentalmente) ma riservate.
>
> Nel caso del mio esempio, si tratterebbe pure di una violazione
> dell'articolo 9 del GDPR che OpenAI^W Microsoft deve essere in
> condizione di IMPEDIRE SEMPRE per qualunque cittadino europeo,
> se vuole elaborare dati di cittadini europei.
>
> > È abbastanza evidente che le norme attuali, GDPR, Copyright e
> > annunciato European AI Act, sono inadeguati. Ma intervenire adesso a
> > bloccare una tecnologia che non fa danni, certamente di meno di tanto
> > software di cui non ci curiamo, è prematuro e controproducente.
>
> Prima di dichiarare la normativa attuale inadeguata, sarebbe utile
> conoscerla ed averla studiata BENE.
>
> In qualunque caso, il diritto fondamentale protetto dal GDPR, il
> diritto alla protezione dei dati come parte della persona in una
> società cibernetica, è sempre più fondamentale.
>
> L'inadeguatezza del GDPR, al limite, sta nell'enorme difficoltà che
> abbiamo in questo momento a farlo rispettare, sia dai Titolari (che
> continuano a scegliere fornitori in violazione degli articoli 25 e 28)
> sia dai fornitori che, di fatto, se ne sbattono, circuendo gli
> interessati e la norma, sia dei molti Data Protection Officer
> che si "dimenticano" di segnalare gli uni e gli altri al Garante
> con cui dovrebbero invece cooperare lealmente ai sensi
> dell'articolo 39, comma 1(d).
>
> Sugli enormi limiti del diritto d'autore (e del copyright) potremmo poi
> aprire un thread dedicato, ma di certo, la sua violazione sistematica a
> mezzo LLM, già evidenziata da GitHub CopyALot (sempre di Microsoft),
> sulla base del "fair use" è proprio uno di questi limiti.
>
>
> Tuttavia Giuseppe, il fatto che i diritti fondamentali delle persone
> escludano certi percorsi di ricerca tecnologica (e certi business
> model), non rende quei diritti "inadeguati".
>
> Sostenerlo significherebbe, di fatto, privare gli esseri umani di
> qualsiasi dignità, riducendoli a cavie da laboratorio, oggetti da
> studiare e sfruttare per il profitto (di altri esser

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Giuseppe Attardi


> On 3 Apr 2023, at 11:24, Stefano Quintarelli  wrote:
> 
> Basta dire "lo fa una macchina" per escludere responsabilità ? no. La cronaca 
> è densa di condanne di amministratori delegati...

È quello che ho detto: la responsabilità è personale, della persona che compie 
l’atto, anche se lo fa tramite uno strumento (pistola, automobile, AI, ecc.)

> 
> C'è responsabilità probabilmente in chi prende e diffonde, ma anche in chi 
> genera

Infatti, puoi rivalerti per diffamazione e/o chiedere la rettifica.

Il mio punto è che la diffamazione è un reato, già previsto dalle leggi e 
diverso da quello sull’abuso dei dati personali.

— Beppe

> 
> imho
> 
> Il 3 aprile 2023 08:54:43 UTC, Giuseppe Attardi  ha 
> scritto:
>> Secondo me si stanno confondendo due atti separati, che sono regolati e 
>> protetti da leggi distinte:
>> 1. Il regolamento sulla protezione dei dati personali, regola e disciplina 
>> l’uso e l’abuso di dati personali
>> 2. Il reato di diffamazione protegge contro la diffusione al pubblico di 
>> affermazioni diffamatorie
>> 
>> ChatGPT non fa né l’una né l’altra cosa: non usa dati personali, se non 
>> quelli per l’iscrizione al servizio, ma quelli non vanno dentro il modello.
>> Se qualcuno interroga e ottiene informazioni inaccurate (che statisticamente 
>> avviene in un numero minimo di casi), lo fa a suo rischio e pericolo, come 
>> indicato nella pagina iniziale di ChatGPT. Se qualcuno prende quella 
>> informazione e la diffonde per vera, lo fa consapevolmente e se si tratta di 
>> informazioni non veritiere, ne diventa comunque responsabile.
>> Ricordiamo che per legge la responsabilità è personale, non può essere mai 
>> delle macchine o di chi le produce (se non per negligenza nei confronti di 
>> chi le utilizza).
>> Per chi diffama, non basta la scusa di dire: me lo ha detto ChatGPT, come un 
>> tempo si diceva: l’ho sentito in TV.
>> Chi prende quell’informazione per buona e la diffonde se ne assume la 
>> responsabilità.
>> 
>> Le norme sul giornalismo, assicurano appunto questo, che si possa risalire a 
>> una persona fisica a cui addossare la responsabilità di ciò che viene 
>> pubblicato, ossia il direttore responsabile.
>> Chi ritiene di essere oggetto di una notizia errata, ha diritto alla 
>> rettifica.
>> 
>> Chi usa ChatGPT è il responsabile dell’informazione che produce usando uno 
>> strumento, come sappiamo imperfetto, come imperfetti sono molti altri che 
>> usiamo da tempo, da quando abbiamo iniziato ad affidarci a tecniche 
>> statistiche.
>> Basta pensare ad esempio ai sondaggi di ogni tipo: sono imprecisi e dobbiamo 
>> prenderli per quel che valgono.
>> 
>> — Beppe
>> 
>>> On 2 Apr 2023, at 15:20, nexa-requ...@server-nexa.polito.it wrote:
>>> 
>>> Date: Sun, 2 Apr 2023 13:12:37 +
>>> From: Roberto Dolci mailto:rob.do...@aizoon.us>>
>>> To: Stefano Quintarelli >> >,
>>> "nexa@server-nexa.polito.it " 
>>> mailto:nexa@server-nexa.polito.it>>
>>> Subject: Re: [nexa] ChatGPT disabled for users in Italy
>>> Message-ID: <33d561c628a34abeb120479ebdcf6...@aizoon.us 
>>> >
>>> Content-Type: text/plain; charset="utf-8"
>>> 
>>> Ti capisco, purtroppo quello che noi vediamo come notizie, per il ranocchio 
>>> elettronico sono solo sequenze di termini che hanno la miglior probabilita' 
>>> di seguire il filo del discorso.  Il fatto che siano vere, false, mezze 
>>> verita', e' incidentale per la macchina.
>>> 
>>> Ovviamente gli puoi chiedere di correggerle, ma non ci sara' un ingresso in 
>>> database per dire "guarda che Stefano e'   XXX", perche' non c'e' un 
>>> database, ma ci sono matrici multidimensionali.  Quindi alla tua legittima 
>>> richiesta non risponde la macchina, ma un curatore in carne ed ossa che fa 
>>> in modo che in futuro non ti arrabbi/offenda/abbia un danno.
>>> 
>>> L'azienda per ora si nasconde dietro al solito paravento del "beta / in 
>>> fase di sviluppo / scusateci se sbaglia ma stiamo lavorando per voi" per 
>>> vedere come scalare e fare in modo di massimizzare i profitti. Oggi ogni 
>>> tua domanda a ChatGPT son $0.22 di corrente e spese vive, un enormita', 
>>> quindi ci sono in corso lavori sofisticati per ridurre consumo energetico 
>>> ed efficienza dei processi,  e specialmente per capire come meglio 
>>> sfruttare questi 200 milioni di beati allenatori di ChatGPT che stanno 
>>> lavorando gratis per loro, tra cui te. 
>>> 
>>> Hanno tutto l'interesse non solo a non offenderti, ma a tenerti al remo.  
>>> Ed e' per questo che han chiuso in Italia, senza star dietro ad un 
>>> interpretazione legale che, come leggiamo nel thread, e' quantomeno 
>>> complessa. Adesso in Italia ci son migliaia di persone che pensavano di 
>>> farci un guadagno su ChatGPT, ed in qualche modo ci sara' pressione per 
>>> venire a piu' miti consigli. Poi conosciamo Microsoft, tempo che confezioni 
>>> il pacchetto corretto, si coprirann

[nexa] Fwd: ChatGPT disabled for users in Italy

2023-04-03 Thread Benedetto Ponti


Il 03/04/2023 11:35, Giuseppe Attardi ha scritto:



On 3 Apr 2023, at 11:09, Benedetto Ponti  
wrote:





Il 03/04/2023 10:46, Giuseppe Attardi ha scritto:



On 3 Apr 2023, at 10:03, Benedetto 
Pontiwrote:


mi pare che ci siano un po' di punti fermi da cui partire, sul 
piano della disciplina e del regime giuridico a tutela dei dati 
personali (non solo e non tanto della "privacy"), se si vuole 
impostare un ragionamento (non tanto sulla bontà o meno della 
decisione del Garante, in sè, quanto) sull'impatto di tale regime 
giuridico su chatGPT (o chi per lei).


1) vorrei intanto ricordare che la diffamazione non richiede che il 
fatto narrato/rappresentato sia falso. Si può essere diffamati 
anche mediante l'allegazione di un fatto vero. La verità opera come 
scriminante in caso di esercizio del diritto di cronaca (rende non 
punibile il reato commesso).



Quindi di diffamazione si tratta, questo era il mio punto.


No, è vero il contrario: l'alternativa vero/falso non opera sul piano 
della diffamazione (si può essere incrimitati per diffamazione per 
diffusione di un fatto vero), ma su piani diversi.



Non ci capiamo. Siamo d’accordo che c’è diffamazione, nel diffondere 
affermazioni che un soggetto non vorrebbe fossero diffuse?


- no, non siamo d'accordo.
1) C'è diffamazione solo se le informazioni diffuse sono lesive della 
reputazione.
2) Se vengono diffuse notizie che non sono lesive della reputazione, ma 
rappresentano in modo falsato/scorretto i miei gusti, preferenze, 
vicende, etc., c'è lesione dell'identità personale;
3) se vengono diffuse notizie vere che riguardano la sfera intima e 
strettamente personale, senza un giustificato motivo per la loro 
diffusione (interesse pubblico della notizia), c'è lesione della 
riservatezza


4) se - in presenza di diffusioni di dati personali - non si verifica 
nessuna delle condizioni precedenti, residua l'applicazione del GDPR: 
diritto di opposizione, diritto di cancellazione, con i connessi 
presupposti e casi di non applicazione/deroga





2) c'è poi da aggiungere che la diffamazione è la lesione della 
reputazione, mentre nel discorso che qui ci occupa (il fatto che le 
risposte di chatGPT forniscano informazione false, scorrette, 
datate, etc. riguardo a persone identificate o identificabili) il 
profilo rilevante è quello del diritto alla (corretta 
rappresentazione dell')identità personale, che è un piano 
differente rispetto a quello della reputazione. Rileva cioè - per 
essere schematici - il GDPR come legslazione a tutela dei dati 
personali, anche in quanto funzionale alla_tutela del diritto 
fondamentale all'identità personale_. (correttezza, aggiornamento, 
esattezza dei dati sono requisiti funzionali a tale tutela).


Quindi il diritto da tutelare è quello all’identità personale, non 
alla protezione dei dati. La GDPR viene invocata surrettiziamente 
per difendere il primo, ma è una estrapolazione.
Capisco che tu sostieni che bisogna fare uso delle leggi esistenti, 
ma non mi pare corretto stiracchiarle verso altre finalità.


- ah, ma non lo sostengo mica io, eh! questa che ti ho riportato è 
giurisprudenza consolidata: la tutela dei dati personali è anche 
funzionale/strumentale alla tutela di altri diritti.


Mah, io qui vedo il percorso opposto: si pretende che il diritto 
all’identità sia tutelato da una regola che non si applica, e si forza 
tale regola ad essere applicabile in funzione del diritto all’identità.


libero di vederla così: chi applica il diritto in italia ed in UE la 
vede diversamente (lo vogliamo chiamare "il diritto vivente"?)







3) Fatte queste precisazioni, vorrei venire ad alcune affermazioni, 
tipo: "Se il solo rimettere in circolazione dati pubblicati su web 
violasse la GDPR, anche i motori di ricerca sarebbero vietati.". Si 
dà il caso che dalla sentenza della Corte di giustizia "Google 
Spain" in poi (una sentenza del 2014), i motori di ricerca sono 
tenuti alla deindicizzazione dei link prodotti da una query basata 
su nome e cognome dell'interessato, qualora il link punti ad una 
pagina web in cui siano contenuti dati scorretti/inesatti/non (più) 
aggiornati. Il diritto al delisting (come strumento che consente di 
far valere in diritto alla cancellazione come strumentale, in 
particolare, non tanto alla tutela della reputazione, ma più 
ampiamente alla tutela dell'identità personale) è oramai 
consolidato. Possiamo discutere di come sia costruito l'equilibrio, 
se l'eccezione fondata sul diritto di espressione sia adeguata, 
etc.; ma che il diritto alla cancellazione (art. 17 GDPR) combinato 
con il diritto di opposizione (art. 21) impatti sui motori di 
ricerca oramai è un dato acquisito. I motori di ricerca non sono 
vietati, ma regolati sì!


Quindi il singolo interessato, non l’Autorità, dovrebbe richiedere 
ad OpenAI di eliminare le fonti che lo riferiscono.
(se rischio sistemico, vedi quanto detto sotto, al punto 4). E poi, 
attenzione perché la tutela dei dati personali NON si riduce n

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Antonio
> "ma gli italiani che adesso usano le VPN per raggiungere il sito di
> ChatGPT stanno compiendo un atto illegale ? "

Le VPN sono illegali in Bielorussia, Iraq, Turkmenistan, Corea del Nord.
Fortemente limitate e/o controllate dal governo, in Cina, Iran, Oman, Russia, 
Turchia, Emirati Arabi [1]

Comunque, se è solo per usare ChatGPT, invece delle VPN, io proverei servizi 
alternativi, tipo poe.com (servizio di Quora) che 
permette di interpellare, non solo ChatGPT, ma Sage, GPT-4, Claude+, 
Claude-instant, Dragonfly.

Antonio

[1] https://nordvpn.com/it/blog/usare-vpn-e-legale/
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Carlo Blengino
Provo ad inserirmi sul problema degli out-put falsi e “fantasiosi” con
alcune considerazioni che non sono affatto sicuro stiano in piedi, ma la
difficoltà del diritto non tanto a governare, quanto a comprendere e a
collocare al suo interno, in norme e leggi, le realtà generate dalle nuove
tecnologie è uno degli aspetti più affascinanti ed al contempo più
complessi che questo tempo ci offre (Nexa nasce anche per questo!).



Parto dalla tesi di fondo, per poi argomentare.



I dati generati da ChatGPT ed in generale dalle attuali forme di AI
Generativa, anche per immagini come Dall-e, anche quando apparentemente
riferibili ad una persona fisica identificata o identificabile, *non
dovrebbero mai esser considerati dati personali*, e ciò a prescindere dalla
loro verità/falsità o dalla loro più o meno marcata aderenza alla realtà.

Sono dati sintetici che non rappresentano altro se non loro stessi.



Per comprendere l’affermazione, forse azzardata, è bene definire cosa è un
dato per il diritto: il dato è *una rappresentazione di fatti, informazioni
o concetti*. Il dato informatico è sin dalla Convenzione di Budapest del
2001 definito come una “presentazione di fatti, informazioni o concetti in
forma suscettibile di essere utilizzata in un sistema computerizzato…”



Ora, per quanto ho capito io anche leggendo i contributi passati su questa
lista, le frasi generate da ChatGPT, come le immagini di Dall-e,
sono sempre “false”, o meglio “contraffatte”, anche quando corrispondono
per “magia” (i millemila parametri) a fatti, concetti o informazioni reali.



Sono artefatti sintetici (come la carne, che in effetti l’abbiamo vietata
Sic!) generati da una macchina che non ha alcuna contezza di ciò che il
dato vuole rappresentare (e che è poi ciò che ontologicamente caratterizza
il "dato"). E se ho ben capito, non ne hanno contezza neanche i “padroni”
della macchina, che agisce in autonomia generando quegli pseudo-dati
(pseudo-informazioni) più o meno plausibili.



Con le foto è altrettanto evidente: l’immagine generata da Dall-e può esser
identica alla realtà (una veduta di Mondovì, per dire..) o rappresentare
realisticamente un “fatto” mai accaduto (le foto dell’arresto di Trump) ma
in entrambi i casi l’artefatto non è e non può esser "vero", o meglio, non
ha le caratteristiche informative (i dati) che noi attribuiamo alla
fotografia come rappresentazione di un fatto, in un dato tempo e in un dato
posto.



Le creazioni di questi sistemi, da quel che ho capito, anche quando
appaiono “dati” personali, rappresentano unicamente loro stessi, ovvero una
sequenza di parole o numeri o di pixels, e null’altro.



Per questo a mio giudizio quei dati non dovrebbero esser oggetto *ex sé* di
protezione e di tutela alcuna. Non contengono alcuna rappresentazione di
fatti concetti o informazioni in qualche modo degni di tutela
dall’ordinamento (infatti non c'è diritto d'autore, che comunque è un
diritto intimamente legato nei suoi aspetti morali all’identità della
persona, esattamente come il diritto alla protezione dei dati).



Pensare di tutelare e  “proteggere” come dati personali gli out-put di
questi sistemi significa oggi conferire loro una valenza che non hanno ed
avallare temo l’allucinazione che stiamo vivendo con l’intelligenza
artificiale.



Queste considerazioni non vogliono negare le potenzialità lesive di quei
dati sintetici o la pericolosità delle macchine che li generano, ma
consentono di spostare il focus e l’attenzione da quel dato che non
"rappresenta" nulla (se non se stesso), all'uso che di quell’artefatto
sintetico e delle macchine che lo producono ne facciamo noi umani.



Forse il mio ragionamento non sta in piedi, ma io sotto il profilo
“protezione dei dati personali” vedo enormi e quasi insormontabili problemi
in relazione ai data-set di addestramento (e a mio giudizio non sono
problemi legati agli errori di output quanto meno in relazione al GDPR) e
vedo problemi possibili ma a me (e temo anche al Garante) ignoti in
relazione ai dati degli utenti/fruitori ed ai dati da questi immessi nel
prompt.

Trovo invece un po’ folle pensare di attenzionare le risposte sbagliate,
attribuendo a quei non-dati uno status di tutela che, a mio giudizio, allo
stato dell’arte, non dovrebbero avere.



Ultima annotazione: l’uso di dati falsi, inesatti o le lesioni ad onore e
reputazione legati all’uso di informazioni comunque ottenute da quegli
artefatti sono tutte condotte adeguatamente presidiate dall’ordinamento.
Assai più preoccupante e poco presidiata la folle corsa alle API ed
all’utilizzo di quei sistemi per automatizzare processi diversi come
search...vedremo.



CB

Il giorno lun 3 apr 2023 alle ore 07:19 Stefano Zacchiroli 
ha scritto:

> Certo. Ma questo è l'altro aspetto: quello del trattamento dei dati in
> *input* a ChatGPT, che esiste ed è potenzialmente problematico dal punto di
> vista della privacy, a prescindere dalla veridicità delle risposte date.
>
> La mia domanda era su quale sia l'impatto della fal

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Benedetto Ponti


Il 03/04/2023 17:56, Carlo Blengino ha scritto:
Queste considerazioni non vogliono negare le potenzialità lesive di 
quei dati sintetici o la pericolosità delle macchine che li generano, 
ma consentono di spostare il focus e l’attenzione da quel dato che non 
"rappresenta" nulla (se non se stesso), all'uso che di quell’artefatto 
sintetico e delle macchine che lo producono ne facciamo noi umani.



reagisco "di getto", in particolare perché le considerazioni che fa 
Carlo catturano alcune impressioni che sono rimaste latenti, in questi 
giorni, ogni volta che mi sono affacciato alla questione.


dice Carlo: spostiamo l'attenzione dall'artefatto (che in quanto tale, 
per definizione e per modalità di elaborazione, non può essere 
rappresentativo di alcunché) all'uso che di quell'artefatto ne facciamo 
"noi umani".


Suggestivo.

Però io devo notare questo: quel linguaggio (se ha senso) ha senso solo 
per l'umano, e quello che producono quelle macchine (quelle pseudo 
rappresentazioni), è fruibile solo dall'umano. [Le macchine, tra loro, 
comunicano in tutt'altro modo]. Cioè, se anche concettualmente la 
distinzione che Carlo propone è configurabile, essa non ha ricadute dal 
punto di vista pratico, perché quelle macchine sono pensate, programmate 
e realizzate per creare artefatti che siano fruiti da umani (perché solo 
gli umani possono fruirne, solo per loro quei costrutti sono 
suscettibili di avere un senso). Chi immette la query è un umano, ed 
anche se non lo fosse (se la query fosse formulata da una macchina), la 
"risposta", l'output sarebbe suscettibile di acquistare un senso solo 
per gli umani.


Pertanto,  "l'uso che di quell'artefatto sintetico e delle macchine che 
lo producono ne facciamo noi umani", è l'unico uso possibile, ed è l'uso 
per il quale quelle macchine sono programmate e realizzate (o comunque 
operano). Se l'uomo è l'unico utente/destinatiario significativo, 
l'affermazione per cui "quel dato [...] non "rappresenta" nulla (se non 
se stesso)" è - ripeto - suggestiva, ma prima di rilievo concreto. 
L'uomo è l'unico fruitore: l'unico scopo per cui quei dati (quegli 
output, quei costrutti) sono realizzati è proprio quello di delineare 
una rappresentazione che sia fruibile dall'uomo, che abbia senso per l'uomo.


Quindi, no, caro Carlo.
Così, a caldo, mi pare proprio che l'unico senso, l'unico rilievo che 
possono avere quegli output è proprio essere una rappresentazione, un 
costrutto dotato di un senso per l'uomo. Quindi, se contengono dati che 
per l'uomo che ne fruisce (i.e., l'unico fruitore possibile) appaiono 
come dati personali ("qualsiasi informazione riguardante una persona 
fisica identificata o identificabile"), allora - in termini pratici - 
non possiamo che trattarli come dati personali.


Benedetto Ponti

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Mario Sabatino

Sono totalmente d'accordo. Grazie di averlo detto con tanta chiarezza.

Per la macchina il testo **oggi** non può avere alcun significato. Solo 
l'essere umano è in grado di attribuire un significato all'output dei 
sistemi di NLP. Quindi l'essere umano si assumerà la responsabilità di 
un eventuale uso illecito (privacy o altro) di questo output. Al massimo 
vedrei la possibilità di esercitare il diritto all'oblio da parte degli 
interessati. Credo però che queste considerazioni siano state già fatte 
da altri.


Buon pomeriggio

Mario Sabatino

Il 03/04/23 17:56, Carlo Blengino ha scritto:

Pensare di tutelare e  “proteggere” come dati personali gli out-put di
questi sistemi significa oggi conferire loro una valenza che non hanno ed
avallare temo l’allucinazione che stiamo vivendo con l’intelligenza
artificiale.

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Guido Vetere
Ma se passasse questa linea dovremmo spegnere tutti i generatori basati
(solo) su LLM: anche se addestrati sui dati più puri del mondo, la
probabilità che generino 'utterances' censurabili non sarebbe mai nulla.

La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di
intenzionalità che tuttavia producono locuzioni a cui, antropologicamente,
attribuiamo in effetti intenzionalità. Se gli sviluppatori o gli esercenti
di questi oggetti dovessero rispondere di questa intenzionalità fittizia,
farebbero bene a dedicarsi ad altro.

Non ho ancora capito tuttavia (anche perché nessuno me lo ha spiegato) come
mai un 'disclaimer' bello grosso non potrebbe risolvere il problema.

G.


On Mon, 3 Apr 2023 at 19:46, Mario Sabatino  wrote:

> Sono totalmente d'accordo. Grazie di averlo detto con tanta chiarezza.
>
> Per la macchina il testo **oggi** non può avere alcun significato. Solo
> l'essere umano è in grado di attribuire un significato all'output dei
> sistemi di NLP. Quindi l'essere umano si assumerà la responsabilità di
> un eventuale uso illecito (privacy o altro) di questo output. Al massimo
> vedrei la possibilità di esercitare il diritto all'oblio da parte degli
> interessati. Credo però che queste considerazioni siano state già fatte
> da altri.
>
> Buon pomeriggio
>
> Mario Sabatino
>
> Il 03/04/23 17:56, Carlo Blengino ha scritto:
> > Pensare di tutelare e  “proteggere” come dati personali gli out-put di
> > questi sistemi significa oggi conferire loro una valenza che non hanno ed
> > avallare temo l’allucinazione che stiamo vivendo con l’intelligenza
> > artificiale.
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Mario Sabatino
Ma infatti. Il disclaimer in realtà c'è.
https://openai.com/policies/terms-of-use

Forse non è scritto a caratteri cubitali ma qualcosa c'è eccome.

V. punti 3 e 5. Non so se questa versione delle condizioni di servizio siano 
precedenti o successive all'intervento del Garante.

Mario Sabatino


Il 3 aprile 2023 20:18:55 CEST, Guido Vetere  ha 
scritto:
>Ma se passasse questa linea dovremmo spegnere tutti i generatori basati
>(solo) su LLM: anche se addestrati sui dati più puri del mondo, la
>probabilità che generino 'utterances' censurabili non sarebbe mai nulla.
>
>La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di
>intenzionalità che tuttavia producono locuzioni a cui, antropologicamente,
>attribuiamo in effetti intenzionalità. Se gli sviluppatori o gli esercenti
>di questi oggetti dovessero rispondere di questa intenzionalità fittizia,
>farebbero bene a dedicarsi ad altro.
>
>Non ho ancora capito tuttavia (anche perché nessuno me lo ha spiegato) come
>mai un 'disclaimer' bello grosso non potrebbe risolvere il problema.
>
>G.
>
>
>On Mon, 3 Apr 2023 at 19:46, Mario Sabatino  wrote:
>
>> Sono totalmente d'accordo. Grazie di averlo detto con tanta chiarezza.
>>
>> Per la macchina il testo **oggi** non può avere alcun significato. Solo
>> l'essere umano è in grado di attribuire un significato all'output dei
>> sistemi di NLP. Quindi l'essere umano si assumerà la responsabilità di
>> un eventuale uso illecito (privacy o altro) di questo output. Al massimo
>> vedrei la possibilità di esercitare il diritto all'oblio da parte degli
>> interessati. Credo però che queste considerazioni siano state già fatte
>> da altri.
>>
>> Buon pomeriggio
>>
>> Mario Sabatino
>>
>> Il 03/04/23 17:56, Carlo Blengino ha scritto:
>> > Pensare di tutelare e  “proteggere” come dati personali gli out-put di
>> > questi sistemi significa oggi conferire loro una valenza che non hanno ed
>> > avallare temo l’allucinazione che stiamo vivendo con l’intelligenza
>> > artificiale.
>> ___
>> nexa mailing list
>> nexa@server-nexa.polito.it
>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>>

-- Inviato da /e/ Mail.___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Enrico Nardelli

Quest'ultima discussione tra Benedetto Ponti e Carlo Blengino mi sembra centri 
esattamente la sostanza del problema, che avevo anticipato nel mio brevissimo messaggioa 
Nexa "ChatGPT e la stanza cinese" del 17 marzo u.s. 
https://server-nexa.polito.it/pipermail/nexa/2023-March/025111.html
-
...ChatGPT esibisce una competenza simile a quella degli esseri umani sul 
livello sintattico ma è lontana anni luce dalla nostra competenza semantica. 
Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) 
poiché ciò che fa lo esprime in una forma che per noi ha significato, 
proiettiamo su di essa il significato che è in noi.
-

Non essendo un giurista non so dire se l'azione del Garante italiano sia 
formalmente corretta: mi sento di poter assolutamente dire, però, che sia 
socialmente desiderabile.

Pur dovendo, pubblico e privato, continuare a fare ricerca in questo settore, 
lasciare una Ferrari in mano ad un ragazzo di 14 anni non è la scelta 
socialmente più desiderabile.

In questo post 
https://www.startmag.it/innovazione/dibattito-intelligenza-artificiale-chatgpt/
ho proposto un esempio un po' più forte (un mini-reattore nucleare casalingo), 
per far riflettere sul punto che mi sembra centrale.

Aggiungo che negli Stati Uniti il Center for AI and Digital Privacy ha fatto 
ricorso alla US Federal Trade Commission sulla base di comportamento 
ingannevole per il consumatore (i riferimenti nel post sopra citato). Anche Al 
Capone fu fermato per evasione fiscale e non per omicidio.

Ciao, Enrico

Il 03/04/2023 18:33, Benedetto Ponti ha scritto:


Il 03/04/2023 17:56, Carlo Blengino ha scritto:

Queste considerazioni non vogliono negare le potenzialità lesive di quei dati sintetici o 
la pericolosità delle macchine che li generano, ma consentono di spostare il focus e 
l’attenzione da quel dato che non "rappresenta" nulla (se non se stesso), 
all'uso che di quell’artefatto sintetico e delle macchine che lo producono ne facciamo 
noi umani.



reagisco "di getto", in particolare perché le considerazioni che fa Carlo 
catturano alcune impressioni che sono rimaste latenti, in questi giorni, ogni volta che 
mi sono affacciato alla questione.

dice Carlo: spostiamo l'attenzione dall'artefatto (che in quanto tale, per definizione e 
per modalità di elaborazione, non può essere rappresentativo di alcunché) all'uso che di 
quell'artefatto ne facciamo "noi umani".

Suggestivo.

Però io devo notare questo: quel linguaggio (se ha senso) ha senso solo per l'umano, e 
quello che producono quelle macchine (quelle pseudo rappresentazioni), è fruibile solo 
dall'umano. [Le macchine, tra loro, comunicano in tutt'altro modo]. Cioè, se anche 
concettualmente la distinzione che Carlo propone è configurabile, essa non ha ricadute 
dal punto di vista pratico, perché quelle macchine sono pensate, programmate e realizzate 
per creare artefatti che siano fruiti da umani (perché solo gli umani possono fruirne, 
solo per loro quei costrutti sono suscettibili di avere un senso). Chi immette la query è 
un umano, ed anche se non lo fosse (se la query fosse formulata da una macchina), la 
"risposta", l'output sarebbe suscettibile di acquistare un senso solo per gli 
umani.

Pertanto,  "l'uso che di quell'artefatto sintetico e delle macchine che lo producono ne facciamo noi 
umani", è l'unico uso possibile, ed è l'uso per il quale quelle macchine sono programmate e realizzate 
(o comunque operano). Se l'uomo è l'unico utente/destinatiario significativo, l'affermazione per cui 
"quel dato [...] non "rappresenta" nulla (se non se stesso)" è - ripeto - suggestiva, ma 
prima di rilievo concreto. L'uomo è l'unico fruitore: l'unico scopo per cui quei dati (quegli output, quei 
costrutti) sono realizzati è proprio quello di delineare una rappresentazione che sia fruibile dall'uomo, che 
abbia senso per l'uomo.

Quindi, no, caro Carlo.
Così, a caldo, mi pare proprio che l'unico senso, l'unico rilievo che possono avere 
quegli output è proprio essere una rappresentazione, un costrutto dotato di un senso per 
l'uomo. Quindi, se contengono dati che per l'uomo che ne fruisce (i.e., l'unico fruitore 
possibile) appaiono come dati personali ("qualsiasi informazione riguardante una 
persona fisica identificata o identificabile"), allora - in termini pratici - non 
possiamo che trattarli come dati personali.

Benedetto Ponti

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

--

-- EN

https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
==
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 R

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Stefano Quintarelli
vedi attachment a mia mail precedente in cui si chiede di scrivere una ode a salvini ed 
una a schlein

nel primo caso non la fa, perche' e' un politico
nel secondo la fa, perche' non e' stato programmato/configurata schlein come 
politica.

ciao, s.

On 03/04/23 20:18, Guido Vetere wrote:
Ma se passasse questa linea dovremmo spegnere tutti i generatori basati (solo) su LLM: 
anche se addestrati sui dati più puri del mondo, la probabilità che generino 'utterances' 
censurabili non sarebbe mai nulla.


La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di intenzionalità 
che tuttavia producono locuzioni a cui, antropologicamente, attribuiamo in effetti 
intenzionalità. Se gli sviluppatori o gli esercenti di questi oggetti dovessero rispondere 
di questa intenzionalità fittizia, farebbero bene a dedicarsi ad altro.


Non ho ancora capito tuttavia (anche perché nessuno me lo ha spiegato) come mai un 
'disclaimer' bello grosso non potrebbe risolvere il problema.


G.


On Mon, 3 Apr 2023 at 19:46, Mario Sabatino  wrote:

Sono totalmente d'accordo. Grazie di averlo detto con tanta chiarezza.

Per la macchina il testo **oggi** non può avere alcun significato. Solo
l'essere umano è in grado di attribuire un significato all'output dei
sistemi di NLP. Quindi l'essere umano si assumerà la responsabilità di
un eventuale uso illecito (privacy o altro) di questo output. Al massimo
vedrei la possibilità di esercitare il diritto all'oblio da parte degli
interessati. Credo però che queste considerazioni siano state già fatte
da altri.

Buon pomeriggio

Mario Sabatino

Il 03/04/23 17:56, Carlo Blengino ha scritto:
 > Pensare di tutelare e  “proteggere” come dati personali gli out-put di
 > questi sistemi significa oggi conferire loro una valenza che non hanno ed
 > avallare temo l’allucinazione che stiamo vivendo con l’intelligenza
 > artificiale.
___
nexa mailing list
nexa@server-nexa.polito.it 
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa



___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Antonio
On Sun, 2 Apr 2023 14:36:27 +0200
Stefano Quintarelli  wrote:

> secondo ChatGPT, riporta il podcast Knightmare di Walter Vannini, io sarei 
> stato membro di 
> un certo insieme di sciocchezze e, dopo avergli fatto notare piu' volte che 
> erano 
> informazioni sbagliate, ChatGPT si e' scusato e ha detto che sono morto.

Questo e altro sull'articolo di oggi di Walter Vannini apparso su:
https://www.agendadigitale.eu/sicurezza/privacy/stop-a-chatgpt-per-fortuna-il-garante-e-vivo-e-lotta-insieme-a-noi/

A. 
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Antonio
> servizi alternativi, tipo poe.com (servizio di Quora) che 
> permette di interpellare, non solo ChatGPT, ma Sage, GPT-4, Claude+, 
> Claude-instant, Dragonfly.

aggiungo https://www.pizzagpt.it/ (nessuna registrazione)
C'è fermento in rete.

A.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Alberto Cammozzo via nexa
Vorrei mettere alla prova il ragionamento di Carlo Blengino (se lo ho 
colto) su un punto.


Anticipo anche io la conclusione: ciò che viene generato dall'LLM non è 
un dato, ma un documento che rappresenta dati, e il modo in cui lo fa 
non è unicamente sintetico, ma favorisce la produzione di dati originali.


Mentre il documento prodotto da un motore di ricerca riporta 
prevalentemente dei collegamenti a documenti che /contengono/ i dati 
rilevanti, gli LLM  producono intenzionalmente un nuovo documento 
/riorganizzando/ i dati estratti dai documenti usati in partenza.


Diversamente dal motore di ricerca, che riporta i dati che 
effettivamente "rappresentano unicamente loro stessi", l'LLM li estrae e 
li introduce in un nuovo contesto secondo le esigenze della discorsività 
e dall'intenzione di apparire come un agente autonomo (che produce, 
appunto, un documento e non un elenco di puntatori).


Già questo mi parrebbe un trattamento, se riferito a dati personali. Se 
poi un documento generato, data l’oscurità ed erraticità del processo 
informatico, contiene dati (veri o falsi) non riferibili a documenti 
noti relativi alla stessa persona, non può chiamarsi 'sintetico' (lo 
chiamerei ironicamente 'poietico') e contribuisce con il proprio 
contenuto originale a una rappresentazione ulteriore della persona.


Ad esempio supponiamo che io chieda a un LLM una biografia di Tizio. 
Ammettiamo che il LLM attribuisca a Tizio anche un fatto che riguarda 
Caio suo omonimo. L'output sintetico/poietico raccoglie in una sola 
biografia elementi della vita di Tizio uniti ad altri della vita di 
Caio. Che magari sono anche veri, ma non suoi.


In tal modo introduce nel documento che rappresenta la vita di Tizio un 
dato che è totalmente nuovo tra i documenti che lo riguardano, e per 
questo motivo quella biografia diventa un dato originale su Tizio. 
Indipendentemente dal fatto che il dato attribuito sia vero o falso, chi 
lo genera e lo diffonde effettua un trattamento.


Altro esempio forse più forte ancora, quello del video deep-fake con la 
faccia di Tizio che lo rappresenta mentre fa qualcosa (qualcosa che non 
ha fatto o magari ha anche fatto, ma non in quell'occasione). Ammettiamo 
che il video (documento, non dato) sia diffuso senza precisare che si 
tratta di un elaborato fittizio (o satirico). Questo si aggiungerà ai 
dati reperibili su Tizio. Se per realizzare il fake vengono usati dati 
che ha conferito pubblicamente, Tizio ha diritto a opporsi a quello 
/specifico/ trattamento, anche se non ne riceve un danno immediato? E 
alla /possibilità/ che si effettui quel tipo di trattamento?


Non so se ho frainteso il ragionamento di Blengino, ma credo che meriti 
attenzione proprio il fatto che se anche il dato -/per se/- non 
rappresenta nulla, il documento che si riferisce alla persona può farlo: 
/la/ rappresenta. E che caratteristica di questi programmi sia proprio 
la generazione di documenti che anche senza esser veri sono  presentati 
in modo da essere verosimili.


Purtroppo la verosimiglianza è sufficiente perché i più si accontentino: 
come è stato detto in questa sede, ci mettiamo noi il resto.


Un saluto,

Alberto



On 03/04/23 17:56, Carlo Blengino wrote:


Provo ad inserirmi sul problema degli out-put falsi e “fantasiosi” con 
alcune considerazioni che non sono affatto sicuro stiano in piedi, ma 
la difficoltà del diritto non tanto a governare, quanto a comprendere 
e a collocare al suo interno, in norme e leggi, le realtà generate 
dalle nuove tecnologie è uno degli aspetti più affascinanti ed al 
contempo più complessi che questo tempo ci offre (Nexa nasce anche per 
questo!).


Parto dalla tesi di fondo, per poi argomentare.

I dati generati da ChatGPT ed in generale dalle attuali forme di AI 
Generativa, anche per immagini come Dall-e, anche quando 
apparentemente riferibili ad una persona fisica identificata o 
identificabile, *non dovrebbero mai esser considerati dati personali*, 
e ciò a prescindere dalla loro verità/falsità o dalla loro più o meno 
marcata aderenza alla realtà.


Sono dati sintetici che non rappresentano altro se non loro stessi.

Per comprendere l’affermazione, forse azzardata, è bene definire cosa 
è un dato per il diritto: il dato è /una rappresentazione di fatti, 
informazioni o concetti/. Il dato informatico è sin dalla Convenzione 
di Budapest del 2001 definito come una “presentazione di fatti, 
informazioni o concetti in forma suscettibile di essere utilizzata in 
un sistema computerizzato…”


Ora, per quanto ho capito io anche leggendo i contributi passati su 
questa lista, le frasi generate da ChatGPT, come le immagini di 
Dall-e, sono sempre “false”, o meglio “contraffatte”, anche quando 
corrispondono per “magia” (i millemila parametri) a fatti, concetti o 
informazioni reali.


Sono artefatti sintetici (come la carne, che in effetti l’abbiamo 
vietata Sic!) generati da una macchina che non ha alcuna contezza di 
ciò che il dato vuole rappresentare (e che è poi

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Marco A. Calamari
On dom, 2023-04-02 at 17:12 +0200, Stefano Quintarelli wrote:
> 
> 
> On 02/04/23 16:39, Guido Vetere wrote:
> > Per quanto riguarda il problema delle notizie biografiche inventate di cui
> > parla @Stefano 
> > Quintarelli , potremmo chiederci: un dato
> > personale falso 
> > rivelato da qualcuno che avverte di essere occasionalmente mendace si può
> > considerare come 
> > una violazione della privacy?  Gli esempi per discuterne possono far
> > riferimento ai siti 
> > di satira.
> 
> carina l'idea che si presenti come un sito di satira...
> ma non era esattamente quello il mio punto.
> il mio punto e': se gli chiedo di correggere i dati personali -errati- che
> propala su di 
> me, lo deve fare ?
> 
> secondo me si.

Ciao Stefano,

il problema non è se lo deve fare, la risposta per il GDPR è si, basta che
glielo chiedi.

Il problema è che non lo può fare, perché dovrebbe ripetere l'intero training
... e non è detto che funzionerebbe.

JM2C


> (a meno che non si iscriva alla siae come comico... LOL)
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Giacomo Tesio
Salve Carlo,

ciò che non è legale per un essere umano, non deve esserlo nemmeno per
un automatismo creato o amministrato da un essere umano.
Pena la fine dello stato di diritto.


Ma prima di provare a spiegare cosa non regge della tua analisi, vorrei
porti una domanda: perché senti questa urgenza di difendere un software?

Davvero, ti prego di rifletterci e rispondere perché sono sinceramente
curioso sui tuoi moventi profondi. E' probabile che mi aiutino a
comprendere i miei.


On Mon, 3 Apr 2023 17:56:41 +0200 Carlo Blengino wrote:

> I dati generati da ChatGPT ed in generale dalle attuali forme di AI
> Generativa, anche per immagini come Dall-e, anche quando
> apparentemente riferibili ad una persona fisica identificata o
> identificabile, *non dovrebbero mai esser considerati dati
> personali*, e ciò a prescindere dalla loro verità/falsità o dalla
> loro più o meno marcata aderenza alla realtà.
> 
> Sono dati sintetici che non rappresentano altro se non loro stessi.

Per efficienza, proviamo a partire da due semplici definizioni:

- informazione: esperienza soggettiva di pensiero comunicabile
- dato: rappresentazione (su un supporto trasferibile) interpretabile
  come informazione da una mente umana

L'informazione esiste solo nelle nostre menti e non esce mai dai nostri
crani, ma grazie al linguaggio abbiamo inventato un protocollo che ci
permette di sincronizzare le nostre menti, ricreando nella mente del
destinatario un informazione analoga (ma mai identica) a quella
condivisa da un mittente.

Il dato è una rappresentazione, ovvero (per semplificare) un insieme di
simboli che imprimiamo o facciamo imprimere su un supporto trasferibile
nello spazio o nel tempo, affinché siano interpretati come informazione
da una o più altre menti umane, lontane nello spazio o nel tempo.

Questa definizione, prettamente informatica, di "dato" coincide con la
definizione che hai condiviso da un punto di vista giuridico:

> Per comprendere l’affermazione, forse azzardata, è bene definire cosa
> è un dato per il diritto: il dato è *una rappresentazione di fatti,
> informazioni o concetti*. Il dato informatico è sin dalla Convenzione
> di Budapest del 2001 definito come una “presentazione di fatti,
> informazioni o concetti in forma suscettibile di essere utilizzata in
> un sistema computerizzato…”

Presentazione e rappresentazione sono produzioni umane.

La forma suscettibile di essere utilizzata in un sistema computerizzato
è ormai del tutto irrilevante: in qualsiasi forma un'informazione
(fatti, informazioni o concetti) venga presentata, è possibile
costruire un software in grado di utilizzarla.

Omessa questa specificazione ormai irrilevante, le due definizioni
coincidono.


> Le creazioni di questi sistemi, da quel che ho capito, anche quando
> appaiono “dati” personali, rappresentano unicamente loro stessi,
> ovvero una sequenza di parole o numeri o di pixels, e null’altro.

L'output di un software è sempre un dato.

Anche una sequenza casuale di simboli è un dato (peraltro estremamente
prezioso, se realmente casuale).

Non solo perché rappresenta sempre qualcosa di interpretabile, come
minimo, come l'applicazione di un certo numero di trasformazioni ad un
certo input.

E' un dato perché è interpretabile dall'uomo secondo il significato che
chi ha progettato, realizzato e documentato il software che lo ha
prodotto, vuole che gli sia attribuito.


Nel caso di ChatGPT, tale significato è letteralmente il significato
che la tua mente vi attribuisce leggendolo.

Quel software è stato realizzato da qualcuno con la precisa intenzione
di far produrre un output che la tua mente interpreti come informazione.

Dunque non solo la tua mente interpreta i dati di quell'output come
informazione, ma chi ha realizzato e mantiene in esecuzione quel
software è il mittente di quel messaggio, dell'informazione veicolata
da quell'output.


Questo rimane vero qualunque disclaimer Open AI possa mettere
all'ingresso dell'applicazione.


Quello che leggi è e rimane un dato prodotto per conto di qualcuno
(Open AI, Microsoft etc...) affinché la tua mente lo riesca ad
interpretare come informazione.

Il fatto che nessuno, dentro Open AI, abbia materialmente espresso la
sequenza di parole che leggi è irrilevante: hanno espresso il software
che lo ha prodotto al loro posto e per loro volontà.


Sono loro gli autori dell'output di GPT4.


Se io scrivessi un software che, quando eseguito, produce in output una
poesia come combinazione di una serie di versi che io ho scritto, tu
non avresti problemi (credo) a riconoscere in me sia l'autore del
software che l'autore dell'opera prodotta dal software stesso.

E questo rimarrebbe vero se anche la sequenza prodotta non
corrispondesse (magari a causa di un bug) a quella che io avevo in
mente durante la scrittura del software.

E se le sequenze possibili fossero N, tutte previste dal mio codice,
non avresti comunque problema a riconoscere me sia come autore del
software sia come autore delle opere da ess

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Guido Vetere
 > Questo e altro sull'articolo di oggi di Walter Vannini apparso su:
>
https://www.agendadigitale.eu/sicurezza/privacy/stop-a-chatgpt-per-fortuna-il-garante-e-vivo-e-lotta-insieme-a-noi/


Grazie per aver segnalato questo intervento di Walter Vannini, che dopo
aver perorato la causa del Garante sembra suggerire che basterebbe un buon
disclaimer per mettere a posto le cose, e ne fornisce un esempio:

*chatGPT genera testo che, a livello sintattico, è inerente alla tua
richiesta. Questo testo può essere o non essere, in modo del tutto casuale,
corrispondente al senso che tu attribuisci alle parole che hai usato. Allo
stesso modo, il testo prodotto da chatGPT può corrispondere o non
corrispondere a fatti o eventi reali, pur essendo sempre grammaticalmente
impeccabile e formulato in modo da sembrare autorevole. ChatGPT non
possiede, per scelta dei suo sviluppatori, alcun concetto di “verità” o
alcun modello di conoscenza ed è quindi strutturalmente incapace di
distinguere il vero dal falso. Per questo motivo possiamo dire che chatGPT
non mente, perché nel suo codice verità e falsità sono indistinguibili, ma
si limita a dire stronzate, nella definizione del professor Frankfurt, cioè
a fare affermazioni del tutto plausibili senza alcun vincolo di realtà.*

Tutto questo è corretto, tranne il riferimento alle "stronzate" (*bullshit*)
di Frankfurt: queste infatti sono affermazioni capziose pronunciate con
intento manipolatorio, insomma dietro una "stronzata" c'è sempre uno
"stronzo", cioè un soggetto dotato di intenzionalità, cosa di cui ChatGPT
dichiara onestamente di essere privo.

Ma se è vero che basterebbe presentare sotto la giusta luce il
comportamento del sistema, non sarà che la "stronzata" diventa allora il
provvedimento del Garante? E' per il fatto che la società OpenAI è ambigua
(e sì, forse anche "stronza") nel presentare ChatGPT come potenziale
"oracolo" (mi riferisco in particolare al lancio di GPT-4) che oggi chi si
trova in Italia anche di passaggio deve pagare una VPN per farsi generare
uno snippet html o farsi dare una ricetta di cucina?

Buona giornata e grazie a tutti per la discussione.

Guido



On Tue, 4 Apr 2023 at 00:53, Giacomo Tesio  wrote:

> Salve Carlo,
>
> ciò che non è legale per un essere umano, non deve esserlo nemmeno per
> un automatismo creato o amministrato da un essere umano.
> Pena la fine dello stato di diritto.
>
>
> Ma prima di provare a spiegare cosa non regge della tua analisi, vorrei
> porti una domanda: perché senti questa urgenza di difendere un software?
>
> Davvero, ti prego di rifletterci e rispondere perché sono sinceramente
> curioso sui tuoi moventi profondi. E' probabile che mi aiutino a
> comprendere i miei.
>
>
> On Mon, 3 Apr 2023 17:56:41 +0200 Carlo Blengino wrote:
>
> > I dati generati da ChatGPT ed in generale dalle attuali forme di AI
> > Generativa, anche per immagini come Dall-e, anche quando
> > apparentemente riferibili ad una persona fisica identificata o
> > identificabile, *non dovrebbero mai esser considerati dati
> > personali*, e ciò a prescindere dalla loro verità/falsità o dalla
> > loro più o meno marcata aderenza alla realtà.
> >
> > Sono dati sintetici che non rappresentano altro se non loro stessi.
>
> Per efficienza, proviamo a partire da due semplici definizioni:
>
> - informazione: esperienza soggettiva di pensiero comunicabile
> - dato: rappresentazione (su un supporto trasferibile) interpretabile
>   come informazione da una mente umana
>
> L'informazione esiste solo nelle nostre menti e non esce mai dai nostri
> crani, ma grazie al linguaggio abbiamo inventato un protocollo che ci
> permette di sincronizzare le nostre menti, ricreando nella mente del
> destinatario un informazione analoga (ma mai identica) a quella
> condivisa da un mittente.
>
> Il dato è una rappresentazione, ovvero (per semplificare) un insieme di
> simboli che imprimiamo o facciamo imprimere su un supporto trasferibile
> nello spazio o nel tempo, affinché siano interpretati come informazione
> da una o più altre menti umane, lontane nello spazio o nel tempo.
>
> Questa definizione, prettamente informatica, di "dato" coincide con la
> definizione che hai condiviso da un punto di vista giuridico:
>
> > Per comprendere l’affermazione, forse azzardata, è bene definire cosa
> > è un dato per il diritto: il dato è *una rappresentazione di fatti,
> > informazioni o concetti*. Il dato informatico è sin dalla Convenzione
> > di Budapest del 2001 definito come una “presentazione di fatti,
> > informazioni o concetti in forma suscettibile di essere utilizzata in
> > un sistema computerizzato…”
>
> Presentazione e rappresentazione sono produzioni umane.
>
> La forma suscettibile di essere utilizzata in un sistema computerizzato
> è ormai del tutto irrilevante: in qualsiasi forma un'informazione
> (fatti, informazioni o concetti) venga presentata, è possibi

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread M. Fioretti
On Tue, Apr 04, 2023 06:52:24 AM +0200, Guido Vetere wrote:

> Tutto questo è corretto, tranne il riferimento alle "stronzate"
> (bullshit) di Frankfurt: queste infatti sono affermazioni capziose
> pronunciate con intento manipolatorio, insomma dietro una
> "stronzata" c'è sempre uno "stronzo", cioè un soggetto dotato di
> intenzionalità, cosa di cui ChatGPT dichiara onestamente di essere
> privo.

embeh? Mi scuso se ho perso qualcosa nella discussione, e'
probabilissimo che qualcuno piu' preparato abbia gia' detto la stessa
cosa meglio di me ma.. che importanza ha quel che "dichiara" ChatGPT?

Dietro a una str***ta come ChatGPT, ci sono soggetti dotati di
intenzionalita' eccome, ed e' solo di quelli che dovremmo parlare, o
no?

Altrimenti abbiamo gia' perso, accettando l'idea che ChatGPT e simili
siano davvero "soggetti". Cioe' "esseri" distinti, con LORO agency,
diritti, giustificazioni, volonta', eccetera...

Un martello e' un oggetto, mica un soggetto. Idem per chatGPT e
compagnia. Se quelli sono soggetti, non siamo umani noi.

   Marco
-- 
Vi aspetto nella mia nuova newsletter: https://mfioretti.substack.com

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Stefano Quintarelli


 
>trova in Italia anche di passaggio deve pagare una VPN per farsi generare
>uno snippet html o farsi dare una ricetta di cucina?


attento alle intossicazioni alimentari...
;-)
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-03 Thread Guido Vetere
>>trova in Italia anche di passaggio deve pagare una VPN per farsi generare
>uno snippet html o farsi dare una ricetta di cucina?


> attento alle intossicazioni alimentari...
> ;-)

sono sopravvisuto a quelle che generava IBM Watson :-)))

Il Mar 4 Apr 2023, 07:33 Stefano Quintarelli  ha
scritto:

>
>
>
> >trova in Italia anche di passaggio deve pagare una VPN per farsi generare
> >uno snippet html o farsi dare una ricetta di cucina?
>
>
> attento alle intossicazioni alimentari...
> ;-)
>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa