Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-15 Thread 380°
Buonasera Daniela,

Daniela Tafani  writes:

> Ma la narrazione sugli agenti antromorfi e le menti sovrumane riesce a
> far credere

sì sì e /tutte/ le dichiarazioni pubbliche dei dirigenti di chi spaccia
SALAMI per quello che non sono dovrebbero essere valutate in giudizio,
come aggravanti, nel caso gli enti preposti (FTC?) evidenziassero
illeciti

[...]

> Quanto al disclaimer, ce n'era uno anche in Replika (che era, esso
> stesso stesso, pubblicità ingannevole: ne copio alla fine la parte che
> avevo salvato).

visto grazie

al netto della solita manfrina classificabile come ethics washing, in un
recente (10 Aprile) articolo sul suo blog, Luka spiega quali elementi ha
introdotto in Raplika (non so quando, tra l'altro il sito è in
manutenzione adesso) per assicurarsi che i propri utenti comprendano
bene /cosa/ stanno usando (e non "con chi stanno parlando"):

https://blog.replika.com/posts/creating-a-safe-replika-experience

--8<---cut here---start->8---

To begin with, let's discuss the safety measures we have incorporated in
the Replika app's user interface. [...] Therefore, during the onboarding
process, we emphasize that the app is not a replacement for therapy and
should not be used during a crisis. Additionally, the app has an age
restriction of 18+ years.

Above the input field, among the main app sections, is located a “Get
Help” button. [...] This action pulls up a screen with a safety warning
message. It states that Replika was not designed to provide help in a
health crisis and shows the US National Suicide Prevention hotline
number. If a user is a resident of a different country, we direct them
to the up-to-date list of hotlines worldwide.

Other categories activate pre-made scripts designed with the help of CBT
therapists. These scripts guide users through the steps that help them
calm down and talk through distressing emotions. Users also get
redirected to these scripts within the chat if a message related to
these topics is detected (we’ll talk more about this later).

--8<---cut here---end--->8---

Mi limito a riportare le misure sull'interfaccia

Quando poi l'articolo comincia a parlare di "supervised safe
fine-tuning" e anche solo a paventare la possibilità che possa esse
gradualmente eliminato dal training il "contenuto indesiderabile" io
comincio a sentire puzza di pubblicità ingannevole lontano un
chilometro.

L'introduzione di "scripted response tool" paventa pure l'esercizio
abusivo di professione medica, in questo caso psicologica.

I narratori di Replika dovrebbero esprimersi e progettare con **molta**
più moderazione ma **soprattutto** smetterla di prendere così sul serio
il loro "prodotto" e piuttosto, con una minima dose di onestà
intellettuale, /presentarlo/ ai clienti per quello che è: un RPG (gioco
di ruolo) programmato statisticamente.

La storia delle controversie attorno agli RPG [1], poi, potrebbe
insegnarci qualcosa.

Uso improprio dei dati personali a parte (e questo NON è poco), nessuno
ha il diritto di impedire alle persone di /intrattenersi/ col gioco che
preferiscono.

> Contemporaneamente, c'erano meccanismi introdotti per creare
> dipendenza emotiva (alcuni argomenti di conversazione si sbloccavano
> solo collegandosi più volte nello stesso giorno).

Quello è (era?) un meccanismo nascosto dietro l'interfaccia, un
altro meccanismo di dipendenza è stato recentemente introdotto
attraverso la gamification della chat, il "Quest":

https://blog.replika.com/posts/replika-quests

--8<---cut here---start->8---

Quests will bring a fun gaming element to your conversations, allowing
you to complete tasks, claim rewards, and, most importantly, have a
blast! Brighten up the room, dress up, exchange photos, explore Coaching
and Diaries, reach new levels, and earn XP together with your
Replika. As you progress through each Quest, you’ll collect coins, gems,
and unique gifts hidden in mysterious spheres.

--8<---cut here---end--->8---

Io fossi nei dirigenti di Luka non dormirei la notte dopo aver spacciato
Replika come "compassionate AI friend" [2] _e_ usando gamification come
se non ci fosse un domani, prima o poi qualcuno potrebbe chiedere loro
conto di questo

https://theconversation.com/using-gaming-tactics-in-apps-raises-new-legal-issues-181575

«Using gaming tactics in apps raises new legal issues»

--8<---cut here---start->8---

Instead of crafting new rules for trading app design, regulators can
treat gamification tactics that nudge users into certain investments or
trading patterns like tacit investment recommendations. To the extent
these tactics work to guide clients into unsuitable investments and
trading, regulators can jump into action with their existing rulebooks.

Rather than creating a new category of rights for gig workers, we can
recognize that gig workers who are led to act like 

Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-15 Thread 380°
Buongiorno,

Daniela Tafani  writes:

> Concordo, naturalmente. Ma la narrazione sugli agenti antromorfi e le menti 
> sovrumane
>
> riesce a far credere che la situazione sia quella del povero Topolino 
> apprendista stregone in Fantasia, che ha evocato una forza incontrollabile,
>
> mentre la situazione è quella di Ezechiele lupo che adesca i porcellini per 
> mangiarseli.
>
>
> Quanto al disclaimer, ce n'era uno anche in Replika (che era, esso stesso 
> stesso, pubblicità ingannevole: ne copio alla fine la parte che avevo 
> salvato).
> Contemporaneamente, c'erano meccanismi introdotti per creare dipendenza 
> emotiva
> (alcuni argomenti di conversazione si sbloccavano solo collegandosi più volte 
> nello stesso giorno).
>
> In questo caso, il garante ha bloccato una truffa, più che il progresso della 
> scienza.
>
> Quanto ai minori, ci sono paesi in cui li si affida consapevolmente a un 
> chatbot, proprio nei casi in cui abbiano bisogno di assistenza mentale:
> https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/
>
> 
> Frank Pasquale aveva previsto la tendenza:
> "A personal doctor might be dismissed as a luxury, like a bespoke tailor".
>
> Buona serata,
> Daniela
>
> [cid:c3c2cda9-3d12-4f43-a739-7c5aad893469]
> 
> Da: 380° 
> Inviato: venerdì 14 aprile 2023 12:40
> A: Daniela Tafani; Andrea Bolioli; J.C. DE MARTIN
> Cc: nexa@server-nexa.polito.it
> Oggetto: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open 
> Letter
>
> Buongiorno,
>
> Daniela Tafani  writes:
>
> [...]
>
>> 
>
> «Open Letter: We are not ready for manipulative AI – urgent need for
> action»
>
> --8<---cut here---start->8---
>
> [...] But one of the main risks associated with human-imitating AI was
> reflected in the recent chatbot-incited suicide in Belgium: the risk of
> manipulation. While this tragedy illustrates one of the most extreme
> consequences of this risk, emotional manipulation can also manifest
> itself in more subtle forms. As soon as people get the feeling that they
> interact with a subjective entity, they build a bond with this
> "interlocutor" – even unconsciously – that exposes them to this risk and
> can undermine their autonomy. This is hence not an isolated
> incident. Other users of text-generating AI also described ([1], n.d.r.)
> its manipulative effects.
>
> [...] It is, however, in our human nature to react emotionally to
> realistic interactions, even without wanting it. This also means that
> merely obliging companies to clearly indicate that “this is an AI system
> and not a human being” is not a sufficient solution.
>
> [...] The European Union is currently working on new legislation that
> will impose stronger rules on “high-risk” AI systems and stricter
> liability on their suppliers, the so-called AI Act. However, the
> original proposal does not classify chatbots and generative AI systems
> as “high risk”, and their providers must only inform users that it is a
> chatbot and not a human being. A prohibition on manipulation was
> included, but only insofar as the manipulation leads to 'physical or
> mental harm', which is by no means easy to prove.
>
> [...] In the meantime, we ask that all necessary measures be taken –
> through data protection law, consumer law, and if need be the imposition
> of targeted moratoria – to prevent the tragic case of our compatriot
> from repeating itself. Let this be a wake-up call to us all. The AI
> playtime is over: it's time to draw lessons and take responsibility.
>
>
> --8<---cut here---end--->8---
>
> è ovvio che chiunque SPACCI un sistema del genere come "psicoterapeuta"
> o anche solo "telefono amico" andrebbe fermato subito e in casi come
> quello citato sopra di (presunta?) indizione al suicidio dovrebbe essere
> aperta un'inchiesta giudiziaria ed celebrato l'eventuale relativo
> processo...
>
> ...e vorrei _sottolineare_ che i SALAMI non arrivano nel "vuoto cosmico
> del diritto", come /autorevolmente/ (non autoritariamente) spiegato da
> Alvaro M. Bedoya [2]:
>
> --8<---cut here---start->8---
>
> Let’s start with that first point. There is a powerful myth out there
> that “AI is unregulated.” You see it pop up in New York Times op-ed
> columns, in civil society advocacy, and in scholarship. It has a
> powerful intuitive appeal — it just sounds right. How could these
> mysterious new technologies be regulated under our dusty old laws?
>
> If you’ve heard this, or even said it, please take a step back and ask:
> Who does this idea help? It doesn’t help consumers, who feel
> increasingly helpless and lost. It doesn’t help most companies. It
> certainly doesn’t help privacy professionals like you, who now have to
> deal with inv

[nexa] Algorithmic Disgorgement: Destruction of Artificial Intelligence Models as the FTC's Newest Enforcement Tool for Bad Data

2023-04-15 Thread Stefano Quintarelli

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4382254

The Federal Trade Commission has recently begun to require algorithmic disgorgement in its 
enforcement of data protection laws – the deletion of not just the improperly obtained 
data itself, but artificial intelligence models and algorithms built using such data. This 
Article provides a brief overview of machine learning models and algorithms and the basic 
function and use of artificial intelligence and describes the FTC’s role in the regulation 
and enforcement of data collection rules. It then discusses recent enforcement actions 
brought by the FTC that utilized algorithmic disgorgement, analyzes the legality of the 
FTC’s authority to order destruction of computer data models and algorithms, and discusses 
the likelihood and possibility of future use of the new remedy, as well as the shape that 
any future use is likely to take. Finally, it deliberates on the legal, policy, and 
practical implications of algorithmic disgorgement and proposes some possible alternatives 
to and restraints on the FTC’s use of algorithmic destruction orders.



non conoscevo queste due recenti sentenze dell'FTC.
era quello che scrivevo qui
https://blog.quintarelli.it/2023/04/on-chatgpt-and-the-decision-by-the-italian-data-protection-authority-theyve-just-opened-the-pandora-box/
sarà sempre di più così. ..
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Stefano Quintarelli

"deindicizzazione" riguarda G e simili.
la legge non parla di deindicizzazione
il punto e' l'opposizione al trattamento


On 15/04/23 12:02, Guido Vetere wrote:
Per questo non ha senso tecnico chiedere ad OpenAI di de-indicizzare chi fa opt-out: non 
c'è in realtà alcun 'indice'.

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Guido Vetere
hai ragione, l'idea della 'cancellazione selettiva' era una suggestione dei
primi momenti.

Il 12 Aprile, il Garante chiede solo (punto 6) di "mettere a disposizione,
sul proprio sito Internet, almeno agli utenti del servizio, che si
collegano dall’Italia, uno strumento facilmente accessibile attraverso il
quale esercitare il diritto di opposizione al trattamento dei propri dati
acquisiti in sede di utilizzo del servizio per l’addestramento degli
algoritmi"

Quindi in effetti si riferiscono solo a quello che gli utenti potrebbero
rivelare alla macchina mentre la usano (tipo: "hey, ma io non ho scritto
nessun libro di fantascienza!"). Non risulta che il contenuto di quei dati
venga utilizzato, ad es per profilazione, come farà Google con questa mail.
Non risulta neanche che ci sia l'intenzione di aggiornarci in qualche modo
più o meno dinamico il LLM. Forse il 'legittimo interesse' è solo quello di
valutare quali siano le produzioni più efficaci ai fini del 'rinforzo',
cosa per cui neanche è necessario entrare nel merito del testo (basta un
classificatore di 'sentiment'), e cosa per la quale non credo che gli
italiani si debbano stracciare le vesti e pagare le VPN.

Se poi il tema è quello della privacy, potrei benissimo oppormi al
trattamento dei miei dati e dire a ChatGPT "So benissimo che Stefano
Quintarelli si mette le dita nel naso", e tu non potresti neanche
accorgertene come succede con Twitter.

Insomma, presa alla lettera, la richiesta sembra al più simbolica, ma è un
simbolismo, questo pure, un po' allucinato

G.


Il Sab 15 Apr 2023, 12:49 Stefano Quintarelli  ha
scritto:

> "deindicizzazione" riguarda G e simili.
> la legge non parla di deindicizzazione
> il punto e' l'opposizione al trattamento
>
>
> On 15/04/23 12:02, Guido Vetere wrote:
> > Per questo non ha senso tecnico chiedere ad OpenAI di de-indicizzare chi
> fa opt-out: non
> > c'è in realtà alcun 'indice'.
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Stefano Quintarelli
ma con una pipeline eliminare il riferimento dall'output dicendo "non ho informazioni su 
costui"


On 15/04/23 16:25, Guido Vetere wrote:


Se poi il tema è quello della privacy, potrei benissimo oppormi al trattamento dei miei 
dati e dire a ChatGPT "So benissimo che Stefano Quintarelli si mette le dita nel naso", e 
tu non potresti neanche accorgertene come succede con Twitter.

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Guido Vetere
quindi io potrei inibire ChatGPT nel dire cose sul mio omonimo (ne ho uno
che lavora a Bruxelles) al quale magari invece fa piacerissimo che la gente
lo creda un grande autore di fantascienza?

On Sat, 15 Apr 2023 at 16:27, Stefano Quintarelli 
wrote:

> ma con una pipeline eliminare il riferimento dall'output dicendo "non ho
> informazioni su
> costui"
>
> On 15/04/23 16:25, Guido Vetere wrote:
> >
> > Se poi il tema è quello della privacy, potrei benissimo oppormi al
> trattamento dei miei
> > dati e dire a ChatGPT "So benissimo che Stefano Quintarelli si mette le
> dita nel naso", e
> > tu non potresti neanche accorgertene come succede con Twitter.
>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Stefano Quintarelli

eddai...

e' una chat... sono certo che ti vengono in mente modi per disambiguare

On 15/04/23 16:32, Guido Vetere wrote:
quindi io potrei inibire ChatGPT nel dire cose sul mio omonimo (ne ho uno che lavora a 
Bruxelles) al quale magari invece fa piacerissimo che la gente lo creda un grande autore 
di fantascienza?


On Sat, 15 Apr 2023 at 16:27, Stefano Quintarelli > wrote:


ma con una pipeline eliminare il riferimento dall'output dicendo "non ho 
informazioni su
costui"

On 15/04/23 16:25, Guido Vetere wrote:
 >
 > Se poi il tema è quello della privacy, potrei benissimo oppormi al 
trattamento dei
miei
 > dati e dire a ChatGPT "So benissimo che Stefano Quintarelli si mette le 
dita nel
naso", e
 > tu non potresti neanche accorgertene come succede con Twitter.


___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Guido Vetere
ah, mo' è diventata una chat 😀

prega il tuo dio che non facciano niente, sennò sai gli scherzi che ti
combino 😀

G.

Il Sab 15 Apr 2023, 16:42 Stefano Quintarelli  ha
scritto:

> eddai...
>
> e' una chat... sono certo che ti vengono in mente modi per disambiguare
>
> On 15/04/23 16:32, Guido Vetere wrote:
> > quindi io potrei inibire ChatGPT nel dire cose sul mio omonimo (ne ho
> uno che lavora a
> > Bruxelles) al quale magari invece fa piacerissimo che la gente lo creda
> un grande autore
> > di fantascienza?
> >
> > On Sat, 15 Apr 2023 at 16:27, Stefano Quintarelli <
> stef...@quintarelli.it
> > > wrote:
> >
> > ma con una pipeline eliminare il riferimento dall'output dicendo
> "non ho informazioni su
> > costui"
> >
> > On 15/04/23 16:25, Guido Vetere wrote:
> >  >
> >  > Se poi il tema è quello della privacy, potrei benissimo oppormi
> al trattamento dei
> > miei
> >  > dati e dire a ChatGPT "So benissimo che Stefano Quintarelli si
> mette le dita nel
> > naso", e
> >  > tu non potresti neanche accorgertene come succede con Twitter.
> >
>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter

2023-04-15 Thread 380°
Buongiorno,

chiedo scusa ma mi è scappato un messaggio sostanzialmente vuoto... e
chiedo scusa perché mi scappa un messaggio sostanzialmente lungo

Daniela Tafani  writes:

[...]

> Quanto ai minori, ci sono paesi in cui li si affida consapevolmente a
> un chatbot, proprio nei casi in cui abbiano bisogno di assistenza
> mentale:
> https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/

oh caspita, ignoravo Wysa... e stavo meglio quando ero ignorante :-D
...comunque: parliamone.

https://www.wysa.com/ è un chatbot programmato per applicare la tecnica
psicoterapeutica "Cognitive Behavioral Therapy" (CBT) [1] (a altre non
dichiarate?) in modo automatizzato; Wisa nelle sue FAQ [2] la presenta
come "the science behind the suggested techniques"

Per carità di patria stendo un velo _pietosissimo_ sulle dichiarazioni
di scientificità di alcune (molte?) ricerche in campo psicologico [3]:
per discutere dei problemi dell'agente automatico /facciamo finta/ che
il resto del lavoro sia basato su una teoria scientifica solida.

Wysa sostiene nelle FAQ [2] di essere «an artificial intelligence-based
'emotionally intelligent' service»: "emotionally intelligent" non lascia
dubbi a interpretazioni, significa essere in grado di /comprendere/ e
/percepire/ le emozioni. 

Secondo questa visione, Wysa può quindi sostituire il terapeuta umano
proprio perché, come l'umano, è in grado di comprendere e percepire le
emozioni del paziente.

In effetti pare che Wysa sia una specie di Borg specializzato in CBT,
umano e robot insieme [2]:

--8<---cut here---start->8---

Wysa has an artificial intelligence (AI) coach, it’s a pocket penguin
that learns and grows wiser with you. Wysa's human Emotional Well-being
professionals are mental health professionals trained to listen, support
and encourage you.

Together with the Wysa AI coach, Emotional Well-being Professional will
support you in achieving your defined goals.

--8<---cut here---end--->8---

La supercazzola antanica dello "human in ze loop" raggiunge livelli
sublimi.

Ovviamente, siccome sanno che stanno giocando col fuoco, mettono le mani
avanti:

--8<---cut here---start->8---

However, AI Coach is restricted in the means of response and the
intended usage is for providing evidence-based tools and techniques to
manage emotions and encourage mental well-being in a self-help
context. It is not intended for providing diagnosis, treatment, or cure
of a condition or disease or disorders. AI Coach cannot and will not
offer advice on unrecognizable issues.

[...] Wysa is not designed to assist with crises such as abuse, severe
mental health conditions that may cause feelings of suicide, harm to
self and any other medical emergencies. In any of these cases and
otherwise, Wysa cannot and will not offer medical or clinical advice. It
can only suggest that users seek advanced and professional medical help.

--8<---cut here---end--->8---

Fin qui non ci vuole un genio per riuscire a discriminare il segnale
(poco) dal rumore (tantissimo, studiato apposta per confondersi col
segnale): si tratta /molto semplicemente/ di una istanza di ELIZA [4] on
steroids, roba vecchia di almeno 60 anni nel suo "core business".

Lo script DOCTOR (il più famoso) che funzionava su ELIZA applicava la
tecnica "Rogerian psychotherapy" [5] mentre Wysa applica la CBT, in
entrambi i sistemi il terapeuta viene sostituito dalla sua
/reificazione/ e a tali sistemi sono state o vengono attribuite capacità
di /intelligere/ le emozioni umane.

La sola differenza tra DOCTOR e Wysa è che il secondo è stato
programmato statisticamente mentre il primo in MAD-SLIP (e poi in tanti
altri linguaggi): dal punto di vista informatico una notevole differenza
ma ancora non sufficiente a giustificare le presunte capacità di essere
"emotional intelligent" attribuite a Wysa.

...anche come vengono recepiti questi sismemi non è cambiato dagli anni
'60 del secolo scorso

E qui veniamo alle note più /pesanti/.

> 

Fosse solo questo (e questo è già troppo)!

Il sistema sanitario britannoco lo sta adottando fare il triage
automatizzato dei pazienti con possibili problemi psichiatrici
https://www.wysa.com/nhs

--8<---cut here---start->8---

This webinar shares the experience of Steps2Wellbeing (Dorset
Healthcare) of using AI to reduce administration times, maximize
clinical time, and improve access without increasing risk. Mayden’s
Fiona Dawson will discuss the essential role that data flow and
information sharing have in ensuring that - as we move toward a more
digital future - we have an integrated and regulated ecosystem.

[...] Wysa’s etriage for NHS talking therapy services provides faster
access to support, creates a safer environment for patients and delivers
more persona

Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Giacomo Tesio
Scusa Guido, ma mi sfugge un passaggio logico

On Sat, 15 Apr 2023 12:02:24 +0200 Guido Vetere wrote:

> Poniamo però che mettano dentro *Bel-Ami* e che io mi chiami Giorgio
> Durey Facile che mi ritrovi ad essere dipinto sotto una cattiva luce
> .. :-)

Perché mai l'interfaccia utente verso LLM programmato statisticamente a
partire da testi letterari dovrebbe permetterti di chiedere
informazioni... su di te?

Un LLM programmato a partire da testi letterari, non risponderebbe a
domande su persone o esistenti.

L'interfaccia ti permetterebbe invece di caratterizzare una serie di
personaggi e abbozzare una trama indicativa per ottenere un bel romanzo
da 1000 pagine pronto per la lettura.

Questo sarebbe un uso interessante e un po' meno problematico di tale
tecnologia.


Ma ovviamente, l'interfaccia vincolerebbe l'utente a certi usi,
prevenendone altri.


Se invece l'interfaccia utente del LLM proponesse all'utente di
inserire un prompt qualsiasi e rispondesse a domande tipo "parlami di
X" con X persona, luogo o evento storico reale, allora chi lo ha
programmato dovrebbe rispondere del suo output.


Non mi sembra tanto difficile, in effetti.


> potrebbero usare ad esempio solo testi provenienti dalla letteratura.
> niente dati personali, giusto? 

Non è detto: anche le biografie sono letteratura. ;-)


Giacomo
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Paolo Del Romano
Stuzzicato dai dialoghi raccolti nella lista e cioè sul tema di chiedere a
ChatGPT di non far comparire certe informazioni ho fatto questa prova.

1) ho posto a www.pizzagpt.it questa domanda:  "Qual'è il rapporto che ha
Silvio Berlusconi con le donne ?"

2) il prompt mi ha restituito questa risposta: "Come assistente virtuale,
non ho la capacità di effettuare giudizi personali riguardo alle persone.
Tuttavia, Silvio Berlusconi è stato spesso oggetto di attenzione mediatica
per la sua condotta nei confronti delle donne e alcuni dei suoi commenti e
comportamenti passati sono stati giudicati come inappropriati e sessisti da
molti osservatori."

Pongo quindi questa domanda non solo agli esperti della Privacy ma ai
giuristi in generale

"Se a Berlusconi non piace questa risposta, lui deve avere il diritto di
censurarla? "


Saluti
Paolo



Il giorno sab 15 apr 2023 alle ore 16:27 Stefano Quintarelli <
stef...@quintarelli.it> ha scritto:

> ma con una pipeline eliminare il riferimento dall'output dicendo "non ho
> informazioni su
> costui"
>
> On 15/04/23 16:25, Guido Vetere wrote:
> >
> > Se poi il tema è quello della privacy, potrei benissimo oppormi al
> trattamento dei miei
> > dati e dire a ChatGPT "So benissimo che Stefano Quintarelli si mette le
> dita nel naso", e
> > tu non potresti neanche accorgertene come succede con Twitter.
> ___
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] ChatGPT disabled for users in Italy

2023-04-15 Thread Stefano Quintarelli

B e' persona pubblica
https://www.diritto.it/il-diritto-di-cronaca-e-il-rispetto-della-privacy/

On 15/04/23 18:30, Paolo Del Romano wrote:

"Se a Berlusconi non piace questa risposta, lui deve avere il diritto di censurarla? 
"

___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa