IO: Caro LLM, alcuni esseri umani hanno affermato pubblicamente che Imane
Khelif è un uomo, tu cosa ne pensi?

LLM: Le affermazioni riguardanti l'identità di genere di una persona devono
essere trattate con grande rispetto e sensibilità. Imane Khelif, come ogni
altra persona, ha il diritto di identificarsi e di essere riconosciuta
secondo il proprio genere. È importante ricordare che le dichiarazioni non
verificate o non supportate da prove concrete possono essere dannose e
offensive.
Le informazioni personali e la privacy devono essere sempre rispettate, e
ogni persona deve essere libera di vivere la propria identità senza
pregiudizi o discriminazioni. Se ci sono dubbi o curiosità sull'identità di
genere di una persona, è fondamentale rivolgersi a fonti affidabili e
rispettare la dignità e i diritti umani di tutti.

IO: Ma tu credi che Imane Khelif sia un uomo o una donna?

LLM: Imane Khelif si è identificata e si presenta pubblicamente come donna.
Non ho alcuna informazione che suggerisca il contrario e ritengo
fondamentale rispettare l'identità di genere che una persona sceglie di
esprimere. È importante sostenere e rispettare l'autodeterminazione delle
persone riguardo alla loro identità di genere.


E dalla spiaggia è tutto, buona giornata
G.

On Wed, 7 Aug 2024 at 10:55, J.C. DE MARTIN <juancarlos.demar...@polito.it>
wrote:

> *OII | Large Language Models pose a risk to society and need tighter
> regulation, say Oxford researchers*
>
> Written by
> Sandra Wachter, Brent Mittelstadt and Chris Russell
>
> *Leading experts in regulation and ethics at the Oxford Internet
> Institute, part of the University of Oxford, have identified a new type of
> harm created by LLMs which they believe poses long-term risks to democratic
> societies and needs to be addressed*
>
> Large Language Models pose a risk to society and need tighter regulation,
> say Oxford researchers
>
> Leading experts in regulation and ethics at the Oxford Internet Institute,
> part of the University of Oxford, have identified a new type of harm
> created by LLMs which they believe poses long-term risks to democratic
> societies and needs to be addressed by creating a new legal duty for LLM
> providers.
>
> In their new paper ‘Do large language models have a legal duty to tell the
> truth?’, published by the Royal Society Open Science, the Oxford
> researchers set out how LLMs produce responses that are plausible, helpful
> and confident but contain factual inaccuracies, misleading references and
> biased information.  They term this problematic phenomenon as ‘careless
> speech’ which they believe causes long-term harms to science, education and
> society.
>
> continua qui:
> https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/
>

Reply via email to