Altri dicono che 'qualcuno' ha un nome, ed è una persona, e anche che
dovrebbe rispondere del proprio output.
<https://www.theguardian.com/commentisfree/article/2024/aug/09/uk-far-right-riots-elon-musk-x>
In questo caso le macchine sono guidate deliberatamente per fomentare
violenza con un piano politico.
A.
On 09/08/24 15:39, Guido Vetere wrote:
whatever, ma fa un po' pensare che mentre i ricercatori di Oxford
parlano di introdurre una "Legal Duty to Tell the Truth" per i LLM, a
pochi chilometri migliaia di hooligan imbufaliti bruciano le macchine
perché qualcuno ha diffuso fake news sull'assassino di quelle tre
bambine a Southport, dicendo che era un immigrato clandestino musulmano.
A parte l'imbecillità neopositivista degli oxfordiani sulla quale
potremo tornare, il problema come dice Stefano è la diffusione, non la
genesi.
Isn't it?
G.
On Fri, 9 Aug 2024 at 15:20, Alberto Cammozzo via nexa
<nexa@server-nexa.polito.it> wrote:
Il politico e un LLM non sono confrontabili.
Per favore smettiamola di paragonare sistemi industriali e persone
solo perché producono la stessa tipologia di output (o di
inquinamento).
Sarebbe come confrontare uno che brucia un pezzo di carta
plasticata in giardino con il disastro di Seveso solo perché in
entrambi i casi si è prodotta diossina.
A.
PS: No god in the machine: the pitfalls of AI worship
<https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-the-pitfalls-of-ai-worship>
<https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-the-pitfalls-of-ai-worship>
The rise of artificial intelligence has sparked a panic about
computers gaining power over humankind. But the real threat comes
from falling for the hype
[...]
On 07/08/24 15:54, Fabio Alemagna wrote:
Mi sembra la descrizione perfetta del comportamento di un
politico medio. Se dovessimo obbligare per legge gli LLM a dire
la verità, per quale ragione dovremmo esentare i politici dal
fare altrettanto?
Il mer 7 ago 2024, 12:55 J.C. DE MARTIN
<juancarlos.demar...@polito.it> ha scritto:
*OII | Large Language Models pose a risk to society and need
tighter regulation, say Oxford researchers*
Written by
Sandra Wachter, Brent Mittelstadt and Chris Russell
/Leading experts in regulation and ethics at the Oxford
Internet Institute, part of the University of Oxford, have
identified a new type of harm created by LLMs which they
believe poses long-term risks to democratic societies and
needs to be addressed/
Large Language Models pose a risk to society and need tighter
regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford
Internet Institute, part of the University of Oxford, have
identified a new type of harm created by LLMs which they
believe poses long-term risks to democratic societies and
needs to be addressed by creating a new legal duty for LLM
providers.
In their new paper ‘Do large language models have a legal
duty to tell the truth?’, published by the Royal Society Open
Science, the Oxford researchers set out how LLMs produce
responses that are plausible, helpful and confident but
contain factual inaccuracies, misleading references and
biased information. They term this problematic phenomenon as
‘careless speech’ which they believe causes long-term harms
to science, education and society.
continua qui:
https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/