Altri dicono che 'qualcuno' ha un nome, ed è una persona, e anche che dovrebbe rispondere del proprio output.

<https://www.theguardian.com/commentisfree/article/2024/aug/09/uk-far-right-riots-elon-musk-x>

In questo caso le macchine sono guidate deliberatamente per fomentare violenza con un piano politico.

A.


On 09/08/24 15:39, Guido Vetere wrote:
whatever, ma fa un po' pensare che mentre i ricercatori di Oxford parlano di introdurre una "Legal Duty to Tell the Truth" per i LLM, a pochi chilometri migliaia di hooligan imbufaliti bruciano le macchine perché qualcuno ha diffuso fake news sull'assassino di quelle tre bambine a Southport, dicendo che era un immigrato clandestino musulmano.

A parte l'imbecillità neopositivista degli oxfordiani sulla quale potremo tornare, il problema come dice Stefano è la diffusione, non la genesi.

Isn't it?

G.

On Fri, 9 Aug 2024 at 15:20, Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> wrote:

    Il politico e un LLM non sono confrontabili.

    Per favore smettiamola di paragonare sistemi industriali e persone
    solo perché producono la stessa tipologia di output (o di
    inquinamento).

    Sarebbe come confrontare uno che brucia un pezzo di carta
    plasticata in giardino con il disastro di Seveso solo perché in
    entrambi i casi si è prodotta diossina.

    A.

    PS: No god in the machine: the pitfalls of AI worship
    
<https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-the-pitfalls-of-ai-worship>
    
<https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-the-pitfalls-of-ai-worship>

    The rise of artificial intelligence has sparked a panic about
    computers gaining power over humankind. But the real threat comes
    from falling for the hype

    [...]

    On 07/08/24 15:54, Fabio Alemagna wrote:

    Mi sembra la descrizione perfetta del comportamento di un
    politico medio. Se dovessimo obbligare per legge gli LLM a dire
    la verità, per quale ragione dovremmo esentare i politici dal
    fare altrettanto?


    Il mer 7 ago 2024, 12:55 J.C. DE MARTIN
    <juancarlos.demar...@polito.it> ha scritto:

        *OII | Large Language Models pose a risk to society and need
        tighter regulation, say Oxford researchers*

        Written by
        Sandra Wachter, Brent Mittelstadt and Chris Russell

        /Leading experts in regulation and ethics at the Oxford
        Internet Institute, part of the University of Oxford, have
        identified a new type of harm created by LLMs which they
        believe poses long-term risks to democratic societies and
        needs to be addressed/

        Large Language Models pose a risk to society and need tighter
        regulation, say Oxford researchers

        Leading experts in regulation and ethics at the Oxford
        Internet Institute, part of the University of Oxford, have
        identified a new type of harm created by LLMs which they
        believe poses long-term risks to democratic societies and
        needs to be addressed by creating a new legal duty for LLM
        providers.

        In their new paper ‘Do large language models have a legal
        duty to tell the truth?’, published by the Royal Society Open
        Science, the Oxford researchers set out how LLMs produce
        responses that are plausible, helpful and confident but
        contain factual inaccuracies, misleading references and
        biased information.  They term this problematic phenomenon as
        ‘careless speech’ which they believe causes long-term harms
        to science, education and society.

        continua qui:
        
https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/

Reply via email to