Buongiorno, avrei bisogno di un chiarimento per favore
Carlo Blengino <bleng...@penalistiassociati.it> writes: > Mah, ho dei dubbi. > I punti 0 e 1 sono nodali per una qualche responsabilità li riporto qui per completezza >> 0. un generatore di stringhe di testo (nel caso citato, ChatGPT) >> restituisce, a x oppure a y, un output D, diffamatorio nei riguardi >> di x; >> >> 1. x rettifica pubblicamente, online, ovviamente citando il testo >> della diffamazione D; > e qui manca un pezzo fondamentale: la diffamazione si consuma quando > la frase lesiva viene percepita almeno dal secondo soggetto (io posso > dire o sentire le peggiori cose riguardanti un terzo in una > conversazione 1a1 e per fortuna non è reato!!) il fatto è descritto nell'articolo in questo modo: --8<---------------cut here---------------start------------->8--- One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list. The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student. --8<---------------cut here---------------end--------------->8--- Quindi una persona y chiede un elenco di giuristi che hanno molestato sessualmente qualcuno a ChatGPT, non è x (Turley) a chiedere l'elenco a ChatGPT; x (Turley) ne viene a conoscenza perché è y che glielo riferisce > Chi è responsabile di aver diffuso ad almeno due persone le frasi > diffamatorie in questo caso? Quindi ChatGPT fornisce a un terzo un messaggio che è **SPACCIATO** [1] come notizia, contiene informazioni false e /potenzialmente/ diffamatorie portando a sostegno un articolo inventato e il *cornuto* è Turley? :-D > Poi il problema resta eh, ma non nei termini indicati. In che termini giuridici possiamo inquadrare allora questo problema? Turley a chi si può rivolgere per tutelare la propria reputazione? In che modo le persone possono difendersi dal fatto che ChatGPT (et al) diffondono notizie false sul proprio conto? Perché OpenAI e tutti quelli che offrono servizi analoghi non scrivono chiaramente in **ogni** messaggio che si tratta di /fiction/ _e_ intimano a tutti i propri utenti che non devono rimuovere tale disclaimer? Ma anche se ci fosse tale "disclaimer" per evitare potenziale diffamazione, sarebbe sufficiente a tutelare il diritto delle persone nei confronti dei propri dati personali? [...] > È tutto complicato... Secondo me invece è "solo" complesso... ma neanche tanto Credo che la soluzione più semplice per OpenAI et al sia di programmare un filtro di ChatGPT per non diffondere nessuna /stronzata/ (cit.) in merito alle persone (rimarrebbe comunque il "problemino" della legittimità "da GDPR" della raccolta dei dati personali per il training). Ci sono tante altre _cose_ sulle quali ChatGPT può continuare a diffondere... parodie :-D [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
signature.asc
Description: PGP signature
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa