Ma se passasse questa linea dovremmo spegnere tutti i generatori basati
(solo) su LLM: anche se addestrati sui dati più puri del mondo, la
probabilità che generino 'utterances' censurabili non sarebbe mai nulla.

La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di
intenzionalità che tuttavia producono locuzioni a cui, antropologicamente,
attribuiamo in effetti intenzionalità. Se gli sviluppatori o gli esercenti
di questi oggetti dovessero rispondere di questa intenzionalità fittizia,
farebbero bene a dedicarsi ad altro.

Non ho ancora capito tuttavia (anche perché nessuno me lo ha spiegato) come
mai un 'disclaimer' bello grosso non potrebbe risolvere il problema.

G.


On Mon, 3 Apr 2023 at 19:46, Mario Sabatino <mario@sabatino.cloud> wrote:

> Sono totalmente d'accordo. Grazie di averlo detto con tanta chiarezza.
>
> Per la macchina il testo **oggi** non può avere alcun significato. Solo
> l'essere umano è in grado di attribuire un significato all'output dei
> sistemi di NLP. Quindi l'essere umano si assumerà la responsabilità di
> un eventuale uso illecito (privacy o altro) di questo output. Al massimo
> vedrei la possibilità di esercitare il diritto all'oblio da parte degli
> interessati. Credo però che queste considerazioni siano state già fatte
> da altri.
>
> Buon pomeriggio
>
> Mario Sabatino
>
> Il 03/04/23 17:56, Carlo Blengino ha scritto:
> > Pensare di tutelare e  “proteggere” come dati personali gli out-put di
> > questi sistemi significa oggi conferire loro una valenza che non hanno ed
> > avallare temo l’allucinazione che stiamo vivendo con l’intelligenza
> > artificiale.
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to