Ma se passasse questa linea dovremmo spegnere tutti i generatori basati (solo) su LLM: anche se addestrati sui dati più puri del mondo, la probabilità che generino 'utterances' censurabili non sarebbe mai nulla.
La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di intenzionalità che tuttavia producono locuzioni a cui, antropologicamente, attribuiamo in effetti intenzionalità. Se gli sviluppatori o gli esercenti di questi oggetti dovessero rispondere di questa intenzionalità fittizia, farebbero bene a dedicarsi ad altro. Non ho ancora capito tuttavia (anche perché nessuno me lo ha spiegato) come mai un 'disclaimer' bello grosso non potrebbe risolvere il problema. G. On Mon, 3 Apr 2023 at 19:46, Mario Sabatino <mario@sabatino.cloud> wrote: > Sono totalmente d'accordo. Grazie di averlo detto con tanta chiarezza. > > Per la macchina il testo **oggi** non può avere alcun significato. Solo > l'essere umano è in grado di attribuire un significato all'output dei > sistemi di NLP. Quindi l'essere umano si assumerà la responsabilità di > un eventuale uso illecito (privacy o altro) di questo output. Al massimo > vedrei la possibilità di esercitare il diritto all'oblio da parte degli > interessati. Credo però che queste considerazioni siano state già fatte > da altri. > > Buon pomeriggio > > Mario Sabatino > > Il 03/04/23 17:56, Carlo Blengino ha scritto: > > Pensare di tutelare e “proteggere” come dati personali gli out-put di > > questi sistemi significa oggi conferire loro una valenza che non hanno ed > > avallare temo l’allucinazione che stiamo vivendo con l’intelligenza > > artificiale. > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa