On Wed, 12 Apr 2023 21:30:48 +0200 Guido Vetere wrote: > Allora: il metodo 2 (reinforcement learning per evitare di rispondere > a certe domande) si può fare e già lo fanno; l'1 (re-training del > modello ogni volta che qualcuno fa opt-out) proprio no
Riprogrammare statisticamente il software (il "re-training") rimuovendo tutte le occorrenze di testi che contengano il nome di chi chiede di essere cancellato, è tecnicamente fattibilissimo. E' solo costoso. Ed è esattamente ciò che è necessario fare su richiesta dell'interessato: https://gdpr-info.eu/art-17-gdpr/ Ma di nuovo, non è un ottimo incentivo alla ricerca di metodi più economici ed ecologici di effettuare tali operazioni? La ragion d'essere di Open AI, giusto? Stessa cosa per il diritto alla rettifica, che non viene meno solo perché il contenuto errato è salvato in una matrice invece che in un file o in un database. Tutte ottime ragioni per finanziare Open AI (e molti altri centri di ricerca)! Open AI dovrebbe ringraziare il GDPR e il Garante Italiano. Spegnere GPT e dire a tutti: "Vi piace il giocattolo? Ok allora dateci qualche trilliardo di dollari per trovare il modo di renderlo compatibile con i diritti umani". Per una volta diritto, ecologia ed economia si sposano alla perfezione! D'altro canto non ci sono alternative: mica vorremo sacrificare i diritti umani e il futuro del pianeta ai profitti di una azienda? Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa