A me pare che lo stato di diritto sia in forte crisi avviata prima ancora della transizione digitale, quest'ultima la accentua e potrebbe dargli il colpo finale. [Qual'è il potere di un stato (Italia, ma anche Cina, Ue, Usa) di fronte alla "fattualità" dei colossi digitali? Parafrasando Manzoni, parlerei di "grida" che inutilmente cercano di arginare i fatti] Con questi timori si deve insistere per rendere completamente verificabile e riproducibile l'intero processo di programmazione. Cordialmente Duccio (Alessandro Marzocchi)
Date: Thu, 13 Apr 2023 10:49:17 +0000 > From: Giacomo Tesio <giac...@tesio.it> > To: Guido Vetere <vetere.gu...@gmail.com>, 380° <g...@biscuolo.net> > Il 12 Aprile 2023 14:28:03 UTC, Guido Vetere <vetere.gu...@gmail.com> ha > scritto: > >Giacomo, > >anche il LM più puri usati per il più innocente task di classificazione > >potrebbero essere stati addestrati con dati ottenuti senza il consenso > >esplicito di chi li ha condivisi, dunque in violazione del GDPR. > >Che vogliamo fare? > > Nella peggiore delle ipotesi, quello che si fa con l'Eternit, per esempio. > Possibilmente prima che faccia troppi danni alle persone e alla società. > Però la questione che poni sul dataset usato per la programmazione > statistica ha una soluzione > estremamente semplice. > Basta imporre che tutti i dataset utilizzati durante la programmazione > statistica > ("training" nella vulgata), inclusi quelli usati per la cross validation e > il test, nonché tutti gli > altri dati necessari a riprodurre esattamente il processo ed ottenere > esattamente il modello > in produzione (e le sue alternative scartate), siano preservati per tutta > la durata della sua permanenza in produzione e diciamo 20 anni dopo (in > caso di aggiornamento). [1] > Rendendo verficabilmente e completamente riproducibile il processo di > programmazione > statistica, Open AI (come chiunque altro) potrà facilmente dimostrare di > non aver utilizzato dati > ottenuti in violazione di qualsisi Legge. > Più costoso (ma spesso possibile) sarà dimostrare che la selezione del > dataset > o il processo di programnazione utilizzato non abbia prodotto specifiche > discriminazioni. > Molto più complesso e costoso, dimostrare di non aver voluto imporre al > modello alcuna discriminazione intenzionale. > Tuttavia parliamo di cose perfettamente fattibili sul piano tecnico, > ancorché costose. > Ma si sa: l'innovazione costa. > E al DARPA hanno un sacco di soldi per finanziarla. ;-) > L'importante è impedire che qualsiasi tecnologia possa essere usata per > violare i diritti delle persone > (a vantaggio di altre persone, per altro) > Perché se passasse questo principio, dovremmo dire addio allo Stato di > Diritto, > con tutto ciò che questo comporta. > Inclusa, ad esempio, l'abolizione del diritto alla proprietà privata. > Si può fare eh! > Ma sei sicuro che sia ciò a cui aspiri? > Giacomo > [1]: inclusi ovviamente vettori di inizializzazione, valori ottenuti da > sorgenti randomiche, > ordine esatto e contenuto dei batch di vettori usati durante il processo > di > programmazione statistica etc... tutto insomma ciò che serve a riottenere > esattamente > quel binario codato come matrice. > ------------------------------ > >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa