On mar, 2022-09-20 at 10:14 +0200, 380° wrote:
> > Ma ci deve essere una catena di comando/responsabilità reale, e la
> tracciabilità
> >  delle decisioni dell'IA.
> 
> stai scherzando vero?
> 
> La "tracciabilità delle decisioni dell'IA" non esiste, una volta che
> passi la fase 2 di https://nooscope.ai/ (Learning Algorithm) il
> processo è IRREVERSIBILE
> 
> detto in altro modo, dato il modello non è possibile ricavare
> l'algoritmo, i criteri di valutazione, l'ambiente di testing, gli
> iperparametri, i criteri di labeling...

No, non sto scherzando. 
E' il nocciolo della questione. La catena di responsabilità DEVE 
 includere tutto l'operato di una IA, anche quello che non è tracciato. 

Se il chirurgo robot taglia in due il paziente e non c'è
 tracciamento, la responsabilità deve comunque essere 
 di qualcuno, e deve essere assegnata "a priori" in maniera certa
 non dopo un processo.

Non è una mera questione tecnica di "intracciabilità"
 sulla quale, ovviamente, non posso non concordare.

saluti.    marco

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to