On mar, 2022-09-20 at 10:14 +0200, 380° wrote: > > Ma ci deve essere una catena di comando/responsabilità reale, e la > tracciabilità > > delle decisioni dell'IA. > > stai scherzando vero? > > La "tracciabilità delle decisioni dell'IA" non esiste, una volta che > passi la fase 2 di https://nooscope.ai/ (Learning Algorithm) il > processo è IRREVERSIBILE > > detto in altro modo, dato il modello non è possibile ricavare > l'algoritmo, i criteri di valutazione, l'ambiente di testing, gli > iperparametri, i criteri di labeling...
No, non sto scherzando. E' il nocciolo della questione. La catena di responsabilità DEVE includere tutto l'operato di una IA, anche quello che non è tracciato. Se il chirurgo robot taglia in due il paziente e non c'è tracciamento, la responsabilità deve comunque essere di qualcuno, e deve essere assegnata "a priori" in maniera certa non dopo un processo. Non è una mera questione tecnica di "intracciabilità" sulla quale, ovviamente, non posso non concordare. saluti. marco
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa