Scusate, scrivendo dopo una lunga e faticosa giornata ho commesso vari errori.
Uno però è particolarmente grave e desidero correggerlo a futura memoria: On June 25, 2021 11:54:39 PM UTC, Giacomo Tesio wrote: > > La calibrazione di una rete neurale (erroneamente chiamata "training" > in gergo) evidenzia chiaramente come i dati siano SEMPRE codice anche > se rinunciamo a comprendere QUALE codice, ovvero cosa significhi > l'elaborazione effettuata dalla rete calibrata, ed a prevederne > precisamente il comportamento, in particolare negli innumerevoli casi > limite non adeguatamente rappresentati nei dati selezionati. Ho dimenticato un importantissimo "non" prima di "riusciamo a comprendere". Le attuali tecniche di programmazione statistica note come "deep learning" non permettono di interpretare il programma prodotto. Di comprendere in modo chiaro ed esaustivo l'elaborazione che esegue automaticamente. Per questo l'uso del termine "learning" è così odiosamente ipocrita: non solo la macchina non impara nulla, ma nemmeno noi! Peggio: disincentiva la nostra curiosità, riducendo il nostro bisogno di comprendere. Già solo per questo ci rende meno umani. D'altronde perché sprecare tante energie a pensare quando altri sono felicissimi di farlo per noi? E pure GRATIS! ;-) Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa