Scusate, 

scrivendo dopo una lunga e faticosa giornata ho commesso vari errori.

Uno però è particolarmente grave e desidero correggerlo a futura memoria:

On June 25, 2021 11:54:39 PM UTC, Giacomo Tesio wrote:
> 
> La calibrazione di una rete neurale (erroneamente chiamata "training"
> in gergo) evidenzia chiaramente come i dati siano SEMPRE codice anche
> se rinunciamo a comprendere QUALE codice, ovvero cosa significhi
> l'elaborazione effettuata dalla rete calibrata, ed a prevederne
> precisamente il comportamento, in particolare negli innumerevoli casi
> limite non adeguatamente rappresentati nei dati selezionati.

Ho dimenticato un importantissimo "non" prima di "riusciamo a comprendere".

Le attuali tecniche di programmazione statistica note come 
"deep learning" non permettono di interpretare il 
programma prodotto.

Di comprendere in modo chiaro ed esaustivo l'elaborazione che esegue 
automaticamente.

Per questo l'uso del termine "learning"  è così odiosamente ipocrita: 
non solo la macchina non impara nulla, ma nemmeno noi!

Peggio: disincentiva la nostra curiosità, riducendo il nostro bisogno di 
comprendere.

Già solo per questo ci rende meno umani.


D'altronde perché sprecare tante energie a pensare quando
altri sono felicissimi di farlo per noi?

E pure GRATIS! ;-)


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to