Il software si usa quasi sempre per svolgere compiti in autonomia: questa mail ti arriva perché un insieme di vari software svolgono le funzioni loro assegnate. Il fatto è che non decidono loro quali funzioni svolgere, siamo noi che affidiamo loro quelle determinate funzioni. Più in generale le macchine non hanno né devono avere libero arbitrio, ossia la capacità di scegliere /cosa/ fare. Possono solo scegliere /come/ svolgere un determinato compito, all’interno delle possibilità che sono loro permesse.
Capisco che la questione è sottile, e del resto sul libero arbitrio i filosofi si interrogano da secoli. Ma questa distinzione secondo me è quella su cui possiamo concentrarci. In particolare, come stabilire e fissare “le possibilità di scelta” delle macchine, che qualcuno chiama guardrail, è una questione anche tecnica importante. Ma secondo me è molto più promettente di quella dell’Explainable AI (XAI), che richiede solo di avere una spiegazione a posteriori delle scelte, magari errate. Tecnicamente, ci sono diversi approcci alla questione: 1. Inserire vincoli nella funzione obiettivo durante l’apprendimento. 2. Chain of Verification: assicurare che le risposte siano verificabili e accurate 3. Constitutional AI: garantire che le risposte aderiscano a dei principi generali (es. Dichiarazione Universale dei Diritti Umani) Sono attualmente soluzioni ancora premature, su cui si può lavorare. — Beppe > On 26 Oct 2023, at 10:44, 380° <g...@biscuolo.net> wrote: > > Buongiorno Giuseppe, > > torno su una cosa che hai detto per farti /la/ domanda. > > Giuseppe Attardi <atta...@di.unipi.it> writes: > > [...] > >> non sto proponendo di dare agli algoritmi la capacità di agire al >> posto degli umani, ma di dare loro dei suggerimenti. > > Innanzi tutto grazie della precisazione, secondo me dovrebbe essere > l'incipit di qualsiasi discorso (ricerca, articolo, convegno) degli > "addetti ai lavori", così sgombereremmo il campo da un sacco di > /equivoci/, che invece riempiono la piscina nella quale molti "addetti > ai lavori" sguazzano allegramente, profumatamente finanziati. > > Ma molto più importante della _proposizione_, è _risposta_ a *La > Domanda* /fondamentale/ (non è 42!): perché? > > Perché "gli algoritmi" - che in realtà andrebbero chiamati software [1], > anche la c.d. "IA" [2] - non dovrebbero avere la capacità di agire al > posto degli umani? > > In altre parole: da quali idee dovrebbe conseguire la pratica di evitare > di "far agire" gli "algoritmi" al posto degli umani? > > Grazie, 380° > > > > [1] è la complicità che c'è tra lo yin e yang della conoscenza, > l'idealismo e il pragmatismo (etimologicamente parlando), dove la > /pragmatica/ (https://www.treccani.it/enciclopedia/pragmatica/) > meriterebbe di essere adeguatamente (ri)valutata > > [2] quindi anche la General Artificial Intellicence, giusto?... che > comunque non esiste > > -- > 380° (Giovanni Biscuolo public alter ego) > > «Noi, incompetenti come siamo, > non abbiamo alcun titolo per suggerire alcunché» > > Disinformation flourishes because many people care deeply about injustice > but very few check the facts. Ask me about <https://stallmansupport.org>. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa