Il software si usa quasi sempre per svolgere compiti in autonomia: questa mail 
ti arriva perché un insieme di vari software svolgono le funzioni loro 
assegnate. 
Il fatto è che non decidono loro quali funzioni svolgere, siamo noi che 
affidiamo loro quelle determinate funzioni.
Più in generale le macchine non hanno né devono avere libero arbitrio, ossia la 
capacità di scegliere /cosa/ fare.
Possono solo scegliere /come/ svolgere un determinato compito, all’interno 
delle possibilità che sono loro permesse.

Capisco che la questione è sottile, e del resto sul libero arbitrio i filosofi 
si interrogano da secoli.
Ma questa distinzione secondo me è quella su cui possiamo concentrarci.
In particolare, come stabilire e fissare “le possibilità di scelta” delle 
macchine, che qualcuno chiama guardrail, è una questione anche tecnica 
importante.
Ma secondo me è molto più promettente di quella dell’Explainable AI (XAI), che 
richiede solo di avere una spiegazione a posteriori delle scelte, magari errate.
Tecnicamente, ci sono diversi approcci alla questione:

1. Inserire vincoli nella funzione obiettivo durante l’apprendimento.
2. Chain of Verification: assicurare che le risposte siano verificabili e 
accurate
3. Constitutional AI: garantire che le risposte aderiscano a dei principi 
generali (es. Dichiarazione Universale dei Diritti Umani)

Sono attualmente soluzioni ancora premature, su cui si può lavorare.

— Beppe

> On 26 Oct 2023, at 10:44, 380° <g...@biscuolo.net> wrote:
> 
> Buongiorno Giuseppe,
> 
> torno su una cosa che hai detto per farti /la/ domanda.
> 
> Giuseppe Attardi <atta...@di.unipi.it> writes:
> 
> [...]
> 
>> non sto proponendo di dare agli algoritmi la capacità di agire al
>> posto degli umani, ma di dare loro dei suggerimenti.
> 
> Innanzi tutto grazie della precisazione, secondo me dovrebbe essere
> l'incipit di qualsiasi discorso (ricerca, articolo, convegno) degli
> "addetti ai lavori", così sgombereremmo il campo da un sacco di
> /equivoci/, che invece riempiono la piscina nella quale molti "addetti
> ai lavori" sguazzano allegramente, profumatamente finanziati.
> 
> Ma molto più importante della _proposizione_, è _risposta_ a *La
> Domanda* /fondamentale/ (non è 42!): perché?
> 
> Perché "gli algoritmi" - che in realtà andrebbero chiamati software [1],
> anche la c.d. "IA" [2] - non dovrebbero avere la capacità di agire al
> posto degli umani?
> 
> In altre parole: da quali idee dovrebbe conseguire la pratica di evitare
> di "far agire" gli "algoritmi" al posto degli umani?
> 
> Grazie, 380°
> 
> 
> 
> [1] è la complicità che c'è tra lo yin e yang della conoscenza,
> l'idealismo e il pragmatismo (etimologicamente parlando), dove la
> /pragmatica/ (https://www.treccani.it/enciclopedia/pragmatica/)
> meriterebbe di essere adeguatamente (ri)valutata
> 
> [2] quindi anche la General Artificial Intellicence, giusto?... che
> comunque non esiste
> 
> -- 
> 380° (Giovanni Biscuolo public alter ego)
> 
> «Noi, incompetenti come siamo,
> non abbiamo alcun titolo per suggerire alcunché»
> 
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts.  Ask me about <https://stallmansupport.org>.

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to