"Constitutional AI" non è nulla di diverso della "AI ethics", 
nel senso che, a volerla prendere sul serio, presenta lo stesso problema: 
i suoi requisiti sono gli stessi dell'etica e non possono essere soddisfatti, 
oggi.

La capacità di formulare giudizi morali (o "costituzionali") richiede infatti 
che siano anzitutto soddisfatti 
tutti i requisiti non morali dell'etica. 

Il giudizio morale richiede, tra gli altri,

• la capacità di agire non solo secondo le leggi, ma anche secondo la 
rappresentazione delle leggi;
• il ragionamento logico, 
• una comprensione autentica del linguaggio,
• la capacità di distinguere una connessione causale da una mera correlazione,
• la famiglia di intuizioni e procedure di ragionamento incluse nel senso 
comune (inclusa la comprensione dei contesti).

La capacità di formulare giudizi morali richiederebbe un'intelligenza 
artificiale generale (AGI).
Questa, oggi, non c'é. 
Quindi non può esserci alcun allineamento dei valori, alcuna etica dell'IA, 
alcuna IA costituzionale,
se non come arma di distrazione e come via di fuga dalla regolazione giuridica.

Per il resto, proposte come quelle di una "constitutional AI"(1)
sono un esempio, come ha già osservato Maria Chiara Pievatolo citando Lucio 
Russo, di cultura "componibile",
ossia di quella congiunzione di specializzazione e ignoranza 
in virtù della quale si è privi di anticorpi contro l'idea di costruire una 
costituzione con un sondaggio
e si è convinti che i valori morali siano instillabili con un un catalogo di 
risposte giuste e sbagliate,
fino alla candida constatazione finale che  "CAI training is more complicated 
than we thought".

Un saluto,
Daniela


(1) 
https://www.anthropic.com/index/collective-constitutional-ai-aligning-a-language-model-with-public-input


________________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giuseppe Attardi 
<atta...@di.unipi.it>
Inviato: giovedì 26 ottobre 2023 11:49
A: 380°
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] human Vs. IA agency (Re:  IA, lavoro, immaginari) [CDT:L3]

Il software si usa quasi sempre per svolgere compiti in autonomia: questa mail 
ti arriva perché un insieme di vari software svolgono le funzioni loro 
assegnate.
Il fatto è che non decidono loro quali funzioni svolgere, siamo noi che 
affidiamo loro quelle determinate funzioni.
Più in generale le macchine non hanno né devono avere libero arbitrio, ossia la 
capacità di scegliere /cosa/ fare.
Possono solo scegliere /come/ svolgere un determinato compito, all’interno 
delle possibilità che sono loro permesse.

Capisco che la questione è sottile, e del resto sul libero arbitrio i filosofi 
si interrogano da secoli.
Ma questa distinzione secondo me è quella su cui possiamo concentrarci.
In particolare, come stabilire e fissare “le possibilità di scelta” delle 
macchine, che qualcuno chiama guardrail, è una questione anche tecnica 
importante.
Ma secondo me è molto più promettente di quella dell’Explainable AI (XAI), che 
richiede solo di avere una spiegazione a posteriori delle scelte, magari errate.
Tecnicamente, ci sono diversi approcci alla questione:

1. Inserire vincoli nella funzione obiettivo durante l’apprendimento.
2. Chain of Verification: assicurare che le risposte siano verificabili e 
accurate
3. Constitutional AI: garantire che le risposte aderiscano a dei principi 
generali (es. Dichiarazione Universale dei Diritti Umani)

Sono attualmente soluzioni ancora premature, su cui si può lavorare.

— Beppe

> On 26 Oct 2023, at 10:44, 380° <g...@biscuolo.net> wrote:
>
> Buongiorno Giuseppe,
>
> torno su una cosa che hai detto per farti /la/ domanda.
>
> Giuseppe Attardi <atta...@di.unipi.it> writes:
>
> [...]
>
>> non sto proponendo di dare agli algoritmi la capacità di agire al
>> posto degli umani, ma di dare loro dei suggerimenti.
>
> Innanzi tutto grazie della precisazione, secondo me dovrebbe essere
> l'incipit di qualsiasi discorso (ricerca, articolo, convegno) degli
> "addetti ai lavori", così sgombereremmo il campo da un sacco di
> /equivoci/, che invece riempiono la piscina nella quale molti "addetti
> ai lavori" sguazzano allegramente, profumatamente finanziati.
>
> Ma molto più importante della _proposizione_, è _risposta_ a *La
> Domanda* /fondamentale/ (non è 42!): perché?
>
> Perché "gli algoritmi" - che in realtà andrebbero chiamati software [1],
> anche la c.d. "IA" [2] - non dovrebbero avere la capacità di agire al
> posto degli umani?
>
> In altre parole: da quali idee dovrebbe conseguire la pratica di evitare
> di "far agire" gli "algoritmi" al posto degli umani?
>
> Grazie, 380°
>
>
>
> [1] è la complicità che c'è tra lo yin e yang della conoscenza,
> l'idealismo e il pragmatismo (etimologicamente parlando), dove la
> /pragmatica/ (https://www.treccani.it/enciclopedia/pragmatica/)
> meriterebbe di essere adeguatamente (ri)valutata
>
> [2] quindi anche la General Artificial Intellicence, giusto?... che
> comunque non esiste
>
> --
> 380° (Giovanni Biscuolo public alter ego)
>
> «Noi, incompetenti come siamo,
> non abbiamo alcun titolo per suggerire alcunché»
>
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts.  Ask me about <https://stallmansupport.org>.

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to