"Constitutional AI" non è nulla di diverso della "AI ethics", nel senso che, a volerla prendere sul serio, presenta lo stesso problema: i suoi requisiti sono gli stessi dell'etica e non possono essere soddisfatti, oggi.
La capacità di formulare giudizi morali (o "costituzionali") richiede infatti che siano anzitutto soddisfatti tutti i requisiti non morali dell'etica. Il giudizio morale richiede, tra gli altri, • la capacità di agire non solo secondo le leggi, ma anche secondo la rappresentazione delle leggi; • il ragionamento logico, • una comprensione autentica del linguaggio, • la capacità di distinguere una connessione causale da una mera correlazione, • la famiglia di intuizioni e procedure di ragionamento incluse nel senso comune (inclusa la comprensione dei contesti). La capacità di formulare giudizi morali richiederebbe un'intelligenza artificiale generale (AGI). Questa, oggi, non c'é. Quindi non può esserci alcun allineamento dei valori, alcuna etica dell'IA, alcuna IA costituzionale, se non come arma di distrazione e come via di fuga dalla regolazione giuridica. Per il resto, proposte come quelle di una "constitutional AI"(1) sono un esempio, come ha già osservato Maria Chiara Pievatolo citando Lucio Russo, di cultura "componibile", ossia di quella congiunzione di specializzazione e ignoranza in virtù della quale si è privi di anticorpi contro l'idea di costruire una costituzione con un sondaggio e si è convinti che i valori morali siano instillabili con un un catalogo di risposte giuste e sbagliate, fino alla candida constatazione finale che "CAI training is more complicated than we thought". Un saluto, Daniela (1) https://www.anthropic.com/index/collective-constitutional-ai-aligning-a-language-model-with-public-input ________________________________________ Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Giuseppe Attardi <atta...@di.unipi.it> Inviato: giovedì 26 ottobre 2023 11:49 A: 380° Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] human Vs. IA agency (Re: IA, lavoro, immaginari) [CDT:L3] Il software si usa quasi sempre per svolgere compiti in autonomia: questa mail ti arriva perché un insieme di vari software svolgono le funzioni loro assegnate. Il fatto è che non decidono loro quali funzioni svolgere, siamo noi che affidiamo loro quelle determinate funzioni. Più in generale le macchine non hanno né devono avere libero arbitrio, ossia la capacità di scegliere /cosa/ fare. Possono solo scegliere /come/ svolgere un determinato compito, all’interno delle possibilità che sono loro permesse. Capisco che la questione è sottile, e del resto sul libero arbitrio i filosofi si interrogano da secoli. Ma questa distinzione secondo me è quella su cui possiamo concentrarci. In particolare, come stabilire e fissare “le possibilità di scelta” delle macchine, che qualcuno chiama guardrail, è una questione anche tecnica importante. Ma secondo me è molto più promettente di quella dell’Explainable AI (XAI), che richiede solo di avere una spiegazione a posteriori delle scelte, magari errate. Tecnicamente, ci sono diversi approcci alla questione: 1. Inserire vincoli nella funzione obiettivo durante l’apprendimento. 2. Chain of Verification: assicurare che le risposte siano verificabili e accurate 3. Constitutional AI: garantire che le risposte aderiscano a dei principi generali (es. Dichiarazione Universale dei Diritti Umani) Sono attualmente soluzioni ancora premature, su cui si può lavorare. — Beppe > On 26 Oct 2023, at 10:44, 380° <g...@biscuolo.net> wrote: > > Buongiorno Giuseppe, > > torno su una cosa che hai detto per farti /la/ domanda. > > Giuseppe Attardi <atta...@di.unipi.it> writes: > > [...] > >> non sto proponendo di dare agli algoritmi la capacità di agire al >> posto degli umani, ma di dare loro dei suggerimenti. > > Innanzi tutto grazie della precisazione, secondo me dovrebbe essere > l'incipit di qualsiasi discorso (ricerca, articolo, convegno) degli > "addetti ai lavori", così sgombereremmo il campo da un sacco di > /equivoci/, che invece riempiono la piscina nella quale molti "addetti > ai lavori" sguazzano allegramente, profumatamente finanziati. > > Ma molto più importante della _proposizione_, è _risposta_ a *La > Domanda* /fondamentale/ (non è 42!): perché? > > Perché "gli algoritmi" - che in realtà andrebbero chiamati software [1], > anche la c.d. "IA" [2] - non dovrebbero avere la capacità di agire al > posto degli umani? > > In altre parole: da quali idee dovrebbe conseguire la pratica di evitare > di "far agire" gli "algoritmi" al posto degli umani? > > Grazie, 380° > > > > [1] è la complicità che c'è tra lo yin e yang della conoscenza, > l'idealismo e il pragmatismo (etimologicamente parlando), dove la > /pragmatica/ (https://www.treccani.it/enciclopedia/pragmatica/) > meriterebbe di essere adeguatamente (ri)valutata > > [2] quindi anche la General Artificial Intellicence, giusto?... che > comunque non esiste > > -- > 380° (Giovanni Biscuolo public alter ego) > > «Noi, incompetenti come siamo, > non abbiamo alcun titolo per suggerire alcunché» > > Disinformation flourishes because many people care deeply about injustice > but very few check the facts. Ask me about <https://stallmansupport.org>. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa