Buonasera, Sono d'accordo che non ha molto senso affrontare la questione in questi termini, piuttosto deve essere accelerato un quadro etico-legale nel quale la ricerca pubblica e privata debba procedere.
A tal proposito, da quello che mi risulta, l'EU AI Act prevede un European Artificial Intelligence Board, con compiti di sorveglianza del rispetto del regolamento in EU. Il diavolo naturalmente è nei dettagli ma un board autonomo e competente è previsto. Infine, l'autovalutazione, è uno strumento diffuso in molti ambiti; anche per l'AI, non penso che sia pensato come sistema di autocertificazione, ma piuttosto come un riferimento per ricercatori e sviluppatori. Vedremo comunque una volta che sarà pubblicato A presto, Alessandro On Fri, 31 Mar 2023 at 12:55, Giuseppe Attardi <atta...@di.unipi.it> wrote: > Sono totalmente in disaccordo con la lettera aperta, perché affronta il > problema dalla parte sbagliata. > Non dobbiamo rallentare lo sviluppo di AI da parte dei privati, dobbiamo > invece accelerare lo sviluppo dell’AI con finanziamenti pubblici ai > ricercatori che oggi non dispongono delle risorse di calcolo necessarie per > restare all’avanguardia, esplorando approcci e direzioni che non vengono > seguite dalle aziende private. > > Sono anche un disaccordo con l’idea di rafforzare l”European AI Act, che > era già palesemente inadeguato e contraddittorio: non si può affermare da > una parte che l’AI sia inaffidabile e dall’altra pretendere che lo diventi > tramite un fantomatico e discriminatorio (in termini di costi) processo di > autocertificazione. > Il fatto che la proposta non contemplasse il caso dei chatbot come > tecnologia da regolamentare, dimostra non solo come la regolamentazione > fosse inadeguata ma anche come qualunque regolamentazione lo sarebbe in un > periodo di rapido sviluppo della tecnologia stessa. > > Se c’è qualcosa da regolare, non è la tecnologia o il suoi tempi di > sviluppo, ma il modo indecoroso con cui le Big Tech stanno dominando il > settore digitale, con gli effetti deleteri che Daniela riporta, e con > l’espansione ad altri settori ed ulteriore concentrazione che provoca l’uso > di tecnologie, di cui solo loro possono permettersi di disporre (perché > glielo abbiamo lasciato fare). > > Una moratoria di sei mesi alle sviluppo “modelli più potenti di GPT-4” > sarebbe solo una foglia di fico senza alcun effetto pratico: tutti gli > altri, che non hanno modo di farlo, non ne trarranno alcun beneficio. > > — Beppe > > On 31 Mar 2023, at 10:37, nexa-requ...@server-nexa.polito.it wrote: > > Date: Fri, 31 Mar 2023 08:37:45 +0000 > From: Daniela Tafani <daniela.taf...@unipi.it> > To: Andrea Bolioli <andrea.boli...@gmail.com>, "J.C. DE MARTIN" > <juancarlos.demar...@polito.it> > Cc: "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it> > Subject: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An > Open Letter > Message-ID: <ad3a3992a802403cb989b01bd372b...@unipi.it> > Content-Type: text/plain; charset="windows-1252" > > Buongiorno. > > > Non mi pare difficile trovare un'iniziativa pubblica meno indecente della > mossa insultante di quella lettera aperta: > > il modo in cui parlano di fantomatici rischi futuri, come se non si > fossero accorti di quanto siano reali e dolorosi > i danni generati dal loro sfruttamento di persone, dati e risorse naturali > > e dal rilascio di strumenti deliberatamente ingannevoli, > che inquinano pesantemente l'ecosistema dell'informazione > > e illudono e manipolano per loro conto gli utenti inesperti, > > mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry > Finn e la zia Sally: > > > Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un > battello a vapore avesse colpito qualcuno, > rispose: «Nessuno: è rimasto ucciso un negro». > Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita > che qualcuno si faccia male», > riassume l’intera moralità che spesso ha prevalso fra gli uomini. > > > Tra le iniziative non proposte da ideologhi TESCREAL< > https://nitter.snopyta.org/xriskology/status/1635313838508883968> > (transhumanism, extropianism, singularitarianism, cosmism, Rationalism, > Effective Altruism e longtermism), > > > segnalo una lettera aperta odierna: > > < > https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai > > > > > > Un saluto, > Daniela > > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa