Sono totalmente in disaccordo con la lettera aperta, perché affronta il problema dalla parte sbagliata. Non dobbiamo rallentare lo sviluppo di AI da parte dei privati, dobbiamo invece accelerare lo sviluppo dell’AI con finanziamenti pubblici ai ricercatori che oggi non dispongono delle risorse di calcolo necessarie per restare all’avanguardia, esplorando approcci e direzioni che non vengono seguite dalle aziende private.
Sono anche un disaccordo con l’idea di rafforzare l”European AI Act, che era già palesemente inadeguato e contraddittorio: non si può affermare da una parte che l’AI sia inaffidabile e dall’altra pretendere che lo diventi tramite un fantomatico e discriminatorio (in termini di costi) processo di autocertificazione. Il fatto che la proposta non contemplasse il caso dei chatbot come tecnologia da regolamentare, dimostra non solo come la regolamentazione fosse inadeguata ma anche come qualunque regolamentazione lo sarebbe in un periodo di rapido sviluppo della tecnologia stessa. Se c’è qualcosa da regolare, non è la tecnologia o il suoi tempi di sviluppo, ma il modo indecoroso con cui le Big Tech stanno dominando il settore digitale, con gli effetti deleteri che Daniela riporta, e con l’espansione ad altri settori ed ulteriore concentrazione che provoca l’uso di tecnologie, di cui solo loro possono permettersi di disporre (perché glielo abbiamo lasciato fare). Una moratoria di sei mesi alle sviluppo “modelli più potenti di GPT-4” sarebbe solo una foglia di fico senza alcun effetto pratico: tutti gli altri, che non hanno modo di farlo, non ne trarranno alcun beneficio. — Beppe > On 31 Mar 2023, at 10:37, nexa-requ...@server-nexa.polito.it wrote: > > Date: Fri, 31 Mar 2023 08:37:45 +0000 > From: Daniela Tafani <daniela.taf...@unipi.it > <mailto:daniela.taf...@unipi.it>> > To: Andrea Bolioli <andrea.boli...@gmail.com > <mailto:andrea.boli...@gmail.com>>, "J.C. DE MARTIN" > <juancarlos.demar...@polito.it <mailto:juancarlos.demar...@polito.it>> > Cc: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" > <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> > Subject: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An > Open Letter > Message-ID: <ad3a3992a802403cb989b01bd372b...@unipi.it > <mailto:ad3a3992a802403cb989b01bd372b...@unipi.it>> > Content-Type: text/plain; charset="windows-1252" > > Buongiorno. > > > Non mi pare difficile trovare un'iniziativa pubblica meno indecente della > mossa insultante di quella lettera aperta: > > il modo in cui parlano di fantomatici rischi futuri, come se non si fossero > accorti di quanto siano reali e dolorosi > i danni generati dal loro sfruttamento di persone, dati e risorse naturali > > e dal rilascio di strumenti deliberatamente ingannevoli, > che inquinano pesantemente l'ecosistema dell'informazione > > e illudono e manipolano per loro conto gli utenti inesperti, > > mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finn > e la zia Sally: > > > Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un > battello a vapore avesse colpito qualcuno, > rispose: «Nessuno: è rimasto ucciso un negro». > Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che > qualcuno si faccia male», > riassume l’intera moralità che spesso ha prevalso fra gli uomini. > > > Tra le iniziative non proposte da ideologhi > TESCREAL<https://nitter.snopyta.org/xriskology/status/1635313838508883968> > (transhumanism, extropianism, singularitarianism, cosmism, Rationalism, > Effective Altruism e longtermism), > > segnalo una lettera aperta odierna: > > <https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai> > > > Un saluto, > Daniela >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa