Buongiorno.
Ha ragione, anche altre persone serie e in buona fede hanno firmato, condividendo le sue considerazioni. Inclusi alcuni che contro le fantasie di chi vede l'AGI nei SALAMI si battono quotidianamente. Non crede però, anche sorvolando sui firmatari, sul messianesimo eugenetico dei miliardari e sull'hype, che chiedere una pausa non per chatGPT e GPT-4, ma solo per i sistemi più potenti di quelli, equivalga a chiudere la stalla dopo che siano scappati i buoi? Condivido la sua osservazione sulla necessità di non dividersi, ma temo che l'iniziativa in questione sia sostitutiva, e con grande successo, di un'iniziativa vera e concreta: mi pare la consueta mossa di presentare la propria buona volontà come una promessa di autoregolazione, sostitutiva della regolazione giuridica. E credo che si applichi al monopolista quello che Adam Smith scriveva del macellaio e del fornaio: affidarsi alla loro benevolenza non è una buona idea; serve la legge: <https://oll.libertyfund.org/quote/adam-smith-butcher-brewer-baker> Un saluto, Daniela ________________________________ Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Marco A. Calamari <marcoc_maill...@marcoc.it> Inviato: venerdì 31 marzo 2023 11:25 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter On ven, 2023-03-31 at 08:37 +0000, Daniela Tafani wrote: Buongiorno. Non mi pare difficile trovare un'iniziativa pubblica meno indecente della mossa insultante di quella lettera aperta: il modo in cui parlano di fantomatici rischi futuri, come se non si fossero accorti di quanto siano reali e dolorosi Buongiorno, non mi pare questa una sede adatta per avviare polemiche, ed è lungi da me l'idea di iniziarne una io. Vorrei solo dire che iniziative pubbliche contro un fenomeno maligno e ben individuato andrebbero condivise malgrado i se ed i ma. Ce ne sono così poche. I nemici dei mie nemici ... Un campo diviso è un campo destinato alla sconfitta. Certo, io sono uno schematista politicamente ingenuo. Però la mia opinione è che oggi non ci si può tirare indietro, e viste le poche iniziative in giro l'ho sottoscritta. JM2EC Marco i danni generati dal loro sfruttamento di persone, dati e risorse naturali e dal rilascio di strumenti deliberatamente ingannevoli, che inquinano pesantemente l'ecosistema dell'informazione e illudono e manipolano per loro conto gli utenti inesperti, mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finne la zia Sally: Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un battello a vapore avesse colpito qualcuno, rispose: «Nessuno: è rimasto ucciso un negro». Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che qualcuno si faccia male», riassume l’intera moralità che spesso ha prevalso fra gli uomini. Tra le iniziative non proposte da ideologhi TESCREAL<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303310925200138349&URLID=11&ESV=10.0.19.7431&IV=F647376C1176E68A62A0F8C97F1887FA&TT=1680254720700&ESN=J3giu5YMgF4ozvw1grHqgy5fX8QM4ElmhiGIGnkq3sA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9uaXR0ZXIuc25vcHl0YS5vcmcveHJpc2tvbG9neS9zdGF0dXMvMTYzNTMxMzgzODUwODg4Mzk2OA&HK=08ABE02F9BE5282593A84B3F59F462C635B9E575F34DF0934CB35476727EEDBB> (transhumanism, extropianism, singularitarianism, cosmism, Rationalism, Effective Altruism e longtermism), segnalo una lettera aperta odierna: <https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303310925200138349&URLID=10&ESV=10.0.19.7431&IV=E54B132A2AE1055BECA4137800914B1D&TT=1680254720699&ESN=%2BrScVIa6ekrsqCQCvUzgsCw8mRYjXWSWpqvPRGugkzc%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cubGF3Lmt1bGV1dmVuLmJlL2FpLXN1bW1lci1zY2hvb2wvb3Blbi1icmllZi9vcGVuLWxldHRlci1tYW5pcHVsYXRpdmUtYWk&HK=00B17B1E550993454584F4A53844EC749F35EFA453CE436ECD147C626DDB7F20>> Un saluto, Daniela ________________________________ Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Andrea Bolioli <andrea.boli...@gmail.com> Inviato: giovedì 30 marzo 2023 21:14 A: J.C. DE MARTIN Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Pause Giant AI Experiments: An Open Letter Grazie per la segnalazione. Sto pensando di firmare la lettera, su molte cose sono d'accordo. Gli usi impropri di LLM e altri sistemi generativi sono già in corso, altri rischi si intravedono. Non si possono prevedere tutti i rischi perché alcune proprietà di questi sistemi "emergono", non le sappiamo tutte prima. Della lettera non mi piace che sia stato citato "GPT-4" come metro di paragone ( "the training of AI systems more powerful than GPT-4."), si potevano forse citare più sistemi o provare a fornire una descrizione tecnica, che però non è banale. Firmare una lettera non sarà sicuramente sufficiente. Qualche iniziativa mi sembra necessaria. La situazione in cui ci troviamo mi sembra di questo tipo: sono state inventate le automobili, tutti le possiamo guidare senza patente, non sappiamo perché funzionano, alcune aziende costruiscono e vendono automobili sempre più potenti. Non mi sembra una situazione sicurissima. Capisco il problema dell'hype. Questi sistemi però esistono veramente, non sono solo raccontati nella comunicazione delle aziende che li vendono. Ci sono altre iniziative pubbliche utili? Buona serata, Andrea Il giorno gio 30 mar 2023 alle ore 07:16 J.C. DE MARTIN <juancarlos.demar...@polito.it<mailto:juancarlos.demar...@polito.it>> ha scritto: A misleading open letter about sci-fi AI dangers ignores the real risks Misinformation, labor impact, and safety are all risks. But not in the way the letter implies. Arvind Narayanan and Sayash Kapoor https://aisnakeoil.substack.com/p/a-misleading-open-letter-about-sci<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303301915090808348&URLID=4&ESV=10.0.19.7431&IV=5414F8AC8D9CD1A1360D54A45E33AA2C&TT=1680203944494&ESN=nFd70%2Fi%2BQsrrUQL9jYPTfdyT8iMgPDEwKvd1UkBW1pI%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9haXNuYWtlb2lsLnN1YnN0YWNrLmNvbS9wL2EtbWlzbGVhZGluZy1vcGVuLWxldHRlci1hYm91dC1zY2k&HK=3DC9658876EE2A81FC65715173065874E64FADC3894270691E802851311CE4DE> On 29/03/23 08:47, J.C. DE MARTIN wrote: Primi firmatari: Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak. jc Pause Giant AI Experiments: An Open Letter We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. https://futureoflife.org/open-letter/pause-giant-ai-experiments/<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303301915090808348&URLID=2&ESV=10.0.19.7431&IV=634F59A1CB0F0E56F6C0584642D91942&TT=1680203944493&ESN=WG8U%2BjOuuuM6f%2Fx76IKONUSiZ8RZucj3PdZnM4UFq%2FY%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9mdXR1cmVvZmxpZmUub3JnL29wZW4tbGV0dGVyL3BhdXNlLWdpYW50LWFpLWV4cGVyaW1lbnRzLw&HK=4E1A0E081C96E8E246279BA7CDE4137D65F205798A63243242B65F763E2D19B1> _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303310925200138349&URLID=2&ESV=10.0.19.7431&IV=B971ED7B50FDD28C3648FB71DCC31739&TT=1680254720699&ESN=Qn4YaTX3KW7dULTd8uY3a1m4kRiKv4x3DDrvgtgAA9Q%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=C6B43E5B398162D366CCADBE020E5AC21C298A3FE2A23B59994BBC7077BE199E>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa