Buongiorno.

Ha ragione, anche altre persone serie e in buona fede hanno firmato,

condividendo le sue considerazioni.

Inclusi alcuni che contro le fantasie di chi vede l'AGI nei SALAMI si battono 
quotidianamente.


Non crede però, anche sorvolando sui firmatari, sul messianesimo eugenetico dei 
miliardari e sull'hype,

che chiedere una pausa non per chatGPT e GPT-4, ma solo per i sistemi più 
potenti di quelli,

equivalga a chiudere la stalla dopo che siano scappati i buoi?


Condivido la sua osservazione sulla necessità di non dividersi,

ma temo che l'iniziativa in questione sia sostitutiva, e  con grande successo, 
di un'iniziativa vera e concreta:

mi pare la consueta mossa di presentare la propria buona volontà come una 
promessa di autoregolazione,

sostitutiva della regolazione giuridica. E credo che si applichi al monopolista 
quello che Adam Smith scriveva del macellaio e del fornaio:

affidarsi alla loro benevolenza non è una buona idea; serve la legge:

<https://oll.libertyfund.org/quote/adam-smith-butcher-brewer-baker>


Un saluto,
Daniela


________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Marco A. Calamari 
<marcoc_maill...@marcoc.it>
Inviato: venerdì 31 marzo 2023 11:25
A: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open 
Letter

On ven, 2023-03-31 at 08:37 +0000, Daniela Tafani wrote:

Buongiorno.


Non mi pare difficile trovare un'iniziativa pubblica meno indecente della mossa 
insultante di quella lettera aperta:

il modo in cui parlano di fantomatici rischi futuri, come se non si fossero 
accorti di quanto siano reali e dolorosi

Buongiorno,

non mi pare questa una sede adatta per avviare polemiche, ed è lungi da me 
l'idea di iniziarne una io.

Vorrei solo dire che iniziative pubbliche contro un fenomeno maligno e ben 
individuato andrebbero condivise malgrado i se ed i ma.

Ce ne sono così poche.

I nemici dei mie nemici ...
Un campo diviso è un campo destinato alla sconfitta.

Certo, io sono uno schematista politicamente ingenuo.
Però la mia opinione è che oggi non ci si può tirare indietro, e viste le poche 
iniziative in giro l'ho sottoscritta.

JM2EC   Marco



i  danni generati dal loro sfruttamento di persone, dati e risorse naturali

e dal rilascio di strumenti deliberatamente ingannevoli,
che inquinano pesantemente l'ecosistema dell'informazione

e illudono e manipolano per loro conto gli utenti inesperti,

mi ricorda - non a caso, visti i firmatari - il dialogo tra Huckleberry Finne 
la zia Sally:


Huckleberry Finn, quando gli chiesero se lo scoppio della caldaia di un 
battello a vapore avesse colpito qualcuno,
rispose: «Nessuno: è rimasto ucciso un negro».
Il commento della zia Sally: «Bene, è una fortuna, perché a volte capita che 
qualcuno si faccia male»,
riassume l’intera moralità che spesso ha prevalso fra gli uomini.


Tra le iniziative non proposte da ideologhi 
TESCREAL<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303310925200138349&URLID=11&ESV=10.0.19.7431&IV=F647376C1176E68A62A0F8C97F1887FA&TT=1680254720700&ESN=J3giu5YMgF4ozvw1grHqgy5fX8QM4ElmhiGIGnkq3sA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9uaXR0ZXIuc25vcHl0YS5vcmcveHJpc2tvbG9neS9zdGF0dXMvMTYzNTMxMzgzODUwODg4Mzk2OA&HK=08ABE02F9BE5282593A84B3F59F462C635B9E575F34DF0934CB35476727EEDBB>
 (transhumanism, extropianism, singularitarianism, cosmism, Rationalism, 
Effective Altruism e longtermism),

segnalo una lettera aperta odierna:

<https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303310925200138349&URLID=10&ESV=10.0.19.7431&IV=E54B132A2AE1055BECA4137800914B1D&TT=1680254720699&ESN=%2BrScVIa6ekrsqCQCvUzgsCw8mRYjXWSWpqvPRGugkzc%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cubGF3Lmt1bGV1dmVuLmJlL2FpLXN1bW1lci1zY2hvb2wvb3Blbi1icmllZi9vcGVuLWxldHRlci1tYW5pcHVsYXRpdmUtYWk&HK=00B17B1E550993454584F4A53844EC749F35EFA453CE436ECD147C626DDB7F20>>


Un saluto,
Daniela

________________________________
Da: nexa <nexa-boun...@server-nexa.polito.it> per conto di Andrea Bolioli 
<andrea.boli...@gmail.com>
Inviato: giovedì 30 marzo 2023 21:14
A: J.C. DE MARTIN
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] Pause Giant AI Experiments: An Open Letter

Grazie per la segnalazione.
Sto pensando di firmare la lettera, su molte cose sono d'accordo.
Gli usi impropri di LLM e altri sistemi generativi sono già in corso, altri 
rischi si intravedono. Non si possono prevedere tutti i rischi perché alcune 
proprietà di questi sistemi "emergono", non le sappiamo tutte prima.
Della lettera non mi piace che sia stato citato "GPT-4" come metro di paragone 
( "the training of AI systems more powerful than GPT-4."), si potevano forse 
citare più sistemi o provare a fornire una descrizione tecnica, che però non è 
banale.
Firmare una lettera non sarà sicuramente sufficiente. Qualche iniziativa mi 
sembra necessaria. La situazione in cui ci troviamo mi sembra di questo tipo: 
sono state inventate le automobili, tutti le possiamo guidare senza patente, 
non sappiamo perché funzionano, alcune aziende costruiscono e vendono 
automobili sempre più potenti. Non mi sembra una situazione sicurissima.
Capisco il problema dell'hype. Questi sistemi però esistono veramente, non sono 
solo raccontati nella comunicazione delle aziende che li vendono.
Ci sono altre iniziative pubbliche utili?

Buona serata,
Andrea




Il giorno gio 30 mar 2023 alle ore 07:16 J.C. DE MARTIN 
<juancarlos.demar...@polito.it<mailto:juancarlos.demar...@polito.it>> ha 
scritto:
A misleading open letter about sci-fi AI dangers ignores the real risks
Misinformation, labor impact, and safety are all risks. But not in the way the 
letter implies.
Arvind Narayanan and Sayash Kapoor

https://aisnakeoil.substack.com/p/a-misleading-open-letter-about-sci<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303301915090808348&URLID=4&ESV=10.0.19.7431&IV=5414F8AC8D9CD1A1360D54A45E33AA2C&TT=1680203944494&ESN=nFd70%2Fi%2BQsrrUQL9jYPTfdyT8iMgPDEwKvd1UkBW1pI%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9haXNuYWtlb2lsLnN1YnN0YWNrLmNvbS9wL2EtbWlzbGVhZGluZy1vcGVuLWxldHRlci1hYm91dC1zY2k&HK=3DC9658876EE2A81FC65715173065874E64FADC3894270691E802851311CE4DE>


On 29/03/23 08:47, J.C. DE MARTIN wrote:
Primi firmatari: Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak.

jc

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training 
of AI systems more powerful than GPT-4.

https://futureoflife.org/open-letter/pause-giant-ai-experiments/<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303301915090808348&URLID=2&ESV=10.0.19.7431&IV=634F59A1CB0F0E56F6C0584642D91942&TT=1680203944493&ESN=WG8U%2BjOuuuM6f%2Fx76IKONUSiZ8RZucj3PdZnM4UFq%2FY%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9mdXR1cmVvZmxpZmUub3JnL29wZW4tbGV0dGVyL3BhdXNlLWdpYW50LWFpLWV4cGVyaW1lbnRzLw&HK=4E1A0E081C96E8E246279BA7CDE4137D65F205798A63243242B65F763E2D19B1>


_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303310925200138349&URLID=2&ESV=10.0.19.7431&IV=B971ED7B50FDD28C3648FB71DCC31739&TT=1680254720699&ESN=Qn4YaTX3KW7dULTd8uY3a1m4kRiKv4x3DDrvgtgAA9Q%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=C6B43E5B398162D366CCADBE020E5AC21C298A3FE2A23B59994BBC7077BE199E>

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to