Sono sostanzialmente d’accordo che i rischi principali non siano nella tecnologia, di cui stiamo vedendo solo un passaggio evolutivo e non definitivo, ma
“3. the concentration of power in the hands of a few people which exacerbates social inequities.”.

Approfitto per segnalare una palese contraddizione nell’appello alla moratoria, dove si assume implicitamente che i progressi avvengano allenando modelli più potenti di GPT-4 mentre contemporaneamente si chiede di rifocalizzare la R&S in AI nel fare tali potenti sistemi allo stato dell’arte più accurati, robusti ecc., ossia più potenti di GPT-4.

— Beppe

PS. I LLM sono tutt’altro che Stochastic Parrots: ripetere a pappagallo i testi da cui sono stati allenati è proprio ciò che non sanno fare.

From: Enrico Nardelli <narde...@mat.uniroma2.it>
To: Nexa <nexa@server-nexa.polito.it>
Subject: [nexa] Statement from the listed authors of Stochastic
   Parrots on the “AI pause” letter
Message-ID: <22c6ff05-a037-f3de-68c0-83548bc4a...@mat.uniroma2.it>
Content-Type: text/plain; charset="utf-8"; Format="flowed"

(mi pare non sia passato in lista)


 Statement from the listed authors of Stochastic Parrots on the “AI pause” letter

Timnit Gebru (DAIR), Emily M. Bender (University of Washington), Angelina McMillan-Major (University of Washington), Margaret Mitchell (Hugging Face)

March 31, 2023

/Tl;dr: The harms from so-called AI are real and present and follow from the acts of people and corporations deploying automated systems. Regulatory efforts should focus on transparency, accountability and preventing exploitative labor practices./

https://www.dair-institute.org/blog/letter-statement-March2023/
/

--

-- EN
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to