Occhio agli effetti collaterali del massimalismo del diritto d'autore...
Kit Walsh di EFF ha scritto un pezzo molto interessante:
https://www.eff.org/deeplinks/2023/04/how-we-think-about-copyright-and-ai-art-0
On Thu, Apr 6, 2023 at 5:50 AM Stefano Zacchiroli wrote:
> On Thu, Apr 06, 2023 at 0
Ciao Carlo,
On Thu, 6 Apr 2023 11:54:50 +0200 Carlo Blengino wrote:
> È tutto complicato...
in realtà, da una prospettiva informatica è banale.
> Chi è responsabile di aver diffuso ad almeno due persone le frasi
> diffamatorie in questo caso?
Vediamo se riusciamo a rispondere con uno schema
On Thu, Apr 06, 2023 at 01:08:47PM +0200, Stefano Quintarelli wrote:
> https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/
>
> se prima pensavo che l'opt out fosse sufficiente, forse mi ricredo e forse
> si arrivera' all'opt in.
Sulla stessa linea argomentativa:
https://arstech
chi uscirne ? il garante o openai ?
che ha provocato il garante o che ha provocato openai ?
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/
se prima pensavo che l'opt out fosse sufficiente, forse mi ricredo e forse si arrivera'
all'opt in.
ciao, s.
On 06/04/23 12:51, Giuse
Comunicato a seguito dell’incontro:
https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9872832
Il Garante si riserva di valutare le misure proposte dalla società, anche
riguardo al provvedimento adottato nei confronti di OpenAI.
Tradotto: ancora non sanno bene come uscire dal pas
Mah, ho dei dubbi.
I punti 0 e 1 sono nodali per una qualche responsabilità e qui manca un
pezzo fondamentale: la diffamazione si consuma quando la frase lesiva viene
percepita almeno dal secondo soggetto (io posso dire o sentire le peggiori
cose riguardanti un terzo in una conversazione 1a1 e per
Buongiorno.
Grazie della segnalazione.
Gli effetti ulteriori saranno i seguenti (i punti da 0. a 2. hanno già avuto
luogo nel caso in oggetto*):
0. un generatore di stringhe di testo (nel caso citato, ChatGPT)
restituisce, a x oppure a y, un output D, diffamatorio nei riguardi di x;
On Thu, Apr 06, 2023 at 10:14:37AM +0200, Marco A. Calamari wrote:
> Pur senza avere certezze, non credo che sia possibile effettuare un retraining
> incrementale di un LLM.
Non conosco il caso specifico di ChatGPT, ma conosco abbastanza bene
quello dei large language models (LLMs) per il solo cod
On gio, 2023-04-06 at 09:13 +0200, Stefano Zacchiroli wrote:
> Grazie per la segnalazione. Osservo che questo passaggio:
>
> On Wed, Apr 05, 2023 at 02:09:26PM +, Daniela Tafani wrote:
> > The upshot is that in just under a month, there were three recorded
> > incidences of employees leaking s
Gentilissime, gentilissimi,
Vi ricordiamo che *mercoledì 12 aprile*, alle ore 17.00, si terrà il
*161° Mercoledì di Nexa*
con ospite *Enrico Nardelli* (Università di Roma "Tor Vergata") che
presenterà il suo ultimo libro:
/*"La rivoluzione informatica. Conoscenza, consapevolezza e potere nella
Grazie per la segnalazione. Osservo che questo passaggio:
On Wed, Apr 05, 2023 at 02:09:26PM +, Daniela Tafani wrote:
> The upshot is that in just under a month, there were three recorded
> incidences of employees leaking sensitive information via
> ChatGPT. Since ChatGPT retains user input da
11 matches
Mail list logo