caro Giacomo e cari tutti,
                                          mi congratulo con Giacomo per la 
chiarezza e profondità della sua riflessione. A Giacomo, e a lui soltanto 
perchè non è bello farsi belli con meriti altrui, invio il mio curriculum vitae 
secondo chatgpt, che mi attribuisce dieci anni di meno, un luogo di nascita 
dove non sono mai  stato e moltissimi meriti scientifici che sono di almeno 
altri tre autori.
Raf Meo

________________________________
From: nexa <nexa-boun...@server-nexa.polito.it> on behalf of Giacomo Tesio 
<giac...@tesio.it>
Sent: Friday, September 29, 2023 11:53 AM
To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it>; Fabio Alemagna 
<falem...@gmail.com>; Alberto Cammozzo <ac+n...@zeromx.net>
Cc: Nexa <nexa@server-nexa.polito.it>
Subject: Re: [nexa] ‘Biggest act of copyright theft in history’: thousands of 
Australian books allegedly used to train AI model | Australia news | The 
Guardian

Ciao Fabio,

Il 29 Settembre 2023 08:24:57 UTC, Fabio Alemagna <falem...@gmail.com> ha 
scritto:
> L'idea che istruire un modello...

Purtroppo l'idea di "istruire" una macchina è di per sé un'allucinazione.

Le macchine si costruiscono e (se sono programmabili) di programmano.

Non c'è nessuna mente che possa imparare lì dentro, perché le macchine non 
pensano.

Il fatto che possano essere programmate statisticamente per ingannare chi
non ne comprende il funzionamento ci dice che il loro studio andrebbe riservato
a chi lo comprende appieno (tanto da poterle ricostruire da zero) e la loro 
applicazione
a persone inconsapevoli o fragili semplicemente vietato.


Ciò che chiami "modello" non è stato istruito ma programmato statisticamente
usando determinati testi "sorgente".

Il "modello" rappresenta una codifica parziale (o se peferisci, una 
compressione con
perdita di informazione) con interferenze (le varie sorgenti casuali utilizzate 
durante la
programmazione statistica o durante l'esecuzione del programma
e poi scartate per poter fingere che l'output non sia deterministico).

Dunque il modello CONTIENE, seppur in forma difficile da estrarre e non
 necessariamente corrispondente all'intento comunicativo dei rispettivi autori,
ampie parti dei testi originali.

Un esempio particolarmente lampante di questo meccanismo fu evidenziato con
Microsoft Copilot (aka CopyALot) che distribuì codice sotto GPL in violazione 
della stessa,
copiando alla lettera il sorgente ma (guarda caso) attribuendogli una licenza 
permissiva
ed un autore inesistente.

Quel codice, distribuito attraverso l'editor per programmatori di Microsoft 
chiamato
Visual Studio Code è stato riconosciuto perché particolarmente famoso, ma è 
inevitabile
che analogje violazioni avvengano continuamente senza che nessuno se ne accorga.
Violazioni particolarmente gravi perché il codice GPL viene poi incluso in 
prodotti proprietari.

> cito le parole di un altro autore, Jeff Jarvis:
> https://www.facebook.com/jeff.jarvis/posts/pfbid0LMFeqdTYoxnGHQAZwp5HMmeeVqgMSjL2dkcwMcBojkb2cinBpgYTHyc7Fhq1B9NPl

Il fatto che Facebook propini e diffonda le parole di autori felici che le 
proprie
opere vengano sfruttate in questo modo e ricostruite secondo gli interessi
propagandistici di questa o quella società statunitense, non significa molto.

Piuttosto, evidenzia la scarsa consapevolezza del mezzo facebook (intermediario
interessato e notoriamente senza scrupoli) di chi se le beve e le diffonde.


Personalmente sarei felicissimo di scoprire che fare uno zip di windows o office
è sufficiente a far decadere i diritti di Microsoft a su di esso.

E scommetto che lo sarebbero anche molti suoi dipendenti, che potrebbero 
distribuire
zip dei sorgenti su GitHub (magari sotto GPL, tanto poi CopyALot li suggerirà
ai concorrenti di Microsoft stessa con una licenza permissiva e attribuzione ad 
mentula).

L'importante è che l'abolizione dei cosiddetti "diritti di proprietà 
intellettuale" valga per
chiunque passi un contenuto soggetto agli stessi attraverso un programma 
software.

Se però questa abolizione non vale per i singoli esseri umani non deve valere
neanche per le aziende.

Perché nota bene: qui non siamo di fronte ad una primordiale intelligenza 
aliena cui
potremmo anche decidere generosamente di fornire accesso alla nostra cultura.

Qui siamo di fronte ad aziende che approfittano della straordinaria ignoranza 
informatica
cui è costretta la stragrande maggioranza della popolazione per comportarsi da 
legibus soluti,
violando per gli altri le stesse leggi che pretendono siano rispettate per sé.


Mi spiace che tu ti sia bevuto la favoletta della "intelligenza artificiale".
Non che sia colpa tua: la propaganda è potente e personalizzata.
(soprattutto se usi GMail! ;-)

Ma dentro un LLM non opera alcuna intelligenza, solo rappresentazioni 
vettoriali di
testi attraversate lungo tracciati statisticamente probabili selezionati in 
modo (pseudo)
casuale entro un errore accettabile... e tipicamente post-processati
per scartare gli output politicamente (NON eticamente!) problematici e 
problematizzanti.


Niente di più.


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to