> GT: Nessun altro prende la tua testa, la apre e scrive nel tuo cervello
una serie di dati a caso,
misura quanto il tuo comportamento si discosta da quanto desidera e
modifica un pochino
quei dati, poi misura quanto il tuo comportamento si discosta da quanto
desidera e modifica di nuovo un pochino
quei dati, e ripete il procedimento milioni o
miliardi di volte fin quando il tuo comportamento non si discosta più di un
ε trascurabile
da quanto desidera.
> AM: Il comportamento del bambino che comincia a parlare è analogo, anche
se non identico ai significati letterali delle tue parole. Si veda "mamma",
da mmm fino alla corrispondenza (quasi) totale delle emissioni vocali di
bambino e mamma. (Quasi) perchè è probabile che le impronte vocali
resteranno differenti.

...nozioni quali "indottrinamento" vengono alla mente per confutare certe
tesi. E ancora, possiamo pensare alle scuole telebane, l'addestramento dei
bambini soldato, la rieducazione degli Uiguri, la gioventù nazzista...e
ovviamente la società dei consumi di Baudrillard (e la *Propaganda* di
Edward Bernays che l'ha favorita). La storia umana è storia in gran parte
di teste aperte, scritte e riscritte, e modificate quando emergono
"divergenze".

Giancarlo

On Thu, Sep 12, 2024 at 8:52 AM alessandro marzocchi <alemar...@gmail.com>
wrote:

>
> Se la mia insistenza sul tema annoia o disturba, per favore avvisatemi e
> continuo in privato con chi è disponibile.
> ***
> rif: vol 185, Issue 42 - Date: Thu, 12 Sep 2024 00:06:38 +0000 - From:
> Giacomo Tesio <giac...@tesio.it>
> ***
> Grazie Giacomo ma non sono convinto. In calce si trova il testo integrale
> del tuo ultimo intervento, ne estrapolo alcuni passi.
> ---
> > GT: Nessuna macchina lo saprà mai fare.
> > AM: Su questo non ho dubbi ma equivale a dire che tu ed io non saremo
> mai uguali.
> Chiamerei "human learning" il processo che hai descritto
> Chiameresti "intelligente" il comportamento acquisito.
> ---
> > GT: Nessun altro prende la tua testa, la apre e scrive nel tuo cervello
> una serie di dati a caso,
> misura quanto il tuo comportamento si discosta da quanto desidera e
> modifica un pochino
> quei dati, poi misura quanto il tuo comportamento si discosta da quanto
> desidera e modifica di nuovo un pochino
> quei dati, e ripete il procedimento milioni o
> miliardi di volte fin quando il tuo comportamento non si discosta più di
> un ε trascurabile
> da quanto desidera.
> > AM: Il comportamento del bambino che comincia a parlare è analogo, anche
> se non identico ai significati letterali delle tue parole. Si veda "mamma",
> da mmm fino alla corrispondenza (quasi) totale delle emissioni vocali di
> bambino e mamma. (Quasi) perchè è probabile che le impronte vocali
> resteranno differenti.
> ---
> > GT: La scelta di termini più appropriati è oggetto di un altro thread,
> puoi star certo che
> non c'è alcuna intelligenza dentro un LLM.
> Si tratta di un software progettato per _sembrare_ intelligente, ma solo
> a chi non sa come funziona.
> > AM: Intelligenza: prima definiamola nel modo univoco il più possibile,
> quest'ultima precisazione è una parte della prima affermazione: nessuno
> sarà mai uguale a nessun altro, si vedano gemelli monovulari.
> Sul "sembrare" intelligenti ricordo un film di Hal Ashby, fra gli ultimi
> di Peter Sellers: Oltre il giardino, tutto un gioco fra non essere / essere
> percepito, sembrare / forse essere?  Da vedere, un paio d'ore godibilisseme.
> ---
>  > GT: La natura del nostro apprendimento non è statistica: posso
> spiegarti come contare
> fino a 31 sulle dita di una mano senza fartelo vedere nemmeno una volta.
> ... ... ...
> > AM:  Come "insegni" al tuo allievo "dito", "sollevare", "combinazione"
> ...?
> Come "insegni" al tuo allievo 0, 1, 2 eccetera?
> Come gli "insegni" potenza?
> ---
> > GT: non solo non ti fornisco nemmeno un esempio (niente statistica), ma
> non ti
> sto insegnando come fare, ti ho solo detto come fare ad imparare.
> > AM: Sicuro? Vedi sopra, resta fermo il tuo diritto ad affermare che (io)
> sbaglio ma sono convinto che le cose non avvengono come (tu) le hai
> descritte, questo penso per il cd mondo vivente, per le macchine tu e tutti
> gli altri siete i miei maestri e per questa opera continuo a ringraziarvi.
> ... se posso, invito a leggere Chalmers (Could a Large Language Model Be
> Conscious?
> https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/).
>
> ---
> Sintesi telegrafica: quanto, come, dove noi umani siamo diversi dalle
> macchine? (io) credo molto meno di quanto Giacomo ed altri affermano,
> propongo di esaminare la questione " da fuori" non dal punto di vista
> umano, ritengo che l'uomo misura tutte le cose ma NON E' la misura, la dico
> brutta che non piace neppure a me: siamo oggetto, non soggetto.
> Chiudo con una domanda: sarebbe possibile, ed anche facile, riordinare
> alcuni temi con tutti gl'interventi evitando ripetizioni e con una
> presentazione grafica ordinata, tale considerata a giudizio insindacabile
> dell'uomo? Come scrive Giacomo, ed umilmente concordo, non siamo uguali
> alle macchine :-). Ad esempio, trovo questa discussione molto interessante,
> spero di riuscire a fare il riordino di cui sopra ma ... se lo facesse una
> macchina ...
> Infinitamente grazie e cordialità.
> Duccio (Alessandro Marzocchi)
>
> Message: 2
>> Date: Thu, 12 Sep 2024 00:06:38 +0000
>> From: Giacomo Tesio <giac...@tesio.it>
>> To: nexa@server-nexa.polito.it
>> Subject: Re: [nexa] AI Training is Copyright Infringement
>> Message-ID: <10d4c32b-0fba-4f95-b96d-db44aee2a...@tesio.it>
>> Content-Type: text/plain; charset=utf-8
>>
>> Caro Duccio,
>> Quando tu impari, tu (soggetto) impari (verbo).
>>
>> Nessun altro prende la tua testa, la apre e scrive nel tuo cervello una
>> serie di dati a caso,
>> misura quanto il tuo comportamento si discosta da quanto desidera e
>> modifica un pochino
>> quei dati, poi misura quanto il tuo comportamento si discosta da quanto
>> desidera e modifica di nuovo un pochino
>> quei dati, e ripete il procedimento milioni o
>> miliardi di volte fin quando il tuo comportamento non si discosta più di
>> un ε trascurabile
>> da quanto desidera.
>>
>> In un tale ipotetico processo, tu saresti un oggetto che subisce
>> l'azione,
>> non un soggetto che la compie.
>>
>> Chiameresti il processo che ho descritto "human learning"?
>> Chiameresti "intelligente" il comportamento acquisito in questo modo?
>> (ovvero tale che non si discosti statisticamente più ε da quello
>> prestabilito)
>>
>> Se no, non hai ragione di chiamare "machine learning" il processo di
>> sviluppo di un LLM
>> come non hai ragione di chiamare "intelligenza artificiale" il risultato
>> di tale processo.
>>
>> La scelta di termini più appropriati è oggetto di un altro thread, puoi
>> star certo che
>> non c'è alcuna intelligenza dentro un LLM.
>>
>> Si tratta di un software progettato per _sembrare_ intelligente, ma solo
>> a chi non sa come funziona.
>>
>> La natura del nostro apprendimento non è statistica: posso spiegarti come
>> contare
>> fino a 31 sulle dita di una mano senza fartelo vedere nemmeno una volta.
>>
>> Il tuo pugno chiuso significa zero.
>> Ad ogni dito associamo una potenza di due:
>> - pollice = 1
>> - indice = 2
>> - medio = 4
>> - anulare = 8
>> - mignolo = 16
>>
>> Solleva una qualsiasi combinazione di dita e somma i valori associati a
>> ciascun dito:
>> otterrai un numero fra 0 e 31.
>>
>> Ora, senza che io ti dica altro o ti mostri alcun esempio, puoi imparare
>> da solo come
>> mettere le varie combinazioni in ordine dal valore complessivo più
>> piccolo, al più grande.
>>
>> Nota bene: non solo non ti fornisco nemmeno un esempio (niente
>> statistica), ma non ti
>> sto insegnando come fare, ti ho solo detto come fare ad imparare.
>>
>> Tu (soggetto) impari (verbo).
>> Se vuoi.
>>
>> Nessuno ti butta conoscenza dentro il cervello.
>>
>> Nessuna macchina lo saprà mai fare.
>>
>> Giacomo
>>
>>
>> Il 11 Settembre 2024 22:50:58 UTC, alessandro marzocchi ha scritto:
>> > Sun, 08 Sep 2024 23:25:19 +0000 Giacomo Tesio <giac...@tesio.it
>> Subject:
>> > Re: [nexa] AI Training is Copyright Infringement
>> >
>> > > Direi piuttosto che fiumi di inchiostro sono stati versati per
>> > > giustificare la ridefinizione di termini come "imparare" e
>> "apprendere"
>> > > affinché possano essere applicati alle macchine.
>> > >
>> >
>> > *****
>> > E' autorevole, diffusa e prevalente la convinzione che noi uomini non
>> siamo
>> > confrontabili con queste macchine.
>> > Eppure non mi convince, mi pare che il nostro modo di imparare è
>> anch'esso
>> > statistico, da pappagallo: ad esempio impariamo a dire mamma -
>> > probabilmente è la nostra prima parola - perchè alla stessa associamo
>> una
>> > persona specifica ed arriviamo a questa associazione persona-parola dopo
>> > una serie più o meno lunga di esperienze.
>> > Dunque, secondo la mia convinzione personale, quando critichiamo la
>> > macchina per il fondamento statistico basiamo la nostra critica su una
>> > modalità che è anche umana.
>> > Un'altra riflessione, sulla quantità di tempo e di esperienze prima di
>> > arrivare alle capacità attuali di noi umani: credo nessuno abbia una
>> > risposta, ma certamente abbiamo impiegato moltissimi anni, molte e molte
>> > generazioni.
>> > *David Chalmers* non afferma la coscienza delle macchine ma neppure la
>> nega
>> > per principio, in sintesi ritiene che esse hanno una qualche coscienza e
>> > che progrediscono (Could a Large Language Model Be Conscious?
>> >
>> https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/
>> > ).
>> > Sulla parola, *Ludwig Wittgenstein* aveva scritto opinioni interessanti
>> > riferendole anche ad Agostino: The individual words in language name
>> > objects—sentences are combinations of such names.——In this picture of
>> > language we find the roots of the following idea: Every word has a
>> meaning.
>> > This meaning is correlated with the word. It is the object for which the
>> > word stands. (Philosophical Investigations, I,1, Basil Blackwell Ltd,
>> > 1986).
>> > Insomma, quel che conta è la realtà, non il modo con cui la si
>> rappresenta.
>> > Vedo anch'io tante differenze fra noi e le macchine, sono meno ottimista
>> > sulla invincibilità della nostra fortezza e sull'ipotesi che la realtà
>> non
>> > esisterebbe senza noi, siamo una parte della realtà, non la realtà (in
>> > tutta umiltà: Protagora ci ha fregato).
>> > Cordialmente.
>> > Duccio (Alessandro Marzocchi)
>>
>>
>> ------------------------------
>>
>> Message: 3
>> Date: Thu, 12 Sep 2024 03:33:51 +0200
>> From: Giacomo Tesio <giac...@tesio.it>
>> To: nexa@server-nexa.polito.it
>> Subject: Re: [nexa] AI Training is Copyright Infringement
>> Message-ID: <20240912033351.4cf2f...@hermes.development.it>
>> Content-Type: text/plain; charset=UTF-8
>>
>> Caro Fabio,
>>
>> ho riflettuto a lungo se risponderti, perché non mi piace perdere tempo
>> e non mi sembri interessato a comprendere come funzionano i software di
>> cui parliamo. Non so perché, ma mi sembra evidente.
>>
>> Tuttavia, rispondendo a Duccio, mi sono reso conto che subite
>> la stessa confusione ("anfibolia"? :-D) e la lettura del paper
>> potrebbe svelare ad entrambi la dinamica dell' "imitation game"
>> che OpenAI & friends stanno "giocando".
>>
>> On Tue, 10 Sep 2024 12:07:53 Fabio Alemagna <falem...@gmail.com> wrote:
>>
>> > Io trovo che sia scientificamente interessante e persino
>> > strabiliante che un algoritmo che non è stato esplicitamente
>> > istruito per saper far di conto, riesca a far di conto entro
>> > una certa misura, semplicemente per essere stato allenato
>> > su tomi che spiegano come si fa di conto.
>>
>> Commentavi questo articolo: https://arxiv.org/pdf/2301.13867
>>
>> Leggiamo come è composto il dataset con cui hanno testato le
>> "competenze matematiche" dei LLM di OpenAI (pagina 4):
>>
>> - books that are widely used in universities to teach upper
>>   undergraduate or first-year graduate courses in a degree in
>>   mathematics
>> - math.stackexchange.com, a collection of books, and the
>>   MATH dataset
>> - the book Problem-Solving Strategies, that is often used
>>   to prepare for mathematical competitions
>> - il dataset di https://arxiv.org/abs/1912.01412 che contiene
>>   decine di esercizi... e le soluzioni.
>>
>>
>> Leggi con calma e rifletti: non noti niente?
>>
>>
>> Questi ricercatori NON hanno sottoposto a ChatGPT e GPT-4 problemi
>> inediti, ma problemi tratti da eserciziari disponibili in rete.
>>
>>
>> Ora, se immagini una qualche "intelligenza artificiale" alle prese con
>> tutti questi problemi, è ragionevole trovare i risultati sintetizzati
>> nell'abstract che avevo citato "strabilianti" [1].
>>
>> Ma se hai chiaro il processo di compilazione / compressione dei testi
>> sorgente che produce il LLM, trovi quei risultati piuttosto ovvi: il
>> LLM ha prodotto in output le soluzioni codificate nelle matrici
>> eseguibili.
>>
>>
>> Quale delle due spiegazioni passa il rasoio di Occam?
>>
>> 1. ChatGPT "è intelligente ma non si impegna"
>>
>> 2. ChatGPT è un archivio compresso eseguibile che contiene i problemi
>>    che gli sono stati sottposti ed ha "autocompletato" i problemi,
>>    con le soluzioni che li seguivano?
>>
>>
>> Che tu, Duccio e molti altri che non comprendono come funzionano questi
>> software programmati staticamente, vi facciate ingannare da questo
>> "imitation game" è purtroppo prevedibile e previsto.
>>
>> L'enorme quantità di testi compressi dentro GPT-4 (alcuni dei quali
>> mai pubblicati, come quelli prodotti dai giornalisti che fanno i
>> "chatbot helper" per arrotondare) rende estremamente improbabile
>> che un estratto venga servito a qualcuno che lo possa riconoscere.
>>
>>
>> In questo caso però, questo è proprio ciò che è successo!
>>
>> E che 8 ricercatori universitari non si siano accorti di aver
>> dimostrato il plagio [2] di decine di manuali sotto copyright [3]
>> rende _evidente_ quanti DANNI la favola della "intelligenza
>> artificiale", del "machine learning", delle "allucinazioni"
>> e stronzate varie stia facendo alla ricerca informatica
>> e al progresso dell'umanità.
>>
>>
>> E nota che non si tratta di persone impreparate.
>>
>> Ma le parole che usiamo per descrivere la realtà determinano
>> il nostro modo di intepretarla.
>>
>>
>> Non fatevi ingannare: l'intelligenza artificiale non esiste.
>> Le macchine non imparano, non hanno allucinazioni
>> e non funzionano assolutamente come un essere umano.
>>
>> Urge cambiare linguaggio.
>>
>>
>> Giacomo
>>
>> [1] non potevi scegliere un termine più appropriato! :-D
>>     https://www.etimo.it/?term=strabiliare
>>
>> [2] spacciando ChatGPT come una "intelligenza artificiale _generativa_"
>>     si/gli intesta la paternità delle soluzioni, sottraendola agli
>>     autori https://it.wikipedia.org/wiki/Plagio_(diritto_d'autore)
>>
>> [3] per altro, in un modo che esclude l'applicabilità del fair
>>     use negli USA, come ci ha spiegato benissimo Giancarlo qui
>>
>> https://server-nexa.polito.it/pipermail/nexa/2024-September/053236.html
>>     perché ChatGPT diventa un surrogato gratuito di quegli stessi testi,
>>     riducendone il valore di mercato
>>
>>
>> ------------------------------
>>
>> Subject: Digest Footer
>>
>> _______________________________________________
>> nexa mailing list
>> nexa@server-nexa.polito.it
>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>>
>>
>> ------------------------------
>>
>> End of nexa Digest, Vol 185, Issue 42
>> *************************************
>>
>

Reply via email to