> GT: Nessun altro prende la tua testa, la apre e scrive nel tuo cervello una serie di dati a caso, misura quanto il tuo comportamento si discosta da quanto desidera e modifica un pochino quei dati, poi misura quanto il tuo comportamento si discosta da quanto desidera e modifica di nuovo un pochino quei dati, e ripete il procedimento milioni o miliardi di volte fin quando il tuo comportamento non si discosta più di un ε trascurabile da quanto desidera. > AM: Il comportamento del bambino che comincia a parlare è analogo, anche se non identico ai significati letterali delle tue parole. Si veda "mamma", da mmm fino alla corrispondenza (quasi) totale delle emissioni vocali di bambino e mamma. (Quasi) perchè è probabile che le impronte vocali resteranno differenti.
...nozioni quali "indottrinamento" vengono alla mente per confutare certe tesi. E ancora, possiamo pensare alle scuole telebane, l'addestramento dei bambini soldato, la rieducazione degli Uiguri, la gioventù nazzista...e ovviamente la società dei consumi di Baudrillard (e la *Propaganda* di Edward Bernays che l'ha favorita). La storia umana è storia in gran parte di teste aperte, scritte e riscritte, e modificate quando emergono "divergenze". Giancarlo On Thu, Sep 12, 2024 at 8:52 AM alessandro marzocchi <alemar...@gmail.com> wrote: > > Se la mia insistenza sul tema annoia o disturba, per favore avvisatemi e > continuo in privato con chi è disponibile. > *** > rif: vol 185, Issue 42 - Date: Thu, 12 Sep 2024 00:06:38 +0000 - From: > Giacomo Tesio <giac...@tesio.it> > *** > Grazie Giacomo ma non sono convinto. In calce si trova il testo integrale > del tuo ultimo intervento, ne estrapolo alcuni passi. > --- > > GT: Nessuna macchina lo saprà mai fare. > > AM: Su questo non ho dubbi ma equivale a dire che tu ed io non saremo > mai uguali. > Chiamerei "human learning" il processo che hai descritto > Chiameresti "intelligente" il comportamento acquisito. > --- > > GT: Nessun altro prende la tua testa, la apre e scrive nel tuo cervello > una serie di dati a caso, > misura quanto il tuo comportamento si discosta da quanto desidera e > modifica un pochino > quei dati, poi misura quanto il tuo comportamento si discosta da quanto > desidera e modifica di nuovo un pochino > quei dati, e ripete il procedimento milioni o > miliardi di volte fin quando il tuo comportamento non si discosta più di > un ε trascurabile > da quanto desidera. > > AM: Il comportamento del bambino che comincia a parlare è analogo, anche > se non identico ai significati letterali delle tue parole. Si veda "mamma", > da mmm fino alla corrispondenza (quasi) totale delle emissioni vocali di > bambino e mamma. (Quasi) perchè è probabile che le impronte vocali > resteranno differenti. > --- > > GT: La scelta di termini più appropriati è oggetto di un altro thread, > puoi star certo che > non c'è alcuna intelligenza dentro un LLM. > Si tratta di un software progettato per _sembrare_ intelligente, ma solo > a chi non sa come funziona. > > AM: Intelligenza: prima definiamola nel modo univoco il più possibile, > quest'ultima precisazione è una parte della prima affermazione: nessuno > sarà mai uguale a nessun altro, si vedano gemelli monovulari. > Sul "sembrare" intelligenti ricordo un film di Hal Ashby, fra gli ultimi > di Peter Sellers: Oltre il giardino, tutto un gioco fra non essere / essere > percepito, sembrare / forse essere? Da vedere, un paio d'ore godibilisseme. > --- > > GT: La natura del nostro apprendimento non è statistica: posso > spiegarti come contare > fino a 31 sulle dita di una mano senza fartelo vedere nemmeno una volta. > ... ... ... > > AM: Come "insegni" al tuo allievo "dito", "sollevare", "combinazione" > ...? > Come "insegni" al tuo allievo 0, 1, 2 eccetera? > Come gli "insegni" potenza? > --- > > GT: non solo non ti fornisco nemmeno un esempio (niente statistica), ma > non ti > sto insegnando come fare, ti ho solo detto come fare ad imparare. > > AM: Sicuro? Vedi sopra, resta fermo il tuo diritto ad affermare che (io) > sbaglio ma sono convinto che le cose non avvengono come (tu) le hai > descritte, questo penso per il cd mondo vivente, per le macchine tu e tutti > gli altri siete i miei maestri e per questa opera continuo a ringraziarvi. > ... se posso, invito a leggere Chalmers (Could a Large Language Model Be > Conscious? > https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/). > > --- > Sintesi telegrafica: quanto, come, dove noi umani siamo diversi dalle > macchine? (io) credo molto meno di quanto Giacomo ed altri affermano, > propongo di esaminare la questione " da fuori" non dal punto di vista > umano, ritengo che l'uomo misura tutte le cose ma NON E' la misura, la dico > brutta che non piace neppure a me: siamo oggetto, non soggetto. > Chiudo con una domanda: sarebbe possibile, ed anche facile, riordinare > alcuni temi con tutti gl'interventi evitando ripetizioni e con una > presentazione grafica ordinata, tale considerata a giudizio insindacabile > dell'uomo? Come scrive Giacomo, ed umilmente concordo, non siamo uguali > alle macchine :-). Ad esempio, trovo questa discussione molto interessante, > spero di riuscire a fare il riordino di cui sopra ma ... se lo facesse una > macchina ... > Infinitamente grazie e cordialità. > Duccio (Alessandro Marzocchi) > > Message: 2 >> Date: Thu, 12 Sep 2024 00:06:38 +0000 >> From: Giacomo Tesio <giac...@tesio.it> >> To: nexa@server-nexa.polito.it >> Subject: Re: [nexa] AI Training is Copyright Infringement >> Message-ID: <10d4c32b-0fba-4f95-b96d-db44aee2a...@tesio.it> >> Content-Type: text/plain; charset=utf-8 >> >> Caro Duccio, >> Quando tu impari, tu (soggetto) impari (verbo). >> >> Nessun altro prende la tua testa, la apre e scrive nel tuo cervello una >> serie di dati a caso, >> misura quanto il tuo comportamento si discosta da quanto desidera e >> modifica un pochino >> quei dati, poi misura quanto il tuo comportamento si discosta da quanto >> desidera e modifica di nuovo un pochino >> quei dati, e ripete il procedimento milioni o >> miliardi di volte fin quando il tuo comportamento non si discosta più di >> un ε trascurabile >> da quanto desidera. >> >> In un tale ipotetico processo, tu saresti un oggetto che subisce >> l'azione, >> non un soggetto che la compie. >> >> Chiameresti il processo che ho descritto "human learning"? >> Chiameresti "intelligente" il comportamento acquisito in questo modo? >> (ovvero tale che non si discosti statisticamente più ε da quello >> prestabilito) >> >> Se no, non hai ragione di chiamare "machine learning" il processo di >> sviluppo di un LLM >> come non hai ragione di chiamare "intelligenza artificiale" il risultato >> di tale processo. >> >> La scelta di termini più appropriati è oggetto di un altro thread, puoi >> star certo che >> non c'è alcuna intelligenza dentro un LLM. >> >> Si tratta di un software progettato per _sembrare_ intelligente, ma solo >> a chi non sa come funziona. >> >> La natura del nostro apprendimento non è statistica: posso spiegarti come >> contare >> fino a 31 sulle dita di una mano senza fartelo vedere nemmeno una volta. >> >> Il tuo pugno chiuso significa zero. >> Ad ogni dito associamo una potenza di due: >> - pollice = 1 >> - indice = 2 >> - medio = 4 >> - anulare = 8 >> - mignolo = 16 >> >> Solleva una qualsiasi combinazione di dita e somma i valori associati a >> ciascun dito: >> otterrai un numero fra 0 e 31. >> >> Ora, senza che io ti dica altro o ti mostri alcun esempio, puoi imparare >> da solo come >> mettere le varie combinazioni in ordine dal valore complessivo più >> piccolo, al più grande. >> >> Nota bene: non solo non ti fornisco nemmeno un esempio (niente >> statistica), ma non ti >> sto insegnando come fare, ti ho solo detto come fare ad imparare. >> >> Tu (soggetto) impari (verbo). >> Se vuoi. >> >> Nessuno ti butta conoscenza dentro il cervello. >> >> Nessuna macchina lo saprà mai fare. >> >> Giacomo >> >> >> Il 11 Settembre 2024 22:50:58 UTC, alessandro marzocchi ha scritto: >> > Sun, 08 Sep 2024 23:25:19 +0000 Giacomo Tesio <giac...@tesio.it >> Subject: >> > Re: [nexa] AI Training is Copyright Infringement >> > >> > > Direi piuttosto che fiumi di inchiostro sono stati versati per >> > > giustificare la ridefinizione di termini come "imparare" e >> "apprendere" >> > > affinché possano essere applicati alle macchine. >> > > >> > >> > ***** >> > E' autorevole, diffusa e prevalente la convinzione che noi uomini non >> siamo >> > confrontabili con queste macchine. >> > Eppure non mi convince, mi pare che il nostro modo di imparare è >> anch'esso >> > statistico, da pappagallo: ad esempio impariamo a dire mamma - >> > probabilmente è la nostra prima parola - perchè alla stessa associamo >> una >> > persona specifica ed arriviamo a questa associazione persona-parola dopo >> > una serie più o meno lunga di esperienze. >> > Dunque, secondo la mia convinzione personale, quando critichiamo la >> > macchina per il fondamento statistico basiamo la nostra critica su una >> > modalità che è anche umana. >> > Un'altra riflessione, sulla quantità di tempo e di esperienze prima di >> > arrivare alle capacità attuali di noi umani: credo nessuno abbia una >> > risposta, ma certamente abbiamo impiegato moltissimi anni, molte e molte >> > generazioni. >> > *David Chalmers* non afferma la coscienza delle macchine ma neppure la >> nega >> > per principio, in sintesi ritiene che esse hanno una qualche coscienza e >> > che progrediscono (Could a Large Language Model Be Conscious? >> > >> https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/ >> > ). >> > Sulla parola, *Ludwig Wittgenstein* aveva scritto opinioni interessanti >> > riferendole anche ad Agostino: The individual words in language name >> > objects—sentences are combinations of such names.——In this picture of >> > language we find the roots of the following idea: Every word has a >> meaning. >> > This meaning is correlated with the word. It is the object for which the >> > word stands. (Philosophical Investigations, I,1, Basil Blackwell Ltd, >> > 1986). >> > Insomma, quel che conta è la realtà, non il modo con cui la si >> rappresenta. >> > Vedo anch'io tante differenze fra noi e le macchine, sono meno ottimista >> > sulla invincibilità della nostra fortezza e sull'ipotesi che la realtà >> non >> > esisterebbe senza noi, siamo una parte della realtà, non la realtà (in >> > tutta umiltà: Protagora ci ha fregato). >> > Cordialmente. >> > Duccio (Alessandro Marzocchi) >> >> >> ------------------------------ >> >> Message: 3 >> Date: Thu, 12 Sep 2024 03:33:51 +0200 >> From: Giacomo Tesio <giac...@tesio.it> >> To: nexa@server-nexa.polito.it >> Subject: Re: [nexa] AI Training is Copyright Infringement >> Message-ID: <20240912033351.4cf2f...@hermes.development.it> >> Content-Type: text/plain; charset=UTF-8 >> >> Caro Fabio, >> >> ho riflettuto a lungo se risponderti, perché non mi piace perdere tempo >> e non mi sembri interessato a comprendere come funzionano i software di >> cui parliamo. Non so perché, ma mi sembra evidente. >> >> Tuttavia, rispondendo a Duccio, mi sono reso conto che subite >> la stessa confusione ("anfibolia"? :-D) e la lettura del paper >> potrebbe svelare ad entrambi la dinamica dell' "imitation game" >> che OpenAI & friends stanno "giocando". >> >> On Tue, 10 Sep 2024 12:07:53 Fabio Alemagna <falem...@gmail.com> wrote: >> >> > Io trovo che sia scientificamente interessante e persino >> > strabiliante che un algoritmo che non è stato esplicitamente >> > istruito per saper far di conto, riesca a far di conto entro >> > una certa misura, semplicemente per essere stato allenato >> > su tomi che spiegano come si fa di conto. >> >> Commentavi questo articolo: https://arxiv.org/pdf/2301.13867 >> >> Leggiamo come è composto il dataset con cui hanno testato le >> "competenze matematiche" dei LLM di OpenAI (pagina 4): >> >> - books that are widely used in universities to teach upper >> undergraduate or first-year graduate courses in a degree in >> mathematics >> - math.stackexchange.com, a collection of books, and the >> MATH dataset >> - the book Problem-Solving Strategies, that is often used >> to prepare for mathematical competitions >> - il dataset di https://arxiv.org/abs/1912.01412 che contiene >> decine di esercizi... e le soluzioni. >> >> >> Leggi con calma e rifletti: non noti niente? >> >> >> Questi ricercatori NON hanno sottoposto a ChatGPT e GPT-4 problemi >> inediti, ma problemi tratti da eserciziari disponibili in rete. >> >> >> Ora, se immagini una qualche "intelligenza artificiale" alle prese con >> tutti questi problemi, è ragionevole trovare i risultati sintetizzati >> nell'abstract che avevo citato "strabilianti" [1]. >> >> Ma se hai chiaro il processo di compilazione / compressione dei testi >> sorgente che produce il LLM, trovi quei risultati piuttosto ovvi: il >> LLM ha prodotto in output le soluzioni codificate nelle matrici >> eseguibili. >> >> >> Quale delle due spiegazioni passa il rasoio di Occam? >> >> 1. ChatGPT "è intelligente ma non si impegna" >> >> 2. ChatGPT è un archivio compresso eseguibile che contiene i problemi >> che gli sono stati sottposti ed ha "autocompletato" i problemi, >> con le soluzioni che li seguivano? >> >> >> Che tu, Duccio e molti altri che non comprendono come funzionano questi >> software programmati staticamente, vi facciate ingannare da questo >> "imitation game" è purtroppo prevedibile e previsto. >> >> L'enorme quantità di testi compressi dentro GPT-4 (alcuni dei quali >> mai pubblicati, come quelli prodotti dai giornalisti che fanno i >> "chatbot helper" per arrotondare) rende estremamente improbabile >> che un estratto venga servito a qualcuno che lo possa riconoscere. >> >> >> In questo caso però, questo è proprio ciò che è successo! >> >> E che 8 ricercatori universitari non si siano accorti di aver >> dimostrato il plagio [2] di decine di manuali sotto copyright [3] >> rende _evidente_ quanti DANNI la favola della "intelligenza >> artificiale", del "machine learning", delle "allucinazioni" >> e stronzate varie stia facendo alla ricerca informatica >> e al progresso dell'umanità. >> >> >> E nota che non si tratta di persone impreparate. >> >> Ma le parole che usiamo per descrivere la realtà determinano >> il nostro modo di intepretarla. >> >> >> Non fatevi ingannare: l'intelligenza artificiale non esiste. >> Le macchine non imparano, non hanno allucinazioni >> e non funzionano assolutamente come un essere umano. >> >> Urge cambiare linguaggio. >> >> >> Giacomo >> >> [1] non potevi scegliere un termine più appropriato! :-D >> https://www.etimo.it/?term=strabiliare >> >> [2] spacciando ChatGPT come una "intelligenza artificiale _generativa_" >> si/gli intesta la paternità delle soluzioni, sottraendola agli >> autori https://it.wikipedia.org/wiki/Plagio_(diritto_d'autore) >> >> [3] per altro, in un modo che esclude l'applicabilità del fair >> use negli USA, come ci ha spiegato benissimo Giancarlo qui >> >> https://server-nexa.polito.it/pipermail/nexa/2024-September/053236.html >> perché ChatGPT diventa un surrogato gratuito di quegli stessi testi, >> riducendone il valore di mercato >> >> >> ------------------------------ >> >> Subject: Digest Footer >> >> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >> >> >> ------------------------------ >> >> End of nexa Digest, Vol 185, Issue 42 >> ************************************* >> >