Re: [nexa] Oscurantismo Digitala [Era: ]

2023-04-20 Thread Paolo Del Romano
Il giorno gio 20 apr 2023 alle ore 07:02 M. Fioretti 
ha scritto:

> On Wed, Apr 19, 2023 20:47:38 PM +0200, Paolo Del Romano wrote:
>



> Dovrebbe dircelo innanzitutto LUI, no? Il giovane, come ha risposto o
> risponde a questa domanda?
>
>
il problema che io ponevo è perchè in tutti questi anni tutti i docenti di
informatica che sono capitati nella mia scuola hanno ritenuto non
meritevole di interesse lo studio e l'utilizzo di sw libero. Non credo che
sia un problema di un singolo docente. Negli anni passati si preferiva
addirittura diffondere copie illegali. Oggi con con il cloud e quindi con
Office 365 il problema è parzialmente risolto fino a quando l'alunno è
ancora studente e quindi usufruisce di licenze distribuite gratuitamente da
Microsoft agli alunni e docenti. Infatti il collega ha risposto dicendo che
per lui era più semplice utilizzare Office 365 visto che la maggior parte
dei libri di testo fa riferimento a questo sw.

20 anni  fa abbiamo avuto un preside illuminato (non informatico ma
laureato in filosofia) che con l'aiuto di qualche docente (non di
informatica che invece remavano contro ) e di qualche ex-studente ha fatto
riconvertire la maggior parte dei laboratori utilizzando macchine linux,
iniziando un'avventura che poi è stata interrotta con l'arrivo di un nuovo
dirigente scolastico che non ne capiva niente di informatica.

Paolo
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] Auto-GPT and BabyAGI: How ‘autonomous agents’ are bringing generative AI to the masses

2023-04-20 Thread don Luca Peyron
Armate di agenti autonomi ai nostri confini?

Buona lettura

dl

https://fastcompanyme.com/technology/auto-gpt-and-babyagi-how-autonomous-agents-are-bringing-generative-ai-to-the-masses/

_
don Luca Peyron
Direttore Ufficio per la Pastorale Universitaria
Arcidiocesi di Torino
www.universitari.to.it
via XX settembre 83, Torino
tel. 011 5156239
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] Oscurità digitale (alessandro marzocchi)

2023-04-20 Thread karlessi
Grazie per queste domande stimolanti. più che risposte, propongo alcune 
riflessioni, frutto delle formazioni di autodifesa digitale, pedagogia 
hacker ecc. che portiamo avanti da un paio di decadi con vari gruppi 
informali di ricerca. nel corpo del messaggio:



Message: 1
Date: Wed, 19 Apr 2023 23:51:15 +0200
From: alessandro marzocchi 
To: nexa@server-nexa.polito.it, giuseppe.atta...@unipi.it,
daniela.taf...@unipi.it, Giacomo Tesio ,
vetere.gu...@gmail.com
Subject: [nexa] Oscurità digitale
Message-ID:

Content-Type: text/plain; charset="utf-8"

Mi riferisco alle opinioni manifestate soprattutto da Beppe Attardi e
Giacomo Tesio, in qualche modo portabandiera di valutazioni opposte.
Qualche domanda sull'argomento.
* 1 *
il digitale incide oppure no in modo significativo sul nostro modo di
essere umani?
Ci fornisce oppure no "informazioni" che influenzano scelte finora
autonome?
A volte "decide" oppure no al nostro posto?


sì, "decide". ma come non esiste l'autonomia umana assoluta (sarebbe 
solipsismo psicotico), così "il digitale" non decide "al posto" nostro: 
decide "insieme" a noi, re-agendo insieme. "decide" nel senso che 
promuove attivamente determinate visioni del mondo perché re-agisce 
(ciberneticamente, retroattivamente) con vulnerabilità umane, zone 
sensibili personali e collettive di cui è importante avere 
consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati dalle 
interfacce, sensibilità personali, abitudini culturali, ecc.). In 
termini poetici e filosofici, i sistemi tecnici contemporanei hanno 
delle "voci", cioè dei demoni socratici che le muovono, e che evolvono. 
queste voci "spingono" (nudge, gamification) gli umani a reagire in un 
certo modo. OVVIAMENTE si può: resistere; imparare; smontare e 
rimontare; rifiutare; limitare la manipolazione; usare in maniera 
difforme (ma implica maggior sforzo); evolvere diversamente; ecc ecc


però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè non 
dipende solo dall'uso. I sistemi tecnici hanno affordances, che sono 
ideologicamente sviluppate. "Ideologico" nel senso di "portatore di una 
certa visione del mondo, con certe idee-cardine" (che possono cambiare 
nel tempo)


un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera a 
Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video. Infatti 
l'interfaccia dell'altro ieri NON E' come quella degli inizi:


https://web.archive.org/web/2023041809/https://www.youtube.com/

https://web.archive.org/web/20050614234128/http://www.youtube.com/

nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella 
prima, del 2023, è scomparsa. ciò mostra che la voce del demone di 
Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in 
maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a 
limitare gli stati di flusso in cui si interagisce "senza decidere" :D



* 2 *
la possibilità di "leggere il programma" è opportuna / necessaria?


IMHO è importante poter comprendere a grandi linee come funziona il 
programma e poter intervenire in quello svolgimento. se non 
direttamente, attraverso gli occhi e le competenze di qualcuno di cui ci 
fidiamo.


esempio assai istituzionale:

https://nextcloud.eucommeet.eu

è un H2020 di cui curiamo la parte tecnica. perché far la fatica di 
utilizzare una VM su OpenStack del GARR invece che un AWS o Azure public 
cloud? perché avvalersi di un accrocchio nextcloud + jitsi invece che M$ 
Teams, Google Suite, ecc.? si fa fatica, anche perché poi gli utenti si 
lamentano che "è più difficile da usare di Zoom, di google docs!"


(qualcuno direbbe: perché è GDPR compliant... ma tanto a quanto pare non 
è la preoccupazione principale dei progetti europei!)


personalmente non ho tempo, né voglia, né competenze per leggere TUTTO 
il programma. e nemmeno penso che Openstack o nextcloud o jitsi siano la 
panacea (anche perché il codice, soprattutto dell'ultimo... che caos!);


però continuo a pensare che sia meglio del software proprietario. 
soprattutto perché è possibile sviluppare una relazione alla pari con 
chi sviluppa e manutiene; forkare; fare altro sulla base dell'operato di 
chi è venuto prima di noi.


così come è possibile sviluppare una relazione alla pari, 
istituzionalmente e umanamente parlando, con le persone che stanno 
dietro alle macchine del GARR, e, in caso di problemi e necessità, 
chiedere a loro. Non è lo stesso tipo di relazione che si può sviluppare 
con Amazon, Google o Microsoft. è una questione di scalabilità federata 
umani-macchine, non di completa leggibilità/controllo del programma, IMHO.


inoltre, questa fatica ha un senso perché i denari pubblici dovrebbero 
come minimo tornare a favore del digitale pubblico e non di quello 
privato. Anche questa è, evidentemente, una ragione ideologica. Il 
mainstream attuale, governi compresi, fa esattamente l'inverso: con 
denari pubblici si finanzia il digitale privato perché "funziona meglio" 
ali

Re: [nexa] Oscurità digitale (alessandro marzocchi)

2023-04-20 Thread Alessandro Brolpito
Buongiorno,

Grazie per lo scambio, che trovo molto interessante.

Avrei un paio di domande, molto ampie:

1) esistono esempi di "modelli di business" sostenibili per il
mondo privato che garantisca un valore economico del "modello open" (che
non sia ad esclusivo carico della spesa pubblica/cittadini)?

2) esistono esempi di bandi/linee guida per l'istruzione pubblica nei quali
"il modello open" e' indicato formalmente come un criterio di qualità,
distintivo per la scelta di risorse (libri, educational software, ect.) per
l'istruzione e la formazione (obbligatoria)?

Grazie per ogni informazione a riguardo, Alessandro

On Thu, 20 Apr 2023 at 13:02, karlessi  wrote:

> Grazie per queste domande stimolanti. più che risposte, propongo alcune
> riflessioni, frutto delle formazioni di autodifesa digitale, pedagogia
> hacker ecc. che portiamo avanti da un paio di decadi con vari gruppi
> informali di ricerca. nel corpo del messaggio:
>
> > Message: 1
> > Date: Wed, 19 Apr 2023 23:51:15 +0200
> > From: alessandro marzocchi 
> > To: nexa@server-nexa.polito.it, giuseppe.atta...@unipi.it,
> >   daniela.taf...@unipi.it, Giacomo Tesio ,
> >   vetere.gu...@gmail.com
> > Subject: [nexa] Oscurità digitale
> > Message-ID:
> >   <
> cag5xczd0ombvjfnszcsfk_6a5uygxftn4hby4vj0pn7nze9...@mail.gmail.com>
> > Content-Type: text/plain; charset="utf-8"
> >
> > Mi riferisco alle opinioni manifestate soprattutto da Beppe Attardi e
> > Giacomo Tesio, in qualche modo portabandiera di valutazioni opposte.
> > Qualche domanda sull'argomento.
> > * 1 *
> > il digitale incide oppure no in modo significativo sul nostro modo di
> > essere umani?
> > Ci fornisce oppure no "informazioni" che influenzano scelte finora
> > autonome?
> > A volte "decide" oppure no al nostro posto?
>
> sì, "decide". ma come non esiste l'autonomia umana assoluta (sarebbe
> solipsismo psicotico), così "il digitale" non decide "al posto" nostro:
> decide "insieme" a noi, re-agendo insieme. "decide" nel senso che
> promuove attivamente determinate visioni del mondo perché re-agisce
> (ciberneticamente, retroattivamente) con vulnerabilità umane, zone
> sensibili personali e collettive di cui è importante avere
> consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati dalle
> interfacce, sensibilità personali, abitudini culturali, ecc.). In
> termini poetici e filosofici, i sistemi tecnici contemporanei hanno
> delle "voci", cioè dei demoni socratici che le muovono, e che evolvono.
> queste voci "spingono" (nudge, gamification) gli umani a reagire in un
> certo modo. OVVIAMENTE si può: resistere; imparare; smontare e
> rimontare; rifiutare; limitare la manipolazione; usare in maniera
> difforme (ma implica maggior sforzo); evolvere diversamente; ecc ecc
>
> però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè non
> dipende solo dall'uso. I sistemi tecnici hanno affordances, che sono
> ideologicamente sviluppate. "Ideologico" nel senso di "portatore di una
> certa visione del mondo, con certe idee-cardine" (che possono cambiare
> nel tempo)
>
> un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera a
> Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video. Infatti
> l'interfaccia dell'altro ieri NON E' come quella degli inizi:
>
> https://web.archive.org/web/2023041809/https://www.youtube.com/
>
> https://web.archive.org/web/20050614234128/http://www.youtube.com/
>
> nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella
> prima, del 2023, è scomparsa. ciò mostra che la voce del demone di
> Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in
> maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a
> limitare gli stati di flusso in cui si interagisce "senza decidere" :D
>
> > * 2 *
> > la possibilità di "leggere il programma" è opportuna / necessaria?
>
> IMHO è importante poter comprendere a grandi linee come funziona il
> programma e poter intervenire in quello svolgimento. se non
> direttamente, attraverso gli occhi e le competenze di qualcuno di cui ci
> fidiamo.
>
> esempio assai istituzionale:
>
> https://nextcloud.eucommeet.eu
>
> è un H2020 di cui curiamo la parte tecnica. perché far la fatica di
> utilizzare una VM su OpenStack del GARR invece che un AWS o Azure public
> cloud? perché avvalersi di un accrocchio nextcloud + jitsi invece che M$
> Teams, Google Suite, ecc.? si fa fatica, anche perché poi gli utenti si
> lamentano che "è più difficile da usare di Zoom, di google docs!"
>
> (qualcuno direbbe: perché è GDPR compliant... ma tanto a quanto pare non
> è la preoccupazione principale dei progetti europei!)
>
> personalmente non ho tempo, né voglia, né competenze per leggere TUTTO
> il programma. e nemmeno penso che Openstack o nextcloud o jitsi siano la
> panacea (anche perché il codice, soprattutto dell'ultimo... che caos!);
>
> però continuo a pensare che sia meglio del software proprietario.
> soprattutto perché è possibile sviluppare una relazio

Re: [nexa] Oscurità digitale (alessandro marzocchi)

2023-04-20 Thread giacomo

Ciao Karlessi,

ripercorro anche io le tue risposte (giacché sono, in effetti, risposte)
per metterle a confronto con quelle che darei io.

On 20.04.2023 11:01, karlessi wrote:

Date: Wed, 19 Apr 2023 23:51:15 +0200
* 1 *
il digitale incide oppure no in modo significativo sul nostro modo di
essere umani?
Ci fornisce oppure no "informazioni" che influenzano scelte finora
autonome?
A volte "decide" oppure no al nostro posto?


sì, "decide".


no, non decide.

il software calcola.

ripete pedissequamente, meccanicamente, la propria programmazione.
che tale programmazione sia ignota (per ragioni di licenza o per
inadeguatezza delle tecniche di programmazione adottate) è irrilevante.

il software effettua SEMPRE ed ESCLUSIVAMENTE ciò che è definito nel
proprio programma. anche quando modifica la propria configurazione
(che come osservava 380° in passato, è semplicemente una parte della
programmazione differita rispetto alla compilazione del binario), in
funzione dell'input ricevuto, tale variazione è predeterminata.

e di nuovo, il fatto che tale determinazione sia o pretenda di essere
irresponsabile, è totalmente irrilevante rispetto al fatto che sussista.

quand'anche un software fosse connesso ad una sorgente randomica in 
grado
di alterarne la configurazione per simulare una sorta di libero 
arbitrio,

la forma della configurazione stessa e la sua interpretazione da parte
del programma sarebbe comunque predeterminato.


dunque "il digitale" non decide. MAI.

Siamo sempre noi che interpretiamo il suo output.

Talvolta, in evidente stato confusionale, lo interpretiamo come 
"decisione"

ma non lo è: la decisione è SOLO nostra e dobbiamo assumercene la piena
responsabilità, perché siamo noi ad interpretare l'output.



ma come non esiste l'autonomia umana assoluta (sarebbe
solipsismo psicotico), così "il digitale" non decide "al posto"
nostro: decide "insieme" a noi, re-agendo insieme. "decide" nel senso
che promuove attivamente determinate visioni del mondo perché
re-agisce (ciberneticamente, retroattivamente) con vulnerabilità
umane, zone sensibili personali e collettive di cui è importante avere
consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati
dalle interfacce, sensibilità personali, abitudini culturali, ecc.).


No, non decide "il digitale", ma chi lo programma e lo integra nella
società cibernetica, distribuendolo, eseguendolo etc...



In termini poetici e filosofici, i sistemi tecnici contemporanei hanno
delle "voci", cioè dei demoni socratici che le muovono, e che
evolvono. queste voci "spingono" (nudge, gamification) gli umani a
reagire in un certo modo. OVVIAMENTE si può: resistere; imparare;
smontare e rimontare; rifiutare; limitare la manipolazione; usare in
maniera difforme (ma implica maggior sforzo); evolvere diversamente;
ecc ecc


Mi correggeranno i filosofi in lista, ma ho sempre inteso il demone di
Socrate come la sua Coscienza, qualcosa che agli automatismi manca.

Infatti, se non erro, Socrate diceva che il suo demone lo dissuadeva
dal fare ciò che stava per fare, ma non gli imponeva mai di fare 
qualcosa.



Il software non è una "voce interiore" dell'automatismo che lo incita
a resistere ai propri impulsi.

Il software determina completamente e precisamente ciò che l'automatismo
farà e ciò che non farà. E di conseguenza, determina completamente gli
effetti che avrà sull'ecosistema in cui viene introdotto e sulle persone
con cui interagirà.



però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè
non dipende solo dall'uso. I sistemi tecnici hanno affordances, che
sono ideologicamente sviluppate. "Ideologico" nel senso di "portatore
di una certa visione del mondo, con certe idee-cardine" (che possono
cambiare nel tempo)


Non dipende affatto dall'uso, perché l'uso stesso è pre-determinato.

Gli hacker sono in grado di alterare il funzionamento di tali artefatti
perché ne comprendono il funzionamento tanto da smontarli e rimontarli
in modo diverso.

Ma alla fine dell'hack, l'automatismo continuerà a ripetere 
pedissequamente

la volontà di chi l'ha programmato (in questo caso, l'hacker).


un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera
a Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video.
Infatti l'interfaccia dell'altro ieri NON E' come quella degli inizi:

https://web.archive.org/web/2023041809/https://www.youtube.com/

https://web.archive.org/web/20050614234128/http://www.youtube.com/

nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella
prima, del 2023, è scomparsa. ciò mostra che la voce del demone di
Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in
maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a
limitare gli stati di flusso in cui si interagisce "senza decidere" :D


Bell'esempio, pessima interpretazione. :-)


YouTube non è "evoluto": è stato sostituito con una nuova versione.

E' un software, non ha una identità.

GOOGLE, che lo realizza e amministra, decide

[nexa] EC - two proposals for a Council Recommendation in the context of the European Year of Skills

2023-04-20 Thread Alessandro Brolpito
Salve, condivido, appena pubblicate, 18/04.

Cordialmente, Alessandro


>>

The Commission adopted two proposals for a Council Recommendation in the
context of the European Year of Skills
,
with the aim to support Member States and the education and training sector
in providing high-quality, inclusive and accessible digital education and
training to develop the digital skills of European citizens.

The proposals address the two main common challenges jointly identified by
the Commission and EU Member States: 1) the lack of a whole-of-government
approach to digital education and training, and 2) difficulties in
equipping people with the necessary digital skills.

For more details:

   - Press release
   

   - Factsheet
   

   on improving the provision of digital skills in education and training
   - Factsheet
   

   on the key enabling factors for successful digital education and training
   - Factsheet
   

   on the Pilot for a European Skills Certificate
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] AI-generated songs

2023-04-20 Thread Ugo Pagallo
Nexiane/i,

da qualche giorno una canzone caricata su Tik-Tok sta scatenando un
pandemonio. Il fronte del copyright e annessi come vedrete dai link
rientrano ancora una volta in fibrillazione per via dell'IA...
Un'utile introduzione in
https://www.bbc.com/news/entertainment-arts-65298834
Spotify e Apple sembrano già averla, come dire?, censurata:
https://www.bbc.com/news/entertainment-arts-65309313
La canzone (che poi non è male ;-) è ancora su youtube:
https://www.youtube.com/watch?v=QTf3UtKlA0M
Se la cosa può interessare, il DJ francese David Guetta dichiara che 'the
future of music is in AI' -
https://www.bbc.com/news/entertainment-arts-64624525
Il dibattito è (stato) aperto.
u.
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


[nexa] a proposito di "non e' AI che fa cose, ma le persone che la controllano"

2023-04-20 Thread Marco Fioretti
e quindi (per fortuna) sono i rapporti di potere e non fra le persone, quelli 
che contano,
segnalo la discussione appena iniziata sul tema "Should open source allow AI 
training?"
https://news.ycombinator.com/item?id=35643715 
(https://news.ycombinator.com/item?id=35643715)
   Marco

-- 

NO, AI non ci uccidera' tutti, al limite NOI ci faremo uccidere da AI educate 
come certi bambini:
https://mfioretti.substack.com/p/weve-raised-ai-just-like-we-raised 
(https://mfioretti.substack.com/p/weve-raised-ai-just-like-we-raised)
___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


Re: [nexa] a proposito di "non e' AI che fa cose, ma le persone che la controllano"

2023-04-20 Thread Daniela Tafani
Ezra Klein ha scritto, qualche settimana fa:


In 2021, I interviewed Ted Chiang, one of the great living sci-fi writers. 
Something he said to me then keeps coming to mind now.
“I tend to think that most fears about A.I. are best understood as fears about 
capitalism,” Chiang told me.
“And I think that this is actually true of most fears of technology, too.
Most of our fears or anxieties about technology are best understood as fears or 
anxiety about how capitalism will use technology against us.
And technology and capitalism have been so closely intertwined that it’s hard 
to distinguish the two.”
[...]
I might [...] alter Chiang’s comment one more time:
Most fears about capitalism are best understood as fears about our inability to 
regulate capitalism.


https://www.nytimes.com/2023/02/26/opinion/microsoft-bing-sydney-artificial-intelligence.html




Da: nexa  per conto di Marco Fioretti 

Inviato: giovedì 20 aprile 2023 20:30
A: Nexa
Oggetto: [nexa] a proposito di "non e' AI che fa cose, ma le persone che la 
controllano"

NO, AI non ci uccidera' tutti, al limite NOI ci faremo uccidere da AI educate 
come certi bambini:
https://mfioretti.substack.com/p/weve-raised-ai-just-like-we-raised




___
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa