Buonguiorno,

Roberto Dolci <rob.do...@aizoon.us> writes:

> Particolare questo ragionamento. Immagino tu sappia guidare in
> sicurezza, senzimprobable. Cosa molto probabile.

grazie per la figura retorica, le query by example talvota sono efficaci
per focalizzare la natura del problema

in merito alla "guida in sicurezza", la risposta completa è: "dipende
_totalmente_ dalle esperienze di guida che ciascuno di noi ha avuto,
considerando che il corso (pratico) di guida sicura non è obbligatorio"

non apriamo poi nemmeno di striscio il capitolo "codice della strada" in
materia di sicurezza stradale, perché è un ginepraio... torniamo a bomba!

in questo contesto vale la pena ricordare che a mio modesto avviso (non
credo di essere l'unico) è pragmaticamente impossibile codificare le
"regole di guida sicura" in un software, men che meno se statisticamente
programmato (perché in quel caso le regole semplicemente _non
esisterebbero_).

detto questo: usare un sistema LLM - ovvero usare gli output che genera
sulla base di una interazione uomo-macchina ottenuta attraverso una
_determinata_ interfaccia - dal punto di vista _informatico_ equivale a
"guidare la macchina (il computer)"?

non credo proprio, anche se il 99% degli utenti è convinto di stare
"guidando" il proprio computer

informaticamente parlando, è chi la programma che "guida la macchina"

> Conosci la corretta formula della benzina ed il rapporto di
> compressione nel cilantro? Assai improbabile.

Giacomo, io e te /forse/ non conosciamo la formula della benzina [1] e
il rapporto di compressione [2] del motore endotermico MA quella
informazione è _liberamente_ disponibile a ogni persona che ne avesse
bisogno, tra l'altro è (ehrm: dovrebbe essere) un principio fondamentale
della scienza.

Nel caso degli LLM, invece, è _impossibile_ conoscere il "rapporto di
compressione" dell'informazione:

--8<---------------cut here---------------start------------->8---

Computer  scientists argue  that  AI  belongs to  a  subfield of  signal
processing, that is data compression.

--8<---------------cut here---------------end--------------->8---
(https://fritz.ai/nooscope/#nooscope-ref-12-bottom)

...perché "sapere NON è dato" di quali sono gli _ingredienti_ di certi
LLM _proprietari_

> Se tu divessi imparare a condurre un veicolo come usi un LLM saresti
> ancora in officina

interessante il cambio di prospettiva tra "condurre un veicolo" e "usare
un LLM": perché non "condurre un LLM"?!?

in ogni caso, qui NON si tratta di "condurre un veicolo" ma di
_progettare_ e immettere un veicolo in circolazione

se gli LLM sono usati per automatizzare il processo decisionale, come
MINIMO chi li usa deve dimostrare a chi quel processo decisionale viene
_imposto_ che la progettazione e l'implementazione di quel LLM è
_debuggubile_ (per usare in inglesismo)... ma è _impossibile_.

se gli LLM sono usati per imparare a tradurre dal latino in inglese,
beh: auguri!  (sì perché _al massimo_ servono per permettere agli
studenti di verificare quanto hanno già imparato, o MENO, nel loro
"processo linguistico di traduzione"... ovvero, per capire se funziona
serve che una _persona_ sappia già come funziona /fuori/ dalla macchina
:-O )

quindi: /se/ le traduzioni automatiche devono essere _verificate_,
perché non dovrebbero esserlo le _decisioni_ automatiche (cioè: non
esistono decisioni automatiche)

[...]

saluti, 380°


[1] https://it.wikipedia.org/wiki/Benzina

[2] https://it.wikipedia.org/wiki/Rapporto_di_compressione

-- 
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about <https://stallmansupport.org>.

Attachment: signature.asc
Description: PGP signature

Reply via email to