Buonguiorno, Roberto Dolci <rob.do...@aizoon.us> writes:
> Particolare questo ragionamento. Immagino tu sappia guidare in > sicurezza, senzimprobable. Cosa molto probabile. grazie per la figura retorica, le query by example talvota sono efficaci per focalizzare la natura del problema in merito alla "guida in sicurezza", la risposta completa è: "dipende _totalmente_ dalle esperienze di guida che ciascuno di noi ha avuto, considerando che il corso (pratico) di guida sicura non è obbligatorio" non apriamo poi nemmeno di striscio il capitolo "codice della strada" in materia di sicurezza stradale, perché è un ginepraio... torniamo a bomba! in questo contesto vale la pena ricordare che a mio modesto avviso (non credo di essere l'unico) è pragmaticamente impossibile codificare le "regole di guida sicura" in un software, men che meno se statisticamente programmato (perché in quel caso le regole semplicemente _non esisterebbero_). detto questo: usare un sistema LLM - ovvero usare gli output che genera sulla base di una interazione uomo-macchina ottenuta attraverso una _determinata_ interfaccia - dal punto di vista _informatico_ equivale a "guidare la macchina (il computer)"? non credo proprio, anche se il 99% degli utenti è convinto di stare "guidando" il proprio computer informaticamente parlando, è chi la programma che "guida la macchina" > Conosci la corretta formula della benzina ed il rapporto di > compressione nel cilantro? Assai improbabile. Giacomo, io e te /forse/ non conosciamo la formula della benzina [1] e il rapporto di compressione [2] del motore endotermico MA quella informazione è _liberamente_ disponibile a ogni persona che ne avesse bisogno, tra l'altro è (ehrm: dovrebbe essere) un principio fondamentale della scienza. Nel caso degli LLM, invece, è _impossibile_ conoscere il "rapporto di compressione" dell'informazione: --8<---------------cut here---------------start------------->8--- Computer scientists argue that AI belongs to a subfield of signal processing, that is data compression. --8<---------------cut here---------------end--------------->8--- (https://fritz.ai/nooscope/#nooscope-ref-12-bottom) ...perché "sapere NON è dato" di quali sono gli _ingredienti_ di certi LLM _proprietari_ > Se tu divessi imparare a condurre un veicolo come usi un LLM saresti > ancora in officina interessante il cambio di prospettiva tra "condurre un veicolo" e "usare un LLM": perché non "condurre un LLM"?!? in ogni caso, qui NON si tratta di "condurre un veicolo" ma di _progettare_ e immettere un veicolo in circolazione se gli LLM sono usati per automatizzare il processo decisionale, come MINIMO chi li usa deve dimostrare a chi quel processo decisionale viene _imposto_ che la progettazione e l'implementazione di quel LLM è _debuggubile_ (per usare in inglesismo)... ma è _impossibile_. se gli LLM sono usati per imparare a tradurre dal latino in inglese, beh: auguri! (sì perché _al massimo_ servono per permettere agli studenti di verificare quanto hanno già imparato, o MENO, nel loro "processo linguistico di traduzione"... ovvero, per capire se funziona serve che una _persona_ sappia già come funziona /fuori/ dalla macchina :-O ) quindi: /se/ le traduzioni automatiche devono essere _verificate_, perché non dovrebbero esserlo le _decisioni_ automatiche (cioè: non esistono decisioni automatiche) [...] saluti, 380° [1] https://it.wikipedia.org/wiki/Benzina [2] https://it.wikipedia.org/wiki/Rapporto_di_compressione -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
signature.asc
Description: PGP signature