> From: maurizio lana <maurizio.l...@uniupo.it> > To: nexa@server-nexa.polito.it > Subject: Re: [nexa] Perché Richard Stallman sbaglia in tema di > intelligenza artificiale > > > Il 02/03/25 16:59, Guido Vetere ha scritto: >> Io penso che a una moderna lessicografia questa cosa possa interessare >> moltissimo. Prendiamo ad esempio il censimento e la registrazione >> delle valenze verbali ('frame' se volete), che Sabatini e Coletti >> hanno potuto (con fatica) solo abbozzare del loro famoso dizionario. >> Oggi si potrebbe addestrare (fine-tuning) un modello anche piccolo e >> 'open' per fargli estrarre frame verbali da qualsiasi frase su interi >> corpora testuali con una certa accuratezza, e poi ci si potrebbe >> divertire (so to say) a vedere come variano nelle dimensioni >> temporali, sociali, ecc. > ehmmm, ma questo in cosa differisce da quello che da tempo si può fare > (ma quasi nessuno lo fa!) con qualsiasi programma o web service di > analisi testuale: cooccorrenze, contesti, concordanza KWIC, ordinamento > e selezione in base alle parole del contesto definito con ampiezza a > piacere a monte e a valle della keyword (=parola cercata) ? È quello che si è fatto per decenni senza riuscire a ottenere granché di sensato o utile. Confronta per esempio cosa ottieni con le concordanze e cosa ottieni coi word embedding, in particolare quelli contestuali dei Trasformer. — > > > maurizio >