> From: maurizio lana <maurizio.l...@uniupo.it>
> To: nexa@server-nexa.polito.it
> Subject: Re: [nexa]  Perché Richard Stallman sbaglia in tema di
>    intelligenza artificiale
> 
> 
> Il 02/03/25 16:59, Guido Vetere ha scritto:
>> Io penso che a una moderna lessicografia questa cosa possa interessare
>> moltissimo. Prendiamo ad esempio il censimento e la registrazione
>> delle valenze verbali ('frame' se volete), che Sabatini e Coletti
>> hanno potuto (con fatica) solo abbozzare del loro famoso dizionario.
>> Oggi si potrebbe addestrare (fine-tuning) un modello anche piccolo e
>> 'open' per fargli estrarre frame verbali da qualsiasi frase su interi
>> corpora testuali con una certa accuratezza, e poi ci si potrebbe
>> divertire (so to say) a vedere come variano nelle dimensioni
>> temporali, sociali, ecc.
> ehmmm, ma questo in cosa differisce da quello che da tempo si può fare
> (ma quasi nessuno lo fa!) con qualsiasi programma o web service di
> analisi testuale: cooccorrenze, contesti, concordanza KWIC, ordinamento
> e selezione in base alle parole del contesto definito con ampiezza a
> piacere a monte e a valle della keyword (=parola cercata) ?

È quello che si è fatto per decenni senza riuscire a ottenere granché di 
sensato o utile.
Confronta per esempio cosa ottieni con le concordanze e cosa ottieni coi word 
embedding, in particolare quelli contestuali dei Trasformer.

—
> 
> 
> maurizio
> 

Reply via email to