Giuseppe, per quello che posso giudicare avendo assistito alle prime fasi della vicenda, il problema non è nel fatto che il Watson vincitore in Jeopardy non usava le DNN (per ovvi motivi storici), ma che le tecniche di question answering non vanno proprio bene per quel task, e credo che la cosa non cambierebbe con i transformers di oggi, neanche con language models specialistici e fine-tuned. Ci sono conoscenze di concetti e di nessi causali che semplicemente non si evincono dai dati o dai testi. " Rather, the problem was one of meaning", indeed! Il capo ricercatore di Watson for Jeopardy cercò di avvertire la CEO proprio di questo, ma gli fu risposto che era un disfattista e fu messo alla porta.
G. On Mon, 31 Jan 2022 at 17:07, Giuseppe Attardi <atta...@di.unipi.it> wrote: > Ci sono alcune spiegazioni a questo esito. > > Prima di tutto Watson era basato su tecnologie di 20 anni fa, ormai > obsolete con l’avvento del Deep Learning, e dei Transformer Model allenati > su enormi collezioni di testi non annotati. > Poi i modelli attuali di ML sono efficaci solo su task molto specifici. > Credo Watson non fosse in grado di mettere insieme conoscenze da diverse > fonti: i successi sbandierati riguardavano casi molto rari di malattie che > riusciva a individuare sulla base di una ricerca sui testi di letteratura > medica. > > Oggi si stanno svilupoando sistemi basati su transformers in grado di > svolgere contemporaneamente più task, analizzando insieme testi, immagini > AWHY in modalità end-to-end. > Questo però richiede corpora di allenamento misti e ben annotati, ciò che > chiamo Human-in-the-loop e che distingue l’AI dalla semplice statistica, > che ancora non sono facili da trovare, specialmente nel settore medico, a > causa di questioni di privacy. Insomma occorre trasferire le competenze > umane attraverso l’apprendimento dal comportamento degli esperti umani, che > si basano su segnali diversi e svariati. > > IBM aveva tentato di accaparrarsi tali dati con un accordo molto criticato > col NHS britannico. In Iitalia aveva tentato la stessa operazione con lo > Human Technopole. > Mi risulta che la ASL di Bolzano abbia acquistato una versione di Watson, > salvo poi accorgersi che Watson era allenato solo su testi inglesi. > > In definitiva, le potenzialità per l’AI nel campo medico sono enormi, e > stanno già producendo significativi progressi in campi come la selezione di > molecole, la sintesi di farmaci, ecc. , mentre le applicazioni alla > diagnosi sono più lontane. > > — Beppe > > > On 31 Jan 2022, at 12:00, nexa-requ...@server-nexa.polito.it wrote: > > > > From: Enrico Nardelli <narde...@mat.uniroma2.it> > > To: Nexa <nexa@server-nexa.polito.it> > > Subject: [nexa] IBM Watson: an interesting lesson learned in AI/ML in > > medicine > > Message-ID: <b0ea1988-c601-2834-2b5a-67b462940...@mat.uniroma2.it> > > Content-Type: text/plain; charset=UTF-8; format=flowed > > > > > > It started in Jeopardy and ended in loss. IBM's flagship AI Watson > Health has been sold to venture capitalists for an undisclosed sum thought > to be around a billion dollars, or a quarter of what the division cost IBM > in acquisitions alone since it was spun off in 2015. > > > > ... > > > > When clinical trials were published, Watson came up short every time. It > didn't matter what field it was in, it consistently scored less well than > human clinicians – sometimes under 50 per cent – and demonstrated some > alarming blind spots in suggested treatments. Medical professionals had > enough to worry about without babysitting a broken AI: it got dropped. > > > > ... > > > > IBM's Watson Health failed at the time, like so much AL/ML, because it > didn't know what the question was – ironic, since the game of Jeopardy at > which it excelled is all about deducing questions from data. It wanted to > automate the highest skilled aspects of healthcare, diagnosis and > treatment, but the problem wasn't one of getting the most data and the best > algorithm. Rather, the problem was one of meaning. > > > > ... > > > > Fortunately, this sad case does not mean AI-based tools can't work in > medicine, nor even that Watson Health won't do so, nor that AIs' evaluation > and adoption has been slowed down. Ask the right questions, such as "why do > some patients get readmitted" and can you spot them early?, and you get the > right answers. AI in healthcare is being adopted, and it shows every sign > of deserving its place. > > > > ... > > > > https://www.theregister.com/2022/01/31/machine_learning_the_hard_way/ > > > > > > -- EN > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa