Grazie, molto utile, l'approfondimento su Wysa.
Purtroppo, sui genuini progressi ottenuti con i sistemi di apprendimento automatico, si fondano centinaia di truffe, che mescolano quei progressi con pseudoscienze vecchie e nuove (dalla fisiognomica alla psicografia), con una concezione animistica e con l'indistinzione tra persone e cose (che sconvolse già Weizenbaum e che viola il diritto, nei paesi in cui qualche diritto umano sia costituzionalmente riconosciuto); per cui si affidano ai medesimi sistemi la manutenzione predittiva di un macchinario industriale, la predizione di un crimine, l'emissione di una sentenza e la cura di un disagio mentale . Il guaio è che i truffatori non sono singoli, isolati malfattori, ma quelle stesse grandi aziende che detengono i mezzi per i genuini progressi e che hanno finora ottenuto di spacciare prodotti insicuri o difettosi per agenti autonomi. E le istituzioni comunitarie che dovrebbero finanziare una ricerca pubblica e, parallelamente, vietare le truffe, assecondano invece la narrazione che sostiene le truffe (e anzi, declassate a agenzie pubblicitarie, si ripromettono solennemente di promuovere la fiducia dei cittadini nei SALAMI) e non finanziano a sufficienza la ricerca pubblica. Questo influenza anche i toni e gli accenti di chi si occupa del corrente upgrade del liberalismo punitivo con i SALAMI. Degli LLM, ad esempio, se non ci fossero truffe e politiche infami, quali il curare i più vulnerabili con un chatbot, non ci sarebbe bisogno di scrivere che sono pappagalli stocastici, per contrastare chi li presenta e li vende come esseri intelligenti, senzienti, empatici, e a breve anche morali , leali e allineati: potremmo stupirci dello straordinario progresso e discutere delle tesi di Roal Dahl o di Italo Calvino sulla letteratura come processo combinatorio. Buona domenica, Daniela ________________________________ Da: 380° <g...@biscuolo.net> Inviato: sabato 15 aprile 2023 17:06 A: Daniela Tafani Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] [Un'alternativa a] Pause Giant AI Experiments: An Open Letter Buongiorno, chiedo scusa ma mi è scappato un messaggio sostanzialmente vuoto... e chiedo scusa perché mi scappa un messaggio sostanzialmente lungo Daniela Tafani <daniela.taf...@unipi.it> writes: [...] > Quanto ai minori, ci sono paesi in cui li si affida consapevolmente a > un chatbot, proprio nei casi in cui abbiano bisogno di assistenza > mentale: > https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/ oh caspita, ignoravo Wysa... e stavo meglio quando ero ignorante :-D ...comunque: parliamone. https://www.wysa.com/ è un chatbot programmato per applicare la tecnica psicoterapeutica "Cognitive Behavioral Therapy" (CBT) [1] (a altre non dichiarate?) in modo automatizzato; Wisa nelle sue FAQ [2] la presenta come "the science behind the suggested techniques" Per carità di patria stendo un velo _pietosissimo_ sulle dichiarazioni di scientificità di alcune (molte?) ricerche in campo psicologico [3]: per discutere dei problemi dell'agente automatico /facciamo finta/ che il resto del lavoro sia basato su una teoria scientifica solida. Wysa sostiene nelle FAQ [2] di essere «an artificial intelligence-based 'emotionally intelligent' service»: "emotionally intelligent" non lascia dubbi a interpretazioni, significa essere in grado di /comprendere/ e /percepire/ le emozioni. Secondo questa visione, Wysa può quindi sostituire il terapeuta umano proprio perché, come l'umano, è in grado di comprendere e percepire le emozioni del paziente. In effetti pare che Wysa sia una specie di Borg specializzato in CBT, umano e robot insieme [2]: --8<---------------cut here---------------start------------->8--- Wysa has an artificial intelligence (AI) coach, it’s a pocket penguin that learns and grows wiser with you. Wysa's human Emotional Well-being professionals are mental health professionals trained to listen, support and encourage you. Together with the Wysa AI coach, Emotional Well-being Professional will support you in achieving your defined goals. --8<---------------cut here---------------end--------------->8--- La supercazzola antanica dello "human in ze loop" raggiunge livelli sublimi. Ovviamente, siccome sanno che stanno giocando col fuoco, mettono le mani avanti: --8<---------------cut here---------------start------------->8--- However, AI Coach is restricted in the means of response and the intended usage is for providing evidence-based tools and techniques to manage emotions and encourage mental well-being in a self-help context. It is not intended for providing diagnosis, treatment, or cure of a condition or disease or disorders. AI Coach cannot and will not offer advice on unrecognizable issues. [...] Wysa is not designed to assist with crises such as abuse, severe mental health conditions that may cause feelings of suicide, harm to self and any other medical emergencies. In any of these cases and otherwise, Wysa cannot and will not offer medical or clinical advice. It can only suggest that users seek advanced and professional medical help. --8<---------------cut here---------------end--------------->8--- Fin qui non ci vuole un genio per riuscire a discriminare il segnale (poco) dal rumore (tantissimo, studiato apposta per confondersi col segnale): si tratta /molto semplicemente/ di una istanza di ELIZA [4] on steroids, roba vecchia di almeno 60 anni nel suo "core business". Lo script DOCTOR (il più famoso) che funzionava su ELIZA applicava la tecnica "Rogerian psychotherapy" [5] mentre Wysa applica la CBT, in entrambi i sistemi il terapeuta viene sostituito dalla sua /reificazione/ e a tali sistemi sono state o vengono attribuite capacità di /intelligere/ le emozioni umane. La sola differenza tra DOCTOR e Wysa è che il secondo è stato programmato statisticamente mentre il primo in MAD-SLIP (e poi in tanti altri linguaggi): dal punto di vista informatico una notevole differenza ma ancora non sufficiente a giustificare le presunte capacità di essere "emotional intelligent" attribuite a Wysa. ...anche come vengono recepiti questi sismemi non è cambiato dagli anni '60 del secolo scorso E qui veniamo alle note più /pesanti/. > <https://www.digitalhealth.net/2022/09/wysa-ai-chatbot-teens-west-london/> Fosse solo questo (e questo è già troppo)! Il sistema sanitario britannoco lo sta adottando fare il triage automatizzato dei pazienti con possibili problemi psichiatrici https://www.wysa.com/nhs --8<---------------cut here---------------start------------->8--- This webinar shares the experience of Steps2Wellbeing (Dorset Healthcare) of using AI to reduce administration times, maximize clinical time, and improve access without increasing risk. Mayden’s Fiona Dawson will discuss the essential role that data flow and information sharing have in ensuring that - as we move toward a more digital future - we have an integrated and regulated ecosystem. [...] Wysa’s etriage for NHS talking therapy services provides faster access to support, creates a safer environment for patients and delivers more personalized care. Wysa’s AI chatbot guides patients through self-referral, releasing clinician referral admin time for care. Wysa shares real-time patient data with clinicians during the waiting period, to help identify high risk responses and flag for crisis attention via Mayden’s iaptus digital care record system. [...] Our users love Wysa. This engaging experience is what we are now bringing to the NHS. See it in action to find out how we are making talking therapies everything they should be, for both patients and clinicians. --8<---------------cut here---------------end--------------->8--- Nel Maggio 2022 Wysa ha ottenuto dalla FDA la /medaglia/ di [6] "FDA Breakthrough Device program" [7], che AFAIU fornisce una priorità nella revisione per ottenere l'approvazione. Ovviamente tutto questo è supportato da evidenza clinica basata su ricerca peer-reviewed https://www.wysa.com/clinical-evidence#5 --8<---------------cut here---------------start------------->8--- Wysa has more than 15 peer-reviewed publications in partnership with academic institutions such as Cambridge University, Harvard University and Washington University of St. Louis amongst others, demonstrating the efficacy of Wysa across multiple clinical concerns. Contact us for the entire list of our publications. --8<---------------cut here---------------end--------------->8--- Anche questo è già successo per ELIZA [8] https://link.springer.com/article/10.1007/s00146-018-0825-9 «The computational therapeutic: exploring Weizenbaum’s ELIZA as a history of the present» --8<---------------cut here---------------start------------->8--- Reporting that some psychiatrists believed the DOCTOR computer program could grow into a ‘nearly completely automatic form of psychotherapy’, Weizenbaum lamented that specialists in human to human interaction could ‘…view the simplest mechanical parody of a single interviewing technique as having captured anything of the essence of a human encounter’ (1976: 3). He concluded moreover, that such a response was only possible because the therapists concerned already had a view of the world as machine, and already thought of themselves as ‘information processor(s)’; the outlines of his engagement with behaviorism here begin to appear. [...] What is envisaged is a system where human-held principles or beliefs (for instance in justice, equality, or individual freedom) are increasingly regarded as irrelevant to the administration and/or governance of the society, or of the self. Governance is instead to be accomplished through the embedding of new mechanisms of cybernetic control that may produce resolution, and perhaps what might be termed ‘good order’, without recourse to human judgment. An over-reliance on computational logics could, in short, produce the kind of society in which failing to understand ‘what is distinctive about a human judge, or psychiatrist, what distinguishes them from a machine’ is not recognized as an obvious ‘obscenity’ (1976: 226). --8<---------------cut here---------------end--------------->8--- Toh: vuoi vedere che siamo dentro un loop ricorsivo di visione meccanicistica del mondo in cui le relazioni possono essere solo di tipo "behaviourist" (logico/comportamentalista) tra esseri umani (meat machines) alienati? (aka "The ovious obscenity") Dopotutto Time sintetizzò il pensiero di Skinner così: --8<---------------cut here---------------start------------->8--- …familiar to followers of Skinner, but startling to the uninitiated: we can no longer afford freedom, and so it must be replaced with control over man, his conduct, and his culture’. (Time, 1971). --8<---------------cut here---------------end--------------->8--- che effettivamente è (non sorprendentemente) parecchio simile all'ultimato Borg che recita --8<---------------cut here---------------start------------->8--- We are the Borg. Lower your shields and surrender your ships. We will add your biological and technological distinctiveness to our own. Your culture will adapt to service us. Resistance is futile. --8<---------------cut here---------------end--------------->8--- :-D [...] saluti, 380° [...] [1] https://en.wikipedia.org/wiki/Cognitive_behavioral_therapy [2] https://www.wysa.com/faq [3] https://en.wikipedia.org/wiki/Replication_crisis#In_psychology https://en.wikipedia.org/wiki/Cognitive_behavioral_therapy#Criticisms [4] https://en.wikipedia.org/wiki/ELIZA [5] https://en.wikipedia.org/wiki/Person-centered_therapy [6] https://blogs.wysa.io/blog/research/wysa-receives-fda-breakthrough-device-designation-for-ai-led-mental-health-conversational-agent [7] https://www.fda.gov/medical-devices/how-study-and-market-your-device/breakthrough-devices-program#s1 [8] https://doi.org/10.1097%2F00005053-196602000-00005 -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa