- Scritto da Jane Wakefield
- giornalista tecnologico
Alexa condividerà la tua profonda preoccupazione? O forse chiedere a Siri un supporto emotivo dopo una giornata particolarmente stressante?
Ci rivolgiamo sempre più ai chatbot su smart speaker o siti Web e app per rispondere alle domande.
E poiché questi sistemi, alimentati da software di intelligenza artificiale, diventano sempre più complessi, stanno iniziando a fornire risposte valide e dettagliate.
Ma questi chatbot diventeranno mai abbastanza umanoidi da diventare efficaci guaritori?
La programmatrice di computer Eugenia Koeda è la fondatrice di Replika, un’app chatbot americana che, secondo lui, offre agli utenti “un compagno di intelligenza artificiale che si preoccupa, sempre qui per ascoltare e parlare, sempre al tuo fianco”.
È stato lanciato nel 2017 e ora ha più di 2 milioni di utenti attivi. Ognuno ha il proprio chatbot o “riconfiguratore”, come l’IA apprende dalle loro conversazioni. Gli utenti possono anche progettare il proprio avatar di cartoni animati per il proprio chatbot.
La signora Koeda afferma che le persone che utilizzano l’app vanno dai bambini autistici che si rivolgono ad essa come un modo per “riscaldarsi prima delle interazioni umane”, agli adulti che si sentono soli e hanno bisogno di un amico.
Secondo quanto riferito, altri usano Replika per esercitarsi per colloqui di lavoro, per parlare di politica o anche come consulente matrimoniale.
E sebbene l’app sia progettata principalmente per essere un amico o un compagno, afferma anche che può giovare alla tua salute mentale, ad esempio consentendo agli utenti di “costruire abitudini migliori e ridurre l’ansia”.
L’Organizzazione mondiale della sanità aggiunge che “solo una piccola parte di coloro che ne hanno bisogno ha accesso a cure per la salute mentale efficaci, convenienti e di alta qualità”.
E mentre chiunque si prenda cura di se stesso o di una persona cara dovrebbe in primo luogo consultare un medico, la crescita dei terapisti della salute mentale chatbot può offrire a molte persone un gradito supporto.
Le app volte a migliorare la tua salute mentale possono aiutarti, afferma il dottor Paul Marsden, membro della British Psychological Association, ma solo se trovi l’app giusta, e solo in modo limitato.
“Quando ho guardato, c’erano solo 300 app di cui preoccuparsi… quindi come fai a sapere quale usare?”
“Dovrebbero essere viste solo come un complemento alla terapia personalizzata. Il consenso è che le app non sostituiscono la terapia umana”.
Eppure, allo stesso tempo, il dottor Marsden afferma di essere entusiasta del potere dell’intelligenza artificiale per rendere più efficaci i chatbot terapeutici. “Il supporto per la salute mentale si basa sulla terapia della parola e parlare è ciò che fanno i chatbot”, afferma.
Il dottor Marsden sottolinea il fatto che le principali società di chatbot di intelligenza artificiale come OpenAI, la società dietro ChatGPT che ha recentemente conquistato i titoli dei giornali, stanno aprendo la loro tecnologia ad altri.
Ciò consente alle app per la salute mentale, afferma, di utilizzare la migliore intelligenza artificiale “con la sua vasta conoscenza, la maggiore capacità di ragionamento e le eccezionali capacità di comunicazione” per alimentare i loro chatbot. Replica è una di queste società che utilizza già la tecnologia OpenAI.
The New Technological Economy è una serie che esplora come l’innovazione tecnologica è destinata a plasmare il nuovo panorama economico emergente.
Le notizie sono emerse dopo che Luka, la società dietro Replica, ha aggiornato il proprio sistema di intelligenza artificiale per impedire tali scambi sessuali.
Non tutti gli utenti sono contenti di questa modifica. “Le persone che avevano trovato rifugio dalla solitudine, guarendo attraverso l’intimità, improvvisamente l’hanno trovata artificiale non perché fosse un’intelligenza artificiale ma perché era controllata dalle persone”, ha scritto uno su Reddit.
Il watchdog italiano ha affermato che l’app era utilizzata da persone di età inferiore ai 18 anni che avevano ricevuto “risposte del tutto inappropriate per la loro età”. Ha aggiunto che l’app potrebbe anche “aumentare i rischi per le persone che sono ancora in una fase di sviluppo o in uno stato emotivo ‘fragile'”.
Questa mossa potrebbe limitare l’uso di Replica in Italia, e Luca potrebbe essere multato. Dice che sta “lavorando a stretto contatto con le autorità di regolamentazione italiane e i colloqui stanno procedendo positivamente”.
Jane Pearson, un’attivista per la privacy online con sede nel Regno Unito, afferma che è necessaria una maggiore regolamentazione globale dei gestori di chatbot.
Aggiunge: “Le aziende di intelligenza artificiale che rivendicano prodotti sull’identificazione o il supporto della salute mentale, o progettati per influenzare il tuo stato emotivo o la tua salute mentale, dovrebbero essere classificate come prodotti per la salute e di conseguenza soggette a standard di qualità e sicurezza”.
La signora Koeda sostiene che Replica è un compagno, come possedere un animale domestico, piuttosto che uno strumento di salute mentale. Aggiunge che non dovrebbe essere visto come un sostituto dell’aiuto di un terapista umano.
“La terapia della realtà fornisce incredibili intuizioni sulla psiche umana che non sono solo attraverso il testo o le parole, ma vedendoti di persona, vedendo il tuo linguaggio del corpo e le risposte emotive, oltre ad avere un’incredibile conoscenza della tua storia”, dice.
Altre app nel settore della salute mentale sono più caute nell’usare l’IA in primo luogo. Una di queste app è l’app di meditazione Headspace, che ha oltre 30 milioni di utenti e nel Regno Unito è approvata dal NHS.
“La nostra convinzione fondamentale e l’intero modello di business di Headspace Health è l’assistenza guidata dall’uomo e incentrata sull’uomo: il rapporto che i nostri membri hanno attraverso conversazioni dal vivo con coach e terapisti tramite chat, video o di persona è insostituibile”, afferma Headspace President. Dirigente Russell Glass.
Aggiunge che mentre Headspace utilizza un’intelligenza artificiale, lo fa “in modo molto selettivo”, pur mantenendo una “profondità di coinvolgimento umano”. La società non utilizza l’intelligenza artificiale per chattare con gli utenti, invece Glass afferma di utilizzarla solo per cose come fornire agli utenti consigli sui contenuti personalizzati o aiutare gli operatori sanitari umani a digitare i loro appunti.
Tuttavia, il dottor Marsden afferma che i chatbot terapeutici basati sull’intelligenza artificiale continueranno a migliorare. “Sembra che la nuova tecnologia di chatbot AI stia sviluppando capacità per un efficace supporto alla salute mentale, inclusa l’empatia e la comprensione di come funziona la mente umana”, afferma.
I suoi commenti vengono dopo Un recente studio condotto dalla Cornell University Nello Stato di New York, ChatGPT è stato sottoposto a una serie di test per verificare quanto bene le persone capiscano che gli altri potrebbero pensare in modo diverso. I punteggi AI erano equivalenti a quelli di un bambino di nove anni.
In precedenza, questo tipo di empatia cognitiva era visto come unicamente umano.