Condivideresti le tue ansie più profonde con l’assistente virtuale Alexa? O chiederesti a Siri supporto mentale dopo una giornata terribile? I programmi di chatbot basati sull’intelligenza artificiale promettono di aiutarti quando le cose vanno male. Se ti fidi
Ci rivolgiamo sempre più agli assistenti virtuali su dispositivi intelligenti o su siti Web e app per ottenere le risposte che desideriamo. E man mano che questi sistemi basati sull’intelligenza artificiale (AI) diventano più sofisticati, iniziano anche a diventare degli oratori piuttosto capaci.
Ma questi programmi chatbot e psicologi possono essere efficaci? – è la domanda a cui cerca di rispondere esperti consultati dalla BBC.
Eugenia Kuyda, programmatrice e fondatrice di Replika, un’app chatbot americana, afferma che offre agli utenti “un compagno di intelligenza artificiale che si preoccupa, sempre lì per ascoltare e chattare, sempre al tuo fianco”.
L’applicazione è stata lanciata nel 2017 ora ha oltre due milioni di utenti attivi. Ognuno ha un chatbot o “replica” unico, poiché l’IA impara dalle conversazioni con l’utente e sviluppa un ego su misura per esso. Gli utenti possono persino creare il design dell’avatar per il loro chatbot.
Kuyda afferma che le persone che utilizzano l’app sono bambini con autismo che la vedono come un modo per prepararsi prima di avere interazioni umane reali e adulti che sono soli e hanno bisogno di un amico. Altri usano Replika per prepararsi a colloqui di lavoro, discutere di politica o persino usare il chatbot come consulente matrimoniale.
La richiesta di terapia è enorme
Sebbene l’app sia progettata specificamente per avere un amico o un compagno, lo sviluppatore afferma che ha anche benefici per la salute mentale, in quanto consente agli utenti di “costruire abitudini migliori e ridurre l’ansia”.
Replika è arrivata in un regno di buon auspicio: ci sono circa un miliardo di persone con disturbi mentali nel mondo, secondo l’Organizzazione Mondiale della Sanità (OMS) – questo significa una persona su dieci. E l’Oms precisa che “solo una piccola parte ha accesso a cure mediche efficaci, convenienti e di qualità”.
La terapia attraverso programmi di chatbot potrebbe aiutare molte persone. Il dottor Paul Marsden, membro della British Psychological Society, afferma che le app che migliorano l’umore possono essere utili, ma solo se trovi quella giusta e solo se la usi in modo limitato.
“Quando ho controllato c’erano 300 app solo per l’ansia… quindi come fai a sapere quale usare? Dovrebbero essere viste solo come un’aggiunta alla terapia di persona. non possono sostituire la terapia umana.” , lui dice.
Il dottor Marsden ammette, tuttavia, di essere attratto dal potere dell’intelligenza artificiale per rendere più efficace la terapia con chatbot: “Il supporto per la salute mentale si basa sulla terapia conversazionale e le conversazioni sono ciò che fanno i chatbot”.
Lo specialista sottolinea che le aziende in prima linea nello sviluppo di programmi chatbot basati su AI, come OpenAI, la società che ha recentemente sviluppato ChatGPT, stanno aprendo la loro tecnologia ad altri. Ciò consente alle app per la salute mentale di sfruttare le migliori risorse di intelligenza artificiale, “con la sua vasta conoscenza, la crescente capacità di pensare e le capacità di comunicazione efficaci”, per migliorare i propri chatbot.
Ma cosa succede se la relazione con un chatbot terapeuta diventa malsana?
I discorsi volgari hanno attirato la censura
Replika ha suscitato scalpore a febbraio quando è stato rivelato che alcuni utenti stavano avendo conversazioni volgari con il loro chatbot, secondo Cablato. La notizia è arrivata dopo che Luka, la società dietro l’app Replika, ha aggiornato il suo sistema di intelligenza artificiale per prevenire le chiacchiere sessuali.
Non tutti gli utenti erano contenti di questo cambiamento. Uno ha scritto su Reddit: “Coloro che trovano rifugio dalla solitudine e dalla guarigione attraverso l’intimità improvvisamente hanno scoperto che era artificiale non perché fosse un’intelligenza artificiale, ma perché era controllata dagli umani”.
La decisione di Luka potrebbe essere legata al fatto che l’agenzia italiana per la protezione dei dati ha vietato l’uso dei dati personali da parte dei programmi di intelligenza artificiale. Un’organizzazione italiana ha affermato che ChatGPT è stato utilizzato da giovani di età inferiore ai 18 anni che hanno richiesto “risposte che non erano affatto adeguate all’età”, aggiungendo che l’app potrebbe aumentare il rischio che alcune persone vengano lasciate indietro. stato. fragilità”.
La decisione potrebbe limitare l’utilizzo dell’app Replika in Italia e la società Luka potrebbe essere multata. La società ha annunciato che “sta lavorando a stretto contatto con i regolatori italiani e il dialogo si sta evolvendo positivamente”.
Jen Persson, attivista britannica per la privacy, afferma che è necessaria una regolamentazione globale dei terapisti virtuali e che le app terapeutiche dovrebbero essere classificate come prodotti per la salute e soggette agli standard di qualità e sicurezza del settore.
Eugenia Kuyda sostiene che Replika è più un compagno, come un cane, che uno strumento medico, e afferma che l’app non dovrebbe essere vista come un sostituto dell’aiuto di un terapista umano. “La terapia della vita reale offre un’incredibile visione della psiche umana, che non viene fatta solo attraverso testi e parole, ma anche incontrandosi di persona e vedendo il tuo linguaggio del corpo, reazioni emotive e un’incredibile conoscenza della tua storia”, ha spiegato.
Può essere fatto con meno IA
Altre app per la salute mentale sono più caute nell’uso dell’intelligenza artificiale. Una delle più conosciute è l’app di meditazione Headspace, con oltre 30 milioni di utenti. In Gran Bretagna è stato approvato dal Dipartimento della Salute.
“La nostra convinzione fondamentale e il nostro intero modello di business in Headspace Health è radicato nell’assistenza centrata sulle persone e guidata dalle persone: la connessione che i nostri membri hanno parlando con coach e terapisti tramite chat, video o online. nessuno è insostituibile”, afferma Russell Glass, amministratore delegato di Headspace.
Afferma che sebbene Headspace utilizzi l’intelligenza artificiale, lo fa “in modo molto selettivo” e conserva “un profondo coinvolgimento umano”. L’azienda non utilizza l’intelligenza artificiale nelle chat con gli utenti, solo per fornire consigli sui contenuti personalizzati o aiutare il personale umano a scrivere note.
Il dottor Marsden, tuttavia, è convinto che i terapisti di chatbot abbiano un futuro e faranno di meglio. “Le nuove tecnologie di chatbot di intelligenza artificiale sembrano aver sviluppato competenze per un efficace supporto alla salute mentale, inclusa l’empatia e la comprensione di come funziona la mente umana”.
Un recente studio condotto dalla Cornell University nello Stato di New York ha utilizzato ChatGPT in diversi test per vedere come le persone riescono a capire che gli altri potrebbero pensare in modo diverso. Il punteggio ottenuto dall’Intelligenza Artificiale era simile a quello dei bambini di nove anni. Questo è un grande passo avanti: prima questo tipo di empatia era considerato un tratto eminentemente umano.
TD
“Secchione dell’alcol. Lettore. Esperto di musica. Studente tipico. Giocatore umile e irritante. Esperto di zombi. Risolutore di problemi sottilmente affascinante.”