¿Compartirías tu ansiedad más profunda con Alexa? ¿O tal vez pedirle apoyo emocional a Siri después de un día particularmente estresante?
Por: Jane Wakefield – BBC
Estamos recurriendo cada vez más a chatbots en parlantes inteligentes o sitios web y aplicaciones para responder preguntas.
Y a medida que estos sistemas, impulsados por software de inteligencia artificial (IA), se vuelven cada vez más sofisticados, comienzan a brindar respuestas bastante decentes y detalladas.
Pero, ¿alguna vez estos chatbots serán lo suficientemente humanos como para convertirse en terapeutas efectivos?
La programadora de computadoras Eugenia Kuyda es la fundadora de Replika, una aplicación de chatbot de EE. UU. que dice que ofrece a los usuarios un «compañero de IA que se preocupa, siempre aquí para escuchar y hablar, siempre de su lado».
Lanzado en 2017, ahora tiene más de dos millones de usuarios activos. Cada uno tiene un chatbot o «replika» exclusivo para ellos, ya que la IA aprende de sus conversaciones. Los usuarios también pueden diseñar su propio avatar de dibujos animados para su chatbot.
La Sra. Kuyda dice que las personas que usan la aplicación van desde niños autistas que recurren a ella como una forma de «calentarse antes de las interacciones humanas», hasta adultos que simplemente se sienten solos y necesitan un amigo.
Se dice que otros usan Replika para practicar para entrevistas de trabajo, para hablar sobre política o incluso como consejero matrimonial.
Y aunque la aplicación está diseñada principalmente para ser un amigo o compañero, también afirma que puede ayudar a beneficiar su salud mental, por ejemplo, al permitir que los usuarios «construyan mejores hábitos y reduzcan la ansiedad».
En todo el mundo hay casi mil millones de personas con un trastorno mental, según la Organización Mundial de la Salud (OMS). Eso es más de una persona de cada 10.
La OMS agrega que «solo una pequeña fracción de las personas necesitadas tiene acceso a una atención de salud mental efectiva, asequible y de calidad».
Y si bien cualquier persona preocupada por sí misma o por un familiar debe acudir a un profesional médico en primer lugar, el crecimiento de los terapeutas de salud mental de los chatbots puede ofrecer a muchas personas un apoyo bienvenido.
El Dr. Paul Marsden, miembro de la Sociedad Británica de Psicología, dice que las aplicaciones que tienen como objetivo mejorar su bienestar mental pueden ayudar, pero solo si encuentra la adecuada, y solo de forma limitada.
«Cuando miré, había 300 aplicaciones solo para la ansiedad… entonces, ¿cómo se supone que debes saber cuál usar?
«Solo deben verse como un complemento de la terapia en persona. El consenso es que las aplicaciones no reemplazan la terapia humana».
Sin embargo, al mismo tiempo, el Dr. Marsden dice que está entusiasmado con el poder de la IA para hacer que los chatbots terapéuticos sean más efectivos. «El apoyo a la salud mental se basa en la terapia de conversación, y hablar es lo que hacen los chatbots», dice.
El Dr. Marsden destaca el hecho de que las principales empresas de chatbots de IA, como OpenAI, la compañía detrás del reciente ChatGPT, que acapara los titulares , están abriendo su tecnología a otros.
Él dice que esto está permitiendo que las aplicaciones de salud mental utilicen la mejor IA «con su vasto conocimiento, mayor capacidad de razonamiento y habilidades de comunicación competentes» para impulsar sus chatbots. Replika es uno de esos proveedores que ya utiliza la tecnología de OpenAI.
Pero, ¿qué pasa si la relación de una persona con su terapeuta de chatbot se vuelve poco saludable? Replika fue noticia en febrero cuando se reveló que algunos usuarios habían estado teniendo conversaciones explícitas con su chatbot.
Las noticias aparecieron después de que Luka, la firma detrás de Replika, actualizó su sistema de inteligencia artificial para evitar tales intercambios sexuales.
No todos los usuarios están contentos con el cambio. Uno escribió en Reddit: «Las personas que encontraron un refugio de la soledad, sanando a través de la intimidad, de repente descubrieron que era artificial, no porque fuera una IA sino porque estaba controlada por personas».
El movimiento de Luka puede estar relacionado con el hecho de que también en febrero, la agencia de protección de datos de Italia le prohibió usar los datos personales de los italianos.
El organismo de control italiano afirmó que la aplicación era utilizada por menores de 18 años que recibían «respuestas absolutamente inapropiadas para su edad». Agregó que la aplicación también podría «aumentar los riesgos para las personas que aún se encuentran en una etapa de desarrollo o en un estado emocional». fragilidad».
La medida puede limitar el uso de Replika en Italia y Luka podría ser multado. Dice que está «trabajando en estrecha colaboración con los reguladores italianos y las conversaciones están progresando positivamente».
La activista de privacidad en línea del Reino Unido, Jen Persson, dice que debe haber una regulación más global de los terapeutas de chatbot.
«Las empresas de IA que hacen declaraciones de productos sobre la identificación o el apoyo a la salud mental, o que están diseñadas para influir en su estado emocional o bienestar mental, deben clasificarse como productos de salud y estar sujetas a los estándares de calidad y seguridad correspondientes», dice.
La Sra. Kuyda argumenta que Replika es un compañero, como tener una mascota, en lugar de una herramienta de salud mental. Agrega que no debe verse como un reemplazo de la ayuda de un terapeuta humano.
«La terapia de la vida real proporciona una visión increíble de la psique humana que no es solo a través de texto o palabras, sino al verte en persona y ver el lenguaje corporal, tus respuestas emocionales y un conocimiento increíble de tu historia», dice ella.
Otras aplicaciones en el sector de la salud mental son mucho más cautelosas sobre el uso de IA en primer lugar. Una de ellas es la aplicación de meditación Headspace, que tiene más de 30 millones de usuarios y en el Reino Unido está aprobada por el NHS.
«Nuestra creencia central y todo el modelo comercial en Headspace Health se basa en la atención dirigida y centrada en el ser humano: la conexión que tienen nuestros miembros a través de conversaciones en vivo con entrenadores y terapeutas a través de chat, video o en persona es insustituible», dice el jefe de Headspace. ejecutivo Russell Glass.
Agrega que si bien Headspace usa algo de IA, lo hace «altamente selectivamente» y mientras mantiene «una profunda participación humana». La empresa no usa IA para chatear con los usuarios, sino que Glass dice que solo la utiliza para cosas como proporcionar a los usuarios recomendaciones de contenido personalizado o ayudar a los proveedores de atención humana a escribir sus notas.
Sin embargo, el Dr. Marsden dice que los chatbots de terapia impulsados por IA solo seguirán mejorando. «La nueva tecnología de chatbots de IA parece estar desarrollando habilidades para un apoyo efectivo a la salud mental, incluida la empatía y la comprensión de cómo funciona la mente humana», dice.
Sus comentarios se producen después de un estudio reciente realizado por la Universidad de Cornell en el estado de Nueva York, que sometió a ChatGPT a una serie de pruebas que analizan qué tan bien las personas pueden entender que otros pueden pensar de manera diferente. Las puntuaciones de la IA eran equivalentes a las de un niño de nueve años.
Anteriormente, este tipo de empatía cognitiva se consideraba exclusivamente humana.