por Eve Herold
Los científicos están trabajando arduamente para crear robots, ya sean corpóreos o simplemente algoritmos de máquina, que esperan puedan proporcionar algunos de los mismos beneficios que discutir los problemas con un amigo cercano o un terapeuta.
Un ejemplo es el chatbot Woebot, acertadamente llamado. Creado por expertos en inteligencia artificial de la Universidad de Stanford con la ayuda de psicólogos, Woebot está diseñado para ser un amigo, terapeuta y confidente. Actualmente está disponible a través de empleadores y proveedores de atención médica seleccionados, y para personas inscritas en estudios en curso. El robot de IA se comunica contigo diariamente para conversar, rastrea tu estado de ánimo, juega y selecciona videos para que los veas, todo al servicio de administrar y mejorar la salud mental. Te hace preguntas como “¿Cómo te sientes hoy?” y “¿En qué estado de ánimo estás?” para impulsar el tipo de introspección regular que es la piedra angular de la inteligencia emocional.
El objetivo de los creadores de Woebot no sólo es proporcionar contacto diario y mantener la salud mental, sino también mejorar el trabajo de los consejeros humanos. La IA tiene una clara ventaja: puedes decirle cualquier cosa y el robot es incapaz de juzgarte. Alison Darcy, una de las psicólogas detrás del desarrollo de Woebot y fundadora y directora ejecutiva de Woebot Health, dijo: “Hay mucho ruido en las relaciones humanas. El ruido es el miedo a ser juzgado. Eso es realmente el estigma”.
Y el estigma es lo que todos deseamos evitar al confesar nuestros secretos más íntimos a otro ser humano vivo, ya sea en el contexto de una relación terapéutica o tomando una copa de vino. Es la esencia de la inhibición, y este miedo podría disuadir a los más perturbados entre nosotros de confiar y, por tanto, afrontar sus preocupaciones y problemas más profundos. Sin embargo, lo que uno tiene miedo de compartir con otra persona se lo puede confesar a un robot, sacando así el asunto a la luz de la conciencia.
El estilo de terapia para el que Woebot está diseñado es la terapia cognitivo-conductual, una forma popular de psicoterapia que desafía los patrones de pensamiento negativos sobre uno mismo y el mundo. La TCC ha demostrado un éxito considerable en el tratamiento de afecciones como la ansiedad y la depresión. El enfoque del robot pretende iluminar el paisaje interior para que los problemas puedan explorarse y tal vez replantearse de maneras más productivas.
Un control diario es algo que un compañero humano puede no pensar en hacer, o puede hacer, pero sin formular más preguntas que desafíen el pensamiento negativo de uno. Los creadores de Woebot dicen que al robot no se le ocurren ideas profundas para decirte algo que no sabías sobre ti mismo; te facilita ese proceso para que tú puedas generar tus propios conocimientos: exactamente lo que un terapeuta de TCC espera hacer, sólo que la posibilidad misma de juzgar está fuera de la ecuación.
Desde el punto de vista de la demanda, los creadores de Woebot dicen que ha tenido un éxito increíble. Hablé con Darcy sobre su creación y ella describió su sorpresa por la rapidez con la que Woebot, cuando se lanzó por primera vez, ganó popularidad. Una noche llegó a casa del trabajo, se sentó a la mesa de la cocina y se dio cuenta de que Woebot había hablado con más personas en unos pocos meses de las que la mayoría de los médicos ven en toda su vida.
Ella atribuye el fenómeno al hecho de que Woebot fue dotado de una personalidad y una historia de fondo que atrae a la gente. “Tiene amigos robots y una personalidad”, me dijo, “algo así como la de un padrastro demasiado preocupado”. Y sí, Woebot simula la empatía, una habilidad que Darcy cree que es parte integral de los robots sociales. Todas las preguntas que Woebot hace a sus “pacientes” están escritas por psicólogos para ayudarlos a identificar sus sentimientos y desafiar patrones de pensamiento negativos e improductivos.
Darcy se propuso diseñar un programa de terapia online para llenar el vacío entre quienes se sienten deprimidos y ansiosos pero, por cualquier motivo, no van, o no pueden ir a ver, a un terapeuta humano. “La depresión es la principal causa de discapacidad en el mundo”, me dijo, pero grandes sectores de la población deprimida están desatendidos porque viven en lugares con pocos o ningún terapeuta, porque no pueden pagar la terapia o porque sienten que el estigma de ver a un terapeuta humano es demasiado abrumador.
Le pregunté a Darcy qué sucede cuando alguien involucrado con Woebot envía señales de problemas graves, tal vez de tendencias suicidas. ¿No sería mejor en tal situación un terapeuta humano, tal vez iniciando la medicación o incluso la hospitalización? Aunque me aseguró que había una “red de seguridad” en el programa que derivaría inmediatamente al paciente a recursos que pueden intervenir, Woebot aún podría quedarse corto, en mi opinión, cuando se está desarrollando una crisis real.
Otra cuestión que me preocupa es la de la privacidad de los datos. Después de todo, la información que los usuarios podrían compartir con un terapeuta online probablemente esté entre las más íntimas y sensibles, e incluso los expertos en seguridad más informados te dirán que la verdadera privacidad online ha sido hasta ahora un objetivo difícil de alcanzar.
Si bien considero que la cuestión de la privacidad es un obstáculo para que muchas personas se comprometan con un terapeuta en línea, creo que programas como Woebot pueden ayudar a llenar los vacíos en un sistema de salud mental que no logra llegar a millones de personas con problemas, muchas de las cuales sufren en silencio por la incapacidad de pagar o el miedo del estigma.
Además, ni siquiera el mejor terapeuta humano podría consultar todos los días a cada uno de sus pacientes. No hay ninguna razón por la que estos programas no puedan incorporarse a robots sociales de consumo, donde pueden ayudar a los usuarios a mantener una buena salud mental. Los bots online muestran todos los signos de ser, para muchas personas, su elección para abordar problemas de salud mental.
Hay investigaciones que respaldan la teoría de que las personas compartirán cosas con robots que no le dirían a un terapeuta humano. La Agencia de Proyectos de Investigación Avanzada de Defensa, o DARPA, está profundamente involucrada en la investigación de la robótica y, en 2014, estudiaron las interacciones de las personas con una terapeuta virtual llamada Ellie.
Ellie es un avatar desarrollado por el Instituto de Tecnologías Creativas de la Universidad del Sur de California, y lo pusieron a trabajar probando a 239 sujetos humanos divididos en dos grupos. A un grupo se le dijo que estaba hablando con un robot y al otro grupo se le dijo que había una persona real detrás del avatar. El interés de DARPA en el proyecto tenía como objetivo evaluar el uso de un avatar/bot para tratar a soldados con trastorno de estrés postraumático.
En el experimento, los participantes que pensaban que estaban hablando con un robot tenían “muchas más probabilidades de abrirse y revelar sus secretos más profundos y oscuros”, escribió la reportera Megan Molteni para WIRED en 2017. “Eliminar incluso la idea de un humano en la sala condujo a sesiones más productivas”.
Molteni continúa diciendo que eliminar la “conversación” de la psicoterapia en realidad también ayuda a las personas a abrirse. Ella explica: “Los científicos que recientemente analizaron el chat de texto como complemento de las sesiones de terapia por videoconferencia observaron que la opción de enviar mensajes de texto en realidad reducía la ansiedad interpersonal, lo que permitía a los pacientes revelar y discutir más plenamente cuestiones envueltas en vergüenza, culpa y bochorno”.
Si bien cualquier progreso en la evolución de la psicoterapia será una buena noticia para quienes luchan con problemas de salud mental, hay que preguntarse si la preferencia por los chatbots y las sesiones de terapia por mensajes de texto son un signo del tipo de alienación que lamentan Sherry Turkle y otros expertos que estudian y escriben sobre inteligencia emocional.
¿Podrían tales intervenciones ser realmente perjudiciales a largo plazo a medida que nuestra capacidad fundamental para relacionarnos con otras personas se erosiona con el tiempo? Después de todo, ¿no es uno de los beneficios evidentes de la psicoterapia el proceso de superar las inhibiciones contra la apertura, permitir que la propia vulnerabilidad salga a la luz y sentirse más cómodos con la propia vulnerabilidad y la de los demás? ¿Y la vergüenza y el bochorno son siempre indeseables, o a veces nos alertan sobre rasgos problemáticos en nuestra vida mental que necesitan ser examinados?
Supongamos que una persona alberga impulsos violentos que causan algún conflicto interno. Puede que esté más dispuesto a confesar esos pensamientos a un robot, pero el acto de discutir este conflicto con un terapeuta humano podría impulsarlo a ser más crítico con esos pensamientos y a trabajar para abordarlos. Un terapeuta humano que abogue por un progreso regular puede ser lo que se necesita para ayudar a las personas a persistir en la lucha contra problemas profundamente arraigados sin darse por vencidos cuando las cosas se ponen difíciles.
Los robots complementarios pueden programarse para abordar una amplia gama de enfermedades mentales y pueden desempeñar un papel en el mantenimiento de la salud. Los ingenieros podrían programarlos para que hagan cosas como sugerir actividades placenteras o actividades que conduzcan a una mayor conexión social como una forma de regular el estado de ánimo en personas con trastornos del estado de ánimo como el trastorno bipolar o la depresión. Pero, ¿se podrán programar los robots para que siempre tengan una respuesta apropiada y relacionada con el contexto?
Tomemos el ejemplo del robot social Pepper, que intenta reproducir tu canción favorita si nota una expresión de tristeza en el rostro de su dueño. El dolor puede ser una emoción muy apropiada en algunos contextos. Debe reconocerse y examinarse teniendo en cuenta cómo podría ofrecer una guía genuina al considerar un problema. Un robot como Pepper, que constantemente nos incita a animarnos, posiblemente cuando nuestras emociones son completamente apropiadas, podría verse como algo intrusivo, condescendiente y posiblemente incluso exasperante.
Es una pregunta abierta si los robots alguna vez serán lo suficientemente inteligentes emocionalmente como para responder siempre de manera apropiada a los humanos. La paleta de reacciones emocionalmente inteligentes en la vida humana es excepcionalmente amplia. Puede incluir el ejercicio del humor en un contexto y la escucha tranquila en otro. E implica aprovechar nuestros sentimientos más íntimos para ayudarnos a adaptarnos a un número casi ilimitado de situaciones y experiencias.
También requiere que sepamos cuándo calmar nuestras emociones y cuándo darles expresión. Implica intuición así como análisis crítico y requiere juicio para saber en quién confiar en cualquier circunstancia dada. La única forma en que los robots podrían alcanzar este nivel de sofisticación sería si ellos mismos sintieran emociones. Hasta que ellos mismos tengan emociones, sólo podrán brindarnos una compañía emocionalmente inteligente hasta cierto punto.
Estos son precisamente los tipos de desafíos que los robóticos, con la ayuda de los psicólogos, están tratando de superar.
Fragmento de “Robots and the People Who Love Them: Holding on to Our Humanity in an Age of Social Robots” (St. Martin’s Press, 2024)
Fuente: Undark/ Traducción: Mara Taylor