HomeCONTEXTOSALUDHaciendo terapia con robots

Haciendo terapia con robots

Publicado el

por Eve Herold

Los científicos están trabajando arduamente para crear robots, ya sean corpóreos o simplemente algoritmos de máquina, que esperan puedan proporcionar algunos de los mismos beneficios que discutir los problemas con un amigo cercano o un terapeuta.

Un ejemplo es el chatbot Woebot, acertadamente llamado. Creado por expertos en inteligencia artificial de la Universidad de Stanford con la ayuda de psicólogos, Woebot está diseñado para ser un amigo, terapeuta y confidente. Actualmente está disponible a través de empleadores y proveedores de atención médica seleccionados, y para personas inscritas en estudios en curso. El robot de IA se comunica contigo diariamente para conversar, rastrea tu estado de ánimo, juega y selecciona videos para que los veas, todo al servicio de administrar y mejorar la salud mental. Te hace preguntas como “¿Cómo te sientes hoy?” y “¿En qué estado de ánimo estás?” para impulsar el tipo de introspección regular que es la piedra angular de la inteligencia emocional.

El objetivo de los creadores de Woebot no sólo es proporcionar contacto diario y mantener la salud mental, sino también mejorar el trabajo de los consejeros humanos. La IA tiene una clara ventaja: puedes decirle cualquier cosa y el robot es incapaz de juzgarte. Alison Darcy, una de las psicólogas detrás del desarrollo de Woebot y fundadora y directora ejecutiva de Woebot Health, dijo: “Hay mucho ruido en las relaciones humanas. El ruido es el miedo a ser juzgado. Eso es realmente el estigma”.

Y el estigma es lo que todos deseamos evitar al confesar nuestros secretos más íntimos a otro ser humano vivo, ya sea en el contexto de una relación terapéutica o tomando una copa de vino. Es la esencia de la inhibición, y este miedo podría disuadir a los más perturbados entre nosotros de confiar y, por tanto, afrontar sus preocupaciones y problemas más profundos. Sin embargo, lo que uno tiene miedo de compartir con otra persona se lo puede confesar a un robot, sacando así el asunto a la luz de la conciencia.

El estilo de terapia para el que Woebot está diseñado es la terapia cognitivo-conductual, una forma popular de psicoterapia que desafía los patrones de pensamiento negativos sobre uno mismo y el mundo. La TCC ha demostrado un éxito considerable en el tratamiento de afecciones como la ansiedad y la depresión. El enfoque del robot pretende iluminar el paisaje interior para que los problemas puedan explorarse y tal vez replantearse de maneras más productivas.

Un control diario es algo que un compañero humano puede no pensar en hacer, o puede hacer, pero sin formular más preguntas que desafíen el pensamiento negativo de uno. Los creadores de Woebot dicen que al robot no se le ocurren ideas profundas para decirte algo que no sabías sobre ti mismo; te facilita ese proceso para que tú puedas generar tus propios conocimientos: exactamente lo que un terapeuta de TCC espera hacer, sólo que la posibilidad misma de juzgar está fuera de la ecuación.

Carolina Arriada para NYDiario.

Desde el punto de vista de la demanda, los creadores de Woebot dicen que ha tenido un éxito increíble. Hablé con Darcy sobre su creación y ella describió su sorpresa por la rapidez con la que Woebot, cuando se lanzó por primera vez, ganó popularidad. Una noche llegó a casa del trabajo, se sentó a la mesa de la cocina y se dio cuenta de que Woebot había hablado con más personas en unos pocos meses de las que la mayoría de los médicos ven en toda su vida.

Más en New York Diario:  La marca azul como señal falsa de legitimidad

Ella atribuye el fenómeno al hecho de que Woebot fue dotado de una personalidad y una historia de fondo que atrae a la gente. “Tiene amigos robots y una personalidad”, me dijo, “algo así como la de un padrastro demasiado preocupado”. Y sí, Woebot simula la empatía, una habilidad que Darcy cree que es parte integral de los robots sociales. Todas las preguntas que Woebot hace a sus “pacientes” están escritas por psicólogos para ayudarlos a identificar sus sentimientos y desafiar patrones de pensamiento negativos e improductivos.

Darcy se propuso diseñar un programa de terapia online para llenar el vacío entre quienes se sienten deprimidos y ansiosos pero, por cualquier motivo, no van, o no pueden ir a ver, a un terapeuta humano. “La depresión es la principal causa de discapacidad en el mundo”, me dijo, pero grandes sectores de la población deprimida están desatendidos porque viven en lugares con pocos o ningún terapeuta, porque no pueden pagar la terapia o porque sienten que el estigma de ver a un terapeuta humano es demasiado abrumador.

Le pregunté a Darcy qué sucede cuando alguien involucrado con Woebot envía señales de problemas graves, tal vez de tendencias suicidas. ¿No sería mejor en tal situación un terapeuta humano, tal vez iniciando la medicación o incluso la hospitalización? Aunque me aseguró que había una “red de seguridad” en el programa que derivaría inmediatamente al paciente a recursos que pueden intervenir, Woebot aún podría quedarse corto, en mi opinión, cuando se está desarrollando una crisis real.

Carolina Arriada para NYDiario.

Otra cuestión que me preocupa es la de la privacidad de los datos. Después de todo, la información que los usuarios podrían compartir con un terapeuta online probablemente esté entre las más íntimas y sensibles, e incluso los expertos en seguridad más informados te dirán que la verdadera privacidad online ha sido hasta ahora un objetivo difícil de alcanzar.

Si bien considero que la cuestión de la privacidad es un obstáculo para que muchas personas se comprometan con un terapeuta en línea, creo que programas como Woebot pueden ayudar a llenar los vacíos en un sistema de salud mental que no logra llegar a millones de personas con problemas, muchas de las cuales sufren en silencio por la incapacidad de pagar o el miedo del estigma.

Más en New York Diario:  Estrés periodístico

Además, ni siquiera el mejor terapeuta humano podría consultar todos los días a cada uno de sus pacientes. No hay ninguna razón por la que estos programas no puedan incorporarse a robots sociales de consumo, donde pueden ayudar a los usuarios a mantener una buena salud mental. Los bots online muestran todos los signos de ser, para muchas personas, su elección para abordar problemas de salud mental.

Hay investigaciones que respaldan la teoría de que las personas compartirán cosas con robots que no le dirían a un terapeuta humano. La Agencia de Proyectos de Investigación Avanzada de Defensa, o DARPA, está profundamente involucrada en la investigación de la robótica y, en 2014, estudiaron las interacciones de las personas con una terapeuta virtual llamada Ellie.

Ellie es un avatar desarrollado por el Instituto de Tecnologías Creativas de la Universidad del Sur de California, y lo pusieron a trabajar probando a 239 sujetos humanos divididos en dos grupos. A un grupo se le dijo que estaba hablando con un robot y al otro grupo se le dijo que había una persona real detrás del avatar. El interés de DARPA en el proyecto tenía como objetivo evaluar el uso de un avatar/bot para tratar a soldados con trastorno de estrés postraumático.

En el experimento, los participantes que pensaban que estaban hablando con un robot tenían “muchas más probabilidades de abrirse y revelar sus secretos más profundos y oscuros”, escribió la reportera Megan Molteni para WIRED en 2017. “Eliminar incluso la idea de un humano en la sala condujo a sesiones más productivas”.

Molteni continúa diciendo que eliminar la “conversación” de la psicoterapia en realidad también ayuda a las personas a abrirse. Ella explica: “Los científicos que recientemente analizaron el chat de texto como complemento de las sesiones de terapia por videoconferencia observaron que la opción de enviar mensajes de texto en realidad reducía la ansiedad interpersonal, lo que permitía a los pacientes revelar y discutir más plenamente cuestiones envueltas en vergüenza, culpa y bochorno”.

Si bien cualquier progreso en la evolución de la psicoterapia será una buena noticia para quienes luchan con problemas de salud mental, hay que preguntarse si la preferencia por los chatbots y las sesiones de terapia por mensajes de texto son un signo del tipo de alienación que lamentan Sherry Turkle y otros expertos que estudian y escriben sobre inteligencia emocional.

¿Podrían tales intervenciones ser realmente perjudiciales a largo plazo a medida que nuestra capacidad fundamental para relacionarnos con otras personas se erosiona con el tiempo? Después de todo, ¿no es uno de los beneficios evidentes de la psicoterapia el proceso de superar las inhibiciones contra la apertura, permitir que la propia vulnerabilidad salga a la luz y sentirse más cómodos con la propia vulnerabilidad y la de los demás? ¿Y la vergüenza y el bochorno son siempre indeseables, o a veces nos alertan sobre rasgos problemáticos en nuestra vida mental que necesitan ser examinados?

Más en New York Diario:  Cómo determinar si una teoría conspirativa es falsa
Carolina Arriada para NYDiario.

Supongamos que una persona alberga impulsos violentos que causan algún conflicto interno. Puede que esté más dispuesto a confesar esos pensamientos a un robot, pero el acto de discutir este conflicto con un terapeuta humano podría impulsarlo a ser más crítico con esos pensamientos y a trabajar para abordarlos. Un terapeuta humano que abogue por un progreso regular puede ser lo que se necesita para ayudar a las personas a persistir en la lucha contra problemas profundamente arraigados sin darse por vencidos cuando las cosas se ponen difíciles.

Los robots complementarios pueden programarse para abordar una amplia gama de enfermedades mentales y pueden desempeñar un papel en el mantenimiento de la salud. Los ingenieros podrían programarlos para que hagan cosas como sugerir actividades placenteras o actividades que conduzcan a una mayor conexión social como una forma de regular el estado de ánimo en personas con trastornos del estado de ánimo como el trastorno bipolar o la depresión. Pero, ¿se podrán programar los robots para que siempre tengan una respuesta apropiada y relacionada con el contexto?

Tomemos el ejemplo del robot social Pepper, que intenta reproducir tu canción favorita si nota una expresión de tristeza en el rostro de su dueño. El dolor puede ser una emoción muy apropiada en algunos contextos. Debe reconocerse y examinarse teniendo en cuenta cómo podría ofrecer una guía genuina al considerar un problema. Un robot como Pepper, que constantemente nos incita a animarnos, posiblemente cuando nuestras emociones son completamente apropiadas, podría verse como algo intrusivo, condescendiente y posiblemente incluso exasperante.

Es una pregunta abierta si los robots alguna vez serán lo suficientemente inteligentes emocionalmente como para responder siempre de manera apropiada a los humanos. La paleta de reacciones emocionalmente inteligentes en la vida humana es excepcionalmente amplia. Puede incluir el ejercicio del humor en un contexto y la escucha tranquila en otro. E implica aprovechar nuestros sentimientos más íntimos para ayudarnos a adaptarnos a un número casi ilimitado de situaciones y experiencias.

También requiere que sepamos cuándo calmar nuestras emociones y cuándo darles expresión. Implica intuición así como análisis crítico y requiere juicio para saber en quién confiar en cualquier circunstancia dada. La única forma en que los robots podrían alcanzar este nivel de sofisticación sería si ellos mismos sintieran emociones. Hasta que ellos mismos tengan emociones, sólo podrán brindarnos una compañía emocionalmente inteligente hasta cierto punto.

Estos son precisamente los tipos de desafíos que los robóticos, con la ayuda de los psicólogos, están tratando de superar.

Fragmento de “Robots and the People Who Love Them: Holding on to Our Humanity in an Age of Social Robots” (St. Martin’s Press, 2024)

Fuente: Undark/ Traducción: Mara Taylor

Últimos artículos

Los desastres naturales son desastres sociales

por Dana J. Graef Cuando el huracán Harvey arrojó más de un metro de lluvia...

Calor extremo en la prisión

por Sarak Hopkins Marci Simmons recuerda sus días en una prisión estatal de Texas como...

Tratamiento facial para estatuas de piedra

por Melanie Marich En un día bochornoso y nublado de verano, un equipo de pasantes...

Fuera, Biden

por Emma Shortis Las grietas bajo los pies del presidente estadounidense Joe Biden continúan ampliándose. Si...

Una historia de la refrigeración de alimentos

por Angela Chen En la esquina de la mayoría de las cocinas hay una caja...

El puño de Donald Trump

por Roger J. Kreuz En los frenéticos momentos en que agentes del Servicio Secreto rodearon...

Nueva York según Paul Auster

por Ramón Espejo Romero Nueva York es la ciudad más icónica del siglo XX y...

Equidad lingüística en las escuelas

por Sunisa Nuonsy Me alegré cuando se supo, el mes pasado, que el Departamento de...

Un juicio a la contaminación acústica

por Joanne Silberner El pasado junio, un grupo de defensa del ruido, Quiet Communities, demandó...

Cómo determinar si una teoría conspirativa es falsa

por H. Colleen Sinclair Las teorías de conspiración están en todas partes y pueden involucrar...

Arquitectura hostil

por Robert Rosenberger Si no tienes refugio y te arrestan por dormir afuera, ¿te castigan...

Tu médico debe preguntarte por la calidad del aire que respiras

por Eve Andrews Una visita anual al médico a menudo implica cierto grado de mentira...

Primer debate presidencial 2024: Joe Biden derrotó a Joe Biden

por Mary Kate Cary Creo que Estados Unidos acaba de ver cómo se hacía historia. Al...

Primer debate presidencial 2024: mentirosos y confundidos

por Karrin Vasby Anderson Una de las primeras definiciones de buena oratoria que aprendí como...

El senador con la bola de nieve

por Dana J. Graef Mientras estaba en el pleno del Senado en Washington, D.C., en...

Sigue leyendo

Los desastres naturales son desastres sociales

por Dana J. Graef Cuando el huracán Harvey arrojó más de un metro de lluvia...

Calor extremo en la prisión

por Sarak Hopkins Marci Simmons recuerda sus días en una prisión estatal de Texas como...

Tratamiento facial para estatuas de piedra

por Melanie Marich En un día bochornoso y nublado de verano, un equipo de pasantes...