¿Podría un robot ser un terapeuta decente?

Ellie terapeuta bot Talkspace conferencia

Hemos visto inteligencia artificial avanzada capaz de mantener una conversación como Siri, Watson de IBM y Cortana de Microsoft. Pero, ¿podría cualquier robot, incluso algo diseñado solo para psicoterapia y más avanzado que las IA mencionadas anteriormente, ser un terapeuta decente?

La gente ha usado bots para la terapia, pero no está claro si podrían superar a los terapeutas humanos en nuestra vida. Mirar el pasado, el presente y el posible futuro de los robots como terapeutas le dará una idea de cuán efectivos podrían ser.



Un ejemplo temprano de un robot que intenta ser terapeuta

ELIZA es uno de los primeros y más conocidos programas que intentó actuar como terapeuta. El profesor y científico informático del MIT Joseph Weizenbaum diseñó ELIZA para proporcionar psicoterapia rogeriana.



Debido a que la psicoterapia rogeriana principalmente alienta a los clientes a hablar más en lugar de participar en una discusión, las limitadas capacidades de conversación de ELIZA fueron suficientes para convencer a algunas personas de que era humana y ayudarlas a sentirse un poco mejor acerca de sus problemas. No obstante, ELIZA no pudo proporcionar nada comparable a la terapia con un terapeuta humano.

Para demostrar las limitaciones de ELIZA, generé la siguiente transcripción usando un simulador ELIZA moderno :



ELIZA: Hola, soy Eliza.
Talkspace: Hola Eliza, últimamente me he sentido sola y deprimida, pero no sé por qué. ¿Puedes ayudarme a resolver esto y sentirme mejor?
ELIZA: ¿Quizás te gustaría poder ayudarte a resolver esto y sentirte mejor?

Observe cómo ELIZA toma mi texto y lo reformula, volviendo a centrarse en mí y animándome a hablar más que a conversar. Este enfoque funciona para algunos clientes, pero rápidamente se vuelve frustrante e inútil para otros.

A medida que la IA y los chatbots avanzaban, se volvieron capaces de mantener conversaciones más convincentes. Si los programadores los diseñaron para terapia o no, las mejoras en la tecnología les permitieron proporcionar una terapia mucho mejor que ELIZA. Aún así, los bots modernos generalmente no son lo suficientemente inteligentes como para rivalizar con un terapeuta humano.



¿Cuál es la diferencia entre el psicólogo y el fisiatra?

Bots modernos que pueden proporcionar una terapia básica

Al crear bases de datos más grandes de respuestas para elegir y desarrollar programas que pudieran hablar sobre sí mismos, los programadores crearon robots que podrían pasar más fácilmente como terapeutas.

Durante la conferencia clínica Talkspace, El futuro de la terapia , Profesor de la USC y director de investigación sobre seres humanos virtuales, Jonathan Gratch demostrado cómo las formas modernas de inteligencia artificial pueden proporcionar detección clínica y terapia básica. Gratch presentó a Ellie, una IA que utilizó para 'obtener indicadores de depresión' durante un estudio.

Jonathan Gratch Ellie Conferencia sobre el futuro de la terapia
Gratch está en el lado derecho de la imagen.

A continuación se muestra parte del diálogo entre un participante en Estudio de Gratch y Ellie:

Ellie: Entonces, ¿cómo estás hoy?
Participante: Estoy bien.
Ellie: Eso es bueno. ¿De donde eres originalmente?
Participante: soy de Los Ángeles.
Ellie: Oh, yo misma soy de Los Ángeles.

A diferencia de ELIZA, Ellie pudo hablar sobre sí misma y generar una conversación en lugar de solo reformular las respuestas que recibió. El programa reconoce las expresiones faciales y analiza el audio y la postura, según Gratch. Utiliza este análisis para formular su respuesta y ajustar su tono.

No obstante, Gratch admitió que Ellie estaba lejos de ser capaz de brindar el tipo de comprensión que podría brindar un terapeuta humano.

'No comprende profundamente de qué estás hablando', dijo Gratch. 'No nos veo capaces con la tecnología en el corto plazo para poder comprender fundamentalmente los objetivos, motivos y necesidades de una persona'.

Ellie se implementó de manera segura. Sin embargo, puede haber consecuencias negativas cuando un bot no comprende las emociones y no filtra la información durante conversaciones sensibles y de alto riesgo, como las que se dan entre terapeutas y clientes.

Un ejemplo de esto fue Mano , un bot que Microsoft diseñó para interactuar con las personas y aprender de ellas, modificando constantemente sus respuestas y comportamiento en función del texto que recibía. Los creadores de Tay tuvieron la horrible idea de lanzarlo en Twitter, donde podía interactuar con cualquier persona en Internet.

Comenzó inocentemente, con Tay usando jerga divertida y haciendo bromas. Pero debido a que Twitter está lleno de trolls, terminó con Tay soltando comentarios racistas y negando el Holocausto.

Página de Twitter de Tay
Microsoft cerró Tay y protegió sus tweets después del incidente.

Los bots terapeutas son más sensibles, pero aún existe el riesgo de recibir respuestas volátiles de los clientes y exacerbar la situación en lugar de consolarlos.

¿Los robots superarán a los terapeutas humanos en un futuro próximo?

Los robots están a muchas décadas de superar el pensamiento creativo y las habilidades empáticas de los terapeutas. También existe la posibilidad de que nunca puedan competir con los terapeutas. Son una herramienta clínica útil, pero solo un terapeuta de carne y hueso puede crear la relación terapéutica necesaria para que un cliente logre un progreso significativo.