Cada vez son más las personas que usan ChatGPT para hacer artículos científicos, responder tuits, o planificar eventos. Esta IA parece que no tiene límites, pues puede hacer muchas cosas en poco tiempo y con una destreza envidiable. Sin embargo, ChatGPT podría tener una debilidad: la salud mental.

Una empresa llamada Koko decidió usar este modelo conversacional para ayudar a más de 4.000 usuarios con problemas de salud mental. El objetivo era comprobar si la IA, concretamente ChatGPT, algún día podría sustituir a un terapeuta humano. Después de todo, los algoritmos ya forman parte de nuestro futuro.

Sin embargo, para su sorpresa, los usuarios no quedaron muy a gusto con la idea. De hecho, el descontento con los resultados fue tal que la empresa se vio obligada a cancelar el experimento después de unos días.

¿Por qué ChatGPT no triunfó como terapeuta de salud mental?

Según Rob Morris, cofundador de Koko, la respuesta negativa fue un malentendido. Sin embargo, los usuarios en su app y en Twitter no opinan lo mismo. 

El experimento con ChatGPT se llevó a cabo en su app de salud mental. La empresa permitió a algunos usuarios generar respuestas automáticas utilizando «Koko Bot», una versión GPT-3 de la IA de OpenAI. Estas respuestas luego podrían editarse, enviarse o rechazarse.

ChatGPT / Créditos: Pocket

Durante los primeros días, los mensajes compuestos por IA fueron mejor calificados que los escritos por humanos, y los tiempos de respuesta se redujeron a menos de un minuto. Todo parecía indicar que la prueba sería un éxito, sin embargo, una vez que descubrieron que una IA estaba involucrada en su cuidado, todo cambió. 

Los resultados finales mostraron rechazo. Para Morris, el error del experimento fue anunciar antes de tiempo el papel que ChatGPT estaba jugando en los mensajes de salud mental. Pero muchos usuarios confirmaron que, antes del anuncio, ya habían notado algo raro en los mensajes escritos con la IA.

Koko es un servicio de salud mental entre pares que permite a las personas pedir consejo y apoyo a otros usuarios. A diferencia de otros usuarios, las respuestas de ChatGPT eran más “mecánicos”.

“Todo está muy bien escrito, pero es una especie de fórmula. Puedes leerlo y reconocer que todo es puramente un bot y no hay matices humanos agregados. En nuestra plataforma, los mensajes se sentían mejor de alguna manera cuando podía sentir que estaban escritos más por humanos”.

Rob Morris

Esto fue lo que puso fin a la carrera de ChatGPT en el campo de la salud mental.

La inteligencia artificial no podría sustituir a un terapeuta… ¿o sí?

Inteligencia artificial / Vía Pixabay

Cada vez que usa tecnología fuera de lo que podría considerarse un estándar de atención, se debe ser extremadamente cauteloso. El rechazo de los usuarios demuestra que en la salud mental es indispensable la autenticidad. 

“Las personas que buscan apoyo de salud mental se encuentran en un estado vulnerable, especialmente cuando buscan servicios de emergencia o de pares”.

Rob Morris

El debate sobre si la IA reemplazará a los terapeutas de salud mental es complejo, pero hay algunas cosas que debemos tomar en cuenta.  

Si bien es cierto que los algoritmos pueden brindar una atención más eficiente, estos carecen de empatía. Un recurso indispensable para conectar con el paciente y ayudarlo a superar su problema de salud mental, ya sea depresión, TDAH o cualquier otro trastorno.

ChatGPT, al igual que muchos otros modelos conversacionales, es capaz de entender las palabras y responder tomando en cuenta el contexto. Sin embargo, no posee empatía ni otro tipo de emoción que pueda motivar a los pacientes. Incluso, si llegara a tenerla, es posible que tampoco sea bien recibido. Principalmente porque, en esencia, una terapia se trata de desarrollar relaciones entre humanos, algo que un algoritmo no puede hacer.

Este experimento con ChatGPT ha planteado muchos dilemas éticos.

Sobre el uso de IA para tratar problemas de salud mental 

Mujer con su computaora / Vía Pixabay

Teóricamente, es ilegal realizar experimentos científicos o médicos en sujetos humanos sin su consentimiento. Pero la explosión de los servicios de salud mental en línea ha creado un vacío legal.

Algunos usuarios se cuestionan la utilidad de la IA que tiene acceso a grandes cantidades de información. Esto debido a que su conocimiento se podría emplear para desarrollar mejores tratamientos, no necesariamente para atender pacientes.

Otros por su parte consideran que ChatGPT y el resto de algoritmos pueden reducir el estigma en torno a la búsqueda de ayuda para problemas de salud mental. Algo que, además de ser positivo a nivel general, permitiría el acceso a terapias en comunidades con recursos limitados.

Sin embargo, si bien este enfoque novedoso traería beneficios reales, puede que los usuarios no estén preparados para escuchar los consejos de una IA. 

Referencias:

A Mental Health App Tested ChatGPT on Its Users. The Founder Said Backlash Was Just a Misunderstanding https://gizmodo.com/mental-health-therapy-app-ai-koko-chatgpt-rob-morris-1849965534

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *