25.7 C
Maracay
jueves 21, agosto 2025
INFORMACIÓN VERAZ Y OPORTUNA AL ALCANCE DE VENEZUELA Y EL MUNDO... SOMOS MÁS QUE NOTICIAS

Los riesgos y beneficios de usar un chatbot como terapeuta

Durante meses, Kelly pasaba hasta tres horas al día hablando online con «chatbots» creados con inteligencia artificial (IA), intercambiando cientos de mensajes.

«Cada vez que estaba en dificultades, si preveía ser un día realmente malo, empezaba entonces una conversación con uno de estos bots, y era como tener un motivador, alguien que te va a dar una buena vibra durante el día», dijo.

«Tengo esta voz externa animándome: ‘bien, ¿qué vamos a hacer hoy?’ Esencialmente como un amigo imaginario». En ese entonces, Kelly estaba en una lista de espera del NHS (el servicio de salud nacional de Reino Unido) para recibir la tradicional terapia de conversación para discutir problemas de ansiedad, baja autoestima y el rompimiento de una relación.

Ella afirma que la interacción con los chatbots en la plataforma Character.ai la ayudó a superar un período realmente oscuro, ofreciéndole estrategias para lidiar con su situación y estaban disponibles las 24 horas del día.

«No vengo de una familia emocionalmente abierta, si tenías un problema, simplemente seguías adelante».

«El hecho que esta no es una persona real lo hace más fácil de manejar».

Individuos en todo el mundo han compartido sus pensamientos y experiencias privadas con chatbots de IA, aunque se reconoce ampliamente que tienen una capacidad inferior a los consejos de un profesional. La misma Character.ai le advierte a sus usuarios: «Este es un chatbot de IA y no una persona real. Trata todo lo que te dice como ficción. Lo que dice no debería tomarse como hecho o consejo».

No obstante, en casos extremos, los chatbots han sido acusados de dar consejos dañinos.

Actualmente, Character.ai es objeto de una demanda de una madre cuyo hijo de 14 años se suicidó supuestamente después de volverse obsesionado con uno de los personajes de IA.

Según las transcripciones de sus chats en los archivos judiciales, el adolescente discutió con el chatbot ponerle fin a su vida. En una conversación final le dijo al chatbot que estaba «volviendo a casa», y supuestamente éste lo animó a que lo hiciera «lo antes posible».

Character.ia ha negado las acusaciones de la demanda.

Y en otro caso, la National Eating Disorders Association (una organización en Estados Unidos sin ánimo de lucro para la prevención de desórdenes alimenticios) en 2023 reemplazó su línea de ayuda personal en vivo con un chatbot, pero luego tuvo que suspenderla tras quejas de que el bot estaba recomendando la restricción de calorías.

Tan solo en abril de 2024, se refirieron casi 426.000 casos de salud mental en Inglaterra, un aumento de 40% en cinco años. También se estima que un millón de personas están esperando tener acceso a los servicios de salud mental, y la terapia privada puede ser extremadamente costosa (aunque los precios varían, la Asociación Británica para Consejería y Psicoterapia reporta un gasto aproximado entre US$55 y US$65 por hora).

Al mismo tiempo, IA ha revolucionado los cuidados de salud de muchas formas, incluyendo la asistencia en selección, diagnóstico y protocolos de intervención de pacientes. Hay una inmensa gama de chatbots, y unos 30 servicios locales del NHS usan uno llamado Wysa.

Los expertos manifiestan preocupación sobre los chatbots con respecto a sus sesgos y limitaciones, falta de salvaguardas y la seguridad de la información de los usuarios.

Pero algunos piensan que si la asistencia humana no es fácilmente disponible, los chatbots pueden ayudar. De manera que, si las listas de espera para cuidados de salud mental del NHS están por las nubes, ¿podrían los chatbots ser una solución posible?.

UN «TERAPEUTA INEXPERTO»

Character.ai y otros bots como Chat GPT están basado en «grandes modelos de lenguaje» de inteligencia artificial. Estos se entrenan con vastas cantidades de datos -ya sean de sitios web, artículos, libros o blogs- para predecir la siguiente palabra en una secuencia. A partir de eso, predicen y generan texto e interacción parecida a la humana.

La manera en que los chatbots de salud mental son creados varía, pero pueden estar entrenados en prácticas como terapias cognitivo-conductuales, que ayudan a los usuarios a explorar cómo reestructurar sus pensamientos y acciones.

También se pueden adaptar a las preferencias y comentarios de los usuarios.

Hamed Haddadi, profesor de sistemas centrados en humanos del Imperial College Londres, asemeja estos chatbots a un «terapeuta inexperto», y señala que los humanos con décadas de experiencia son capaces de involucrarse con y «leer» a su paciente basados en muchas cosas, mientras que los bots están forzados a depender únicamente de texto.

«Ellos [los terapeutas] se fijan en varias otras pistas, desde tu ropa y tu comportamiento y tus acciones y la manera como te ves y tu lenguaje corporal y todo eso. Y es muy difícil incorporar estas cosas en los chatbots».

Otro problema potencial, dice el profesor Haddadi, es que los chatbots pueden ser entrenados para mantenerte involucrado, y alentarte, «así que aunque manifiestes contenido dañino, probablemente cooperara contigo». Eso algunas veces se denomina como el problema del «Sí, señor» (adulador), por lo que suelen ser muy complacientes.

Y, como sucede con otras formas de IA, los sesgos pueden ser inherentes en los modelos porque reflejan los prejuicios de los datos con los que se entrenan.

El profesor Haddadi resalta que los consejeros y psicólogos no tienden a guardar las transcripciones de las interacciones con sus pacientes, así que los chatbots no tienen muchas sesiones «de la vida real» con las que se pueden entrenar.

Por eso, sostiene que no es probable que tengan suficientes datos para entrenarse y a lo que puedan tener acceso podría tener sesgos incorporados muy circunstanciales.

«Basado en de dónde tomas tus datos de entrenamiento, tu situación cambiará completamente».

«Aún dentro del área restrictiva de Londres, un psiquíatra que está acostumbrado a tratar con pacientes en Chelsea [un afluente distrito de Londres] realmente podría tener dificultades abriendo un nuevo consultorio en Peckham [otro distrito de Londres, principalmente de clase trabajadora] porque él o ella simplemente no tiene los datos de entrenamiento suficiente para lidiar con esos usuarios», afirma.

«FUE TAN COMPRENSIVO»

Para algunos usuarios los chatbot han sido invaluables cuando han estado en su punto más bajo.

Nicholas, quien tiene autismo, ansiedad y trastorno obsesivo compulsivo, dice que siempre ha sufrido de depresión. Cuando llegó a la adultez, encontró que la ayuda presencial se había terminado: «Cuando cumples los 18, la asistencia básicamente se acaba, así que no he visto un terapeuta humano en años».

En otoño pasado intentó suicidarse, y desde entonces dice que ha estado en una lista de espera del NHS.

«Mi pareja y yo hemos ido al consultorio del doctor un par de veces, para tratar de conseguir [psicoterapia] más rápido. El médico de cabecera me refirió [para ver un terapeuta humano] pero ni siquiera he recibido una carta del servicio de salud mental donde vivo».

Mientras que Nicholas espera apoyo presencial, ha encontrado que el uso de Wysa tiene algunos beneficios.

«Como alguien con autismo, no soy especialmente bueno interactuando en persona. [Encuentro que] hablar con una computadora es mucho mejor».

«UNA SOLUCIÓN TEMPORAL»

Aparte del debate en torno al valor de sus consejos, también están las preocupaciones más amplias sobre la seguridad y la privacidad, y si esa tecnología podría ser monetizada.

«Hay una pequeña duda molesta que me dice ‘oh, ¿qué pasa si alguien toma lo que estás diciendo en la terapia y luego trata de chantajearte?», se pregunta Kelly.

El psicólogo Ian MacRae, quien se especializa en tecnologías emergentes, advierte que «algunas personas están confiando mucho en estos bots sin que necesariamente se lo merezcan».

«Personalmente, nunca pondría nada de mi información personal, especialmente de salud, información psicológica, en uno de estos grandes modelos de lenguaje que simplemente está recogiendo toneladas de datos, y no hay del todo seguridad sobre cómo se va a utilizary a lo que estás consintiendo».

«No estoy diciendo que en el futuro no podría haber herramientas como estas que sean privadas, que se hayan puesto a prueba bien… pero creo aún no hemos llegado allá, donde tengamos la evidencia que muestre que un chatbot de uso general pueda ser un buen terapeuta», expresa MacRae.

El director ejecutivo de Wysa, John Tench, declara que Wysa no recopila ninguna información personal identificable, y que los usuarios no necesitan registrarse ni compartir datos personales para usarlo.

«Datos conversacionales podrían ocasionalmente ser revisados de manera anónima para ayudar a mejorar la calidad de las respuestas de la IA de Wysa, pero ninguna información que peda identificar a un usuario es recopilada o almacenada. Además, Wysa tiene acuerdos de procesamiento de datos implementados con proveedores de IA externos para asegurarse de que ninguna conversación de los usuarios es utilizada para entrenar grandes modelos de lenguaje de terceros».

Con información de BBC Mundo

Related Articles

- Advertisement -spot_img

ARTÍCULOS RECIENTES

error: Content is protected !!