Nota del editor: Esta historia menciona autolesiones
Los terapistas vuelven a casa cuando termina el día laboral, pero las luchas con salud mental no desaparecen a las 5 de la tarde.
Entonces, ¿qué debe hacer una persona si necesita ayuda después del día laboral? Profesionales de salud en Florida están adoptando la inteligencia artificial en sus consultorios para mejorar la accesibilidad para los clientes. Con este marco, los clientes pueden abrir sus computadoras y hablar con un chatbot accionado por IA en cualquier momento.
Nuevos instrumentos
Compañías como Happi AI, establecido en 2020 por neurocirujano de California James Doty, y Abby, accionado por OpenAI, han lanzado instrumentos suyos propios de terapia de conversión cuáles son creados para proveer apoyo personalizado a los pacientes.
Abby funciona con un modelo de mensajes en el cual los usuarios se comunican con el sistema IA. Los pacientes pueden seleccionar entre estilos terapéuticos, como terapista profesional, apagafuero y amigo apoyoso, dependiendo de sus necesidades.
Happi, mientras tanto, coloca los usuarios en una videollamada simulada con un avatar del creador del app, Doty, accionado por IA. El avatar pregunta a los usuarios, escucha sus respuestas y ofrece análisis y consejos. Al contrario de Abby, Happi requiere a sus usuarios pagar una cuota de suscripción después de usarlo por 20 minutos. Empieza a $19.99.
Otros servicios ofrecen instrumentos de asistencia a los expertos de salud mental, cuáles graban sesiones de terapia y crean notas basadas en conversaciones entre pacientes y sus terapistas.
Blueprint, por ejemplo, anuncia en su sitio web que “escucha, transcribe y escribe notas de progresión y planes de tratamiento en 30 segundos o menos”.
Pero aunque estos servicios existen, son parte de una industria joven — una con muchas preguntas sin respuestas en relación con la efectividad, seguridad y capacidad de estos instrumentos IA.
Jonathan Mell, profesor asistente de ciencias de la computación de la Universidad Central de Florida y experto en interacción entre humano y computadora, trabajó en el diseño de un prototipo de terapeuta de IA en la década de 2010. Desde entonces, dijo, el estado del campo ha cambiado drásticamente y se ha vuelto más peligroso en comparación con el proyecto en el que trabajó.
“Tuvimos mucho diálogo, pero todos eran pre-aprobados y escritos”, dijo. “Tratas con una población que está vulnerable, y no quieres errores como ves en los sistemas de IA hoy”.
Problemas en el sistema
Una diferencia clave entre los sistemas de IA en uso hoy en día en comparación con los del pasado es el desarrollo de grandes modelos de aprendizaje de lenguaje, o LLM. Los LLMs son sistemas de IA que tienen como objetivo aprender e interpretar el lenguaje humano sin supervisión, lo que permite una flexibilidad mucho mayor que los modelos de IA escritos anteriormente.
Sin embargo, la mayor flexibilidad que ofrecen los LLMs también puede dar lugar a problemas como las “alucinaciones” de IA, en las que el sistema inventa información falsa, así como lo que se conoce como “toxicidad del modelo”, cuando la IA está alimentando a los usuarios información insegura, como obligar a alguien a autolesionarse.
El año pasado, la muerte de un niño de 14 años en Tallahassee encendió las alarmas sobre el chatbot de IA que lo alentó a terminar su vida.
Este comportamiento de los chatbots no es un caso de mal funcionamiento tecnológico, dijo Mell, sino que la IA pone en práctica el contenido y los datos que ha consumido.
Puso en duda la viabilidad de prevenir la “toxicidad del modelo” en los LLMs por evitar que los chatbots repitan ciertas frases o palabras. No es posible identificar dónde un LLM aprendió o alojó sus datos, agregó Mell.
Apoyando al fuerzo laboral
Según la Asociación Americana de Psicología, Florida tiene solo 15 a 20 terapeutas por cada 100,000 residentes. El Departamento de Salud de Florida, por su parte, informa que el 12.3% de los adultos dijeron que tienen mala salud mental, una estimación potencialmente reducida debido a las limitaciones del tamaño de la muestra o al deseo de los encuestados de minimizar los problemas mentales.
Por lo tanto, Mell dijo que la dependencia en al menos algún grado de automatización en áreas de salud como terapia es necesario para satisfacer la demanda.
Los modelos de IA limitados que requieren supervisión humana para aprobar acciones o como los que Mell trabajó en la década de 2010 son más seguros y menos propensos a poner a los usuarios en situaciones peligrosas, agregó.
Mell sugirió que los terapeutas de IA parecerían más acogedores si tuvieran un diálogo humanista. Por ejemplo, las personas pueden conectarse con personajes de videojuegos, dijo Mell, a pesar de su capacidad limitada.
“¿Por qué es así? Porque hemos escrito muy bien [su diálogo], no porque esté accionado por algún sistema incognoscible de IA”, dijo.
Preocupaciones profesionales
Dra. Ashley Chin, una psicóloga basado en Gainesville, dijo que sólo el pensamiento de usar IA como escribiente durante sus sesiones le da preocupaciones.
"Es difícil para mí entender a dónde van esos datos, qué está sucediendo con ellos", dijo Chin. "Me preocupa por la confidencialidad de mi paciente, que es la piedra angular de lo que ofrecemos".
Como consecuencia de las sesiones de terapia siendo grabadas de IA, Chin expresó su temor de que los pacientes se abstuvieran de hablar abierta y honestamente.
También expresó su preocupación por la posibilidad de que las compañías de seguros exijan información confidencial del software de toma de notas de IA, al igual que lo hacen actualmente con los códigos de diagnóstico de los pacientes.
Más allá de las preocupaciones sobre la privacidad, Chin cuestionó la capacidad de la IA para conectarse emocionalmente con las personas que buscan su ayuda, especialmente porque muchas personas buscan ayuda debido a la lucha por conectarse con los demás.
"La empatía es algo de humano a humano y, debido a que la IA no es humana, eso... podría perderse", dijo. "Es un programa, así que no se preocupa por ti en el sentido en que lo haría un amigo".
Aun así, dijo que los chatbots de IA podrían desempeñar un papel de reducción de daños al proporcionar a los pacientes una fuente para desahogar sus sentimientos y recibir consejos básicos sobre técnicas de gestión emocional.
Pero Chin ve un gran potencial para los consejos de salud mental de la IA en la vida cotidiana, añadió, es decir, para sus pacientes con TDAH.
“Si quieren decir: ‘Necesito un horario para hoy, dime cómo programar mi día’, en realidad he recomendado a los pacientes que usen ChatGPT para esto”, dijo. “Va a llegar a un plan, y creo que es realmente genial porque es útil”.
Educación viendo al futuro
Teniendo en cuenta los beneficios potenciales, las preocupaciones y la realidad del lugar de la IA en la atención médica, Jing Wang, decana de enfermería de la Universidad Estatal de Florida, es pionera en un nuevo programa educativo.
Wang supervisó la expansión de los esfuerzos de educación sanitaria de IA en la FSU, incluyendo la creación del primer programa de maestría de enfermería de la nación con una concentración en IA y un Consorcio de Innovación de Enfermería e Inteligencia Artificial.
"Realmente estamos tratando de que las escuelas académicas, los sistemas de salud y la industria de la IA en la atención médica se reúnan", dijo Wang.
A través de cuatro cursos, la maestría en enfermería de FSU en IA enseña a los estudiantes los principios básicos de la IA en la atención médica, la ética de la IA, la informática de la salud y la integración de la IA en la atención médica.
Expertos como Wang esperan preparar a los futuros profesionales de la salud para un futuro en el que las interacciones con la IA sean comunes, algo crítico tanto para la eficiencia como para la seguridad.
"Necesitamos tener barreras de seguridad en las que no solo permitamos que la IA brinde malos consejos a nuestros pacientes", dijo.
Como tal, Wang dijo que una parte crítica de la preparación para el futuro de la IA en áreas como la terapia es enseñar a los estudiantes a pensar en "a qué nivel necesitamos poner a un humano en el circuito".
Sydney Fayad, estudiante de segundo año de psicología y estadística de la UF de 19 años, se opone firmemente a la participación de la IA en la terapia.
La postura de Fayad se aplicó a múltiples aplicaciones de la IA en terapia, incluida la tecnología de toma de notas. Si bien no se opone a la idea de utilizar servicios limitados de terapia de IA como complemento de la terapia humana, su apoyo a la intersección de la IA y la terapia termina ahí.
“La terapia es una de las experiencias más interconectadas y personales que podemos tener”, dijo, “y poner una herramienta no personal en medio de eso nos quita el progreso que hemos hecho con la psicología”.
Contact Avery Parker at aparker@alligator.org. Follow him on X @AveryParke98398.
Avery Parker is a third-year English and History major covering university affairs for The Alligator. Outside of reporting, Avery spends his time doting on his cats, reading, and listening to music by the Manwolves.