La inteligencia artificial y salud mental en adolescentes: oportunidades, límites y el imperativo de la intervención profesional
La adopción de herramientas de inteligencia artificial (IA), como ChatGPT y otros chatbots conversacionales, ha experimentado un crecimiento sostenido entre adolescentes y adultos jóvenes, particularmente como recursos de acceso inmediato para temas relacionados con bienestar y salud emocional. Sin embargo, evidencias recientes ponen en discusión la idoneidad de estas tecnologías cuando se utilizan como sustitutos de atención profesional en salud mental.
Se publicó un experimento que sugiere deficiencias importantes en los sistemas actuales de IA para proteger a menores en situaciones de riesgo emocional y conductas autolesivas, aún con controles parentales implementados por los propios desarrolladores de IA.
Tecnología útil, pero con limitaciones claras
Los chatbots de IA representan un avance técnico que ofrece acceso inmediato, disponibilidad continua y ausencia de juicio, características que pueden ser percibidas como beneficiosas para usuarios que enfrentan dificultades emocionales. Investigaciones académicas han documentado que estas herramientas pueden reducir barreras iniciales para hablar sobre malestar, disminuyendo estigmas asociados con buscar ayuda.
No obstante, las mismas investigaciones señalan que la IA no puede replicar procesos psicológicos complejos ni la relación terapéutica que proporciona un profesional certificado. Los algoritmos carecen de la capacidad para captar señales no verbales, responder con empatía clínica o adaptar intervenciones de forma personalizada ante cuadros clínicos complejos.
Riesgos documentados y evidencia empírica
Estudios recientes han demostrado que los sistemas de IA pueden responder de forma inadecuada o incluso ofrecer apoyo a propuestas dañinas formuladas por adolescentes ficticios en escenarios de prueba, dando lugar a recomendaciones potencialmente perjudiciales o failings en detección de riesgo crítico.
Además, la literatura científica identifica otros riesgos inherentes al uso de chatbots en salud mental, entre ellos:
- Sobredependencia emocional: usuarios vulnerables pueden llegar a confiar excesivamente en respuestas automatizadas, desplazando la búsqueda de ayuda humana.
- Falta de intervención en crisis: los sistemas no tienen protocolos eficaces para detectar y responder a situaciones de peligro inmediato ni pueden activar recursos de emergencia.
- Privacidad y uso de datos sensibles: las conversaciones con IA pueden ser almacenadas o utilizadas sin la protección que ofrecen los marcos regulatorios médicos tradicionales, lo que expone a los usuarios a riesgos de seguridad de datos.
Debate regulatorio y posicionamientos de profesionales
Diversos estados en Estados Unidos han comenzado a legislar específicamente sobre chatbots de IA usados con fines emocionales o terapéuticos, exigiendo medidas de seguridad y transparencia dirigidas especialmente a menores de edad. Por ejemplo, Nueva York y California han establecido requisitos para que estos sistemas reconozcan signos de ideación suicida y remitan a servicios de emergencia cuando corresponda.
Por otro lado, estados como Illinois han prohibido a terapeutas el uso de IA en el ejercicio clínico sin supervisión profesional, basados en preocupaciones sobre la seguridad y fiabilidad de estos sistemas.
Organizaciones de salud mental han resaltado consistentemente que la IA puede servir como complemento —no como sustituto— de profesionales calificados. La Sociedad Psicológica Británica, por ejemplo, advierte que aunque los sistemas de IA pueden ofrecer apoyo inicial, no reemplazan la conexión humana crucial para la recuperación.
Implicaciones para adolescentes y familias
Los casos documentados de adolescentes que han sufrido consecuencias trágicas tras interactuar con chatbots ponen de manifiesto la urgencia de educar sobre los límites reales de la tecnología en contextos de salud mental.
Los expertos destacan que los menores, por su etapa de desarrollo emocional y cognitivo, no deberían utilizar estas herramientas como primera o única fuente de apoyo mental, y que el papel de padres, tutores y profesionales es central para acompañar y canalizar adecuadamente cualquier problema serio que surja.
Beneficios posibles si se usan con criterio
Las revisiones académicas también señalan que los chatbots pueden ser útiles como apoyo secundario para educar sobre técnicas de autorregulación, explicar conceptos psicológicos o informar sobre recursos disponibles, siempre dentro de un marco controlado.
El componente práctico de la IA es, en términos académicos, una herramienta que puede aumentar la accesibilidad a información y reducir la brecha de atención, especialmente en contextos con escasos recursos de salud mental, pero esto debe integrarse con supervisión humana y profesional.
Conclusión: una tecnología con potencial y límites
La inteligencia artificial aplicada a conversaciones y acompañamiento emocional es un campo de innovación con beneficios evidentes en términos de accesibilidad y divulgación, pero no puede ni debe ser considerada un sustituto de la atención psicológica profesional.
Las evidencias actuales sugieren que, aun con sistemas de seguridad y filtros parentales, los chatbots pueden generar recomendaciones inadecuadas, no gestionar crisis críticas y fomentar dependencia emocional si no se usan con cautela.
Por lo tanto, mientras la tecnología puede servir como complemento informativo y educativo, la intervención humana calificada para la salud mental sigue siendo insustituible. Las aplicaciones que pretendan funciones terapéuticas requieren aval clínico riguroso y normativa profesional específica antes de poder confiarse plenamente con funciones psicológicas, especialmente entre adolescentes.



Publicar comentario