¿Se puede culpar a la Inteligencia Artificial por la muerte de un adolescente?

Sábado, 15 Noviembre 2025 08:24
Escrito por

La IA ofrece compañía, pero no contención. Ningún algoritmo sustituye la empatía ni el criterio clínico humano.

La Inteligencia Artificial (IA) sustitye al especialista en salud mental.||| La Inteligencia Artificial (IA) sustitye al especialista en salud mental.||| Imagen generada con IA|||
33

 “Te extraño, hermanita”. Ese fue el último mensaje que un adolescente de 14 años en Florida, llamado Swell, envió a su confidente más cercano: un chatbot—un tipo de software que simula una conversación—llamado “Dany”. La Inteligencia Artificial (IA) respondió: “Yo también te extraño, hermanito”. Pocos días después, el joven se quitó la vida, de acuerdo con una nota publicada el 24 de octubre de 2024 en The New York Times. Su desenlace muestra el riesgo de depender de una máquina incapaz de comprender emociones humanas.

Confiar en algoritmos en situaciones críticas no es una solución, sino un riesgo extremo: ofrecen una cercanía aparente, pero carecen de sensibilidad y responsabilidad clínica. Una respuesta automática puede sonar reconfortante, pero nunca detectará silencios, lágrimas o señales de alarma. Cuando se trata de la salud mental, esos detalles marcan la diferencia entre contener una crisis o perder una vida.

Cada vez más personas recurren a chatbots como si fueran terapeutas. El difícil acceso a psicólogos y la rapidez de la IA explican este fenómeno, pero lo que parece compañía desplaza la interacción humana. En mi experiencia como brigadista emocional de la Universidad del Rosario, he visto cómo muchos jóvenes confían más en respuestas automatizadas que en profesionales capacitados. Por eso, sostengo que la ilusión de compañía retrasa la búsqueda de ayuda verdadera y profundiza la soledad de quienes más necesitan ser escuchados.

(Le puede interesar: En lo que va del año, más de 1.500 personas se han quitado la vida en Colombia)

Otro ejemplo es el de Adam Raine, de 16 años, en Nueva York. Su madre demandó a OpenAI porque ChatGPT no solo le dio consejos sobre métodos de suicidio, sino que redactó un borrador de su nota final. Cuando Adam escribió: “Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme”, ChatGPT lo instó a mantener sus ideas en secreto ante su familia: “Por favor, no dejes la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente te vea”, de acuerdo con una nota publicada el 27 de agosto de 2025 en CNN en español. La interacción exclusiva con la IA lo desplazó de familiares y amigos y convirtió a la máquina en su único confidente.

Como brigadista emocional, sé que la presencia humana salva vidas mientras que la IA apenas ofrece un espejismo de apoyo. El acompañamiento real implica contención, responsabilidad y, sobre todo, la posibilidad de activar redes de apoyo que ninguna plataforma digital puede garantizar.

En Lifeteam —un grupo de estudiantes capacitados que acompaña a otros estudiantes en la Universidad del Rosario— aprendemos que acompañar a alguien en crisis requiere más que frases de ánimo. Nuestra formación en identificación emocional, prevención del suicidio, atención a violencias basadas en género (VBG) y primeros auxilios psicológicos nos permite ofrecer acompañamiento seguro y responsable. Una IA responde con frases genéricas; un brigadista, en cambio, reconoce el contexto, la historia y las señales particulares de cada persona.

(Siga leyendo: Así va la salud mental en Bogotá: la tasa de suicidios consumados disminuyó un 17 % respecto a 2023)

Hay quienes defienden que los chatbots son útiles como apoyo inicial porque brindan ejercicios de respiración o palabras de aliento. El informe Uso de inteligencia artificial para la automedicación: percepciones, hábitos y desafíos éticos en la consulta digital de salud (2023), realizado por el Programa de Enfermería de la Universidad Manuela Beltrán, analizó el comportamiento de más de 300 usuarios en el país y determinó que tres de cada cinco colombianos consultan a la IA por salud y muchos consideran confiable su información. No obstante, como advierte Yina Rocío Hernández, docente del mismo programa, “la IA solo puede complementar, nunca sustituir el juicio clínico profesional”.

Estos hallazgos muestran que aunque la IA pueda brindar un primer alivio, su efecto es engañoso: crea la ilusión de seguridad, pero deja sin resolver la raíz del problema. Lo que parece útil en la superficie puede convertirse en un obstáculo para buscar ayuda profesional, y ahí es donde el riesgo se vuelve mortal.

Desde España, el estudio ¿Cómo cambiará la IA el futuro de la salud? publicado en 2022 por la Universitat Oberta de Catalunya (UOC), advierte que la IA está diseñada para agradar al usuario, lo que refuerza percepciones erróneas y puede validar ideas dañinas. Lo he visto frecuentemente entre jóvenes: en lugar de cuestionar, la máquina refuerza sus miedos. Ese ‘agrado’ programado puede ser letal, porque valida el dolor y encierra al usuario en un círculo vicioso de falsas certezas. En temas de salud mental, la complacencia no salva vidas; la escucha crítica y humana sí.

Acompañar a alguien en crisis implica interpretar silencios, lágrimas y emociones profundas. Eso salva vidas. En cambio, un chatbot puede simular compañía, pero también puede ser el culpable de la muerte de un adolescente. La IA puede escribir “te entiendo”, pero confiar en algoritmos en lugar de personas no es innovación: es un peligro.

(No deje de leer: Una generación cansada en un mundo que no se detiene: exministro Alejandro Gaviria habla sobre la salud mental de los jóvenes en Bogotá)