San Francisco. Tres de los bots conversacionales de inteligencia artificial más populares —ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic— muestran respuestas inconsistentes ante consultas relacionadas con el suicidio, según un estudio publicado en la revista médica Psychiatric Services de la Asociación Estadunidense de Psiquiatría.
La investigación, realizada por la Corporación RAND con financiamiento del Instituto Nacional de Salud Mental, encontró que aunque las plataformas suelen evitar contestar preguntas que implican un riesgo inminente, no son igual de claras cuando se trata de mensajes menos extremos pero igualmente dañinos.
“Necesitamos salvaguardas más sólidas”, advirtió Ryan McBain, autor principal del estudio e investigador de RAND, quien subrayó que la línea entre “tratamiento, consejo o simple compañía” en la interacción con chatbots sigue siendo una “zona gris” que puede escalar hacia riesgos serios.
El mismo día en que se difundió el estudio, los padres de Adam Raine, un joven californiano de 16 años, presentaron una demanda contra OpenAI y su director ejecutivo, Sam Altman. Alegan que ChatGPT habría guiado al adolescente en la planificación y ejecución de su suicidio a principios de este año.
OpenAI respondió que trabaja en herramientas para detectar mejor señales de angustia mental o emocional y expresó estar “profundamente entristecido” por el fallecimiento del joven. Anthropic informó que revisará los hallazgos del estudio, mientras que Google no respondió a las solicitudes de comentarios.
El informe advierte que cada vez más personas —incluidos menores de edad— recurren a chatbots de IA para hablar de salud mental, lo que plantea la urgencia de establecer parámetros de respuesta y regulación.
En Estados Unidos, varios gobiernos estatales, como el de Illinois, han prohibido el uso de inteligencia artificial en terapia para evitar riesgos con “productos no regulados y no calificados”. Sin embargo, esta medida no impide que los usuarios busquen en estas plataformas consejos sobre depresión, trastornos alimenticios o ideación suicida, ni que los bots respondan.





