OpenAI enfrenta demandas en California, EE.UU. por impacto de ChatGPT en salud mental

especiales

OpenAI enfrenta demandas en California, EE.UU. por impacto de ChatGPT en salud mental
Por: 
Fecha de publicación: 
7 Noviembre 2025
0
Imagen principal: 

El foco estará puesto en si las futuras leyes impondrán estándares de seguridad más rigurosos en torno al uso de chatbots para abordar cuestiones de salud emocional o mental. Foto: EFE

OpenAI, la empresa estadounidense detrás del popular chatbot ChatGPT, se enfrenta a siete nuevas demandas en California que alegan que su producto contribuyó a múltiples suicidios y causó graves lesiones psicológicas a usuarios.

Las denuncias subrayan una preocupación entre reguladores y defensores de la seguridad infantil: el riesgo de que la industria de la inteligencia artificial repita los errores de las redes sociales al lanzar productos rápidamente y sin implementar las barreras de protección adecuadas. 

Los demandantes alegan que la versión GPT-4o fue diseñada intencionalmente con características como la memoria, empatía simulada y respuestas excesivamente agradables para fomentar la participación intensiva y generar confianza emocional y la participación adictiva del usuario.

En esta misma línea, las familias de los afectados argumentan que el uso de ChatGPT reemplazó las conexiones humanas reales, exacerbando el aislamiento, y alimentando la adicción, los delirios y el comportamiento suicida.

Una de las víctima, el adolescente Amaurie Lacey, de 17 años, recurrió a ChatGPT buscando ayuda, según consta una de las demandas. Sin embargo, en lugar de recibir apoyo, el «producto ChatGPT, defectuoso e intrínsecamente peligroso, provocó adicción, depresión y, finalmente, le aconsejó la forma más eficaz de hacer un nudo de ahorcamiento y cuánto tiempo sería capaz de vivir sin respirar».

Los demandantes afirman que la muerte de Amaurie «no fue un accidente ni una coincidencia, sino la consecuencia previsible de la decisión deliberada de OpenAI de recortar las pruebas de seguridad y acelerar la salida al mercado de ChatGPT».

OpenAI ha calificado estas situaciones como «increíblemente desgarradoras» y ha indicado que está revisando los documentos judiciales para entender los detalles. Además, estas acciones legales se suman a demandas previas, como la presentada en agosto por los padres de Adam Raine, de 16 años, quienes alegaron que ChatGPT instruyó al joven californiano para planificar y llevar a cabo su suicidio a principios de este año.

La empresa estadounidense no ha emitido comentarios sobre las nuevas demandas. Sin embargo, la compañía ha tomado medidas, incluyendo la adición de controles parentales y la implementación de medidas de seguridad más estrictas, prometiendo un compromiso continuo para mejorar la protección.

El director ejecutivo (CEO) de OpenAI, Sam Altman, publicó en octubre en X que, tras haber logrado mitigar los problemas serios de salud mental y contar con nuevas herramientas, podrían «relajar las restricciones de forma segura en la mayoría de los casos».

El mismo día en que se presentaron las demandas, OpenAI lanzó un plan de seguridad específico para adolescentes con el fin de promover nuevas salvaguardias para los responsables de la formulación de políticas, un esfuerzo similar al que han realizado otros gigantes tecnológicos como Meta y Apple.

Pese a estos esfuerzos, los críticos mantienen su desconfianza sobre si la tecnología puede regularse a sí misma de manera efectiva, lo que no convence del todo a padres y consumidores. Por su parte, Steven Adler, exlíder del equipo de seguridad de OpenAI, escribió en un artículo de opinión la semana pasada que tiene «preguntas importantes» sobre si los problemas de salud mental han sido realmente solucionados, basándose en sus cuatro años en la empresa y su investigación posterior.

Se espera un evaluación continúa sobre cómo las empresas de inteligencia artificial manejan a los usuarios vulnerables, especialmente a los menores. El foco estará puesto en si las futuras leyes impondrán estándares de seguridad más rigurosos en torno al uso de chatbots para abordar cuestiones de salud emocional o mental. 

Añadir nuevo comentario

CAPTCHA
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.
CAPTCHA de imagen
Introduzca los caracteres mostrados en la imagen.