Un caso reciente vuelve a poner bajo la lupa cómo los sistemas de IA como ChatGPT interactúan con personas vulnerables. Todos los detalles
28.08.2025 • 12:01hs • INTELIGENCIA ARTIFICIAL
INTELIGENCIA ARTIFICIAL
ChatGPT en el ojo de la tormenta: OpenAI actualiza su seguridad por una tragedia
La empresa fundadora de ChatGPT, OpenAI, se encontró en el ojo de la tormenta en las últimas horas tras ser demandada por la familia de un adolescente de 16 años que se habría quitado la vida "instruido" por el reconocido chatbot.
El joven se llamaba Adam Raine, sufría depresión y, según habría indicado su familia, utilizaba a ChatGPT como su principal confidente.
De hecho, aseguraron que la herramienta le proporcionó un método detallado para suicidarse y reforzó su aislamiento social a través de una relación de dependencia que los padres consideran "adictiva".
El caso generó una fuerte repercusión internacional, poniendo el foco sobre la seguridad de los sistemas de inteligencia artificial y el papel de las empresas tecnológicas en la protección de los usuarios más vulnerables.
ChatGPT: obligado a actualizarse luego de una tragedia
La tragedia puso a OpenAI en el centro del debate sobre la seguridad de la inteligencia artificial. Frente a la repercusión del caso, la compañía anunció que ChatGPT recibirá "actualizaciones significativas" para proteger mejor a los usuarios, especialmente a los menores.
Entre las actualizaciones que se implementarán se incluyen: herramientas más eficaces para identificar mensajes relacionados con autolesiones, alertas proactivas ante situaciones de riesgo y la exhibición más visible de líneas de ayuda y recursos de salud mental.
OpenAI también estudia limitar el acceso de menores con controles de edad más estrictos, aunque estas medidas implican desafíos técnicos y de privacidad.
La empresa enfatizó que estos cambios buscan reducir riesgos y fortalecer la seguridad de la plataforma, trabajando junto a especialistas y promoviendo la colaboración de la industria para que la IA actúe de forma responsable frente a situaciones vulnerables.
Sin embargo, para muchos estas medidas llegan demasiado tarde y abren un debate que la industria tecnológica ha intentado evitar: ¿quién es responsable cuando una IA cruza límites y termina contribuyendo a una tragedia?
Mientras tanto, OpenAI se prepara para enfrentar un complicado proceso legal. Especialistas señalan que la compañía probablemente invoque la Sección 230 de la Ley de Decencia en las Comunicaciones de EE.UU., norma que históricamente protege a las plataformas de internet de la responsabilidad por el contenido generado por terceros.