OpenAI, la compañía detrás de ChatGPT, actualizó sus términos de uso y habilitó la posibilidad de compartir conversaciones privadas con las autoridades en caso de detectar amenazas a la seguridad o riesgos de daño.
La medida fue comunicada en el blog oficial de la empresa y desató un fuerte debate entre especialistas en privacidad y usuarios.
"Cuando detectamos usuarios que están planeando dañar a otros, enrutamos sus conversaciones a flujos especializados donde son revisadas por un equipo reducido entrenado en nuestras políticas de uso", detallaron desde la firma.
"Si los revisores humanos determinan que un caso implica una amenaza inminente de daño grave hacia terceros, podríamos derivarlo a las autoridades policiales", agregaron.
El artículo publicado también abordó cómo se tratan los casos relacionados con salud mental y en qué situaciones se activa la intervención de revisores humanos, un tema especialmente sensible para la comunidad tecnológica y médica.
Aunque la medida generó controversia, no se trata de un hecho aislado. Muchas plataformas digitales con cifrado de extremo a extremo pueden verse obligadas a entregar información si lo ordena la justicia.
La diferencia en este caso es que OpenAI reconoció que existe una revisión previa de su personal antes de remitir datos a las fuerzas de seguridad.
Denuncia judicial para OpenAI
La actualización de las normas llegó poco después de que OpenAI enfrentara una denuncia judicial en los Estados Unidos, en la que se acusó a la empresa de homicidio culposo tras el suicidio de un adolescente de 16 años.
Los padres de la víctima sostienen que ChatGPT entregó consejos dañinos e incluso describió métodos de suicidio sin activar protocolos de emergencia.
De acuerdo con la demanda, el sistema no interrumpió las conversaciones en las que el joven expresó intenciones de quitarse la vida y tampoco envió alertas a pesar de identificar esos mensajes.
El abogado de la familia cuestionó la rapidez con la que OpenAI lanzó al mercado su modelo más reciente, pese a los "evidentes problemas de seguridad".
El caso reabre la discusión sobre los límites de la inteligencia artificial y la necesidad de establecer marcos regulatorios claros que protejan a los usuarios sin frenar la innovación.
Mientras tanto, la decisión de OpenAI de admitir que podría compartir conversaciones privadas con la policía marca un punto de inflexión en la relación entre privacidad, seguridad y el uso masivo de estas tecnologías.