En un tweet publicado por la investigadora Luiza Jarovsky, se encendió una alarma en torno a la privacidad digital: muchas personas están compartiendo involuntariamente sus interacciones con ChatGPT, y estas conversaciones están siendo indexadas por Google.

Aunque ChatGPT no hace públicos los chats por defecto, hay maneras en que los usuarios pueden exponer sus conversaciones sin saberlo. Esto puede deberse a enlaces compartidos o configuraciones malinterpretadas.

Este tipo de situaciones ocurre en un contexto donde crece el uso de inteligencia artificial en el trabajo y en la vida cotidiana, y donde muchos usuarios confían datos sensibles a estas herramientas creyendo que sus charlas son 100% privadas.

¿Cómo ocurre esta exposición involuntaria?

Jarovsky explica en su tweet que, sin saberlo, los usuarios pueden habilitar opciones que permiten que las conversaciones con ChatGPT queden accesibles a través de buscadores como Google. Al compartir enlaces, o al dejar habilitada la opción de compartir, se corre el riesgo de hacer públicas esas sesiones.

Además, según pudo comprobar, algunos historiales de chat aparecen indexados por motores de búsqueda, lo cual multiplica el riesgo de exposición. Esto representa un serio problema para quienes utilizan IA para cuestiones laborales o personales, que se exponen a:

Casos como este refuerzan la necesidad de mayor regulación sobre el uso de inteligencia artificial y privacidad digital.

¿Cómo evitar que tus chats con ChatGPT se hagan públicos?

Estas son las principales recomendaciones para cuidar la privacidad que propone Jarovsky:

También se pueden utilizar las siguientes:

Estas recomendaciones son especialmente importantes en un entorno donde se aceleran las integraciones de IA con otras plataformas, como ocurre con ChatGPT para leer PDF en segundos o generar código automáticamente.

Un problema de diseño y responsabilidad

"La gente no sabe que está haciendo púbicas sus interacciones con ChatGPT", insiste Jarovsky. Su mensaje apunta a que no es un fallo del usuario, sino un problema de diseño. Las plataformas deberían dejar más claro qué se comparte y qué no, y ofrecer controles accesibles y seguros desde el inicio.

Esta situación también refuerza la necesidad de comprender cómo funcionan estas herramientas. En muchas ocasiones, el usuario promedio no tiene conocimientos técnicos suficientes para saber si su información está protegida. Por eso, la educación digital sobre el uso de IA es clave.

El llamado de Luiza Jarovsky es claro: si usás ChatGPT, asegurate de que tus conversaciones no sean públicas. Revisá tus configuraciones, evitá compartir enlaces innecesarios y, sobre todo, no confíes datos sensibles a menos que estés completamente seguro de su protección.

Te puede interesar