Las charlas con la inteligencia artificial pueden no ser tan privadas como parece. Las claves para protegerse y qué configurar en la aplicación
31.07.2025 • 22:00hs • Alerta máxima
Alerta máxima
¿Tus consultas en ChatGPT las pueden leer otras personas?: la advertencia de una experta y cómo evitarlo
En un tweet publicado por la investigadora Luiza Jarovsky, se encendió una alarma en torno a la privacidad digital: muchas personas están compartiendo involuntariamente sus interacciones con ChatGPT, y estas conversaciones están siendo indexadas por Google.
Aunque ChatGPT no hace públicos los chats por defecto, hay maneras en que los usuarios pueden exponer sus conversaciones sin saberlo. Esto puede deberse a enlaces compartidos o configuraciones malinterpretadas.
Este tipo de situaciones ocurre en un contexto donde crece el uso de inteligencia artificial en el trabajo y en la vida cotidiana, y donde muchos usuarios confían datos sensibles a estas herramientas creyendo que sus charlas son 100% privadas.
¿Cómo ocurre esta exposición involuntaria?
Jarovsky explica en su tweet que, sin saberlo, los usuarios pueden habilitar opciones que permiten que las conversaciones con ChatGPT queden accesibles a través de buscadores como Google. Al compartir enlaces, o al dejar habilitada la opción de compartir, se corre el riesgo de hacer públicas esas sesiones.
Además, según pudo comprobar, algunos historiales de chat aparecen indexados por motores de búsqueda, lo cual multiplica el riesgo de exposición. Esto representa un serio problema para quienes utilizan IA para cuestiones laborales o personales, que se exponen a:
- Pérdida de privacidad: se puede divulgar información personal, laboral o sensible sin quererlo
- Impacto legal y reputacional: datos mal protegidos podrían generar conflictos legales o dañar la imagen de una persona o empresa
- Falta de control: una vez indexado el contenido, eliminarlo puede ser difícil o incluso imposible
Casos como este refuerzan la necesidad de mayor regulación sobre el uso de inteligencia artificial y privacidad digital.
¿Cómo evitar que tus chats con ChatGPT se hagan públicos?
Estas son las principales recomendaciones para cuidar la privacidad que propone Jarovsky:
- "No uses la función 'compartir' (ya que estas interacciones podrían volverse indexables)"
- "Nunca compartas información personal sobre vos u otras personas (ya que podría haber filtraciones inesperadas)"
- "Desactiva la función de memoria (para reducir la cantidad de datos personales sobre vos que se procesan y se cruzan con otra información sobre vos; también podría ayudar a reducir la dependencia del chatbot)"
- "Haz tus conversaciones anónimas, desactiva el entrenamiento de la IA (para reducir la cantidad de información sobre vos que se procesa y que potencialmente podría filtrarse)"
- "Revisa otras configuraciones de privacidad que puedan ser relevantes y activalas"
También se pueden utilizar las siguientes:
- Activar chats privados o temporales: en la configuración de ChatGPT, buscar opciones que impidan guardar el historial
- No compartir enlaces públicos: evitar pegar links de conversaciones en redes sociales o sitios abiertos
- Revisar las configuraciones de privacidad: desactivar funciones que permitan el guardado automático de chats
- Eliminar historiales: borrar las conversaciones en que se compartan datos sensibles
- No incluir datos personales: evitar escribir DNI, direcciones, mails o información delicada.
Estas recomendaciones son especialmente importantes en un entorno donde se aceleran las integraciones de IA con otras plataformas, como ocurre con ChatGPT para leer PDF en segundos o generar código automáticamente.
Un problema de diseño y responsabilidad
"La gente no sabe que está haciendo púbicas sus interacciones con ChatGPT", insiste Jarovsky. Su mensaje apunta a que no es un fallo del usuario, sino un problema de diseño. Las plataformas deberían dejar más claro qué se comparte y qué no, y ofrecer controles accesibles y seguros desde el inicio.
Esta situación también refuerza la necesidad de comprender cómo funcionan estas herramientas. En muchas ocasiones, el usuario promedio no tiene conocimientos técnicos suficientes para saber si su información está protegida. Por eso, la educación digital sobre el uso de IA es clave.
El llamado de Luiza Jarovsky es claro: si usás ChatGPT, asegurate de que tus conversaciones no sean públicas. Revisá tus configuraciones, evitá compartir enlaces innecesarios y, sobre todo, no confíes datos sensibles a menos que estés completamente seguro de su protección.