La protección de los datos personales se convirtió en una preocupación central, en un contexto donde las herramientas de inteligencia artificial (IA) se integran cada vez más en la vida cotidiana.

En este sentido, ChatGPT, el popular asistente conversacional desarrollado por OpenAI y disponible en múltiples plataformas, brinda múltiples funciones útiles, pero también plantea interrogantes sobre la privacidad de los usuarios. ¿Qué medidas pueden tomarse para evitar que otras personas accedan a información sensible compartida en estas conversaciones?

Cómo evitar que otros accedan a tu información personal al usar ChatGPT

Según expertos en ciberseguridad y privacidad digital, el primer paso es entender cómo funciona el sistema.

ChatGPT puede utilizar las conversaciones para mejorar sus respuestas, algo que implica que parte del contenido podría ser procesado por el modelo. Aunque no se comparte públicamente, esta dinámica exige precaución. Para minimizar riesgos, suelen recomendar evitar ingresar datos sensibles como:

Además, las plataformas que integran el asistente—como Copilot de Microsoft o la app oficial de OpenAI— ofrecen configuraciones específicas para reforzar la privacidad.

Una de las más importantes es la posibilidad de desactivar el historial de chat o el uso de las conversaciones para entrenamiento. En el caso de Copilot, por ejemplo, los usuarios pueden acceder a la sección de configuración y desactivar la opción de "Personalización y memoria", lo que impide que el sistema recuerde información entre sesiones.

Varios expertos recomiendan varios tips para preservar la privacidad en ChatGPT

También es posible eliminar conversaciones anteriores o gestionar qué datos se almacenan.

Otro aspecto clave es el control de acceso. Si se utiliza ChatGPT en dispositivos compartidos, es fundamental cerrar sesión tras cada uso y evitar dejar la aplicación abierta.

En entornos laborales o educativos, donde el acceso puede estar vinculado a cuentas institucionales, se recomienda revisar los permisos y asegurarse de que no haya sincronización automática con correos, calendarios o archivos personales.

Algunas versiones avanzadas permiten incluso configurar autenticación en dos pasos para reforzar la seguridad. En muchos casos, los riesgos no provienen del modelo de IA en sí, sino de las aplicaciones que lo rodean, por lo que algunos consejos adicionales incluyen:

Los especialistas también advirtieron sobre el uso de extensiones o integraciones de terceros que pueden acceder a las conversaciones.

Antes de habilitar cualquier complemento, es necesario leer los términos de uso y verificar que provenga de fuentes confiables

Te puede interesar