En esta nota de iProUP, expertos revelan los motivos clave por los que no deberías compartir información sensible con la inteligencia artificial
12.06.2025 • 09:52hs • Inteligencia Artificial
Inteligencia Artificial
¿Qué preguntas no tenés que hacerle a ChatGPT?
ChatGPT, la aplicación de chatbot de inteligencia artificial (IA) desarrollada por la compañía OpenAI, se transformó en poco tiempo en un aliado infaltable para millones de personas en el mundo. Sin embargo, su empleo cotidiano esconde por detrás en riesgo clave para la seguridad de los usuarios.
Expertos en ciberseguridad de la empresa ESET advierten que existen ciertos tipos de preguntas que pueden dar respuestas inexactas, inapropiadas o incluso peligrosas. Pero también hay otros riesgos.
Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, señala que, al hablar de seguridad y privacidad, "hay información que se debe evitar incluir al realizar consultas".
"Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones", advierte.
¿Qué no se le debe preguntar a ChatGPT?
Según ESET, algunas de las principales preguntas que no deberías hacer a ChatGPT y el porqué:
- Preguntas relacionadas con información confidencial o sensible: Nunca compartir datos personales, bancarios, contraseñas o cualquier tipo de información sensible en conversaciones con una inteligencia artificial. Las herramientas de IA desde ESET destacan que no son entornos cifrados o seguros para compartir datos sensibles.
- Preguntas relacionadas con datos confidenciales o de propiedad de la empresa: Los empleados que utilicen IA deben ser extremadamente cuidadosos cuando traten con datos corporativos confidenciales. Nunca compartir informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales con estas plataformas. Esto se debe a que la IA puede no distinguir automáticamente entre datos públicos y privados, lo que supone un riesgo significativo para la seguridad e integridad de la información corporativa.
- Preguntas que esperan un asesoramiento médico, legal o financiero definitivo: Además de las cuestiones de seguridad y privacidad relacionadas con el uso de ChatGPT, también es importante destacar aspectos relacionados con la veracidad de la información y el uso responsable de la información proporcionada por la IA.
- Preguntas que requieren opiniones, preferencias o sentimientos humanos: Aunque la IA utiliza un lenguaje natural y amigable, no tiene conciencia, emociones u opiniones reales.
- Preguntas sobre decisiones personales importantes: La IA puede ser muy útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para tomar decisiones fundamentales sobre la vida personal, la carrera o el propio bienestar. Es posible que la IA no comprenda el contexto completo de las emociones y circunstancias.
"Al interactuar con herramientas como ChatGPT, es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras.", sentencia Gutiérrez Amaya.