¿Qué no se le debe preguntar a ChatGPT?

En esta nota de iProUP, expertos revelan los motivos clave por los que no deberías compartir información sensible con la inteligencia artificial
Por S.L.
¿Qué preguntas no tenés que hacerle a ChatGPT?
Innovación
12.06.2025 • 09:52hs • Innovación

ChatGPT, la aplicación de chatbot de inteligencia artificial (IA) desarrollada por la compañía OpenAI, se transformó en poco tiempo en un aliado infaltable para millones de personas en el mundo. Sin embargo, su empleo cotidiano esconde por detrás en riesgo clave para la seguridad de los usuarios.

Expertos en ciberseguridad de la empresa ESET advierten que existen ciertos tipos de preguntas que pueden dar respuestas inexactas, inapropiadas o incluso peligrosas. Pero también hay otros riesgos.

Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, señala que, al hablar de seguridad y privacidad, "hay información que se debe evitar incluir al realizar consultas".

"Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones", advierte.

¿Qué no se le debe preguntar a ChatGPT?

Según ESET, algunas de las principales preguntas que no deberías hacer a ChatGPT y el porqué:

"Al interactuar con herramientas como ChatGPT, es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras.", sentencia Gutiérrez Amaya.

Te puede interesar