OpenAI confirmó que trabaja en el desarrollo de un modo colaborativo dentro de ChatGPT.
Esta opción permite que varias personas participen en una misma conversación junto al asistente que, hasta ahora, solo mantenía una relación uno a uno con los usuairos.
Con esta actualización, la empresa busca que amigos, familiares o equipos de trabajo puedan investigar, planificar y resolver tareas en conjunto en ChatGPT.
La propuesta va en linea con una tendencia cada vez más marcada donde los asistentes de IA ya no se conciben únicamente como herramientas personales, sino como plataformas que pueden integrarse en dinámicas grupales.
El funcionamiento es sencillo: los usuarios invitados a un chat grupal pueden sumarse a la misma conversación y acceder a las respuestas del asistente en tiempo real.
Esto abre posibilidades para proyectos compartidos, desde la organización de un viaje hasta la coordinación de un trabajo académico o profesional.
ChatGPT ahora permite trabajar en equipo dentro de una misma conversación
La idea es que la inteligencia artificial (IA) actúe como un recurso común, disponible para todos los participantes.
La iniciativa refleja un cambio en cómo OpenAI entiende la relación entre personas y tecnología.
En lugar de pensar a ChatGPT solo como un asistente individual, la empresa busca que también participe en conversaciones grupales.
Esto podría modificar la forma en que se usan estos sistemas en el trabajo, la educación y otros espacios donde la colaboración es importante.
El lanzamiento está en fase de prueba y todavía no se confirmó cuándo estará disponible para el público, ni sus limitaciones técnicas o cantidad máxima de participantes.
Cómo evitar que otros accedan a tu información personal al usar ChatGPT
La protección de los datos personales se convirtió en una preocupación central, en un contexto donde las herramientas de IA se integran cada vez más en la vida cotidiana.
En este sentido, ChatGPT, el popular asistente conversacional desarrollado por OpenAI y disponible en múltiples plataformas, brinda múltiples funciones útiles, pero también plantea interrogantes sobre la privacidad de los usuarios.
¿Qué medidas pueden tomarse para evitar que otras personas accedan a información sensible compartida en estas conversaciones?
Según expertos en ciberseguridad y privacidad digital, el primer paso es entender cómo funciona el sistema.
ChatGPT puede utilizar las conversaciones para mejorar sus respuestas, algo que implica que parte del contenido podría ser procesado por el modelo.
Aunque no se comparte públicamente, esta dinámica exige precaución y para minimizar riesgos, los expertos suelen recomendar evitar ingresar datos sensibles como:
- nombres completos
- direcciones
- contraseñas
- números de tarjeta
- información médica
Además, las plataformas que integran el asistente—como Copilot de Microsoft o la app oficial de OpenAI— ofrecen configuraciones específicas para reforzar la privacidad.
Una de las más importantes es la posibilidad de desactivar el historial de chat o el uso de las conversaciones para entrenamiento. También es posible eliminar conversaciones anteriores o gestionar qué datos se almacenan.
Otro aspecto clave es el control de acceso: si se utiliza ChatGPT en dispositivos compartidos, es fundamental cerrar sesión tras cada uso y evitar dejar la aplicación abierta.
En entornos laborales o educativos, donde el acceso puede estar vinculado a cuentas institucionales, se recomienda revisar los permisos y asegurarse de que no haya sincronización automática con correos, calendarios o archivos personales.
Algunas versiones avanzadas permiten incluso configurar autenticación en dos pasos para reforzar la seguridad.
En muchos casos, los riesgos no provienen del modelo de IA en sí, sino de las aplicaciones que lo rodean, por lo que algunos consejos adicionales incluyen:
- mantener actualizado el software
- usar contraseñas robustas
- revisar los permisos de cada app son prácticas esenciales