Meta AI, el asistente de inteligencia artificial (IA) desarrollado por Meta, ya es usado por millones de usuarios en WhatsApp, Messenger e Instagram.
Sin embargo, en el último tiempo, su implementación desató una intensa polémica que gira en torno a la privacidad de los usuarios y el uso de sus datos personales.
Revelan por qué no se debe compartir información personal con Meta AI
La crítica más fuerte gira en torno a la integración de Meta AI en WhatsApp y el manejo de la privacidad digital con el asistente.
Al respecto, el abogado especialista en derecho tecnológico Eduard Blasi advirtió públicamente los riesgos que implica interactuar con el chatbot, en una entrevista con el medio El Español.
Según Blasi, "todo lo que digas puede ser analizado y utilizado por Meta", una afirmación que se basa en el anuncio oficial de la compañía, donde se reconoce que los datos compartidos con la inteligencia artificial pueden ser utilizados para entrenar sus algoritmos.
La controversia se intensificó con la aparición del llamado "botón azul" en WhatsApp, que invita a los usuarios a "preguntar a Meta AI o buscar".
Aunque parece una función inofensiva, Blasi sostuvo que su activación implica una cesión de información que escapa al control del usuario. El problema, según el letrado, es que no existe una opción clara para desactivar el asistente, y muchos usuarios lo activaron de forma involuntaria durante conversaciones privadas, sin saber que estaban compartiendo datos con el sistema de Meta.
Meta respondió a estas inquietudes y detalló que su inteligencia artificial no tiene acceso a los chats privados, sino únicamente a las conversaciones en las que los usuarios interactúan directamente con el asistente.
Sin embargo, Blasi cuestionó el nivel de transparencia de la empresa y sostuvo que no se ofrece un desglose detallado sobre qué datos se utilizan ni cómo se integran en el entrenamiento de los modelos de lenguaje.
La polémica se suma a una serie de cambios en la política de privacidad de la compañía, que desde mayo de 2025 comenzó a utilizar contenido público de sus plataformas —como publicaciones, comentarios y fotos— para entrenar sus sistemas de IA, especialmente en Europa.
Aunque se excluyen los mensajes privados y los datos sensibles, el consentimiento tácito ha sido motivo de críticas, ya que muchos usuarios no fueron plenamente informados o no entendieron el alcance de las notificaciones recibidas.