La compañía de inteligencia artificial xAI, fundada por Elon Musk, se enfrenta a una batalla legal en Estados Unidos, luego de que se originase una polémica en redes.
Tres adolescentes, dos de ellas menores de edad, iniciaron una demanda ante el Tribunal de Distrito Norte de California, acusando a la empresa de permitir que su asistente, Grok, fuera utilizado para crear imágenes sexualizadas no consentidas de menores de edad.
La demanda detalló cómo la herramienta de generación de imágenes de Grok habría facilitado la creación de contenido explícito no apto para menores de edad.
Según el escrito judicial, un usuario fue capaz de recopilar fotos y vídeos de más de 18 jóvenes, muchas de ellas compañeras de un mismo instituto, y utilizar la IA para "desnudarlas" digitalmente.
Posteriormente, este material fue distribuido de forma viral a través de canales de mensajería como Discord y Telegram, operando bajo un sistema de intercambio de archivos de contenido sexual de otros menores.
Un escándalo de escala masiva
Este proceso legal surge tras meses de controversia en torno a Grok, mientras que investigaciones recientes revelaron cifras alarmantes sobre el uso de la plataforma en la red social X:
- en apenas 11 días, se generaron más de 3 millones de imágenes sexualizadas
- de ese total, al menos 23.000 imágenes correspondían a menores, creadas a un ritmo de una cada 41 segundos
- los usuarios aprovechaban la capacidad de la IA para modificar imágenes con órdenes sencillas como "quítale la ropa" o "ponla en bikini"
De esta forma, las demandantes argumentan que xAI Corp y xAI LLC tenían pleno conocimiento de que su chatbot produciría material de abuso sexual infantil (CSAM) y, aun así, no implementaron las medidas necesarias para evitarlo.
Aunque la política oficial de xAI prohíbe la explotación infantil y la pornografía no consentida, los fallos en sus salvaguardias técnicas permitieron que estas funciones críticas permanecieran abiertas durante días.
La demanda colectiva busca ahora una indemnización para las afectadas por el daño irreparable a su privacidad y dignidad.
La causa pone nuevamente en el centro del debate la responsabilidad de los gigantes tecnológicos en la moderación de contenidos generados por inteligencia artificial.