La Justicia marcó un precedente, pero especialistas advierten que es urgente tipificar estos delitos en el Código Penal argentino
07.07.2025 • 15:15hs • Contenido ilegal
Contenido ilegal
Argentina ya penaliza el abuso infantil con IA: qué dice el fallo que marcó un antes y un después
En un fallo sin precedentes, la Cámara de Apelaciones de Zárate-Campana dio un paso clave en la lucha contra la pedofilia digital, al determinar que las imágenes y videos generados con inteligencia artificial que representen abuso sexual infantil son igualmente ilegales que aquellos con víctimas reales.
Los jueces Mariano Magaz, Humberto Bottini y María Pía Leiro decidieron que el artículo 128 del Código Penal argentino también alcanza a las representaciones creadas artificialmente.
Según explicaron, el término "representación" abarca "imagen o idea que sustituye a la realidad", por lo tanto, no importa si fueron hechas con imágenes generadas por computadora (CGI, por sus siglas en inglés), IA o mediante retoque digital, en todos los casos hay delito.
El caso surgió a partir de una investigación sobre un hombre acusado de difundir material de abuso infantil. Su defensa argumentó que no había menores reales involucrados, pero el tribunal desestimó ese planteo.
El contenido mostraba a niños y niñas de entre 3 y 13 años en situaciones sexuales explícitas, según la jueza de Garantías Graciela Cione.
El fallo también alertó sobre un peligro mayor: permitir este tipo de imágenes, aunque sean ficticias, puede llevar a "normalizar la pedofilia", poniendo en riesgo el derecho a la integridad y la libertad sexual de las infancias.
Un fallo sin precedentes
Hasta ahora, no existía en Argentina una ley específica que contemplara este tipo de casos. La Justicia, sin embargo, decidió avanzar y establecer un criterio claro mientras el Congreso no legisle sobre la materia. Así, se empieza a cerrar un vacío legal que preocupaba a fiscales, jueces y expertos en tecnología.
El dictamen también habilita a que, en el juicio oral, se profundice en el análisis de los archivos digitales, y se estudien elementos como metadatos, fechas de creación y modificación, y posible origen de las imágenes. Esto podría aportar más pruebas sobre cómo se generó el contenido y si hubo víctimas reales.
Daniel Monastersky, director del Centro de Estudios en Cibernética y Datos de la Universidad Austral, explicó que "la producción de material de explotación sexual infantil, aunque las imágenes sean generadas por IA, están basadas en fotografías reales de menores y las representan en situaciones sexuales explícitas".
Agregó además que "el uso no autorizado de las imágenes originales de las menores para crear este contenido constituye una clara violación de su privacidad" y advirtió que podría considerarse una forma de suplantación de identidad.
Para Monastersky es urgente que este tipo de delitos se incorporen de forma explícita al Código Penal.
Por su parte, el fiscal Lucas Moyano, referente en cibercrimen, pidió seguir el ejemplo de Estados Unidos con su ley "Take It Down". Esta norma federal prohíbe la creación y difusión de deepfakes sexuales sin consentimiento, y para Moyano, una legislación similar en Argentina ayudaría a proteger tanto a menores como a adultos.