La Justicia confirmó que las imágenes de abuso infantil creadas con IA también son delito
La Cámara Penal de Zárate-Campana sentó jurisprudencia al considerar que el artículo 128 del Código Penal abarca representaciones generadas digitalmente, incluso sin víctimas reales identificadas. El fallo abre un nuevo camino en la lucha contra los abusos en entornos digitales.

En un fallo sin precedentes, la Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana resolvió que las representaciones de abuso sexual infantil generadas mediante inteligencia artificial, incluso cuando no involucran víctimas reales identificables, constituyen un delito conforme al artículo 128 del Código Penal argentino.

La decisión judicial marca un hito en la persecución de la explotación sexual de menores en entornos digitales y responde a una causa en la que un hombre fue acusado de publicar, distribuir y poseer material pornográfico infantil agravado por la supuesta edad de las víctimas, que serían menores de 13 años. La defensa intentó frenar la elevación a juicio alegando que las imágenes no representaban a personas reales y que podrían haber sido producidas mediante CGI o inteligencia artificial.

Sin embargo, los jueces Mariano Magaz, Humberto Bottini y María Pía Leiro desestimaron por unanimidad ese argumento. Sostuvieron que la reforma introducida por la Ley 27.436 amplía el alcance del artículo 128 al contemplar "toda representación" de menores en situaciones sexuales explícitas, independientemente del método de creación. Según explicaron, el término "representación" implica cualquier imagen o idea que sustituya a la realidad.

Los magistrados validaron el criterio de la jueza de Garantías, Graciela Cione, quien, tras observar el material, concluyó que las imágenes aludían a niñas y niños de entre 3 y 13 años, aunque no se haya podido identificar a las víctimas. Para el tribunal, permitir este tipo de contenido implicaría normalizar la pedofilia y atentar contra la libertad e integridad sexual de las infancias.

En paralelo, el fallo se alinea con los compromisos internacionales asumidos por Argentina, como la Convención sobre los Derechos del Niño (Ley 23.849) y su Protocolo Facultativo (Ley 25.763), que definen como pornografía infantil toda representación, por cualquier medio, de un niño en actividades sexuales explícitas, reales o simuladas. También cita el Convenio de Budapest (Ley 27.411), que penaliza imágenes visualmente realistas aunque no representen a menores reales. Si bien Argentina hizo una reserva sobre este punto, el tribunal sostuvo que la interpretación no puede contradecir el espíritu de la Convención.

El caso cobra aún más relevancia en un contexto global de creciente preocupación por el uso de inteligencia artificial en la producción de material de abuso infantil. Tanto la ONU como Europol han advertido sobre este fenómeno, y la Unión Europea ya discute leyes específicas para criminalizarlo.

En diálogo con TN Tecno, el fiscal especializado en cibercrimen Lucas Moyano consideró fundamental este tipo de fallos, pero insistió en la necesidad de una reforma legal más específica que tipifique este modo de comisión. En esa línea, sugirió que Argentina avance hacia una legislación similar a la ley Take It Down de Estados Unidos.

Dicha normativa, pionera a nivel federal, obliga a las plataformas tecnológicas a eliminar en un plazo máximo de 48 horas cualquier contenido generado con IA que simule escenas sexuales sin consentimiento, con sanciones penales y económicas severas. Para Moyano, esta herramienta llena vacíos legales y presiona a los grandes proveedores globales a actuar con mayor responsabilidad.

El fallo de la Cámara de Zárate-Campana representa un paso clave hacia la protección de niñas, niños y adolescentes en el entorno digital. La causa continuará ahora en la instancia de juicio oral, donde se definirá la responsabilidad del acusado.