Entidades de infancia piden a plataformas frenar la IA en pornografía infantil

Europa Press

Defienden la necesidad de tipificar como delito producir, distribuir y poseer contenidos sexual de menores generados con esta tecnología

La Federación de Asociaciones para la Prevención del Maltrato Infantil (Fapmi-ECPAT España) celebra la aprobación del anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial (IA) por parte del Gobierno esta semana, pero reclama que las plataformas digitales inviertan en "herramientas avanzadas" para identificar y eliminar contenido de explotación sexual infantil generado mediante IA, definir legalmente este material y tipificar como un delito su producción, distribución y posesión.

Aunque en la actualidad el Código Penal no contempla la Inteligencia Artificial como tal, sí prevé penas de prisión de uno a cinco años para el que "produjere, vendiere, distribuyere, exhibiere, ofreciere o facilitare la producción, venta, difusión o exhibición por cualquier medio de pornografía infantil o en cuya elaboración hayan sido utilizadas personas con discapacidad necesitadas de especial protección, o lo poseyere para estos fines, aunque el material tuviere su origen en el extranjero o fuere desconocido".

De hecho, la Policía Nacional colaboró en febrero en la detención de 25 miembros de una organización criminal dedicada a distribuir imágenes de abusos a menores generadas por inteligencia artificial, en una operación de EUROPOL. Del total de las detenciones, dos fueron en España por agentes españoles, en las provincias de Madrid y Barcelona, y se incautaron ocho dispositivos electrónicos con 16.800 archivos. Se trata de una de las primeras operaciones en las que se investiga material de abuso sexual infantil generado íntegramente por inteligencia artificial.

Fuentes del Ministerio de la Presidencia, Justicia y Relaciones con las Cortes, consultadas por Europa Press, explican que "la protección frente a los riesgos a que se ven sometidos los menores que actúan, desde edades muy tempranas, en entornos digitales, es una de las prioridades fundamentales" del Gobierno.

Por ello, recuerdan las mismas fuentes, se ha tramitado un anteproyecto de ley para la protección de los menores en los entornos digitales, para la que se ha contado con el asesoramiento de expertos e instituciones especializadas, y cuyo primer borrador fue examinado por el Consejo de Ministros en primera vuelta el 4 de junio del año pasado.

"Tal y como se anunció en su día, por primera vez, se recogerán en el Código Penal el uso de las ultrafalsificaciones ('deep fakes') generadas por inteligencia artificial para atentar contra los derechos de los menores, o las llamadas medidas de alejamiento online", subrayan las fuentes del departamento que dirige el ministro Félix Bolaños.

Asimismo, la Federación de Asociaciones para la Prevención del Maltrato Infantil pide "canales de colaboración y cooperación eficaces" entre el Gobierno, las Fuerzas de Seguridad y las empresas tecnológicas para perseguir estas prácticas "de manera eficaz".

Para la Federación, el texto aprobado el pasado martes por el Ejecutivo supone un "avance importante" en la regulación del uso de esta tecnología. No obstante, considera que "todavía se requieren medidas más contundentes que permitan hacer frente al "creciente reto" que supone el material de explotación sexual infantil generado mediante IA y que "es una realidad alarmante".

En este sentido, argumenta que el CyberTipline --sistema centralizado para denunciar la explotación infantil en línea del Centro Nacional para Niños Desaparecidos y Explotado de Estados Unidos-- recibió en 2023 unas 4.700 denuncias relacionadas con este tipo de contenido, una cifra que alcanzó los 450 reportes mensuales en el primer trimestre de 2024.

La Federación de Asociaciones para la Prevención del Maltrato Infantil añade que otros informes de la Internet Watch Foundation de Reino Unido "también revelaron la existencia de más de 20.000 imágenes en la web profunda, de las cuales 3.000 eran ilegales, según la legislación británica vigente". "Esta tendencia sigue en ascenso, con la aparición de material aún más grave y la proliferación de videos de explotación sexual infantil generados por IA", remarca.

UN IMPACTO DEVASTADOR

La entidad explica que este material plantea "una serie de desafíos específicos en materia de persecución del delito", dado que el contenido sexual infantil generado con IA "no siempre representa a víctimas identificables". "Sin embargo, estas imágenes y videos tienen un impacto devastador", alerta.

En concreto, detalla que estos materiales "normalizan la explotación sexual de la infancia y la adolescencia, revictimizan a las personas menores de edad cuyas imágenes han podido ser manipuladas y dificultan el trabajo de las fuerzas y cuerpos de seguridad, que deben destinar recursos a diferenciar contenido real del generado artificialmente".

"La rápida evolución de este tipo de tecnología ha superado con creces el marco legal existente", destaca la Federación, que añade que "la falta de estándares internacionales dificulta la persecución de estos delitos y permite que los delincuentes operen con impunidad" y que la ausencia de bases de datos y herramientas especializadas para identificar material generado mediante IA obstaculiza la detección y eliminación de este contenido en plataformas digitales.

En este escenario y tras la aprobación del anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial, la Fapmi-ECPAT España reclama "medidas inmediatas". "Es necesario aumentar los esfuerzos en abordar esta problemática y garantizar la protección integral de niños, niñas y adolescentes. Y es que, sin una respuesta contundente y coordinada, es probable que el problema siga creciendo a medida que las herramientas de IA se vuelvan más accesibles y sofisticadas", alerta.