A través del Ministerio de la Presidencia, Justicia y Relaciones con las Cortes, se hizo un llamado “en defensa del interés público, la seguridad y dignidad de la infancia española en su conjunto”.
Meta, TikTok, X y su inteligencia artificial, Grok, ya están siendo investigadas por la Comisión Europea, y países como Francia, Brasil y Canadá han presentado denuncias contra Grok por la difusión de contenidos ilícitos y otras posibles infracciones, apuntó la fuente.
Destacó que la idea de involucrar a la Fiscalía de Estado en este asunto, es la primera de las medidas previstas en el paquete para la regulación de las redes sociales anunciado por el presidente del Gobierno, Pedro Sánchez, en Dubái.
Busca perseguir posibles delitos de violencia sexual digital, cometidos contra menores en las principales redes sociales. Esta decisión, que se ampara en el artículo ocho del Estatuto Orgánico del Ministerio Fiscal, fue adoptada por el Consejo de Ministros y se apoya en un informe técnico elaborado por varias carteras.
“No podemos permitir que a través del algoritmo se puedan amplificar o amparar” estos delitos, recalcó la ministra portavoz, Elma Saiz, en rueda de prensa.
“Está en juego la seguridad de nuestros hijos, la protección de su imagen, de su intimidad, de su libertad”, apostilló.
A través de las ultrafalsificaciones (deepfakes) y la manipulación de imágenes reales para crear otras de contenido sexual explícito y menoscabar la dignidad de las víctimas, ocupan espacios en las redes sociales, indicó el informe.
En enero pasado, el Ministerio de Juventud e Infancia ya alertó de la necesidad de que la Fiscalía estudiase estos posibles delitos cometidos.
Esta acción responde al surgimiento de un ecosistema de riesgo sin precedentes para la explotación sexual en el ámbito digital, especialmente de menores.
La convergencia de la Inteligencia Artificial (IA) generativa y las redes sociales masivas generan un entorno propicio para la creación y difusión de deepfakes hiperrealistas, y para la proliferación de canales opacos que distribuyen y monetizan estos contenidos.
En España, una de cada cinco personas jóvenes, especialmente niñas y adolescentes, afirma haber sufrido la difusión de falsos desnudos suyos
creados con IA siendo menores.
jha/ft













