Este sitio web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuaria/o posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestro web o ayudar a nuestro equipo a comprender qué secciones de este sitio web encuentras más interesantes y útiles.

El 97% de los jóvenes afirma haber sufrido violencia sexual en entornos digitales
En España, casi el 97% de los jóvenes encuestados por Save the Children reconocen haber sufrido algún tipo de violencia sexual digital durante su adolescencia. Así lo revela el informe Redes que atrapan. La explotación sexual de la infancia y la adolescencia en entornos digitales, elaborado junto a la Asociación Europea para la Transición Digital, que alerta sobre el aumento de la explotación sexual infantil y adolescente en Internet y redes sociales.
Solo en 2023, se registraron en España 4.896 denuncias por delitos cibernéticos contra menores, de las cuales 1.068 fueron de carácter sexual, aunque la organización advierte que la mayoría de los casos no se detectan ni denuncian. “Estas cifras representan solo la punta del iceberg, ya que la mayoría de los casos no llegan a conocerse, en parte por la ausencia de denuncia y en parte por las dificultades en la detección, que aumenta cuando estos hechos tienen lugar en el entorno online”, afirma Catalina Perazzo, directora de Influencia y Desarrollo Territorial de Save the Children.
El informe identifica como principales amenazas el contacto por parte de personas adultas con fines sexuales (grooming); la difusión no consentida de imágenes íntimas; la sextorsión; la producción y distribución de material de abuso sexual infantil; el uso de inteligencia artificial para crear contenido ilegal, y la exposición involuntaria a material sexual.
Save the Children insiste en la urgencia de mejorar la detección y protección de niños, niñas y adolescentes frente a estas formas de violencia digital, que siguen creciendo en los entornos online.
“Se trata de un fenómeno complejo ya que las distintas formas de violencia o explotación que se analizan no constituyen fenómenos aislados: en muchos casos, están conectadas entre sí, forman parte de un mismo proceso o se dan al mismo tiempo, por lo que un niño o una niña puede ser víctima de varias de ellas a la vez ”, añade Perazzo.
Materiales de abuso sexual y explotación infantil
En el informe, Save the Children señala que, en 2024, la NCMEC (organización mundial líder en la prevención y localización de niños y niñas víctimas de explotación sexual digital) registró más de 19,8 millones de denuncias relacionadas con material de abuso sexual infantil a nivel mundial, es decir, material que representa abuso o explotación sexual de niños, niñas y adolescentes.
Estos contenidos pueden generarse a partir de abusos en entornos físicos o bien directamente en el entorno digital mediante manipulación, engaños, amenazas o extorsión, que inducen a la víctima a producir imágenes de contenido sexual.
Por otra parte, la organización advierte de otro tipo de materiales, que incluyen representaciones sexualizadas de niñas y niños o en situaciones de desnudez parcial o total que, aunque no muestran actos sexuales explícitos, presentan a la infancia desde una mirada sexualizada.
“Estos materiales se encuentran en muchas ocasiones en zonas grises porque no alcanzan los umbrales legales para ser considerados delito en algunos países, pero plantean igualmente serias preocupaciones por su potencial para normalizar o trivializar la sexualización y la explotación de niños y niñas”, destaca Perazzo.
En muchos casos, pueden ser fotografías de la vida cotidiana sin intención sexual, como imágenes en la playa o en actividades deportivas, que son manipuladas o recontextualizadas con fines de explotación o gratificación sexual por parte de adultos.
Uso de la inteligencia artificial
Estos materiales pueden también estar creados mediante herramientas digitales a partir de imágenes reales de niñas y niños: son los llamados deepfakes o ultrafalsificaciones. Aunque constituyen por sí solos una forma de violencia, debido al daño que suponen para la dignidad, el bienestar y la seguridad de la infancia afectada, cerca del 70% de los y las jóvenes no señala como un riesgo percibido durante su infancia la manipulación de fotos o vídeos mediante IA.
Además, la organización señala que uno de cada cinco jóvenes afirma que alguien ha compartido con otras personas imágenes creadas con IA para mostrarle desnudo, siendo menor de edad, y sin consentimiento.
Lucía López, educadora de Save the Children en Alicante, detectó un caso de este tipo en los programas que la organización desarrolla en la ciudad: “Una adolescente de 12 años me comentó que estaba siendo amenazada por una persona que le decía que, si no reenviaba a todos sus contactos un vídeo con contenido sexual que le había llegado a su teléfono, publicaría unas fotos de la niña desnuda, creadas con inteligencia artificial. La niña aseguraba que nunca había reenviado fotos suyas con ese tipo de contenido, pero sentía que ella había propiciado esa situación y que era culpa suya”.
Material autogenerado
Estos contenidos son producidos por los propios niños y adolescentes, que puede ser voluntario o se puede dar por coacción o manipulación, mostrándose en posiciones sexualizadas, o en conductas más explícitas en lo que se conoce como sexting, o intercambio de material sexualmente explícito a través de las tecnologías.
Un 27% de los chicos y chicas encuestadas enviaron mensajes, fotos o vídeos íntimos o sexuales suyos voluntariamente durante la infancia o adolescencia.
“Incluso cuando se realizan de forma voluntaria, estas conductas plantean riesgos, pues una vez compartido el contenido escapa al control de quien lo genera, abriendo la puerta a múltiples formas de victimización. Pueden ser redistribuidos sin consentimiento, utilizados por personas adultas con fines sexuales, utilizados para la sextorsión…”, advierte Perazzo.
Así, más del 65% no perciben como un riesgo el envío o reenvío de imágenes sin el consentimiento de la persona menor de edad representada en ellas. Cuando se les pregunta por los motivos por los que compartieron imágenes o vídeos íntimos o sexuales de sí mismos: casi la mitad no sabían que podía ser peligroso (48%), el 46% cree que es algo normal o que no tiene consecuencias negativas, el 42% buscaba atención, afecto o validación, mientras que 4 de cada 10 esperaba ganar algo a cambio.