PEXELS
europa pressMadrid, España
Los menores crean y comparten sus propias imágenes sexuales explÃcitas y
usan las herramientas de inteligencia artificial (IA) generativa para crear sin
consentimiento fotografÃas realistas de personas de su edad desnudas, un hecho
que solo incrementa los riesgos de abuso sexual a niños y adolescentes en el
entorno digital, y que reclama una comprensión amplia para poder protegerlos de
manera efectiva.
La tecnologÃa de IA generativa es reciente, pero hay
comportamientos como el acoso, el hostigamiento y el abuso que no solo
son, y si se combinan pueden causar un daño que trasciende el plano digital,
con consecuencias que no pueden minimizarse, especialmente cuando se trata de
menores.
Esta conclusión se recoge en el informe 'Perspectivas de los jóvenes
sobre la seguridad en lÃnea, 2023', realizado por la organización
estadounidense Thorn, enfocada a la creación de tecnologÃa que evite el abuso
sexual infantil, en colaboración con la consultora BSG.
Su
investigación se centra en los menores de entre 9 y 17 años de Estados
Unidos y sus
comportamientos en relación con la tecnologÃa, pero sus conclusiones reflejan
una realidad que puede extrapolarse a otras sociedades con servicios digitales
y comportamientos similares.
Parten del hecho de que los menores usan redes sociales,
independientemente de las restricciones que estos servicios digitales
establezcan. YouTube (98%), TikTok
(84%), Roblox (80%), Minecraft (78%) y Fortnite (73%) son las más
usadas por menores, quienes también acuden a otros servicios enfocados a los
adultos, como las aplicaciones de citas, en busca de experiencias románticas o
sexuales.
Según los datos de esta investigación, recogidos en entre el
3 de noviembre y el 1 de diciembre de 2023, el 17 por ciento de los menores
aseguró haber usado una 'app' de citas, como Tinder, Grindr o Hinge, y casi el
mismo porcentaje (16%), una web de pornografÃa. Este tipo de actividad es
probable (hasta tres veces más) en los adolescentes que en los niños menores de
12 años.
El acceso a
internet no está exento de riesgos: el 59 por ciento informó de haber tenido
experiencias dañinas 'online' y el 35 por ciento que habÃa tenido interacciones
de tipo sexual, con otros menores de 18 años (28%) o con quienes creÃan que
eran adultos (28%).
Este tipo de interacciones fueron más probables en
aplicaciones como Omegle (36%), Kik (23%), Snapchat (23%), Telegram (22%),
Instagram (20%) y Marco Polo (20%).
SEXTORSIÓN Y DEEPFAKES
Uno riesgos
a los que se enfrentan los menores es el de la sextorsión, es decir, la amenaza
de publicar una imagen explÃcita del menor si no hace lo que el agresor pide
(tener una relación, realizar un acto sexual, facilitar fotografÃas de
explÃcitas de amigos o hermanos, etc.). Según el informe, uno de cada 17
menores ha sido vÃctima de sextorsión.
Sin que medie amenaza, los menores
también comparten sus propios vÃdeos y fotografÃas explÃcitos, en los que aparecen
desnudos e incluso con alguien más. Para uno de cada cuatro esta práctica se ve
como normal. De entre quienes han compartido este tipo de imágenes, la mayorÃa
(83%) lo ha hecho con alguien que conoce 'offline', pero el 46 por ciento las
ha enviado a conocidos exclusivamente digitales.
Este envÃo de imágenes explÃcitas también se hace sin el
consentimiento de quien aparece en ellas. El 7 por ciento reconoce haber
reenviado las imágenes de otras personas, mientras que el 19 por ciento ha
visto imágenes reenviadas de otros sin consentimiento. El 38 por ciento ha
culpado a la vÃctima de la circulación de las imágenes.
Las imágenes creadas por los menores también se extienden a
las generadas por herramientas de IA con un resultado realista, lo que se
conoce como 'deepfake'. Si bien la mayorÃa de los menores no cree que sus
compañeros haya usando estas herramientas para crear imágenes explÃcitas de
otros niños, el informe recoge que el 11
por ciento conoce casos en los que sÃ.
"Si bien es más probable que la motivación detrás de
estos eventos esté impulsada por el mal comportamiento de los adolescentes que
por la intención de abusar sexualmente, los daños resultantes para las vÃctimas
son reales y no deben minimizarse en los intentos de eludir la
responsabilidad", expresan los responsables del estudio.
También se dirigen a la IA generativa, y señalan que "es
fundamental que hablemos de manera proactiva y directa sobre los daños causados
por los 'deepfakes' y reforzar
una comprensión clara de qué conducta es inaceptable en nuestras comunidades y
escuelas, independientemente de la tecnologÃa que se utilice".
El objetivo de este estudio es el de obtener datos que
refuercen las estrategias de prevención y de "inspirar" más
investigaciones. "Es esencial que comprendamos la totalidad y los matices
de los riesgos que enfrentan los niños en lÃnea para poder desarrollar sistemas
que puedan protegerlos de manera efectiva", concluyen.