La edad
es una de las principales cuestiones que las plataformas tienen en cuenta a la
hora de implementar de crear una cuenta y usar sus servicios.CHIN ONN ONG EN PIXABAY
EUROPA PRESSMadrid
Las plataformas online y
redes sociales cada vez se preocupan más por proteger a los usuarios menores en
Internet de la exposición a contenido y acciones dañinas para su desarrollo,
para lo que recurren al uso de medidas específicas para este público, como la
limitación de la interacción con otros usuarios o del acceso al contenido no
apto, al tiempo que ofrecen opciones como cuentas y servicios específicos para
los más pequeños y funciones de control parental.
Por norma general, plataformas como YouTube, TikTok, Xbox o Instagram admiten perfiles de usuarios
menores de 18 años, estableciendo un límite de edad para poder crear una que,
en la mayoría de los países, es de 13 años.
La edad es una de las principales cuestiones que las
plataformas tienen en cuenta a la hora de implementar de crear una cuenta y
usar sus servicios. De hecho, utilizan distintos métodos para verificar la
edad, como en el caso de Instagram y TikTok
Una vez se ha identificado la edad del usuario, y se
determina que es menor, las compañías agregan algunas limitaciones
en las acciones que se pueden llevar a cabo dentro de las plataformas, de
cara a asegurar su protección y privacidad hasta que alcancen la mayoría de
edad.
Así, una de estas
restricciones está relacionada con el contenido que se muestra en sus feeds. Prácticamente la mayoría de las
plataformas coinciden en que el tipo de contenido que se considera como
peligroso o dañino para los usuarios menores está relacionado con los actos violentos, sexualización de menores, temas
que ocasionen daño emocional, contenido familiar engañoso, acoso y lenguaje
vulgar.
Igualmente, para las cuentas
de menores también se imponen restricciones relacionadas con la interacción con
otros usuarios en comentarios y mensajes para evitar casos de acoso por parte
de adultos (grooming), con la capacidad
para publicar información personal o con el nivel de privacidad del contenido
publicado.
Por ejemplo, en el caso de TikTok, la cuenta permanece
privada de forma obligatoria hasta los 15 años para evitar que
usuarios desconocidos puedan acceder a su contenido, después, a partir de los
16 años, ya se puede configurar como pública. La red social de ByteDance tampoco recomienda cuentas de
menores (entre 13 y 17 años) a otros usuarios, ni permite descargar sus vídeos.
Siguiendo esta línea, los usuarios de entre 13 y 15 años no pueden enviar
ni recibir mensajes directos de usuarios desconocidos en TikTok, y solo
pueden comentar en vídeos de usuarios de los que son seguidores, de la misma
forma, solo podrán recibir comentarios de amigos. En general, en la mayoría de
las redes sociales quedan limitados servicios como los vídeos en directo o las
funciones de monetización para los mayores de 18 años.
También se utilizan otros
recursos para evitar que los menores accedan a funciones que puedan suponer
algún riesgo para su seguridad. En el caso de Meta,
propietaria de Instagram y Facebook, la compañía implementa tecnología de inteligencia artificial (IA)
para evitar que los adolescentes entren en el servicio de citas Parejas de
Facebook, que los adultos envíen mensajes a menores o que estos reciban
contenidos publicitarios restringidos.
OPCIONES PARA MENORES DE 13 AÑOS
Algunas compañías también
disponen de una versión específica para los usuarios más pequeños, que tienen
menos de 13 años. Es el caso de YouTube Kids, que incluye tanto
vídeos populares como contenidos nuevos infantiles, publicados con un diseño de
interfaz sencillo adaptado a la edad de su público.
Con esta app no
se pueden utilizar otras funciones que no sean buscar y reproducir vídeos, así
como tampoco se permite acceder a sitios web, ni apps de YouTube hasta
que se cumpla la edad mínima para administrar la cuenta de Google.
Tras ello, se pasa a utilizar una cuenta de Google estándar.
Lo mismo ocurre con el
servicio Messenger Kids de Facebook, una
aplicación gratuita diseñada específicamente para que los niños se conecten, se
comuniquen y jueguen con familiares y amigos. Así, permite a los niños enviar
mensajes y stickers o, incluso, hacer videollamadas.
Por otra parte, redes
sociales como TikTok también ofrecen una opción de cuenta para
menores de 13 años, aunque en este caso solo está disponible en Estados Unidos.
CONTROL PARENTAL
Además de todo ello, para
asegurar que los menores hacen un buen uso de las plataformas, las plataformas
disponen de opciones como el modo restringido, control parental o
supervisión de la cuenta en perfiles de YouTube, TikTok,
Instagram, PlayStation o Xbox.
La alternativa de control
parental se utiliza sobre todo en aquellas plataformas que no disponen
de medidas especiales ni incluyen cuentas específicas para usuarios menores, como
es el caso de Xbox y PlayStation. Estas
plataformas, permiten crear perfiles de menores, pero dentro de una misma
cuenta de adulto. Por ejemplo, con PlayStation Network los
usuarios de entre 7 y 17 años solo pueden crearse una cuenta, llevar a cabo
compras, jugar online o chatear con otras personas, si se lo
permite un adulto responsable.
Una de las funciones que
incluyen este tipo de cuentas es el modo restringido, que limita la
exposición de los menores al contenido que los padres o tutores consideren inapropiado.
Por ejemplo, Google permite activar este modo para sus
plataformas, como YouTube, a través de la aplicación de control
parental Family Link. Esta misma función está disponible en Xbox dentro
de la aplicación Xbox Family Settings.
Continuando con el control
parental, también se puede utilizar en plataformas y redes sociales que
disponen de cuentas y servicios específicos para menores, con funciones como
la sincronización familiar de TikTok.
En el caso de Instagram se
necesita una invitación para supervisar la cuenta, o bien los padres invitan a
sus hijos a inscribirse en una supervisión o viceversa. No obstante, ambas
partes deben aceptar sus invitaciones. Así, los padres pueden estar al tanto de
a qué perfiles sigue su hijo o quién le sigue de vuelta, así como recibir
notificaciones sobre si han reportado un comportamiento de, por ejemplo, acoso
por parte de otro usuario.
INFRINGIR LA POLÍTICA DE PROTECCIÓN DE MENORES
"Si tenemos
conocimiento de una situación de explotación de menores en nuestra plataforma,
procederemos a bloquear la cuenta y cualesquiera otras cuentas a nombre de la
misma persona", señala TikTok. De igual forma se
manifiesta YouTube, que subraya que si el contenido infringe su
política, se retirará y se enviará un correo para informar de ello al usuario
en cuestión.
Esta normativa se puede
aplicar a todas las plataformas que, en el caso de incumplir sus pautas de
seguridad hacia usuarios menores, eliminan el contenido y, si se trata de una
actividad reiterada, acaban eliminando la cuenta del usuario infractor.
Por ejemplo, en el caso
de PlayStation, la compañía aclara que pueden inhabilitar la cuenta
del usuario. Incluso, según señala, pueden informar a la policía en caso de
acciones grabes como el acoso a otros usuarios.
Por otra parte, estas
plataformas también aseguran en sus políticas eliminar las cuentas de los
usuarios que no cuentan con la edad mínima para usarlas, si detectan que han
mentido para poder crear un perfil, ya sea por sus medios automatizados o por
la denuncia de otros usuarios.
Sin embargo, no
siempre adoptan las medidas pertinentes, como se ha denunciado, por
ejemplo, en el caso de Instagram.