El parlamento federal australiano acaba de aprobar una ley para prohibir a los menores de 16 años crearse una cuenta en algunas redes sociales.
Lo ha hecho sin atender a las advertencias de muchos expertos e incluso de la comisión australiana de derechos humanos, quienes opinaban que el gobierno estaba precipitándose sin pararse a pensar en los detalles de esta ley o investigar más a fondo “cómo funcionaría en la práctica”.
La ley recién aprobada cuenta sin embargo con el apoyo de un 77 % de los australianos, según una reciente encuesta. Y no entrará en vigor hasta dentro de al menos 12 meses. ¿Qué es lo que va a suceder entretanto?
¿Qué dice exactamente la ley?
Se trata de una nueva pieza legislativa que enmienda la actual Ley de Seguridad en Internet de 2021 y define como un “usuario restringido por edad” a cualquier persona menor de 16 años. Sin embargo no menciona por su nombre a las plataformas específicas a las que se exigirá cumplir con ella. Simplemente se refiere a plataformas “con edades restringidas” aquellas:
- Cuyo único propósito o propósito más significativo es permitir “la interacción social entre personas”.
- En las que las personas pueden conectar o interactuar con otras personas dentro de dicho servicio.
- En las que se puede “publicar” contenido.
- Que cumplen otras condiciones especificadas en dicha ley.
El texto alude a algunos servicios que “quedarían excluidos” de esta normativa, pero no especifica cuáles. Por ejemplo, las plataformas que ofrecen “interacción en línea” sí se ven afectadas por la ley, pero no las “interacciones que tienen que ver con negocios en línea”.
Aunque no esté claro de momento cuáles serán las plataformas concretas que tendrán que cumplir con la ley, aquellas que tengan que hacerlo se enfrentarán a multas de hasta 50 millones de dólares (algo más de 30 millones de euros) si no toman las “medidas razonables” para evitar que adolescentes menores de 16 años creen cuentas.
Algunos medios de comunicación han apuntado que servicios como YouTube estarían exentos, pero el gobierno de momento no lo ha confirmado. Lo que sí está claro es que muchos niños menores de 16 años podrán ver el contenido de estas plataformas: simplemente no podrán hacerse una cuenta personal en ellas.
La norma tampoco menciona específicamente las aplicaciones de mensajería instantánea como WhatsApp o Messenger o las plataformas de juegos en línea como Minecraft. Algunos medios han citado fuentes gubernamentales afirmando que éstas estarían excluidas, al igual que los servicios “cuyo propósito fundamental es el apoyo en salud y educación a sus usuarios”. No queda claro a qué plataformas específicas se refiere.
La propuesta de ley original del gobierno ha incluido en el proceso de aprobación algunas enmiendas. Por ejemplo: las tecnológicas no pueden almacenar identificaciones estatales como pasaportes o permisos de conducir como “la única manera” de confirmar la edad de un usuario. Sí pueden hacerlo si a los usuarios se les ha ofrecido otro método alternativo de hacerlo.
La ley también establece un periodo de dos años para que “revisores independientes” consideren lo adecuado de las protecciones a la privacidad y otros asuntos.
¿Qué deben hacer las tecnológicas?
Además de verificar la edad de cada usuario que intenta crear una cuenta, las compañías necesitarán comprobar la edad de los usuarios que ya la tienen. Esto es un desafío logístico considerable. ¿Llegará el día en que cada australiano con una cuenta en una red social tenga que demostrar su edad al registrarse?
Una preocupación todavía más grande es cómo lo van a hacer las empresas tecnológicas. La legislación no lo aclara.
Hay algunas opciones para las compañías. Una opción es usar las tarjetas de crédito del usuario como prueba de que es mayor de edad. La ministra de Comunicación Michelle Rowland ha afirmado que esta estrategia se incorporará a los ensayos de verificación de edad que se están desarrollando. Por ejemplo, YouTube ya permitió en el pasado acceder a contenido restringido por edades usando tarjetas de crédito.
Sin embargo, este enfoque deja fuera a personas mayores de 16 que no cuentan todavía con ese método de pago.
Otra opción es usar la tecnología de reconocimiento facial. Es una de las muchas estrategias que se está poniendo a prueba para redes sociales y contenido pornográfico por el consorcio liderado por Age Check Certification Scheme, con base en el Reino Unido. Sus resultados se conocerán a mediados de 2025.
Sin embargo, sabemos que los sistemas de reconocimiento facial funcionan con sesgos e imprecisiones. Por ejemplo, muchos de los sistemas ya disponibles tienen un índice de error del 0,8 % en hombres con la piel clara, mientras que en mujeres con piel oscura este índice sube al 35 %. Incluso los que obtienen mejores resultados, como Yoti (utilizado ahora mismo por Meta con usuarios australianos) tienen un índice de error de casi dos años a la hora de identificar a las personas de entre 13 y 16 años.
¿Qué es el ‘deber de cuidado digital’?
A principios de noviembre de 2024, el gobierno australiano prometió imponer a las compañías tecnológicas un “deber de cuidado digital” que les obligaría a conducir informes de riesgo periódicos sobre el contenido de sus plataformas. Y también les obligaría a responder a quejas de los usuarios respecto de contenido potencialmente dañino.
Este deber de cuidado lo respaldan muchos expertos –incluida yo misma– y la organización Human Rights Law. Una comisión parlamentaria sobre la legislación de redes sociales también recomendó al gobierno que lo impusiera. Pero no queda claro cuándo piensa el gobierno cumplir con la promesa de hacerlo.
No obstante, incluso aunque se ponga en marcha este deber de cuidado, esto no significa que tengamos que dejar de incidir en aumentar la inversión en alfabetización digital. Las familias, los docentes y los niños necesitan apoyo para entender cómo manejar estas plataformas de manera segura.
Las redes sociales deberían ser lugares seguros para todos los usuarios. Proporcionan información valiosa y conexiones sociales y comunitarias muy valiosas para personas de todas las edades.
Son las compañías tecnológicas las que deben esforzarse por restringir el acceso a los menores de 16 años. Pero el esfuerzo para mantener esos espacios virtuales seguros y obligar a las tecnológicas a responsabilizarse del contenido que ofrecen está apenas empezando.
Lisa M. Given, Professor of Information Sciences & Director, Social Change Enabling Impact Platform, RMIT University
Este artículo fue publicado originalmente en The Conversation. Lea el original.