En noviembre de 2024, el parlamento australiano aprobó una ley pionera: Online Safety Amendment (Social Media Minimum Age) Act 2024 — una enmienda a la Online Safety Act 2021 — que establece que quienes tengan menos de 16 años no podrán mantener cuentas en plataformas de redes sociales calificadas como “age-restricted”.
La norma entrará en vigor el 10 de diciembre de 2025. A partir de esa fecha, las plataformas deberán tomar “pasos razonables” para evitar que menores de 16 años creen cuentas nuevas o sigan manteniendo cuentas existentes.
Si no cumplen, pueden enfrentar multas de hasta 49,5 millones de dólares australianos.
¿Quiénes están afectados? ¿Qué plataformas contempla la ley?
La ley recae sobre plataformas consideradas “age-restricted”, es decir aquellas cuyo uso principal implica interacción social, publicación o compartición de contenido, comentarios, etc.
Entre las que ya fueron señaladas como sujetas a la restricción figuran: Facebook, Instagram, TikTok, Snapchat, X (ex-Twitter), YouTube, Reddit, Kick, entre otras.
Existen también plataformas que quedan explícitamente fuera de la lista — por ejemplo, servicios de mensajería privados, plataformas de educación, videojuegos, etc.
Cómo funcionará: verificación de edad y responsabilidad de las plataformas
La ley no pone sobre los menores ni sus familias la carga legal: la responsabilidad recae sobre las plataformas. Deben implementar sistemas de age-assurance (verificación o estimación de edad), y garantizar que quienes intenten crear cuentas tengan al menos 16 años.
Los métodos pueden variar: desde verificación con documento oficial, hasta sistemas que cruzan datos de cuentas bancarias, identificación estatal, u otras formas de comprobación.
En los casos en que una cuenta ya existe y se detecta que pertenece a un menor, la plataforma debe desactivarla.
¿Cuál es el objetivo declarado? ¿Por qué este cambio normativo?
Según el gobierno australiano, la motivación principal es proteger a los jóvenes de los riesgos crecientes en el entorno digital: salud mental, exposición a contenido dañino, ciberacoso, presión social, consumo excesivo de pantallas, entre otros.
Al trasladar la responsabilidad hacia las plataformas — en lugar de los padres —, se busca establecer estándares más firmes de control, regulando de una forma global el acceso de menores.
Australia sostiene que quiere “establecer un modelo sensato y seguro ante el mundo” para minimizar los daños asociados al uso temprano de redes sociales.
Críticas, dudas técnicas y desafíos de implementación
Aunque la intención es clara, la implementación de la ley plantea interrogantes. Algunas de las principales críticas y desafíos:
- Plataformas líderes han advertido que será “extremadamente difícil” garantizar cumplimiento al 100%.
- Los métodos de verificación — documentales, biométricos — pueden generar problemas de privacidad, manejo de datos personales sensibles, y errores de clasificación.
- Algunos expertos proponen que, en lugar de una prohibición estricta, debería existir una “obligación de deber de cuidado” (duty of care) por parte de las plataformas, combinada con educación digital, controles parentales y regulaciones de contenido.
- Existe temor de que menores migren hacia plataformas menos reguladas o servicios alternativos, lo que reduciría la eficacia de la norma.
De hecho, un recurso legal ya fue iniciado: Digital Freedom Project presentó una demanda ante la Corte Suprema australiana, argumentando que la restricción vulnera derechos de comunicación política e información.
Opiniones de expertos y voces críticas
- La exjueza de la Corte Suprema australiana Robert French elogió la ley en principio: consideró que “el modelo básico sensato ya está en marcha”.
- En cambio, Carly Kind — ex comisionada de privacidad — expresó su escepticismo: considera que la legislación es demasiado amplia, con riesgos sobre derechos individuales, privacidad y libertad de expresión.
- Desde organizaciones juveniles, Leonardo Puglisi expresó que pocos jóvenes fueron consultados previamente, y criticó la ausencia de participación activa de quienes se ven afectados.
- Por su parte, algunos académicos coinciden en que un duty of care reforzado, combinado con regulaciones de contenido y educación digital, podría ser una estrategia más equilibrada que un veto absoluto.
¿Qué representa este cambio? Reflexiones para América Latina y el mundo digital
El caso de Australia marca un antes y un después. Hasta ahora, la mayoría de las regulaciones sobre menores y redes sociales apelaban a políticas internas de las plataformas (edad mínima 13 años, controles parentales, etc.). Pero pocas lo hacían desde el Estado, con sanciones concretas a las empresas.
Esto plantea un dilema global: por un lado, la intención legítima de proteger la salud mental y el bienestar de adolescentes; por otro, el riesgo de restringir derechos digitales, forzar la biometría masiva, o simplemente empujar a menores hacia espacios no regulados.
Para América Latina (y en particular, países como Argentina), la legislación australiana implica una señal fuerte: los debates sobre regulación de redes, protección de menores, inteligencia artificial, datos y privacidad vuelven a primer plano. Es probable que en los próximos años surjan iniciativas similares en otros países.
Como analista tecnológico, creo que la clave estará en buscar un equilibrio: regulación responsable + protección de derechos + educación digital + responsabilidad compartida (plataformas, Estado, familias).
Conclusión
La entrada en vigencia de la Social Media Minimum Age Law de Australia representa un experimento global sin precedentes: un país que legalmente impone una edad mínima de 16 años para usar redes sociales — y pone la carga de cumplimiento sobre las empresas.
Si bien la intención es proteger a los jóvenes, su implementación será compleja: habrá tensiones entre seguridad infantil, privacidad de datos y libertad de acceso a información. Las voces de expertos, juristas y organizaciones civiles advierten que este tipo de regulación debe acompañarse de garantías de derechos, claridad técnica y responsabilidad ética.
De todas formas, la norma ya tiene efectos concretos: las principales plataformas se preparan para desactivar cuentas de menores, y el debate global sobre regulación de redes sociales vuelve a acelerarse.
