[Foto: InsideCreativeHouse/Adobe Stock]
El año nuevo es tiempo de propósitos. Este año, gobiernos, plataformas y activistas parecen haber dado con los mismos: los niños deberían pasar menos tiempo en línea y las empresas de redes sociales deberían saber exactamente la edad de sus usuarios.
Desde el scrolling infinito de TikTok hasta chatbots como Grok de xAI, que pueden generar respuestas sin censura a casi cualquier pregunta en segundos, las opciones en línea adictivas e inapropiadas preocupan a legisladores y reguladores. El resultado es una nueva forma de competencia: los legisladores, a menudo asustados por titulares sobre salud mental, extremismo o explotación sexual, están recurriendo a restricciones de edad, límites de uso y prohibiciones directas como soluciones a los problemas de las redes sociales.
Solo la semana pasada, vimos a Grok convertirse en la prueba viviente del debate sobre contenido dañino, ya que ayuda a desnudar a los usuarios, mientras que los estados consideran o promulgan prohibiciones, bloqueos y límites de tiempo para el uso de la tecnología.
Medidas extremas
“Actualmente, el debate regulatorio parece centrarse exclusivamente en cómo ciertos servicios de internet son negativos y en prohibir el acceso de menores a dichos servicios”, afirma Catalina Goanta, profesora asociada de derecho privado y tecnología en la Universidad de Utrecht (Países Bajos). Este enfoque ambiguo es fácil de analizar para los políticos, pero no necesariamente refleja los matices de la tecnología y su potencial para el bien.
“El debate científico nos muestra un panorama mucho más matizado de lo que puede ser perjudicial para los menores, y eso dependerá de muchos más aspectos que simplemente que un niño tenga un teléfono en sus manos”, afirma Goanta.
Los legisladores se están moviendo rápidamente para proteger a los usuarios más jóvenes. Una ley propuesta en Texas para diciembre de 2025 habría requerido que Apple y Google verificaran la edad de los usuarios y obtuvieran el consentimiento de los padres para las descargas de aplicaciones de menores, pero fue bloqueada justo antes de Navidad.
¿Limitar el acceso realmente ayuda?
Mientras tanto, a medida que se bloquean las prohibiciones totales, los estados están impulsando normas que limitan el acceso a las redes sociales. El límite diario de una hora establecido por Virginia para menores de 16 años se implementó con el requisito de verificaciones de edad “comercialmente razonables”. Sin embargo, ya se impugnó en los tribunales mediante una demanda presentada por NetChoice. Esta asociación que busca “lograr que internet sea seguro para la libre empresa y la libertad de expresión”. El grupo, que incluye a Amazon, Google, Meta y OpenAI como miembros, afirma que imponer un bloqueo de tiempo en las redes sociales es como limitar la capacidad de leer libros o ver documentales.
“Todas las leyes han sido impugnadas, y el fallo del tribunal sobre la ley de Texas no augura nada bueno para las demás leyes estatales”, afirma Adam Kovacevich, fundador y CEO de la Cámara del Progreso. Kovacevich la que describe como “una coalición política de centroizquierda de la industria tecnológica”.
Sin embargo, añade, parte de este discurso duro también supuestamente cuenta con el apoyo de las propias grandes empresas tecnológicas. “Es importante tener en cuenta que los proyectos de ley de verificación de edad para las tiendas de aplicaciones han sido redactados y promovidos por Meta, principalmente como una forma de pasar de la defensa al ataque”.
La ley de Texas es solo una de las muchas que están surgiendo en Estados Unidos y en todo el mundo. Al otro lado del Atlántico, Francia busca este año una prohibición de las redes sociales para menores de 15 años al estilo australiano. Por su parte, el partido oficial (aunque poco probable) de la oposición del Reino Unido, el Partido Conservador, también respalda la prohibición de las redes sociales para menores de 16 años.
Esta impugnación judicial es un presagio de lo que nos depara el 2026, según Kovacevich. “Los legisladores insisten una y otra vez con los mandatos de verificación de edad, las etiquetas de advertencia y los mandatos de diseño, y se topan con los mismos dos obstáculos una y otra vez”, afirma: “Los derechos de privacidad de los usuarios y la Primera Enmienda”.
La necesidad de tener moderación tecnológica
Este auge legislativo forma parte de un movimiento más amplio de moderación tecnológica dirigido a las redes sociales, las aplicaciones y la IA. En el Reino Unido, las disposiciones de seguridad infantil de la Ley de Seguridad en Línea entraron en vigor en julio de 2025, exigiendo que las plataformas a las que probablemente accedan los niños implementen medidas de control de edad “altamente efectivas” y protejan a los usuarios jóvenes del contenido que promueve la autolesión, el suicidio, la violencia y la pornografía.
Con Grok, la ley se enfrenta a su primera gran prueba para el organismo responsable, el regulador de comunicaciones Ofcom. En toda la Unión Europea, las normas de la Ley de Servicios Digitales sobre datos de menores y sistemas de recomendación también se están endureciendo. La pregunta ahora es si los tribunales —y los usuarios— tolerarán la fricción que estas leyes generan.
“Los reguladores deben resolver una tensión inherente”, afirma Goanta. “¿Queremos que los niños tengan autonomía sobre su acceso y comportamiento en internet (la narrativa de los derechos del niño)? ¿O consideramos que tienen una capacidad limitada porque aún no están plenamente desarrollados y que sus tutores pueden tomar decisiones por ellos?”. Señala que puede haber muchas soluciones intermedias. “Pero el espectro resultante debería ser el foco de debate, y no el pánico moral”.
![[Foto: Nourishment DECODED/Pexels]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/19115022/2-3.jpg)
![Foto: punttim/Pixabay]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/16130614/4-2.jpg)
![[Imagen base: Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/16130134/p-91462106-burnout-is-an-operations-issue.webp)