Prohibir redes sociales a adolescentes: ¿ahora sí va en serio?

0


“Los ecosistemas digitales que priorizan el engagement y la comercialización suelen empujar el uso prolongado, desplazando hábitos sanos (movimiento, sueño).”

— Tiffany Munzer, pediatra, profesora universitaria y miembro de la Academia Americana de Pediatría

La preocupación por la adicción a las redes existe, por lo menos, desde 2010. Lo nuevo es el ángulo que está trayendo un juicio en California.

Durante años, en Estados Unidos, casi todo se estrellaba contra una muralla jurídica: lo que dice la Sección 230 de la Ley de Decencia en las Comunicaciones (de 1996): una plataforma no responde por lo que publican sus usuarios. Fin.

Pero en febrero de 2026 se abrió la grieta. La demanda contra Meta (Instagram) y Google (YouTube) no acusa al contenido. Acusa el diseño, a la experiencia de usuario: scroll infinito, autoplay, recomendaciones que premian lo dañino, filtros que modifican el rostro. Son características de diseño, acusan, que muestran un producto premeditadamente defectuoso. Si el jurado lo acepta, la Sección 230 deja de ser escudo para los daños del producto.

El caso que se volvió emblema tiene las iniciales de una persona: K.G.M. En la sala la llaman Kaley. Es una joven que en 2026 tiene 20 años. A los 6 entró a YouTube con contenido infantil. A los 9 abrió Instagram, eludiendo la verificación de edad. Para cuando terminó la primaria ya había publicado 284 videos en YouTube; en sus peores periodos, usó estas plataformas hasta 16 horas diarias.

El abogado Mark Lanier lo resume con una analogía: las redes son un “casino digital”. No apuestas dinero. Apuestas validación. El pulgar baja y el cerebro espera una recompensa variable: un like, un comentario, una vista.

La demanda sostiene que ese uso compulsivo trae un paquete de daños: depresión severa e ideación suicida, dismorfia corporal, y exposición a depredadores (sextorsión, acoso), todo dentro del propio ecosistema.

La jueza Carolyn B. Kuhl ordenó reglas estrictas para blindar al jurado que evalúa este proceso: nada de dispositivos que puedan grabar o identificar rostros. Sabe lo que hace y sabe quién comparece: personas del entorno de Zuckerberg intentaron entrar con gafas Ray-Ban Meta. ¿Qué buscaban grabar? ¿Para qué?

Zuckerberg se ha defendido en el juicio con la narrativa clásica: Instagram es útil; conecta; permite expresarse. Si alguien pasa más tiempo, es porque encuentra valor. Su problema es que el tribunal también ha visto información.

Un documento interno de Meta mostró objetivos para elevar el tiempo diario promedio en Instagram: 40 minutos en 2023, 46 en 2026. Eso parece una meta de negocio. Y si quieren que la gente pase más tiempo, ¿cómo lo harían? Parece evidente: optimizando la experiencia desde el producto mismo.

También hay agravantes. En 2019, Meta reunió a 18 expertos en bienestar que advirtieron riesgos reales para adolescentes en filtros que simulan cirugía plástica. Zuckerberg aceptó que se suspendieron… y que luego se revirtieron, porque prohibirlos le parecía “paternalista”; él prefirió “errar” del lado de la libre expresión.

Un estudio de Makenzie Schroeder y Elizabeth Behm-Morawitz encontró que comparar tu cara real con tu cara filtrada puede golpear más que compararte con modelos: aumenta el deseo de perder peso y la auto objetivación; la dismorfia corporal aparece como factor.

La edad, por supuesto, es dinamita. En el juicio se discutió evidencia de que Meta sabía que había millones de menores de 13 en Instagram (basado en estimaciones internas) y que capturar tweens (9 a 12) era parte del camino para “ganar” con adolescentes.

YouTube también está ahí. En un documento interno de 2012 mostrado al jurado se pudo ver una postura: “Los padres necesitan una niñera para entretener a sus hijos”. Autoplay como niñera digital: tú cocinas, limpias, trabajas; el algoritmo hace el resto con el menor.


¿Y la escuela? La escuela paga la factura. Los distritos escolares que apoyan la demanda han argumentado que el diseño adictivo creó una “molestia pública”: más gasto en salud mental, más conflictos de ciberacoso, más tiempo perdido, menos atención sostenida

En el estrado, la académica Anna Lembke empujó la idea hasta el límite: estas funciones “droguifican” la conexión humana, al sostener el ciclo de dopamina y compulsión, justo donde el cerebro adolescente no tiene frenos maduros.

La Academia Americana de Pediatría, en su actualización de 2026, insiste que los minutos son sólo una parte del entramado: el problema es el ecosistema cuando prioriza engagement y comercialización, porque afecta el sueño, el movimiento y el bienestar; el problema no se arregla con cronómetros.

Lo que este juicio intenta es un cambio de categoría: dejar de ver a Instagram y YouTube como “plazas” y empezar a verlos como “artefactos”. No como medios, sino como productos.

¿Por qué? Porque cuando un producto se presume capaz de dañar de forma previsible, la carga se invierte: el fabricante debe demostrar seguridad, no el usuario demostrar autocontrol.

Si el juicio determina que la parte acusadora tiene razón, se modificaría el diseño cotidiano: fricción deliberada en el scroll, límites reales al autoplay, verificación de edad real, métricas de bienestar auditables, y (lo más incómodo) objetivos corporativos que ya no podrían esconderse detrás de la palabra “engagement”.

Si la experiencia de usuario entra como evidencia de un producto defectuoso, nacerá una industria paralela: seguros contra daño, auditorías de adicción, certificaciones, peritos de diseño.

Todo cambiaría.

En 2010 te preocupaba que los niños no soltaran el teléfono.

En 2026 la pregunta es más profunda: ¿y si el diseño fue construido para que no lo suelten?

Cuando el pulgar baja una vez más, quizá no estás consumiendo contenido.

Quizá estás siendo víctima, sin saberlo, de un defecto de fábrica… premeditado.

Los menores y las regulaciones de consumo digital

En los últimos meses, varias legislaciones se han enfocado en tratar de obstaculizar el acceso a las redes sociales para las poblaciones infantiles.

La medida trata de frenar los problemas de salud mental, que habitualmente derivan en conductas socialmente nocivas.

El ejemplo lo puso Australia, que impuso responsabilidad legal directamente a las plataformas, con multas que pueden alcanzar los 49.5 millones de dólares australianos si no logran evitar de manera razonable que los niños creen cuentas.

En su primer mes de implementación, Meta eliminó más de 500,000 cuentas de menores en ese país, lo que demuestra que, bajo presión legal, la empresa posee herramientas para actuar de manera mucho más drástica. Hoy varios países están comenzando a transitar esa ruta.

El consumo de contenido en plataformas sociales de niños es un hecho innegable, pero no todos lo cuantifican. En Estados Unidos hicieron un recuento que permite tener una idea del tiempo que hoy varios menores dedican cotidianamente a esa actividad.


Publicar un comentario

0 Comentarios
Publicar un comentario (0)

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !
To Top