Artículo de Ana Caballero, abogada y vicepresidenta de la Asociación Europea Transición Digital.
España vuelve a coquetear con un eslogan de manual: “prohibir las redes sociales para menores”. Suena contundente, queda bien en un corte de vídeo y da la sensación de que “por fin alguien hace algo”. El problema es que un titular no es una política pública, y menos cuando hablamos de infancia, salud mental, seguridad y un ecosistema digital diseñado —literalmente— para captar atención. La última ofensiva anunciada por el Gobierno (“ban” para menores de 16 y verificación de edad “de verdad”) encaja demasiado bien en el molde de la política de impacto, pero al menos reabre una agenda que debería estar mucho más avanzada.
Falta ambición y profundidad. Si el objetivo es proteger de forma real a los menores en el entorno digital, el foco no debe estar en vender una prohibición como si fuera un interruptor. Debe estar en tocar las palancas que de verdad mandan aquí: arquitectura de producto, algoritmos, publicidad, perfilado, diseños persuasivos y aplicación efectiva de la normativa europea. Y en eso, España tiene deberes atrasados.
El proyecto que ya se tramita en el Congreso incluye medidas diversas, pero el núcleo político del debate se está empujando hacia “prohibir redes”. Y, sin embargo, cuando rascas el texto y el relato, aparece una realidad incómoda: la gran pieza vendible es elevar la edad de consentimiento digital (de 14 a 16, en línea con el margen del RGPD) y poco más que sea equiparable a “poner en cintura” a las redes sociales como industria.
Sí, se habla de verificación de edad. Sí, se mencionan contenidos ilícitos. Pero la regulación que cambia el juego no es solo “a qué edad entras”: es qué pasa dentro cuando entras. Si no regulas el modelo de negocio —perfilado, ads comportamentales, tracking, empujones algorítmicos, notificaciones adictivas, patrones oscuros—, la prohibición se convierte en un gesto: desplazará el problema, no lo resolverá.
Y aquí viene lo más llamativo: existe desde hace alrededor de año y medio una hoja de ruta seria, articulada por expertos independientes, que sí apunta donde duele. Incluso el propio proceso legislativo reconoce el trabajo de un comité de personas expertas creado en 2024 para orientar una hoja de ruta de protección digital. Si el Gobierno quisiera autoenmendarse, el camino está bastante claro.
España designó a la CNMC como Coordinador de Servicios Digitales (el “Digital Services Coordinator” del Reglamento de Servicios Digitales).
Pero designar no es suficiente: hay que habilitarla con competencias, recursos y régimen sancionador para hacer cumplir el DSA en el ámbito nacional. Y aquí llega el aviso serio: la Comisión Europea ha ido escalando el procedimiento de infracción contra España por no habilitar adecuadamente al coordinador y por fallos de implementación; de hecho, el asunto ha llegado a la vía del TJUE. Eso no es un detalle técnico: es la diferencia entre poder actuar contra plataformas y quedarse mirando. Sin “árbitro” con silbato y tarjetas, todo lo demás es teatro.
La verificación de edad funciona si es un estándar de infraestructura, no un parche en cada app. Técnicamente se puede implantar en distintos dispositivos y sistemas operativos, y además preservando el anonimato.
La AEPD ya presentó una propuesta práctica de verificación de edad demostrando que se puede proteger a menores del acceso a contenidos inadecuados sin convertir la navegación de adultos en un registro nominal. Año 2023. Y, a nivel europeo, el Comité Europeo de Protección de Datos ha fijado principios para sistemas de “age assurance” coherentes con minimización de datos y privacidad.
Comparación útil para no meter la pata: Australia ha aprobado su “mínimo de edad” (SMMA) y la ley no obliga a una tecnología concreta, pero en la práctica se está discutiendo —y probando— verificación mediante ID, selfies o escaneos faciales, con críticas por el impacto en privacidad. En Europa, un enfoque biométrico generalizado sería un campo de minas con el Reglamento General de Protección de Datos.
Esto es lo que cambia la vida real. Medidas de serie, no “opciones escondidas”: evitar perfilados, publicidad comportamental, tracking online y notificaciones automáticas cuando no exista el consentimiento exigido; interfaces específicas para filtrado de contenidos o sitios concretos apoyadas en verificación de edad, herramientas de bienestar digital instaladas por defecto: avisos de tiempo, “stand by”, desconexión automática tras un periodo prefijado; funciones de riesgo solo con autorización expresa del adulto responsable; geolocalización, micrófono y cámara desactivados por defecto, y que se apaguen al terminar cada sesión.
Aquí está el núcleo: pasar de “la culpa es del menor/familia” a “el producto tiene que ser seguro de base”.
Todo producto o servicio dirigido a menores —o usado de forma relevante por ellos— debería pasar por una evaluación de impacto específica: no solo “riesgo legal”, también bienestar, salud y derechos. Esto es coherente con la lógica europea de evaluación de riesgos sistémicos en plataformas.
Si no regulas el “enganche”, no regulas nada. Patrones oscuros, recompensas variables, scroll infinito, notificaciones diseñadas para volver, fricciones negativas para salir… Eso debe quedar acotado para garantizar libertad real de interacción.
La protección no es censurar, es devolver control: desactivar el perfilado por defecto; optimizar valores distintos del engagement (que es negocio, no bienestar); funciones para personalizar el feed de forma consciente; fricciones positivas antes de publicar o compartir (para frenar impulsos); deshabilitar recomendaciones basadas en perfiles íntimos y rediseñar sistemas de recomendación con compromisos de “seguridad por diseño”.
Esto sí coloca a las redes en su sitio: bajo reglas, no bajo eslóganes.
Y lo que nunca puede faltar: educación y acompañamiento familiar. Incluso con la mejor regulación, si no hay alfabetización digital, acompañamiento y políticas públicas en educación y salud, el sistema cojea. El entorno digital es un espacio social más, y se aprende a vivir en él con límites, herramientas y apoyo.
El debate no debería ser “¿prohibimos o no prohibimos?”. Debería ser: ¿queremos una protección real, medible y exigible… o queremos un titular? La diferencia está entre tocar el ecosistema (DSA, verificación de edad con privacidad, diseño seguro, límites al perfilado y a la persuasión) o quedarse en el gesto.
Únete al universo Soria Noticias Descárgate nuestra APP, entra en nuestro canal de WhatsApp o síguenos en redes.