Artículo de Ana Caballero, abogada y vicepresidenta de la Asociación Europea Transición Digital.
En los últimos meses hemos visto una campaña con sello impecable: proteger a los adolescentes de los riesgos digitales. ¿Quién podría estar en contra? El problema es que, tras el lazo rosa, asoma una práctica cada vez más habitual: childwashing. Es decir, usar a la infancia como escudo de relaciones públicas para tapar que, en lo sustancial, nada cambia: Instagram, Facebook y WhatsApp siguen incumpliendo y no protegiendo a los menores.
El relato amable… y la letra pequeña. Meta —dueña de Instagram, Facebook y WhatsApp— ha convertido el “bienestar adolescente” en eslogan. Pero el informe independiente Teen Accounts, Broken Promises (2025) pone cifras a la sospecha: el 64% de sus herramientas de seguridad en Instagram fueron calificadas en rojo (ineficaces o ausentes) y solo el 17% funcionaba como se prometía. Varias estaban desactivadas o eran fáciles de eludir. Aun así, se venden como “sistema integral de protección”.
Seguridad de escaparate. Mientras enseña novedades “para menores”, la compañía intensifica su lobby contra regulaciones como la KOSA en EE. UU. o el refuerzo del Online Safety Act en el Reino Unido. Y aquí conviene estar atentos: España prepara una Ley Orgánica para la protección de los menores en el entorno digital. Las campañas de buenas intenciones operan como cortafuegos reputacional justo cuando los legisladores debaten qué hacer.
Funciones que lucen, pero no protegen. La lógica es simple: en vez de rediseñar productos adictivos, se lanzan funciones que dan titulares. Hasta 2025, el sistema que supuestamente impedía mensajes de adultos desconocidos a menores seguía permitiéndolos. Y se premia con emojis activar mensajes que desaparecen: perfectos para el grooming o la sextorsión, porque no dejan pruebas y complican denunciar.
¿Denuncias? Solo el 0,02% de quienes sufren un daño recibe ayuda real. Los circuitos de reporte son confusos y lentos: cuanto más difícil es denunciar, menos datos hay sobre el daño.
No es (solo) el contenido, es el diseño. El corazón del problema es estructural. El algoritmo empuja a adolescentes hacia espirales de comparación, autoexplotación y adicción al like. Incluso con los máximos controles activados, las cuentas “teen” siguieron expuestas a contenido sexual, violento y de autolesión. La opción “No me interesa” no corrige de forma efectiva las recomendaciones, y búsquedas sobre alimentación o depresión devuelven materiales que empeoran la situación. El negocio premia el tiempo de pantalla y el enganche emocional, aunque crezca el riesgo de ansiedad, depresión o ideación suicida.
Lobby y confusión regulatoria. Mientras las medidas internas fracasan, Meta invierte millones para rebajar o frenar normas: contra la KOSA en EE. UU., buscando suavizar la aplicación del DSA y del AI Act en Europa, y vendiendo en América Latina la “autorregulación” como si bastara. Resultado: se culpa a las familias (“usen nuestras herramientas”), se diluye la responsabilidad de diseño y se enfría la demanda de reglas con dientes.
Proteger de verdad no es un banner emotivo. Es seguridad por defecto, auditorías de algoritmos, reportes sencillos y rápidos, verificación independiente y rendición de cuentas legal. Traducido: si algo falla, sanción efectiva y obligación de corregir el producto, no de lanzar otra campaña.
Mientras eso no llegue, SOSAdolescenTech será sobre todo eso: comunicación. Y nuestros adolescentes, otra vez, la coartada perfecta. En Soria, en Castilla y León o en cualquier rincón de España, las familias no necesitan promesas nuevas: necesitan plataformas rediseñadas y leyes que se cumplan.