Meta y TikTok bajo investigación: la Unión Europea exige más transparencia digital
La Comisión Europea ha anunciado hallazgos preliminares según los cuales Meta Platforms (a través de sus plataformas Facebook y Instagram) y TikTok han incumplido obligaciones clave de la Digital Services Act (DSA). Estas obligaciones incluyen la transparencia en los sistemas de moderación de contenido, la facilidad de uso de los mecanismos de denuncia, y el acceso de investigadores a los datos de las plataformas. Las compañías podrían enfrentarse a multas de hasta el 6 % de su facturación anual global.
¿Qué ha descubierto la UE?
La CE ha detallado en un comunicado que, tras abrir las investigaciones en 2024, ha encontrado indicios de que Meta y TikTok no están cumpliendo con varios de los requisitos que la DSA impone como «plataformas muy grandes en línea».
Entre los incumplimientos más destacados se encuentran:
- Acceso de investigadores: La DSA exige que estas plataformas permitan a investigadores independientes acceder a datos pertinentes para evaluar riesgos, contenido ilegal o nocivo, o impactos en menores. La CE considera que tanto Meta como TikTok han implementado procedimientos restrictivos o poco claros que dificultan dicho acceso.
- Mecanismos de denuncia y apelación (Meta): En cuanto a Meta, la Comisión ha identificado que los sistemas para que los usuarios notifiquen contenido ilegal (como abuso infantil, terrorismo) no son lo suficientemente sencillos ni accesibles. Además, ha señalado que Meta utiliza lo que se denominan “patrones oscuros” (dark patterns) en su interfaz que podrían disuadir al usuario de presentar denuncias.
- Transparencia algorítmica y de moderación: Ambas compañías están acusadas de no ofrecer suficiente claridad sobre sus procesos de moderación y los criterios de funcionamiento de sus algoritmos, algo que la DSA exige sea rastreable.
¿Por qué importa este proceso para los usuarios y el ecosistema tecnológico?
La revisión de Meta y TikTok bajo la DSA trasciende lo legal-regulatorio: tiene implicaciones directas para cómo utilizamos redes sociales, qué datos conocemos de las plataformas y hasta qué grado estamos protegidos frente a contenidos ilegales o manipuladores. Algunos puntos clave:
- Protección de los usuarios: Si los mecanismos de denuncia o apelación no son efectivos, los usuarios pueden quedar expuestos a contenido ilegal, abusivo o engañoso que no se gestiona adecuadamente.
- Investigación y conocimiento público: Cuando los investigadores no pueden acceder a datos de plataformas, se limita la transparencia sobre fenómenos como la exposición de menores a contenido dañino, fake news o efectos de los algoritmos en la salud mental.
- Impacto sobre los gadgets/devices: Aunque parece un asunto exclusivamente digital, afecta directamente los dispositivos que usamos: smartphones, tablets, wearables… Estos dependen de las apps, de la confianza del usuario, de la integridad de las plataformas que corren sobre ellos. Una plataforma mal regulada puede generar un entorno menos seguro para el usuario de gadgets.
- Precedente regulatorio: Que la CE aplique la DSA de forma rigurosa crea un precedente global. No se trata sólo de Meta o TikTok: abre la puerta a que otras plataformas — y por tanto los gadgets y apps que corren sobre ellas — sean objeto de mayor escrutinio.
¿Qué riesgos enfrentan Meta y TikTok si se confirma la infracción?
Según la normativa, las sanciones pueden alcanzar hasta el 6 % de la facturación global anual de la empresa infractora. En el caso de compañías del tamaño de Meta o TikTok, esto puede traducirse en miles de millones de dólares en multas.
Además de la sanción económica, existen otros riesgos relevantes:
- Orden de modificación forzada de sus plataformas: como hacer más accesibles los procesos de denuncia, modificar partes de la interfaz, facilitar datos a investigadores.
- Impacto reputacional: La percepción de los usuarios puede verse afectada, lo cual puede traducirse en menor fidelidad, cambios de uso de apps o migración hacia otras plataformas.
- Un efecto dominó regulatorio: Si Meta y TikTok deben modificar sus modelos, otras empresas pueden verse obligadas a acelerar cumplimiento normativo, lo que podría afectar innovaciones y gadgets asociados.
¿Qué han respondido Meta y TikTok?
Meta Platforms ha expresado su desacuerdo con las conclusiones preliminares de la CE, asegurando que han introducido mejoras en sus mecanismos de denuncia, apelación y acceso a datos desde la entrada en vigor de la DSA.
TikTok, por su parte, ha señalado que existe una tensión entre las obligaciones de transparencia de la DSA y las reglas de protección de datos de la UE, como la General Data Protection Regulation (GDPR). Enfatiza que “si no es posible cumplir plenamente con ambas, se requiere claridad regulatoria” por parte de los organismos europeos.
¿Qué sigue en el proceso?
La investigación está actualmente en fase preliminar. Los pasos que seguirán:
- Las compañías pueden presentar sus respuestas a la CE y aportar datos o argumentos en su defensa.
- La CE evaluará si los hallazgos iniciales se confirman, y en su caso emitirá una decisión final que podrá incluir sanciones y órdenes de cumplimiento.
- De ocurrir sanciones, habrá seguimiento para verificar que las plataformas implementen los cambios requeridos.
- Las medidas que adopten tendrán efecto en el ecosistema digital y podrían cambiar la forma en que los usuarios interactúan con apps en sus dispositivos.
El escrutinio de la UE sobre Meta y TikTok pone de relieve una cuestión crítica para el presente y el futuro de la tecnología: no basta con tener una plataforma popular o gadgets de moda — también importa cómo esas plataformas operan, cuán transparentes son y cómo protegen a sus usuarios. Para quienes usamos gadgets, apps y redes sociales, este proceso regula el entorno digital que define buena parte de nuestra experiencia tecnológica diaria.