11/03/2026
Publicado en
La Razón
David Thunder |
Investigador del grupo 'Religión y sociedad civil' del Instituto Cultura y Sociedad de la Universidad de Navarra

No hacía falta esperar este informe para advertir que la redacción de la DSA otorga a la Comisión Europea un enorme margen de discrecionalidad en la supervisión de las políticas de moderación de contenidos. La ley impone a las plataformas obligaciones de «diligencia debida» para mitigar «riesgos sistémicos» definidos de manera vaga, entre ellos la «desinformación» o daños al «discurso cívico». Pero, ¿quién define la «desinformación»? ¿Quién decide cuándo una crítica política erosiona el «discurso cívico»? ¿Cómo se mide la «adecuación» de las medidas adoptadas por una plataforma? La ambigüedad del texto deja amplio espacio a la interpretación por parte de los supervisores. Y la Comisión no solo interpreta: también investiga y sanciona. Puede imponer multas de hasta el 6% de la facturación global anual de una plataforma en caso de incumplimiento. No sería la primera vez que, en nombre de un objetivo loable, se legisla sin calibrar suficientemente las consecuencias sobre libertades más básicas. Por ejemplo, el Tribunal Constitucional de España declaró inconstitucional el confinamiento estricto de la población impuesto en marzo 2020 en aras de proteger la salud de los ciudadanos. De manera similar, el impulso de proteger a los menores o combatir la desinformación puede terminar, paradójicamente, erosionando la libertad de expresión y empobreciendo el debate público.
El informe sostiene que la DSA es la culminación de una campaña que se ha prolongado durante una década para ampliar progresivamente el poder de la Comisión sobre la moderación de contenidos en internet, tras una serie de códigos de conducta inicialmente «voluntarios» coordinados por instituciones europeas. Según la documentación recogida, el mecanismo de supervisión funciona así: la Comisión –o los coordinadores nacionales de servicios digitales– solicita información a las plataformas sobre sus medidas de mitigación de riesgos en ámbitos concretos (vacunas, elecciones, guerra de Ucrania, discurso de odio). Las empresas responden detallando sus políticas y planes. Posteriormente, la Comisión puede sugerir cambios o exigir medidas adicionales. Formalmente, no ordena retirar publicaciones concretas; en la práctica, el mensaje es claro: más vale excederse en la moderación que arriesgarse a sanciones. Un ejemplo significativo fueron las directrices electorales publicadas en abril de 2024 antes de las elecciones al Parlamento Europeo. Aunque presentadas como orientaciones no vinculantes, instaban a las plataformas a actualizar sus medidas contra la desinformación –incluida la llamada «desinformación de género»–, a cooperar con «verificadores de hechos» («fact-checkers») y a reforzar la «resiliencia» frente a determinadas narrativas. Al mismo tiempo, la Comisión recordaba que estaba «supervisando activamente» el cumplimiento de las obligaciones electorales bajo la DSA.
Según el informe estadounidense, en reuniones a puerta cerrada estas directrices fueron descritas como un «suelo» mínimo de cumplimiento. Si una plataforma se apartaba de ellas, debía demostrar que sus medidas alternativas eran «iguales o mejores». En un contexto de obligaciones vagas y sanciones potencialmente devastadoras, la recomendación se convierte fácilmente en mandato implícito. ¿Respondieron las plataformas? Los documentos citados sugieren que algunas sí. TikTok, por ejemplo, habría informado a la Comisión de la eliminación o restricción de más de 45.000 contenidos identificados como «desinformación» antes de las elecciones europeas de 2024. Entre ellos figuraban mensajes políticos sobre inmigración, cambio climático, seguridad o derechos LGTBQ. Una actualización de sus normas comunitarias, reconocía la propia empresa, estaba «principalmente relacionada con el cumplimiento de la DSA».
Es cierto que la Comisión no dicta directamente cada norma interna de las plataformas. Pero el régimen regulatorio crea un entorno en el que las empresas, para evitar riesgos financieros, tratan de anticipar las preferencias ideológicas y políticas de los reguladores. Cuando la Comisión ha mostrado reiteradamente su alineamiento con determinadas posiciones –en materia de salud pública, política de género, medio ambiente o guerra en Ucrania–, no resulta difícil para una plataforma digital «leer entre líneas» y ajustar sus políticas en consecuencia. El informe incluso recoge casos en los que funcionarios europeos habrían señalado cuentas concretas consideradas «problemáticas», como ocurrió supuestamente antes de las elecciones parlamentarias en Eslovaquia en 2023.
Ante acusaciones de este calibre, la Comisión Europea no puede limitarse a despacharlas como «puras tonterías» o «completamente infundadas», como ha hecho su portavoz de asuntos digitales, Thomas Regnier. Si el informe proveniente de la Cámara de Representantes de Estados Unidos tergiversa o falsifica comunicaciones internas, debe demostrarse con claridad. Si, por el contrario, refleja fielmente el funcionamiento del sistema, estamos ante una cuestión de enorme gravedad para la libertad de expresión en Europa y más allá. Ahora que estas alegaciones y las pruebas que las acompañan están sobre la mesa, la Comisión debe explicarse con rigor y transparencia. En una sociedad libre, el poder político no decide qué opiniones pueden circular y cuáles deben silenciarse.