Fortaleciendo el acceso al conocimiento y el análisis crítico sobre los derechos digitales, este buscador permite explorar de forma ágil una cuidada selección de materiales y documentos, con fuentes confiables y actualizadas.
Der Digital Services Act feiert Geburtstag – Zeit für ein Zwischenfazit
AlgorithmWatch | 2025
Al hilo del tercer aniversario del DSA, esta entrada destaca varios avances y carencias en su aplicación. Aunque se han logrado impactos positivos, como la retirada de programas peligrosos en TikTok, persisten problemas de transparencia, acceso a datos y retrasos en la ejecución. AlgorithmWatch impulsa iniciativas para ampliar el acceso a información, como solicitudes masivas de datos sobre contenidos virales, y critica la falta de cooperación de plataformas como X y Meta. También subraya la necesidad de mejorar las evaluaciones de riesgos sistémicos, especialmente en buscadores y resúmenes generados por IA, para proteger la democracia y el periodismo.
1 Jahr DSA. Sicherheit im Digitalen Raum: Eine Bilanz – Und Was Jetzt Nötig Ist
HateAid | 2025
El documento evalúa un año de aplicación del Reglamento de Servicios Digitales (DSA) en la Unión Europea y su impacto en los derechos digitales. Aunque la norma busca proteger a los usuarios frente a contenidos ilegales, los resultados muestran deficiencias: un 47% de los contenidos denunciados por incitación al odio, símbolos anticonstitucionales o insultos permanecieron visibles. Los sistemas de moderación fallan, los procesos de denuncia son complejos y las plataformas reaccionan con retraso. Esto genera un efecto silenciador, limita la libertad de expresión y amenaza la estabilidad democrática. Se reclama fortalecer la supervisión nacional y apoyar a la sociedad civil
El informe analiza a qué retos y desafíos prácticos se enfrentan los investigadores externos, incluidas ONG y académicos, al estudiar los “riesgos sistémicos” bajo el artículo 34 del DSA. Aunque la definición de riesgo es vaga, la diversidad de enfoques enriquece el ecosistema de investigación. Los principales problemas son la falta de transparencia, el acceso limitado a datos y la escasa claridad sobre procesos de colaboración con reguladores y plataformas. Se propone más información detallada sobre evaluaciones de riesgo, estructuras de cooperación y claridad legal para proteger a investigadores.
Disinformation ads, Systemic Risks and the Digital Services Act
Who Targets Me | 2024
Este artículo examina una campaña de desinformación atribuida a Rusia en Alemania y Francia, difundida mediante anuncios en Meta entre 2023 y 2024. Se identificaron más de 3.000 páginas que compraron al menos un anuncio, alcanzando hasta 38 millones de cuentas. Aunque el número parece elevado, los datos muestran que la exposición real fue limitada: solo entre 1,3% y 1,8% de usuarios alemanes analizados vieron algún anuncio, con una frecuencia baja. El texto plantea la duda de si esto constituye un “riesgo sistémico” bajo la Digital Services Act (DSA), que exige a grandes plataformas mitigar daños democráticos. Se concluye que la campaña existió y persistió, pero su alcance comparado con otros anunciantes fue reducido
A guide to the EU’s new rules for researcher access to platform data
AlgorithmWatch | 2022
Explica en lenguaje claro el nuevo marco del DSA para que personas que llevan a cabo investigaciones de interés público accedan a datos de ciertas plataformas. En el documento se indica quién puede solicitar datos, cómo se puede acceder a ellos, qué obligaciones tienen las plataformas y cómo se tramita el acceso, con ejemplos prácticos y advertencias sobre límites y garantías. Es un texto útil para la ciudadanía, empresas tecnológicas e investigadores.
A guide to the Digital Services Act, the EU’s new law to rein in Big Tech
AlgorithmWatch | 2022
El documento explica el Reglamento de Servicios Digitales (DSA) como un marco legal europeo para reforzar los derechos digitales de los ciudadanos frente al poder de las grandes plataformas. La norma obliga a empresas como Facebook, YouTube, TikTok o Twitter a eliminar rápidamente contenidos ilegales, ofrecer transparencia en sus algoritmos y publicidad, y dar a los usuarios herramientas para impugnar decisiones de moderación. También prohíbe anuncios dirigidos a menores y el uso de datos sensibles, limita los “dark patterns” y exige evaluaciones de riesgos sistémicos, entre otras cosas