Fortaleciendo el acceso al conocimiento y el análisis crítico sobre los derechos digitales, este buscador permite explorar de forma ágil una cuidada selección de materiales y documentos, con fuentes confiables y actualizadas.
La página analiza el creciente uso de algoritmos e inteligencia artificial en la administración pública alemana, especialmente en agencias de empleo y oficinas sociales. Aunque estas tecnologías prometen eficiencia ante el grave déficit de personal, también generan riesgos importantes: errores, falta de transparencia y posible discriminación, sobre todo cuando los sistemas se entrenan con datos incompletos o sesgados. Expertos advierten que los algoritmos pueden reforzar desigualdades existentes y que su funcionamiento rara vez es verificable. Ejemplos de Polonia, Austria y los Países Bajos muestran cómo la clasificación automatizada de personas vulnerables puede producir decisiones injustas. El artículo subraya que la IA solo debe servir como ayuda, nunca como sustituto del juicio humano, y requiere supervisión, regulación y personal cualificado.
El estudio analiza qué saben y qué piensan los alemanes sobre el uso de algoritmos en distintos ámbitos de la vida cotidiana. A partir de una encuesta representativa, muestra que existe un amplio desconocimiento: aunque la mayoría ha oído el término, solo un 10% afirma comprender realmente cómo funcionan los algoritmos, y casi la mitad no puede asociarles ningún significado concreto. También se observa que muchos ciudadanos no son conscientes de en cuántos ámbitos ya se aplican, especialmente en decisiones sensibles como diagnósticos médicos o selección de personal. Las actitudes generales están marcadas por incertidumbre: casi la mitad no sabe si predominan las oportunidades o los riesgos. Sin embargo, la mayoría expresa desconfianza hacia decisiones automatizadas y prefiere la intervención humana, sobre todo cuando las consecuencias son importantes. El estudio concluye que se necesitan más información, transparencia y control para fortalecer la confianza pública y fomentar un debate informado sobre el uso de algoritmos.
La página analiza cómo la automatización en la administración pública puede generar eficiencia, pero también perjuicios graves, especialmente para personas vulnerables. Diversos casos europeos muestran errores sistemáticos: suspensión automática de ayudas, deudas injustificadas, discriminación algorítmica, decisiones opacas y uso indebido de datos. Se destacan ejemplos en Francia, Dinamarca, Italia, Austria, Países Bajos y Alemania, donde sistemas defectuosos afectaron a millones de personas. El texto subraya que la falta de transparencia, supervisión y vías de reclamación agrava los riesgos. Propone controles estrictos, evaluaciones de impacto en derechos fundamentales y un registro público de sistemas de IA para garantizar responsabilidad y protección ciudadana
AI-Act Verbraucher:innen bei der Umsetzung berücksichtigen
Verbraucherzentrale Bundesverband | 2024
El documento presenta propuestas para la implementación nacional del RIA, con un enfoque claro en la protección de las personas consumidoras. Señala que la IA ya genera riesgos reales (manipulación emocional, análisis oculto de perfiles, decisiones automatizadas que afectan a seguros, créditos o servicios) y que solo una supervisión sólida y accesible puede generar confianza. Se propone prohibir los sistemas de identificación biométrica a distancia en espacios públicos, incluidos los operados por empresas privadas. El texto pide crear una autoridad central de supervisión, que actúe como punto único de contacto, con procedimientos de quejas simples y eficaces. También recomienda establecer un consejo independiente de expertos y un centro técnico especializado que apoye a las autoridades. Finalmente, exige sanciones claras y efectivas para todos los incumplimientos del reglamento.