Fortaleciendo el acceso al conocimiento y el análisis crítico sobre los derechos digitales, este buscador permite explorar de forma ágil una cuidada selección de materiales y documentos, con fuentes confiables y actualizadas.
Se trata de una web donde se explica el AI Act Service Desk como un punto de apoyo oficial de la Comisión Europea para facilitar la interpretación y aplicación del Reglamento Europeo de Inteligencia Artificial (AI Act), que entró en vigor el 1 de agosto de 2024 y se implementará hasta 2027. Ofrece a ciudadanos, empresas, administraciones y otros interesados la posibilidad de enviar preguntas al equipo de expertos del AI Office sobre cómo entender y cumplir las obligaciones del AI Act mediante un formulario en línea accesible con EU Login, aceptando consultas en todas las lenguas oficiales de la UE. Este servicio forma parte de la plataforma única de información que centraliza recursos, herramientas interactivas (como un comprobador de cumplimiento y un explorador del texto del AI Act) y guías para ayudar a navegar el marco regulatorio europeo sobre IA y apoyar una implementación coherente y accesible en toda la Unión.
El estudio analiza qué saben y qué piensan los alemanes sobre el uso de algoritmos en distintos ámbitos de la vida cotidiana. A partir de una encuesta representativa, muestra que existe un amplio desconocimiento: aunque la mayoría ha oído el término, solo un 10% afirma comprender realmente cómo funcionan los algoritmos, y casi la mitad no puede asociarles ningún significado concreto. También se observa que muchos ciudadanos no son conscientes de en cuántos ámbitos ya se aplican, especialmente en decisiones sensibles como diagnósticos médicos o selección de personal. Las actitudes generales están marcadas por incertidumbre: casi la mitad no sabe si predominan las oportunidades o los riesgos. Sin embargo, la mayoría expresa desconfianza hacia decisiones automatizadas y prefiere la intervención humana, sobre todo cuando las consecuencias son importantes. El estudio concluye que se necesitan más información, transparencia y control para fortalecer la confianza pública y fomentar un debate informado sobre el uso de algoritmos.
Artículo que analiza la evolución del marco normativo francés en el ámbito concreto de los efectos de la muerte de una persona sobre sus bienes digitales, destacando en particular cómo la Loi Informatique e Libertés habilita a los individuos para hacer disposiciones post mortem, yendo más allá de lo previsto por el Reglamento General de Protección de Datos. El autor examina críticamente el surgimiento de una nueva industria, los servicios funerarios digitales, que no se limita a la eliminación de perfiles en redes sociales, sino que ofrece otras prestaciones, como cementerios virtuales o deadbots (bots que utilizan IA para simular conversaciones con la persona fallecida).
Informe sobre el estado y las perspectivas de la Inteligencia Artificial (IA), para ofrecer una estrategia nacional y europea para su desarrollo. El autor destaca el impacto, positivo y negativo, que puede tener la IA en distintos ámbitos: investigación, trabajo, medioambiente, educación, agricultura, defensa… A lo largo del trabajo se articulan propuestas para reforzar la apertura de estas tecnologías, la construcción de un marco ético que evite discriminaciones y permita auditar los resultados generados artificialmente, o la mayor inclusividad y diversidad en el entrenamiento de estos sistemas para reducir sesgos. El informe destaca el papel central del Estado francés como regulador e impulsor de la IA.
L’Intelligenza Artificiale al servizio del cittadino
Agenzia per l'Italia Digitale | 2018
El Libro Blanco sobre Inteligencia Artificial al servicio del ciudadano elaborado por la Task Force de la Agenzia per l’Italia Digitale y publicado con apoyo del Nexa Center for Internet & Society es un informe de referencia que analiza el impacto de la inteligencia artificial en la sociedad y, de manera particular, en la administración pública italiana. El texto describe el estado actual de las tecnologías de IA, sus aplicaciones potenciales y los beneficios que pueden aportar a la provisión de servicios públicos. Aborda asimismo los retos éticos, tecnológicos, educativos y legales vinculados a su adopción y propone recomendaciones para una implementación responsable centrada en el ciudadano. Entre los desafíos analizados figuran la ética, las competencias, la calidad de los datos, la transparencia y la gobernanza de los sistemas inteligentes.
Policy and investment recommendations for trustworthy Artificial Intelligence
Hight Level Expert Group (HLEG) | 2018
El informe presenta 33 recomendaciones dirigidas a las instituciones de la UE y los Estados miembros para promover una inteligencia artificial confiable que combine sostenibilidad, crecimiento, competitividad e inclusión, al mismo tiempo que empodere, beneficie y proteja a las personas. El documento forma parte de la estrategia europea de IA y acompaña las orientaciones éticas sobre IA confiable, destacando la necesidad de políticas públicas e inversiones que refuercen la gobernanza, la transparencia, la seguridad y el respeto de derechos fundamentales, e impulse la adopción de IA que favorezca la economía de datos y la innovación responsable en Europa. La UE, como actor clave en el desarrollo e implementación de IA, debe apoyar la creación de un ecosistema robusto con normas claras y financiación estratégica, equilibrando la protección de las personas con el fomento de tecnologías avanzadas
La página analiza el creciente uso de algoritmos e inteligencia artificial en la administración pública alemana, especialmente en agencias de empleo y oficinas sociales. Aunque estas tecnologías prometen eficiencia ante el grave déficit de personal, también generan riesgos importantes: errores, falta de transparencia y posible discriminación, sobre todo cuando los sistemas se entrenan con datos incompletos o sesgados. Expertos advierten que los algoritmos pueden reforzar desigualdades existentes y que su funcionamiento rara vez es verificable. Ejemplos de Polonia, Austria y los Países Bajos muestran cómo la clasificación automatizada de personas vulnerables puede producir decisiones injustas. El artículo subraya que la IA solo debe servir como ayuda, nunca como sustituto del juicio humano, y requiere supervisión, regulación y personal cualificado.
Digitalisierung und Nachhaltigkeit: „Ein großes Potenzial für den Mittelstand“
Sarah-Indra Jungblut | 2019
La plataforma nachhaltig.digital, creada por la Deutsche Bundesstiftung Umwelt y B.A.U.M., busca ayudar a pequeñas y medianas empresas a unir digitalización y sostenibilidad. Su objetivo es mostrar cómo las tecnologías digitales pueden impulsar prácticas más eficientes, responsables y resilientes. El interés empresarial ha crecido notablemente, y la plataforma facilita el intercambio entre compañías, expertos y actores del sector. En su congreso anual se destacaron tres temas clave: inteligencia artificial, medición del impacto sostenible y nuevas formas de trabajo. También se presentaron ejemplos prácticos, como el uso de realidad virtual para mejorar procesos y reducir desperdicios. La iniciativa seguirá desarrollando herramientas y espacios de colaboración.
El informe propone un conjunto de criterios éticos para guiar el desarrollo y uso de sistemas de inteligencia artificial confiables. Estas directrices establecen que una IA debe ser lícita (cumplir con las leyes y reglamentos vigentes), ética (respetar valores y principios éticos como dignidad humana, no discriminación y justicia) y robusta (técnica y socialmente segura para minimizar daños accidentales). El documento ofrece orientaciones para aplicar estos principios a lo largo del ciclo de vida de los sistemas de IA, contribuyendo a fortalecer la seguridad, transparencia, responsabilidad y confianza pública en tecnologías basadas en IA dentro de la Unión Europea, como base para futuras normas y prácticas sectoriales en este ámbito
Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment
Hight Level Expert Group (HLEG) | 2020
El informe presenta una herramienta de autoevaluación creada por el High‑Level Expert Group on AI (AI HLEG) de la Comisión Europea para ayudar a desarrolladores y responsables de IA a aplicar los principios de una IA confiable en la práctica. Publicada el 17 de julio de 2020 tras un proceso piloto con más de 350 participantes, convierte los requisitos éticos de las Ethics Guidelines for Trustworthy AI en un listado dinámico de verificación. Estos requisitos son: agencia humana y supervisión, robustez técnica y seguridad, privacidad y gobernanza de datos, transparencia, diversidad, no discriminación y equidad, bienestar ambiental y social y rendición de cuentas. ALTAI permite que las organizaciones evalúen si sus sistemas de IA cumplen estos principios y adoptan medidas concretas para mitigar riesgos y asegurar que los usuarios se beneficien de la IA sin exponerse a peligros innecesarios; también existe como herramienta web interactiva.