Fortaleciendo el acceso al conocimiento y el análisis crítico sobre los derechos digitales, este buscador permite explorar de forma ágil una cuidada selección de materiales y documentos, con fuentes confiables y actualizadas.
El informe de BCLP ofrece una visión detallada de la legislación estatal sobre inteligencia artificial en EE. UU., destacando un mosaico regulatorio en rápida evolución. Ante la falta de una ley federal, los Estados regulan el uso de IA, especialmente en decisiones automatizadas, lo que plantea desafíos para la protección de derechos digitales.
Se trata de una página web en la que se explica el Reglamento europeo de IA y la importancia del mismo. Así, en la web se puede observar de manera fácil y sencilla como el reglamento parte de un enfoque basado en el riesgo y divide los sistemas de IA entre: riesgo inaceptable (prohibidos), riesgo alto (requisitos estrictos), riesgo limitado (algún requisito) y riesgo bajo (sin requisitos).
La web aporta información sobre la European AI Office (Oficina Europea de Inteligencia Artificial): una entidad especializada creada dentro de la Comisión Europea para apoyar la implementación y aplicación del Reglamento Europeo de Inteligencia Artificial (AI Act) y promover el desarrollo de una IA fiable y alineada con los valores de la UE. Con unidades dedicadas a regulación, seguridad, innovación, política y aplicaciones sectoriales como la salud, la Oficina contribuye a aplicar de manera coherente las normas en todos los Estados miembros, desarrollar metodologías y códigos de práctica, supervisar el cumplimiento, evaluar riesgos de modelos de IA de uso general, y cooperar con científicos, industria y administraciones. También impulsa acciones políticas y estructurales para fortalecer ecosistemas de IA confiable, ayudar a pymes y startups, y fomentar cooperación internacional sobre gobernanza de IA, con el objetivo de equilibrar la protección de derechos fundamentales y la seguridad con la competitividad y la innovación europea.
La regulación europea de la IA avanza a trompicones y rodeada de incógnitas
Laura Montero Carretero | 2026
El artículo explica que la regulación europea de IA está avanzando de forma irregular y con muchas incógnitas. El Reglamento de IA europeo es la primera normativa global de este tipo que clasifica sistemas según riesgo y fija obligaciones y prohibiciones para proteger seguridad y derechos fundamentales. Su aplicación progresiva ya ha comenzado para sistemas de alto riesgo, pero muchas empresas aún no saben cómo cumplirla y hay dudas sobre plazos, requisitos y el impacto que tendrá en la innovación y competitividad. El reto principal es armonizar la protección de derechos, la transparencia y la responsabilidad con la necesidad de fomentar el desarrollo tecnológico en Europa, evitando desventajas frente a otras regiones con marcos menos estrictos
La página web explica que el AI Pact es una iniciativa de la Comisión Europea para ayudar a las organizaciones a prepararse para la implementación del Reglamento de Inteligencia Artificial (AI Act), que entró en vigor el 1 de agosto de 2024, aunque algunas obligaciones se aplican más adelante. El Pacto se estructura en dos pilares: uno enfocado en crear una comunidad colaborativa donde distintos grupos comparten experiencias, mejores prácticas y asisten a seminarios web, y otro que facilita compromisos voluntarios por parte de empresas que adoptan medidas anticipadas para cumplir con requisitos clave de la ley, como gobernanza de IA, identificación de sistemas de alto riesgo y promoción de la alfabetización en IA. Más de 230 organizaciones de diversos sectores han firmado estas promesas, que no son legalmente vinculantes, y pueden incluir acciones adicionales como supervisión humana y mitigación de riesgos.
Consejo Europeo y Consejo de la Unión Europea | 2026
La web explica como la Unión Europea ha adoptado el Reglamento de Inteligencia Artificial (AI Act), el primer marco jurídico mundial integral para regular los sistemas de IA, con el objetivo de que sean seguros, éticos y fiables. El reglamento clasifica las aplicaciones de IA según el nivel de riesgo que plantean, imponiendo normas más estrictas a las de mayor riesgo y prohibiendo aquellas que suponen un peligro para la seguridad o derechos de las personas, como la manipulación conductual o la puntuación social. El marco legal también establece obligaciones de transparencia, supervisión humana y sanciones proporcionales para quienes infrinjan las reglas. Además, crea estructuras de gobernanza (oficina, panel científico y grupo de expertos) para asegurar una aplicación uniforme en la UE. El Reglamento pretende equilibrar la protección de derechos fundamentales con la innovación y el desarrollo de un mercado único de IA en Europa.
El Proyecto Hawai‘i Senate Bill 2967 propone establecer un marco de protección al consumidor para el uso de sistemas de inteligencia artificial en interacciones con consumidores y decisiones con impacto significativo (como crédito, vivienda, empleo o servicios). Requiere que las empresas revelen cuando usan IA, prohíbe eludir responsabilidad mediante IA, y crea derechos de explicación, corrección, apelación y revisión humana de decisiones automatizadas. También demanda gestión de riesgos, pruebas y controles de ciberseguridad para sistemas de IA de alto riesgo y la notificación de incidentes relevantes.
Washington state lawmakers look to protect minors from AI chatbots
Nate Sanford | 2026
Legisladores del estado de Washington evalúan propuestas para regular chatbots de IA con el objetivo de proteger a menores, ante preocupaciones por riesgos para la salud mental y contenidos perjudiciales. Las iniciativas incluyen limitar interacciones dañinas, exigir que estos sistemas recuerden periódicamente que no son personas, y prohibir ciertos tipos de conversaciones con menores. La discusión forma parte de un debate más amplio sobre salvaguardas de IA y seguridad infantil
TCAI Bill Guide: Utah’s HB 286, the AI Transparency Act
Transparency Coalition | 2026
La guía explica la propuesta legislativa HB 286, “AI Transparency Act” en Utah, que exige a desarrolladores de modelos de IA avanzados (frontier AI) publicar planes de seguridad pública y protección infantil, definir y mitigar riesgos catastróficos, reportar incidentes de seguridad y ofrecer protecciones a denunciantes (whistleblowers). La ley prohíbe declaraciones falsas sobre riesgos y establece penalidades, además de requerir informes periódicos a la Oficina de Política de IA del estado.
El análisis describe el Arizona Senate Bill 1786 (2026), que exigiría a proveedores de herramientas de inteligencia artificial generativa a adjuntar “provenance data” (datos de procedencia) a cualquier audio, imagen o video que sus sistemas creen o modifiquen de manera significativa. Esta información registraría el origen y los cambios hechos, ayudando a detectar y rastrear contenido generado por IA, aunque no resolvería por sí sola todos los desafíos de deepfakes o abuso de IA.