Fortaleciendo el acceso al conocimiento y el análisis crítico sobre los derechos digitales, este buscador permite explorar de forma ágil una cuidada selección de materiales y documentos, con fuentes confiables y actualizadas.
La guía del Departamento de Educación de Delaware sobre IA generativa orienta a escuelas y docentes en el uso responsable de esta tecnología. Ofrece definiciones claras, desmiente mitos y propone estrategias pedagógicas para integrarla en el aula. Destaca la importancia de proteger los datos estudiantiles, fomentar la equidad y prevenir el plagio. También sugiere actualizar políticas escolares y capacitar al profesorado. El enfoque es práctico, ético y centrado en el aprendizaje significativo, con recursos adaptables para distintos niveles educativos.
El informe de BCLP ofrece una visión detallada de la legislación estatal sobre inteligencia artificial en EE. UU., destacando un mosaico regulatorio en rápida evolución. Ante la falta de una ley federal, los Estados regulan el uso de IA, especialmente en decisiones automatizadas, lo que plantea desafíos para la protección de derechos digitales.
Vermont introduces regulations for high-risk artificial intelligence systems
State of Vermont | 2025
La Cámara de Representantes de Vermont ha introducido la House Bill 341 para regular los sistemas de inteligencia artificial considerados de alto riesgo. La ley se aplicará a empresas no clasificadas como pequeñas por la SBA y que operen en Vermont. Establece obligaciones de seguridad, ética y responsabilidad, sin eliminar responsabilidades legales previas. Su objetivo es proteger a los consumidores frente a los riesgos de la IA avanzada, equilibrando innovación y protección. Entrará en vigor el 1 de julio de 2025.
Pioneering Transparency: Oklahoma’s Proposed Artificial Intelligence Bill of Rights
Dan Clarke | 2025
El artículo analiza el proyecto de ley HB 3453 de Oklahoma, conocido como la «AI Bill of Rights», que busca garantizar transparencia y control ciudadano en el uso de inteligencia artificial. Propone derechos como ser informado al interactuar con IA, conocer el uso de datos personales, aprobar el uso de voz o imagen, y verificar la autenticidad de contenido generado por IA. También exige evaluaciones de riesgo y prácticas de seguridad para proteger la privacidad.
Massachusetts Bill Would Codify Cybersecurity, AI Readiness
Ashley Silver | 2025
La Senate Bill 49 de Massachusetts propone establecer un marco legal para la gobernanza estatal en ciberseguridad e inteligencia artificial. Incluye la creación de juntas de control para ambos ámbitos y exige formación anual en ciberseguridad para todos los empleados públicos. La ley busca convertir en legislación permanente medidas previamente adoptadas por orden ejecutiva, como el equipo de respuesta a incidentes cibernéticos. Su objetivo es reforzar la preparación del Estado frente a amenazas digitales y el uso responsable de tecnologías emergentes.
La Missouri Digital Government Summit, celebrada el 12 de junio de 2025 en Jefferson City, reúne a líderes del sector público y profesionales tecnológicos para explorar soluciones innovadoras en gobierno digital. Los temas clave incluyen la transformación digital, la seguridad cibernética, la implementación de inteligencia artificial, la gobernanza de datos y la colaboración multi-actor. El evento ofrece presentaciones de expertos, paneles de análisis y oportunidades de networking orientadas a mejorar los servicios estatales y la interacción entre agencias, negocios y ciudadanos.
AI Non-Sentience and Responsibility Act (House Bill 1462)
Representante Phil Amato (y coautor Rep. Scott Miller) | 2025
El proyecto AI Non-Sentience and Responsibility Act establece que los sistemas de inteligencia artificial en Missouri no son entidades conscientes ni pueden obtener personalidad jurídica. Prohíbe que los AIs sean considerados personas, cónyuges, directores o propietarios de bienes. La responsabilidad por daños recae siempre en humanos, sin que el etiquetado como “ético” exima de responsabilidad. Se contempla la posibilidad de levantar el velo corporativo para evitar eludir responsabilidades. La normativa incluye obligaciones de supervisión y notificación en caso de daños, y entrará en vigor el 28 de agosto de 2025.
Iniciativas legislativas de Dakota del Norte sobre inteligencia artificial (2025)
Asamblea Legislativa de Dakota del Norte | 2025
En 2025, la Asamblea Legislativa de Dakota del Norte introdujo varias iniciativas relacionadas con la inteligencia artificial. Entre ellas, se encuentran propuestas para prohibir la creación y distribución de imágenes y videos manipulados digitalmente (deepfakes), establecer comités de revisión tecnológica avanzada y promover la transparencia en el uso de IA en entornos laborales. Estas iniciativas buscan regular el uso de la IA, proteger la privacidad de los individuos y garantizar prácticas laborales justas en un entorno digital en constante evolución.
Kansas House Bill 2183 actualiza los delitos de explotación infantil con definiciones de inteligencia artificial
CitizenPortal.ai | 2025
El 4 de febrero de 2025, la Legislatura de Kansas introdujo el Proyecto de Ley de la Cámara 2183, que busca actualizar las leyes estatales para abordar la explotación infantil y las violaciones de privacidad en la era digital. Propuesto por el Comité Judicial a solicitud del representante Brad Barrett, el proyecto amplía la definición de «representaciones visuales» en la ley penal para incluir imágenes creadas o alteradas mediante inteligencia artificial y otros medios digitales. Esta medida responde a la creciente preocupación por el uso indebido de la tecnología en la creación de contenido dañino que involucra a menores.
Orden Administrativa 2025-CM-017: Comité Ad Hoc de Inteligencia Artificial
Marla Luckert, Jueza Principal del Tribunal Supremo de Kansas | 2025
El 27 de febrero de 2025, el Tribunal Supremo de Kansas estableció el Comité Ad Hoc de Inteligencia Artificial para evaluar el uso de la IA en el sistema judicial del Estado. El comité tiene como objetivo formular políticas internas para el uso de IA por parte de empleados judiciales, así como políticas externas para su uso por abogados, partes y el público. Además, actuará como órgano de gobernanza para revisar y aprobar casos de uso de IA relacionados con las funciones judiciales. El comité estará compuesto por jueces, administradores judiciales, personal administrativo y profesionales legales.