Fortaleciendo el acceso al conocimiento y el análisis crítico sobre los derechos digitales, este buscador permite explorar de forma ágil una cuidada selección de materiales y documentos, con fuentes confiables y actualizadas.
El informe de BCLP ofrece una visión detallada de la legislación estatal sobre inteligencia artificial en EE. UU., destacando un mosaico regulatorio en rápida evolución. Ante la falta de una ley federal, los Estados regulan el uso de IA, especialmente en decisiones automatizadas, lo que plantea desafíos para la protección de derechos digitales.
Montana: Bill to limit government use of AI systems signed by Governor
Data guidance | 2025
El artículo informa sobre la firma de una ley en Montana que limita el uso de sistemas de inteligencia artificial por parte de entidades gubernamentales. La normativa establece requisitos de transparencia, evaluación de riesgos y supervisión ética para el uso de IA en procesos públicos. El objetivo es garantizar que estas tecnologías no vulneren derechos fundamentales ni generen sesgos, promoviendo un uso responsable y seguro en el ámbito estatal.
New York Legislature Passes Sweeping AI Safety Legislation
Jennifer Johnson, Micaela McMurrough, Jayne Ponder, August Gweon & Analese Bridges | 2025
El 12 de junio de 2025, la legislatura de Nueva York aprobó la Responsible AI Safety & Education (RAISE) Act, que regula a los desarrolladores de modelos de frontera de IA. Si se promulga, sería la primera ley estatal en EE. UU. en este ámbito. Exige protocolos de seguridad, informes de incidentes en 72 horas, documentación y salvaguardas antes del despliegue. Las sanciones pueden alcanzar 30 millones de dólares.
Data Privacy and Regulatory Compliance: A Call for a Centralized Regulatory Framework
Olumide Ajayi Timothy | 2024
El artículo examina la fragmentación normativa en materia de protección de datos en Estados Unidos, donde coexisten múltiples legislaciones federales y estatales sin un marco unificado. Analiza las limitaciones de este modelo descentralizado, que genera inconsistencias, sobrecostes de cumplimiento y falta de respuesta ante desafíos emergentes como la inteligencia artificial y el big data. A pesar de que no se focaliza en Nueva Jersey, aporta información útil respecto a su posición legislativa a nivel nacional.
New Jersey Gov. Murphy signs law that makes AI deepfakes illegal
6abc Philadelphia | 2025
La noticia informa sobre la firma de una nueva ley en Nueva Jersey por parte del gobernador Phil Murphy, destinada a combatir el uso indebido de deepfakes y el ciberacoso. Estas tecnologías permiten alterar digitalmente imágenes, vídeos o voces sin consentimiento, lo que puede utilizarse para manipular elecciones, cometer fraudes económicos o dañar la reputación de personas y empresas. La norma establece sanciones para quienes produzcan o difundan deepfakes con fines delictivos, reforzando así la protección de la ciudadanía frente a los riesgos asociados a la manipulación digital y al acoso en línea.
AI regulation is urgently needed, and Maryland should act now.
Caitriona Fitzgerald, Kara Williams | 2025
El proyecto de ley H.B. 1331 de Maryland regula el uso de sistemas de inteligencia artificial de alto riesgo en decisiones significativas sobre empleo, vivienda, salud, educación y servicios públicos. Exige transparencia, derechos de corrección y apelación para los ciudadanos, y medidas contra la discriminación algorítmica. EPIC apoya la iniciativa, destacando la necesidad de proteger a los residentes frente a decisiones automatizadas opacas y potencialmente injustas
Maryland Legislature Passes AI Working Group Bill After Incorporating Civil Society Feedback
EPIC | 2025
En abril de 2025, la Asamblea General de Maryland aprobó una ley para crear un grupo de trabajo sobre inteligencia artificial. Tras críticas de la sociedad civil, se incluyó representación de expertos académicos, organizaciones de derechos civiles y protección de datos. Aunque se valora la inclusión de voces públicas, EPIC advierte que los grupos de estudio deben ir acompañados de legislación efectiva para proteger a la ciudadanía frente a los riesgos de sistemas de IA no regulados.
Massachusetts Attorney General Clarifies Position on Artificial Intelligence
Melanie A. Conroy, Kyle J. Glover | 2024
La Fiscal General de Massachusetts, Andrea Campbell, emitió una advertencia oficial indicando que las leyes estatales de protección al consumidor, como el Capítulo 93A, se aplican plenamente a los sistemas de inteligencia artificial. Esto incluye prácticas como publicidad engañosa, fallos de funcionamiento, sesgos no revelados y uso fraudulento de deepfakes o chatbots. La medida busca garantizar que los desarrolladores y proveedores de IA respeten los derechos de los consumidores y cumplan con las normativas de seguridad, privacidad y no discriminación.
What Are The Data Privacy Laws In St. Louis, Missouri? – CountyOffice.org
County Office Law | 2024
El video analiza el marco legal de privacidad de datos en St. Louis, Misuri, destacando que el Estado no cuenta con una ley integral similar a la CCPA de California. En su lugar, existen regulaciones específicas que exigen notificar a los usuarios en caso de brechas de datos y que establecen pautas sobre el manejo de información personal. Se explica el papel de la Sunshine Law, que garantiza el acceso a los registros públicos pero también protege los datos personales frente a un uso indebido. Además, se revisan las políticas locales de privacidad y seguridad aplicadas por el gobierno de la ciudad de St. Louis en sus canales oficiales. El video busca ofrecer a residentes, empresas y profesionales una comprensión clara de sus derechos y obligaciones en materia de protección de datos dentro del contexto legal del Estado de Misuri.
Mile-High Risk: Colorado Enacts Risk-Based AI Regulation to Address Algorithmic Discrimination
Jevan Hutson,David L. Rice, and K.C. Halm | 2024
El artículo analiza la aprobación de la Colorado Artificial Intelligence Act (SB 205), la primera ley integral sobre IA en EE. UU., que entra en vigor en febrero de 2026. La norma impone obligaciones a desarrolladores y usuarios de sistemas de IA de alto riesgo, como evaluaciones de impacto, divulgación de riesgos y políticas de gestión. Su objetivo es prevenir la discriminación algorítmica en decisiones sobre empleo, salud, educación y otros ámbitos.