Wyden presenta y Merkley copatrocina un proyecto de ley para regular el uso de la IA para tomar decisiones críticas en vivienda, empleo y escuelas.

KTVZ
El senador Ron Wyden, demócrata por Oregon, junto con el senador Cory Booker, DN.J., y la representante Yvette Clarke, DN.Y., presentaron el jueves la Ley de Responsabilidad Algorítmica de 2023, para crear nuevas protecciones para las personas afectadas por ataques artificiales. sistemas de inteligencia artificial (IA) que ya están impactando las decisiones que afectan la vivienda, el crédito, la educación y otros usos de alto impacto.

El proyecto de ley se aplica a los nuevos sistemas de IA generativa utilizados para decisiones críticas, así como a otros sistemas automatizados y de IA.

“Hoy en día, la IA toma decisiones sobre quién es contratado para un trabajo, si alguien puede alquilar un departamento y a qué escuela puede asistir. Nuestro proyecto de ley levantará el telón sobre estos sistemas para exigir pruebas continuas para garantizar que la inteligencia artificial responsable de las decisiones críticas realmente funcione y no amplifique el sesgo basado en dónde vive una persona, a dónde va a la iglesia o el color de su piel”, dijo Wyden. 

“Conocemos demasiados ejemplos del mundo real de sistemas de inteligencia artificial que tienen algoritmos defectuosos o sesgados: procesos automatizados utilizados en hospitales que subestiman las necesidades de salud de los pacientes negros; herramientas de reclutamiento y contratación que discriminan a las mujeres y a los candidatos de minorías; sistemas de reconocimiento facial con mayores tasas de error entre personas de piel más oscura; y más. La Ley de Responsabilidad Algorítmica requeriría que los sistemas automatizados sean evaluados para detectar sesgos, responsabilizar a los malos actores y, en última instancia, ayudar a crear un futuro de IA más seguro”, dijo el senador Booker.

“Los estadounidenses no pierden sus libertades civiles cuando se conectan a Internet. Pero cuando las corporaciones con vastos recursos continúan permitiendo que sus sistemas de inteligencia artificial tengan prejuicios contra los grupos vulnerables, la realidad es que innumerables han enfrentado y seguirán enfrentando prejuicios en los espacios digitales”, dijo la congresista Clarke. “Las líneas de código ya no pueden permanecer exentas de nuestras leyes contra la discriminación. Mi proyecto de ley reconoce que cada algoritmo tiene un autor y cada sesgo tiene un origen y que, mediante una regulación adecuada, podemos garantizar que la seguridad, la inclusión y la equidad sean verdaderamente prioridades en las decisiones críticas que afectan la vida de los estadounidenses”.

El proyecto de ley exige que las empresas realicen evaluaciones de impacto para determinar la eficacia, el sesgo y otros factores al utilizar la inteligencia artificial para tomar decisiones críticas. También crea, por primera vez, un depósito público de estos sistemas en la Comisión Federal de Comercio y agrega 75 empleados a la comisión para hacer cumplir la ley. 

Está copatrocinado por los senadores demócratas Martin Heinrich, DN.M., Gary Peters, demócrata por Michigan, Bob Casey, demócrata por Pensilvania, Ben Ray Luján, DN.M., Tammy Baldwin, demócrata por Wisconsin, Jeff Merkley, demócrata de Oregon, Sheldon Whitehouse, demócrata de Hawaii, Brian Schatz, demócrata de Hawaii, Mazie Hirono, demócrata de Hawaii y Elizabeth Warren, demócrata de Massachusetts.

"Desde determinar decisiones laborales hasta conceder préstamos personales, los algoritmos toman cada vez más decisiones críticas sobre la salud, las finanzas, la vivienda, la educación y el acceso a oportunidades de los estadounidenses, pero con demasiada frecuencia son defectuosos y amplifican sesgos dañinos", dijo el senador Warren. "Este proyecto de ley ayudará a garantizar una mayor transparencia sobre los impactos de los algoritmos y permitirá a la FTC proteger mejor a los consumidores".

“Los consumidores merecen saber cuándo y cómo las decisiones importantes, como la aprobación de préstamos, se toman mediante sistemas automatizados”, dijo Luján. "Es por eso que estoy orgulloso de unirme a mis colegas para presentar la Ley de Responsabilidad Algorítmica para implementar salvaguardas, limitar los sesgos y responsabilizar a los sistemas automatizados".

“A medida que el uso de la IA y la toma de decisiones algorítmicas se vuelve más frecuente, particularmente por parte de las empresas que toman decisiones críticas sobre la salud, las finanzas, la vivienda y las oportunidades educativas de los estadounidenses, debemos asegurarnos de que existan suficientes regulaciones y estándares para proteger a las personas de prejuicios y discriminación”, dijo el senador Hirono. "Me complace copatrocinar la Ley de Responsabilidad Algorítmica para fortalecer la protección del consumidor y aumentar la responsabilidad de las empresas que utilizan algoritmos para tomar decisiones". 

"Los algoritmos desempeñan un papel importante en la forma en que la sociedad interactúa y se comporta todos los días, nos guste o no", dijo el senador Merkley. “Si bien algunos algoritmos pueden parecer inofensivos, existen pocos límites y poca comprensión pública sobre cómo funcionan estos sistemas. Las grandes empresas y desarrolladores de tecnología deben ser transparentes con el público sobre cómo utilizan nuestros datos para dar forma a cada aspecto de nuestras vidas, porque sabemos que la IA tiene el potencial de exacerbar la discriminación y la desigualdad. Este proyecto de ley es el primer paso”.

"La transparencia es la mejor manera de generar responsabilidad y confianza en que los sistemas de inteligencia artificial funcionan de manera responsable, especialmente a medida que más industrias adoptan estas herramientas", dijo el senador Peters. "Los estadounidenses deben saber cuándo interactúan con sistemas automatizados que toman decisiones críticas que podrían afectar su salud, sus finanzas, sus derechos civiles y más". 

En la Cámara, el proyecto de ley está copatrocinado por la representante Ayanna Pressley, demócrata por Massachusetts, la representante Nanette Diaz Barragán, demócrata por California, la representante Cori Bush, demócrata por Missouri, el representante Jamaal Bowman, DN.Y., Representante Dwight Evans, demócrata por Pensilvania, representante Lori Trahan, demócrata por Massachusetts, representante Steve Cohen, demócrata por Tennessee, representante Andre Carson, demócrata por Indiana, representante Marc Veasey, demócrata por Texas, representante Frederica S. Wilson, demócrata por Florida, representante Pramila Jayapal, demócrata por Washington, representante Jared Huffman, demócrata por California, representante Robin L. Kelly, demócrata por Illinois, y representante Emanuel Cleaver, demócrata -Mes.

Un resumen completo de la factura está disponible. aquí.

La Ley de Responsabilidad Algorítmica cuenta con el respaldo de una amplia gama de expertos y organizaciones de la sociedad civil: Access Now, Accountable Tech, Aerica Shimizu Banks, Liga Antidifamación, Centro para la Democracia y la Tecnología (CDT), Color of Change, Consumer Reports, Encode Justice , EPIC, Fight for the Future, IEEE, Instituto de Ética de IA de Montreal, Coalición Nacional de Medios Hispanos, Instituto de Tecnología Abierta de Nueva América, Vera y US PIRG.

“A medida que la IA y los sistemas de IA generativa se generalizan y popularizan, debemos asegurarnos de que se implementen las salvaguardias adecuadas”, dijo Ya?l Eisenstat, vicepresidente del Centro para Tecnología y Sociedad de la Liga Antidifamación. “Ya hemos visto cómo las plataformas de redes sociales aprovechan los sistemas impulsados por inteligencia artificial sin ninguna responsabilidad real y, en ocasiones, como resultado, difunden el odio y el antisemitismo. Necesitamos transparencia sobre cómo funcionan estos sistemas y barreras de seguridad sobre lo que pueden y no pueden hacer. La Ley de Responsabilidad Algorítmica del Senador Wyden es un esfuerzo importante para brindar al público la información necesaria sobre cómo se utilizan estos sistemas y la seguridad de que las empresas están monitoreando los impactos de estas nuevas tecnologías”.

"Los algoritmos mal diseñados pueden generar resultados inexactos, resultados inconsistentes, impactos discriminatorios graves y otros daños", dijo Justin Brookman, Director de Política Tecnológica de Consumer Reports. “La Ley de Responsabilidad Algorítmica es una base importante para brindar a los investigadores y formuladores de políticas las herramientas para identificar quién puede verse afectado por estas tecnologías emergentes y cómo. Esperamos seguir trabajando con los patrocinadores del proyecto de ley para buscar las formas más efectivas de mitigar el daño algorítmico”.

es_MXSpanish