Home Economía Los estados toman la iniciativa de la regulación de la IA a...

Los estados toman la iniciativa de la regulación de la IA a medida que el gobierno federal se aclara

8
0

IA en atención médica

En la primera mitad de 2025, 34 estados introdujeron más de 250 facturas de salud relacionadas con la IA. Los proyectos de ley generalmente se dividen en cuatro categorías: requisitos de divulgación, protección del consumidor, uso de la IA y el uso de la IA.

Las facturas sobre la transparencia definen los requisitos para la información que los desarrolladores y organizaciones del sistema de IA que implementan los sistemas divulgan.

Las facturas de protección del consumidor tienen como objetivo evitar que los sistemas de IA discriminen injustamente a algunas personas y garanticen que los usuarios de los sistemas tengan una forma de impugnar las decisiones tomadas utilizando la tecnología.

Las facturas que cubren las aseguradoras proporcionan supervisión del uso de la IA por parte de los pagadores para tomar decisiones sobre las aprobaciones y pagos de la atención médica. Y las facturas sobre los usos clínicos de la IA regulan el uso de la tecnología en el diagnóstico y el tratamiento de pacientes.

Reconocimiento y vigilancia facial

En los Estados Unidos, una doctrina legal de larga data que se aplica a los problemas de protección de la privacidad, incluida la vigilancia facial, es proteger la autonomía individual contra la interferencia del gobierno. En este contexto, las tecnologías de reconocimiento facial plantean desafíos de privacidad significativos, así como los riesgos de posibles sesgos.

El software de reconocimiento facial, comúnmente utilizado en la vigilancia predictiva y la seguridad nacional, ha exhibido prejuicios contra personas de color y, en consecuencia, a menudo se considera una amenaza para las libertades civiles. Un estudio innovador de los científicos informáticos Joy Buolamwini y Timnit Gebru descubrieron que el software de reconocimiento facial plantea desafíos significativos para las personas negras y otras minorías históricamente desfavorecidas. El software de reconocimiento facial tenía menos probabilidades de identificar correctamente las caras más oscuras.

El sesgo también se arrastra en los datos utilizados para entrenar estos algoritmos, por ejemplo, cuando la composición de los equipos que guían el desarrollo de dicho software de reconocimiento facial carecen de diversidad.

A finales de 2024, 15 estados en los Estados Unidos habían promulgado leyes para limitar los posibles daños del reconocimiento facial. Algunos elementos de las regulaciones a nivel estatal son requisitos para los proveedores para publicar informes de prueba de sesgo y prácticas de gestión de datos, así como la necesidad de revisión humana en el uso de estas tecnologías.

LEAVE A REPLY

Please enter your comment!
Please enter your name here