Algorithmic Accountability Act: así se está regulando el futuro del big data y los algoritmos en Estados Unidos

0

En los últimos dos meses se han presentado en Estados Unidos dos proyectos de ley fundamentales en el ámbito de la tecnoética, que marcarán el futuro del uso del big data y los algoritmos. Se trata de la Algorithmic Accountability Act (ley sobre responsabilidad algorítmica) y la Deceptive Experiences To Online Users Reduction (DETOUR) Act (ley sobre experiencias engañosas para la reducción de usuarios online).

En este artículo exploramos en profundidad las implicaciones y las nuevas obligaciones derivadas del proyecto de Algorithmic Accountability Act y aquí encontrarás todos los detalles sobre el proyecto de Deceptive Experiences To Online Users Reduction (DETOUR) Act.

¿En qué contexto se ha presentado el proyecto de Algorithmic Accountability Act?

Cada vez existe mayor conciencia sobre las limitaciones de la tecnología y las consecuencias adversas que pueden generar sistemas de toma de decisiones basados en algoritmos mal entrenados y poco transparentes. Google, Amazon y Facebook han visto cómo durante este último año se hacían públicos los resultados discriminatorios que están generando ciertos sesgos en sus algoritmos. Los casos más controvertidos:

Amazon: la discriminación en sus procesos de contratación, donde las candidaturas presentadas por mujeres se veían sistemáticamente penalizadas debido a los sesgos de la herramienta impulsada por inteligencia artificial utilizada para cribar a los candidatos.

Google: la mayor tasa de error de los softwares que controlan el comportamiento de los coches autónomos a la hora de identificar a peatones de color como «personas» a través de las herramientas de reconocimiento facial incorporadas al coche. Lo que resulta en una mayor probabilidad de atropellar a una persona de color que a una persona caucásica.

Facebook: la discriminación derivada de los algoritmos utilizados para analizar a qué usuarios se enseñan determinados anuncios de Facebook. El ministerio de vivienda de Estados Unidos (Department of Housing and Urban Development) inició en marzo de 2019 un proceso sancionador contra Facebook por permitir la posibilidad restringir el acceso a ofertas de vivienda en función de «quiénes son los usuarios y donde viven». Lo que perjudicaba especialmente a la comunidad latina.

¿Por qué se producen este tipo de resultados discriminatorios? En gran medida se debe al proceso de entrenamiento de estos algoritmos. De la misma forma que ocurre en el ámbito judicial con los jueces robot y los sistemas de predicción de sentencias.

En Amazon, utilizaban información de los currículums y perfiles de los empleados que la compañía había contratado durante los últimos diez años para identificar a los mejores candidatos, perpetuando de esta manera la menor contratación de mujeres. En Google utilizaban principalmente imágenes de personas caucásicas en el entrenamiento de las herramientas de reconocimiento facial, lo que impedía que se perfeccionara la identificación de otros rasgos faciales y su reconocimiento como «personas».

Ante esta situación parece lógico que existan herramientas legales que supervisen los patrones algorítmicos y sus consecuencias.

¿Cuál es el objetivo de la Algorithmic Accountability Act? ¿Qué problemas regula?

El objetivo del proyecto de ley de responsabilidad algorítmica es obligar a las grandes empresas a analizar de forma periódica sus algoritmos y reparar aquellos algoritmos que generen decisiones discriminatorias, injustas, sesgadas o imprecisas.

Este proyecto ha sido presentado por los senadores demócratas Cory Booker y Ron Wyden junto con la congresista demócrata Yvette D. Clarke.

El Senador Wyden admite que «los ordenadores están cada vez más involucrados en las decisiones más importantes que afectan a las vidas de los estadounidenses, ya se trata de decidir si alguien puede comprar una casa, obtener un trabajo o incluso ir a la cárcel. Pero en lugar de eliminar los sesgos, con demasiada frecuencia estos algoritmos dependen de suposiciones, asunciones o datos sesgados. Esto puede reforzar la discriminación contra las mujeres y las personas de color».

Para la congresista Clarke, «los algoritmos no deberían ser una excepción a la aplicación de las leyes contra la discriminación. Nuestro proyecto de ley reconoce que los algoritmos tienen autores y, sin una supervisión diligente, pueden reflejar los sesgos de quienes están detrás del teclado. Al exigir a las grandes empresas que no hagan la vista gorda ante los impactos no deseados de sus sistemas automatizados, la ley de responsabilidad algorítmica garantiza que las tecnologías del siglo XXI sean herramientas de empoderamiento, en lugar de marginación, al tiempo que refuerzan la seguridad y la privacidad de todos los consumidores”.

¿Cuál es el ámbito de aplicación de la Algorithmic Accountability Act?

Desde el punto de vista territorial, se trata de una ley de ámbito federal y, por tanto, de aplicación a todo el territorio americano. La Federal Trade Commission será la agencia responsable de llevar a cabo el desarrollo normativo de esta ley y de supervisar su cumplimiento.

Es importante recordar, la gran capacidad legislativa de los Estados dentro del sistema legal americano. Buena muestra de ello es que tanto el Estado de Washington como el de Nueva York están trabajando en la aprobación de medidas similares, de ámbito estatal, para incrementar la transparencia de los algoritmos.

Desde el punto de vista material, la Algorithmic Accountability Act aplica a cualquier persona, partnership (asociación) o sociedad que cumplan uno de los siguientes requisitos, que (i) tenga unos ingresos medios superiores a 50 millones de dólares en los tres últimos ejercicios fiscales; (ii) posea o controle datos personales de más de un millón de consumidores o de más de un millón de aparatos electrónicos; (iii) esté mayoritariamente controlada, gestionada o sea mayoritariamente propiedad de una persona, partnership o sociedad que cumpla los requisitos establecidos en los dos apartados anteriores; o (iv) sea un bróker de datos o una entidad mercantil cuyo negocio principal esté relacionado con la recogida, procesamiento y mantenimiento de datos personales (siempre que no se trate de datos de clientes o empleados) para su posterior venta a terceros.

Obligaciones derivadas de la Algorithmic Accountability Act

La Ley de responsabilidad algorítmica:

Autoriza a la Federal Trade Commission (FTC) para crear normativa dirigida a exigir a las empresas bajo su jurisdicción a que lleven a cabo evaluaciones del impacto de los sistemas de decisiones automatizadas altamente sensibles. Este requisito será de aplicación tanto a sistemas nuevos como a sistemas existentes.

Exige a las empresas que evalúen el uso y el impacto de sistemas de decisiones automatizadas, incluyendo los datos utilizados para el entrenamiento de algoritmos, con el fin de determinar la precisión, imparcialidad de estos sistemas, identificar posibles sesgos, resultados discriminatorios y medir la protección de la privacidad y las medidas de seguridad.

Exige a las empresas que evalúen cómo sus sistemas de información protegen la privacidad y la seguridad de los datos personales de los consumidores.

Exige a las empresas que corrijan cualquier problema que descubran durante estas evaluaciones.

El texto completo de la propuesta está disponible aquí.

Dejar respuesta

Please enter your comment!
Please enter your name here