‘Black Lives Matter’: El reconocimiento facial evidencia la necesidad de responsabilidad algorítmica

0

La necesidad del uso de algoritmos en los sistemas de reconocimiento facial, dentro de los marcos éticos y legales, ha centrado la atención de gobiernos, legisladores e investigadores en la última década. 

Son conocidos los estudios de análisis de la utilización de los datos biométricos y los posibles sesgos en el entrenamiento algorítmico que llevan a situaciones discriminatorias. Todos estos estudios manifiestan la preocupación por conseguir erradicar las discriminaciones producidas esencialmente por razón de grupos demográficos, ya sea género, raza o edad.

Destaca el Estudio Gender Shades (MIT 2018) liderado por la investigadora Joy Buolamwini, del MIT Media Lab y fundadora de Algorithmic Justice League. La investigadora se encuentra a la vanguardia en el estudio de los resultados discriminatorios que la tecnología de reconocimiento facial puede arrojar. Fue precisamente su experiencia personal la que le llevó a investigar sobre este tema al comprobar durante su etapa universitaria que los sistemas de reconocimiento facial no pudieron detectar su rostro hasta que utilizó una careta blanca. En 2019 actualiza el Estudio y si bien se constata que la mejora en la disminución de sesgos en el entrenamiento algorítmico se ha producido, la revisión o auditoría externa es imprescindible.

La semana pasada hemos conocido que IBM, a través de su presidente ejecutivo Arvind Krishna, ha presentado una carta al Congreso de los EE.UU., manifestando la expresa negativa a distribuir su software de reconocimiento facial entre las agencias públicas. En la carta subyace la idea de justicia social, no discriminación y en consecuencia, la promoción del uso responsable de la tecnología. 

IBM Research publicó en el año 2019 un Informe en el que se recogen multitud de variables posibles para medir la diversidad facial, Diversity in face (Michele Merler, Nalini Ratha, Rogerio Feris, John R. Smith). La finalidad del estudio es poder analizar la multitud de rasgos faciales diferentes determinados por raza, etnia, cultura, geografía, etc., y de esta manera poder reducir el riesgo del sesgo en los sistemas de reconocimiento facial. 

Sin lugar a dudas, estos Estudios han supuesto un avance en el tema, pero a pesar de ello queda mucho entrenamiento algorítmico hasta poder combatir los sesgos.

Los dos grandes temas legales -que no únicos- derivados del empleo de los sistemas de reconocimiento facial son: respeto de la privacidad y no discriminación. Para garantizar ambos, se hace cada día más imprescindible establecer un marco normativo que contenga las exigencias y responsabilidades derivadas del uso de sistemas alimentados por algoritmos. En la Unión Europea, en el Libro Blanco de la Comisión Europea sobre Inteligencia Artificial (IA) de febrero 2020, se destaca esta necesidad y se inicia el camino, resaltando la importancia de la confianza y seguridad jurídica que deben derivarse de la utilización de sistemas de IA. Por lo que se refiere a los sistemas de identificación biométrica en remoto, con arreglo al Reglamento General de Protección de Datos (RGPD), este tratamiento solo puede tener lugar en un número limitado de situaciones, principalmente por motivos de interés público significativo y justificado.

Por su parte, la sentencia de un Tribunal de los Países Bajos de 2 de febrero de 2020 declara contrario al Convenio Europeo de Derechos Humanos, y por tanto ilegal, el uso de un algoritmo diseñado para combatir el fraude a la Seguridad Social. Vulneración de un derecho humano a consecuencia del uso de IA.

En el año 2017, la Association for Computing Machinery (ACM), en una primera aproximación, definió una suerte de 7 principios imprescindibles para la utilización transparente y responsable de los algoritmos. 

The Technolawgist publicó en 2019 una propuesta de 5 posibles principios que deben presidir el uso de algoritmos cuando afectan a un número elevado de personas. Entre ellos se encuentra el principio de Auditoría: los procesos, modelos, datos y validaciones registrados, deben someterse a auditoría en el supuesto de que se presuma o constate algún daño resultante de la aplicación del sistema algorítmico. Las instituciones que incurran en estos supuestos deben rendir cuentas de su actuación.  La rendición de cuentas será efectiva si las instituciones y organizaciones han cumplido su deber de registrar el informe completo de los datos.

Existiendo el riesgo de causar perjuicio discriminatorio a consecuencia de los sesgos en el entrenamiento algorítmico, y en consecuencia, en el uso de la tecnología de reconocimiento facial, la auditoría y la rendición de cuentas aplicadas a ese uso parecen adquirir una posición relevante en el marco de principios que deben presiden el uso responsable de la IA.


Suscríbete a nuestro newsletter aquí.

Dejar respuesta

Please enter your comment!
Please enter your name here