Regulación de la inteligencia artificial: el gran reto para los gobiernos del s. XXI

1

La legislación de la inteligencia artificial es una de esas áreas que los países están utilizando como parte de su estrategia geopolítica. Existe cierta incertidumbre respecto al modelo legislativo que deben adoptar los países. Se sitúan entre los más proteccionistas y los más liberales que pretenden incentivar la innovación y convertirse en la jurisdicción donde se domicilien todas las compañías desarrolladoras estos proyectos. Se trata del mismo tipo de movimiento que estamos viendo con la regulación de blockchain y las criptomonedas.

En el caso de la inteligencia artificial muy pocos países han aprobado leyes vinculantes. Las más importantes han entrado en vigor, en China, Singapur y Estados Unidos. El grupo de trabajo en inteligencia artificial de la Comisión Europea publicó, a mediados de 2019, la guía de principios éticos para la construcción de inteligencia artificial fiable, Ethics guidelines for trustworthy AI, sin bien,  no son principios vinculantes.

Asimismo, con la implantación de herramientas impulsadas por inteligencia artificial en más sectores, la fragmentación legislativa es uno de los grandes problemas a los que se enfrenta el legislador. Cada vez va a resultar más difícil regular la inteligencia artificial en una única ley. Dispondremos de multitud de cuerpos normativos que regulen los distintos usos y funciones.

Panorama del desarrollo legislativo

Hay tres ámbitos normativos que tienen una incidencia fundamental en la inteligencia artificial:

1. Leyes y normas especialmente dirigidas a regular las tecnologías basadas en inteligencia artificial en sí mismas. A este ámbito pertenecen las leyes que regularán los coches autónomos, el uso del reconocimiento facial, las normas que definan la responsabilidad por los daños causados por las herramientas impulsadas por inteligencia artificial.

La responsabilidad por daños causados por la inteligencia artificial es una de las grandes preguntas jurídicas que sigue en el aire. Ningún país se ha pronunciado todavía sobre quién asumirá esta responsabilidad y si será posible limitarla o evitarla contractualmente.

Por último, también pertenecen a este ámbito los órganos consultivos y comités encargados de supervisar estas leyes. Por ejemplo, Federal Robotics Commission en Estados Unidos, Centre for Data Ethics and Innovation en Reino Unido, AI Ethics Council en Singapur y High-Level Expert Group on Artificial Intelligence de la Comisión Europea. Estos entes serán decisivos en el desarrollo de normativa sobre tecno ética, un aspecto fundamental de la regulación de la inteligencia artificial.

2. Leyes y normas que afectan a la regulación de la inteligencia artificial de forma indirecta y que tendrán que revisitarse a la luz de los nuevos problemas que esta plantea. Por ejemplo, normas dirigidas a proteger la propiedad industrial e intelectual, normas de protección de datos y privacidad, normas sobre responsabilidad derivada de productos defectuosos y normas destinadas a prevenir la discriminación. Cabe mencionar que el Reglamento General de Protección de Datos de la Unión Europea que entró en vigor en mayo de 2018, ya contiene normas específicas sobre el tratamiento de datos para los softwares de reconocimiento facial y otras aplicaciones de inteligencia artificial.

3. El tercer ámbito de regulación tiene que ver con las medidas destinadas a mitigar los efectos que la inteligencia artificial va a provocar en la sociedad. La robotización y automatización de infinidad de tareas que hasta ahora se llevaban a cabo manualmente requerirán trabajadores con habilidades mucho más sofisticadas, poniendo en riesgo los colectivos con menos formación. Por esa razón, es muy probable que los Estados opten por adoptar medidas sociales destinadas a promover la educación y el bienestar, medidas que mitiguen el potencial desempleo asociado a la adopción de herramientas de inteligencia artificial.

Desafíos de la regulación

La inteligencia artificial es uno de los activos más poderosos a disposición de los Estados en este momento. Por esta misma razón, como apuntábamos más arriba su regulación forma parte de la estrategia geopolítica de los gobiernos más poderosos del mundo. Por el momento no existe un liderazgo definitivo, aunque China está en una posición adelantada, implementando herramientas de forma generalizada que pueden resultar en un mayor control de los ciudadanos en todos sus ámbitos sin la protección de derechos fundamentales de los mismos. Las consecuencias en esta dinámica son impredecibles.

El resultado de esta carrera por el liderazgo mundial de la inteligencia artificial tendrá fuertes consecuencias económicas, sociales y militares. La existencia de países con regulaciones más permisivas puede conllevar la creación y desarrollo de herramientas de inteligencia artificial, por ejemplo, en el ámbito militar cuyo impacto global sea irreparable.

Innovación tecnológica en constante cambio

La inteligencia artificial es un campo en constante evolución. Apenas nos encontramos en los albores del desarrollo de inteligencia débil . Esto hace tremendamente difícil que los gobiernos fijen marcos regulatorios que perduren en el tiempo. Y más todavía hace muy difícil redactar normativa que pueda prever todas las posibles consecuencias del uso y adopción de estas herramientas. Este ámbito está destinado a convertirse en un ámbito regulatorio cambiante y confuso.

Dificultad para definirla

Como se destacó al inicio de este artículo, la inteligencia artificial está formada por una multitud de técnicas, funciones, utilizadas para diferentes objetivos comerciales y políticos. Esto hace muy difícil trazar los límites que definen la naturaleza de la inteligencia artificial. Es prácticamente imposible dibujar una definición clara y coherente para fines legislativos que funcione en todos los contextos.

Además, las implicaciones y riesgos del uso del reconocimiento facial son muy distintas a las de la predicción del sentido de una resolución judicial. Incluso dentro del ámbito de las herramientas predictivas, las leyes que regulen el uso de la inteligencia artificial predictiva en las decisiones policiales o judiciales, deberán ocuparse de riesgos diametralmente distintos a aquellos de los coches autónomos.

También representa un reto la determinación del umbral de la inteligencia. La inteligencia es un espectro continuo y no existe consenso sobre el punto en el que debemos considerar que una máquina empieza a ser inteligente. La dificultad de establecer estas limitaciones supone un reto adicional para dirimir las responsabilidades legales de cada uno de los actores en el proceso de creación, desarrollo y uso de herramientas inteligentes.

En la Unión Europea, el High-Level Expert Group on Artificial Intelligence, ha establecido como definición de inteligencia artificial, pero tampoco tiene efectos vinculantes en la Unión. A continuación, la definición:

“Artificial intelligence (AI) refers to systems that display intelligent behaviour by analysing their environment and taking actions – with some degree of autonomy – to achieve specific goals.

AI-based systems can be purely software-based, acting in the virtual world (e.g. voice assistants, image analysis software, search engines, speech and face recognition systems) or AI can be embedded in hardware devices (e.g. advanced robots, autonomous cars, drones or Internet of Things applications)”

Fragmentación de la regulación

Las dificultades de capturar todas las sutilezas legales de cada una de las aplicaciones de inteligencia artificial, asociadas con las tensiones geopolíticas conllevan un gran riesgo de fragmentación legislativa, dando lugar a normas propias en cada país, con solapes y exigencias dispares.

Esto ocurrirá tanto en el ámbito regulatorio como en el ámbito ético. De ahí la insistencia de organizaciones sin ánimo de lucro por promover una actualización del derecho internacional humanitario y de autodefensa para la era digital, que proteja a los ciudadanos incluso en aquellos países en que se haga un uso más extremo de la inteligencia artificial. Por el momento no se han producido avances significativos en este sentido.


Suscríbete a nuestro newsletter aquí.

1 Comentario

  1. Hablar de regulación en el ámbito de las tecnologías exponenciales es una entelequia, por lo que la vía a tener en cuenta, desde mi humilde opinión sería por un lado, el de la autoregulación como ocurre en el sector de la robótica y crear equipos de ética que supervisen las patentes previamente a su autorización.

    Hay que evangelizar a la sociedad, creando comunidades resilientes, que sepan discernir que se puede usar y que no, desde tres vertientes: cumplimiento normativo sectorial, aporta valor social y humano y generación de confianza, lo que conlleva cumplir dos principios (proactividad y transparencia). Quienes no cumplan ese perfil no serán de fiar y por tanto lo tendrán difícil.

Dejar respuesta

Please enter your comment!
Please enter your name here