Tecnología de reconocimiento emocional: ¿es posible leer las emociones humanas?

0

Los avances en Inteligencia Artificial (IA) no cesan, o quizás son los humanos los que no cesan de perseguir la humanización de las máquinas. Sea como fuere, el momento actual se centra en la evolución de la IA hacia la llamada Emotional AI o “computación afectiva”. Esta rama de la IA pretende entre algoritmos, informática y ciencia cognitiva, conseguir leer o interpretar las emociones humanas.

Para algunos esa posibilidad se presenta como una gran oportunidad de que las máquinas ayuden a las personas porque se supone que de esta manera podrán atender de forma completa los requerimientos humanos. Ahora bien, el respeto a los límites éticos, los sesgos y la privacidad, se hace más necesario en este ámbito que nunca.

De entrada, es difícil en términos científicos que puedan leerse las emociones humanas y estandarizarlas. Diferentes culturas y diferentes hábitos llevan a que las emociones de las personas sean propias e individuales. Así lo demuestran los estudios científicos realizados en la materia, determinando que los estados emocionales no pueden inferirse de manera rápida y sencilla de las expresiones faciales. (Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements, Lisa Feldman Barrett, Ralph Adolphs, Stacy Marsella, Aleix M. Martinez, Seth D. Pollak).

Y tan importante es esta base científica, no sólo para la investigación de rigor, sino también para el ámbito legal ayudando a propiciar un marco regulatorio del avance, quizás desmedido, en IA.

A día de hoy existen ya modelos de tecnología de reconocimiento emocional funcionando, que sin lugar a dudas son muy sofisticados en cuanto a la detección de las expresiones faciales pero que están lejos de poder detectar con cierta exactitud las emociones humanas subyacentes en las mismas. Existen desde antiguo máquinas que pretenden detectar los estados de ánimo o interpretar constantes vitales (detector de mentiras o “máquina de la verdad”)  que desde luego están lejos de ser infalibles.

Y estos modelos han evolucionando hacia formas muy específicas de reconocimiento emocional mediante la recopilación ingente de datos yalgoritmos de procesamiento profundo, siendo su finalidad o sus usos bien diversos. Según Markets and Markets se prevé que el sector de la Emotional AI casi duplique su tamaño, pasando de $19.000 millones en 2020 a $37.100 millones en 2026.

Existen modelos de esta tecnología dirigidos, por ejemplo, en el campo del marketing, a mejorar productos y servicios, como es la empresa de software Affectiva. Flying Mollusk, una empresa desarrolladora de juegos, utilizó la tecnología de IA emocional de Affectiva para desarrollar el videojuego Nevermind que se califica como juego de “suspense psicológico adaptativo” porque incorpora inteligencia artificial emocional para comprender los sentimientos del jugador desde sus cámaras web y así, ajustar la experiencia del jugador según los mismos en cada momento.

También aquellos que buscan mejorar la calidad de vida o estabilidad emocional de la población en general. Así por ejemplo Cognovi Labs, desarrollador de soluciones de análisis de inteligencia artificial emocional, creó un índice de pánico surgido por coronavirus. La solución de Cognovi funciona analizando las emociones derivadas de los datos públicos generados en tiempo de pandemia para predecir cómo responderá la población en un área geográfica específica en determinadas situaciones.

Cuando hace poco más de una década la app Spotify apareció en la vida de la mayoría de las personas lo hizo para mejorar su experiencia vital: música preferida al alcance de todos de manera ágil y sin gran coste económico. Pues la plataforma innovadora y disruptiva que hizo posible eso, anunció a principios del año 2021 que ha patentado una tecnología que puede analizar la voz humana y los ruidos circundantes para hacer sugerencias de canciones basadas en «estado emocional, género, edad o acento» y otros caracteres humanos. El entrenamiento con metadatos que incluiría el historial música del usuario entre otros, llevaría a detectar estados de ánimos y sugerir la música deseada o adecuada en cada momento. Todo ello mediante la tecnología de reconocimiento de voz sin tener que cumplimentar formularios inmensos sobre gustos y preferencias musicales.

En el sector del arte, un equipo de expertos en aprendizaje automático (Panos Achlioptas, estudiante de doctorado en la Universidad de Stanford, Leonidas Guibas, su director de tesis, Maks Ovsjanikov, profesor del Laboratorio de Ciencias de la Computación de la Ecole Polytechnique y Mohamed Elhoseiny y Kilichbek Haydarov, investigadores de la Universidad de Ciencia y Tecnología Rey Abdullah) están trabajando en un sistema de algoritmos emocionales para obras de artes (ArtEmis: Affective Language for Visual Art) que, si bien, todavía está lejos de modelar la percepción humana, es una investigación dirigida a que estos sistemas ayuden a arrojar luz sobre el efecto emocional de las imágenes en arte y, en última instancia, incluso contribuyan a la creación de obras de arte novedosas.

Acabamos de conocer (The Washington Post) que Alan Cowen, excientífico de datos de Google con experiencia en psicología, ha creado la empresa de investigación, Hume AI, y una organización sin fines de lucro Hume Initiative que, según él, puede ayudar a que todo el desordenado negocio de la IA sea más empático y humano. La idea es que la plataforma Hume se entrene utilizando cientos de miles de expresiones faciales y expresiones vocales para llegar a entender las emociones humanas y poder atenderlas mejor. Cuenta con un equipo de prestigiosos expertos en el campo de la ética para que la plataforma Hume cumpla su función de humanizar la IA en favor del bien social.

A la vista de todos estos casos parece que la llamada IA emocional es una realidad en aumento, pero su crecimiento debería enmarcarse en los contornos éticos y legales. El empeño de humanizar a las máquinas en pro de que estas presten un mejor servicio a las personas, porque conocen como sienten, debe conjugarse con la eliminación de la posibilidad de explotación de las personas a base de conocer como sienten. Y esto último, no está tan claro en un mundo gobernado por las Big Tech.

Lo anterior nos conduce al tema de los neuroderechos y neurodatos y su necesaria y específica regulación exigiendo estar muy atentos a este evolución sin freno de la IA.


Suscríbete a nuestro newsletter aquí.

Dejar respuesta

Please enter your comment!
Please enter your name here