Vigilar las emociones con IA es un problema público
05.07.2024
Hoy nuestra principal fuente de financiamiento son nuestros socios. ¡ÚNETE a la Comunidad +CIPER!
05.07.2024
La inteligencia artificial no deja de proveer de nuevas herramientas, y, algunas de ellas, están siendo usadas para labores de vigilancia, así como publicidad personalizada. Aunque estas tecnologías pueden prevenir accidentes y mejorar la seguridad, también plantean una serie de problemas éticos y de interferencia con nuestros derechos. En columna para CIPER, un académico de Filosofía recuerda la necesidad de un debate amplio al respecto: «Los problemas sobre sesgos y de privacidad de datos deberían ser parte de espacios públicos de debate, pero a menudo son dimensiones reservadas al público y justificadas sobre la idea del mero avance tecnológico».
Según documentos obtenidos por la organización británica Big Brother Watch, en los últimos dos años ocho estaciones de metro en cuatro ciudades del Reino Unido han hecho pruebas con cámaras de vigilancia conectadas a sistemas de inteligencia artificial. El objetivo es usar tecnologías de reconocimiento facial y análisis de imagen para detectar posibles incidentes en la red de transporte público como accidentes, crímenes, o comportamientos prohibidos (fumar, correr, patinar, entre otros). Sin embargo, como informa la misma organización, los usos de esta tecnología se extenderían también a recopilar datos demográficos de pasajero/as (por ejemplo, su género o edad), así como a detectar sus emociones para vender publicidad personalizada.
La detección de emociones en la expresión facial es un tema ya conocido en la ciencia de la emoción. El psicólogo estadounidense Paul Ekman desarrolló su programa de investigación alrededor de la idea de distinguir tipos de expresiones faciales producidas y reconocidas por todos los seres humanos, independientemente de su contexto social. Este programa de investigación goza de una inmensa popularidad cultural, y ha nutrido el guión de, por ejemplo, la serie de televisión Lie to Me (2009-2011) y las populares películas de Intensamente [foto superior], exitosa producción de los Estudios Disney-Pixar cuya segunda parte se encuentra ahora en cines chilenos. Pese a ser objeto de fuertes críticas en el campo científico, el estudio de Ekman sobre las expresiones faciales también ha sido aplicado en materia de seguridad por el FBI para entrenar personal en la detección de mentiras a través de la identificación de «microexpresiones».
La agenda de usar el reconocimiento de expresiones faciales para asuntos de seguridad no es nueva, pero el veloz avance de la IA en los últimos años ha permitido automatizar estos procedimientos y extender sus potenciales usos. Esto abre la puerta a nuevos problemas; uno de ellos, el de los sesgos que los algoritmos reproducen y refuerzan, contribuyendo a prácticas de discriminación y exclusión. En Los sesgos del algoritmo (2024), la académica Gabriela Arriagada Bruneau advierte que centrar nuestra atención tan sólo en el avance tecnológico con el que hoy convivimos puede invisibilizar los factores sociales presentes en estas nuevas herramientas.
Aunque los fines iniciales de aplicar estas tecnologías, como la prevención de accidentes o incluso del suicidio, son loables, su uso para otros propósitos no ha sido adecuadamente informado a la comunidad. En el caso arriba citado, implica que los usuarios del sistema de transporte público en el Reino Unido no han dado su consentimiento informado para que sus datos se recopilen con fines comerciales, un principio básico de la elección autónoma que debería ser esencial en toda democracia. Incluso si los datos no se han usado todavía para vender publicidad o incluso si creemos que es justificado instalar sistemas de vigilancia por motivos de seguridad, es central que toda la comunidad esté enterada de estas posibilidades y que, de aceptar usar el servicio —sea privado o, con más razón, público—, lo haga con toda la información relevante en mano. También entran aquí en consideración dificultades relativas al consentimiento cuando se trata de menores de edad, como ocurrió recientemente en Chile con la recopilación de datos biométricos por parte de Worldcoin.
En general, uno de los puntos neurálgicos de este tipo de políticas es que deberían ser materia de discusión pública, pero en la práctica no lo son [ver en CIPER-OPINIÓN: “Nada es gratis con la IA”]. Los problemas sobre sesgos y de privacidad de datos deberían ser parte de espacios públicos de debate, pero a menudo son dimensiones reservadas al público y justificadas sobre la idea del mero avance tecnológico. A diferencia de los agentes humanos, con quienes podemos discutir sobre estos problemas, es más difícil discutir con un procedimiento matemático ejecutado en una máquina. En lugar de mejorar la situación, el uso desmedido y desregulado de la inteligencia artificial en contextos de vigilancia parece entonces empeorarla. Esto justifica levantar una voz de alerta ante la aplicación de estos sistemas, una que debería siempre llamarnos a revisar qué uso hacemos de la tecnología y sus posibilidades, y que debe llevarnos a pensar cuál es el mundo que queremos construir al desarrollar estas herramientas.