fbpx

Grupo de académicos solicita al Gobierno que se frene el uso de reconocimiento facial

0
255

Santo Domingo. – Los sistemas de reconocimiento facial apoyado en Inteligencia Artificial, capaz de catalogar a una persona en función de sus rasgos o su forma de actuar, llevan tiempo figurando como uno de los mayores problemas éticos a los que se enfrenta la tecnología. Un grupo conformado por más de 70 expertos en diversos campos ha remitido una carta al gobierno español en la que se solicita que se frene su uso hasta que un comité independiente investigue a fondo sus potenciales usos perjudiciales y los fallos que ha registrado hasta la fecha. «El problema no es ya que esta tecnología pueda fallar, sino hasta qué punto una decisión adoptada en función del reconocimiento facial tiene efectos», explica a ABC Ofelia Tejerina, presidenta de la Asociación de Internautas, abogada especializada en temas digitales y una de las firmantes del documento.

Cabe recordar que, gracias al uso de esta tecnología, una empresa privada o una institución pública podría prever cuál es el comportamiento o el estado de una persona en función de sus rasgos o sus gestos. Para ello, se sirven de bases de datos en los que hay almacenada información sobre otros usuarios con características similares. Países y empresas de todo el mundo, entre ellos España, ya están empleando estos sistemas. Aena, por ejemplo, está desarrollando un proyecto piloto de detección biométrica de este tipo en el aeropuerto Adolfo Suárez Madrid-Barajas. China, por su parte, es probablemente el estado en el que estos sistemas están más generalizados. Recientemente varias empresas tecnológicas del país han pedido la patente para aplicaciones que pueden detectar y vigilar a los miembros de la minoría china uigur, musulmana y perseguida por el régimen comunista.

Los participantes en la carta destacan los «potenciales efectos perniciosos que estos sistemas pueden tener sobre el bienestar, los intereses y las necesidades y derechos fundamentales de la población española». Especialmente en lo que se refiere a su empleo para analizar el rostro y los gestos de una persona para categorizarla. En lo que se refiere a España destacan que recientemente RENFE publicó (y luego retiró) una licitación para desarrollar un sistema de reconocimiento y análisis que, entre otras cosas, debía permitir identificar el género, la etnia o incluso el estado emocional de los usuarios. El objetivo que perseguía era el de la prevención de peleas o conflictos en el transporte.

Sea como fuere, el empleo de tecnología de este tipo, de acuerdo con los firmantes, podría permitir asociar a una persona una determinada característica en función de estadísticas poblacionales. Gracias a su uso sería posible, por ejemplo, identificar a un estudiante como probable tramposo, a un posible cliente de un banco como potencial moroso. Y todo porque otros «similares a él» se han comportado de esa forma. «Estos sistemas detectan un patrón, no exactamente todos los detalles de tu cara, sino el patrón que cumplen tus rasgos. Preocupan mucho las decisiones jurídicas que se puedan tomar respecto a esos patrones», apunta Tejerina.

Asimismo, en la carta se destaca que «hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos “problemáticos”, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas». También se llama la atención sobre las limitaciones de los sistemas, cuyos resultados dependen mucho de las condiciones en las que se utilicen, y en la existencia de sesgos: «Es fácil que un sesgo muestral afecte de manera notable la calidad predictiva de un sistema cuando diferentes grupos no están representados de forma igualitaria en los datos de entrenamiento».

¿Quién puede utilizarla?

La carta persigue que el gobierno apruebe la formación de una comisión «compuesta por científicos, juristas, expertos en ética e inteligencia artificial y por miembros de la sociedad civil» destinada a investigar los problemas que hay detrás del uso de esta tecnología y que, mientras tanto, se paralice su implementación. El objetivo, según Tejerina, no sería el de regular la tecnología en sí, sino las decisiones que se pueden adoptar a raíz de su empleo. «Lo que tenemos que regular son las decisiones que se adoptan. Lo que es importante es que se establezca para qué se puede utilizar un sistema de reconocimiento facial y que sea una excepción; no la norma general. ¿Se va a utilizar para el sector privado o para el público? ¿En qué circunstancias?», dice la presidenta de Internautas.

Comments are closed.

Translate »