La distancia entre los ojos, la nariz y la boca. La forma de la oreja. El tono de piel. Cada una de esas características únicas de los seres humanos es información personal sensible que el reconocimiento facial utiliza para identificar y autenticar de manera automática a uno o múltiples individuos.
Sin que tengamos información de que se hayan realizado evaluaciones sobre su impacto en los derechos humanos, el despliegue de esta tecnología con fines de seguridad pública se extiende en Argentina con los sistemas implementados en la Ciudad de Buenos Aires, la localidad de Tigre y las provincias de Salta, Córdoba y Mendoza.
Por eso la Asociación por los Derechos Civiles (ADC) impulsa «Con mi cara no», una iniciativa que busca concientizar sobre el reconocimiento facial, con el objetivo de que la sociedad pueda entender cómo funciona, cómo se procesan los datos biométricos y por qué los riesgos de su implementación son mayores que los potenciales beneficios.
“Uno de los problemas de este sistema es que no es infalible, ya que puede arrojar falsos positivos y discriminar por el tono de piel y género de una persona. La decisión sobre el entrenamiento del algoritmo y las tasas de error con las que contará el software biométrico es tanto una cuestión técnica como política”, señala Eduardo Ferreyra, oficial de proyecto de la ADC.
La tecnología biométrica toma los rasgos de las personas, realiza un mapeo de las características físicas de la cara y genera una plantilla con la representación matemática para ese rostro único. Su propósito es comparar e indicar en tiempo real en qué porcentaje la plantilla de una cara captada por una cámara de videovigilancia se corresponde con las imágenes almacenadas en una base de datos predeterminada.
Los datos biométricos están vinculados con la identidad y no se pueden reemplazar, ya que forman parte de quién es cada uno como persona, sus características y comportamientos. Esto implica que ante una filtración de esas bases de datos, miles o millones de personas van a encontrarse vulnerables a potenciales abusos y daños personales.
“El reconocimiento facial en espacios de acceso público se convierte en una herramienta de vigilancia y control, en especial, cuando es implementado de manera indiscriminada, encubierta y sin el consentimiento de la población. Esta idea de que todos somos culpables hasta que el algoritmo determine lo contrario pone en riesgo el ejercicio de derechos fundamentales, como el disfrute del espacio público y el desarrollo de nuestra vida en sociedad”, concluye Ferreyra.