Por David Ormeño (militante Partido Pirata de Chile).- A través de diversos medios de comunicación, se manifestó la intención del gobierno de usar reconocimiento facial (y biometría) para controlar la evasión en el Transantiago: se mencionó antes pero sin una planificación puntual.
¿En qué consiste? En general, es una aplicación controlada por un computador (o varios), que identifica automáticamente a una persona en una imagen. Esto es posible mediante un análisis de las características faciales del sujeto extraídas de la imagen o de un fotograma clave de una fuente de video, para luego compararlas con una base de datos. Sus usos son variados: para identificar primates, encontrar menores, vender y manejar tickets y un largo etcétera. Se usa en Facebook y Apple ID, para tareas como etiquetar gente en fotos o desbloquear celulares.
Se observa cómo existe un solucionismo tecnológico (planteado por Edgeny Morozov en el 2013) desde el gobierno. Este solucionismo sostiene que las soluciones a algún problema se tratan de entregar usando tecnología. También se observa cierta confusión con el concepto de modernidad, y que se asocia a tecnología más avanzada frente a una situación. Su frecuencia responde al ciclo hype en tecnología (una moda, como Uber o Bitcoin).
El reconocimiento facial, tiende a ser muy exacto (cuando detecta a UN individuo UNA vez, lo hace bien, como en China) pero poco preciso (al detectar MUCHOS individuos de UNA vez, se puede equivocar, como en Londres), lo que lo hace inadecuado en poblaciones heterogéneas como la nuestra.
La legislación actual no la menciona per se sino que se consideraría un dato personal, como en España.
Esto presentaría un problema a futuro ya que el desarrollo y uso de la Base de Datos (BD), no se encuentra regulado, y esto lo pone en una especie de zona gris debido al desconocimiento tecnológico de nuestra población. Los algoritmos que usa el reconocimiento facial caen fácilmente en un fenómeno denominado discriminación algorítmica. Consideremos el ejemplo: la BD y el algoritmo seleccionan a unos individuos como evasores (asumamos que está en lo correcto), uno de ellos posee apellido indígena (el sistema no diferenciará entre un apellido mapuche o uno huilliche), por ejemplo y usará Google o Facebook para ser más exacto (uniendo Big Data con reconocimiento es posible generar ciertas inferencias previamente no evaluadas); esto generará un subgrupo al cuál se le adicionaran muchos individuos con el tiempo y en una lectura de objetivos futura sólo se evaluará si es indígena y que evadió (esto último puede ser reciente o no, motivo o acción posterior desconocida, hora del día, etc; factores que pueden afectar al individuo una vez). Los motivos para discriminar son inherentes al algoritmo y son pocas las ciudades que han tomado medidas (New York es la primera). Puede ser por edad, género, color de piel o maquillaje incluso (si, el sistema lo puede evaluar). Esta discriminación algorítmica puede deberse a múltiples razones y se puede separar a individuos con facilidad.
La privacidad con esta tecnología es un riesgo común a considerar. Para poner un ejemplo: el etiquetado en las fotos de Facebook. Es muy difícil pasar completamente inadvertido en un evento pequeño con fotos, pero en uno masivo se hará imposible.
Estas problemáticas pueden darse también en el Big Data y en la Inteligencia Artificial (IA). Nuestro país necesita una agencia de datos personales que regule la información personal que puede ser usada bordeando la ilegalidad o de manera simplemente ilegal, considerándose la nueva reforma constitucional de protección de datos personales. Nuestro país se encuentra en conversaciones con Amazon, quien está actualmente distribuyendo un software de reconocimiento facial. La EFF (Electronic Frontier Foundation, que vela por los derechos digitales,) también lo ha dicho: son una amenaza a la privacidad mucho mayor de lo que el público cree.
Parece ser imperativo que entendamos que la tecnología se debe adaptar a nosotros (y a nuestra sociedad), no al revés.