Miedo, matemáticas y tecnochovinismo

Share

El uso cada vez más cotidiano de técnicas como el reconocimiento facial para labores de vigilancia, asociadas a la seguridad y el combate al crimen, nos obliga a repensar nuestra relación con la tecnología y los peligros que encierra una aproximación acrítica a ella.

Por Vladimir Garay / Ilustración: Gonzalo Catriao

“A la cuenta de tres les vamos a pedir que pongan en marcha y en acción los drones para combatir la delincuencia. Uno, dos, tres, ¡adelante!”. Con estas palabras, el presidente Sebastián Piñera ponía en funcionamiento el Sistema de Televigilancia Móvil, una inversión de 797 millones de pesos en tecnologías de vigilancia, enmarcadas en el plan Calle segura. El sistema contempla la incorporación de 154 cámaras de seguridad, la instalación de portales lectores de patentes, la implementación de cuatro centrales de monitoreo y una flota de ocho drones operados por Carabineros que, en palabras de la intendenta Karla Rubilar, están equipados con tecnología de visión infrarroja y reconocimiento facial. 

No es la primera vez que se anuncia el uso de reconocimiento facial en el marco de una política pública, pero si lo señalado por la intendenta es correcto, se trataría del despliegue más ambicioso de este tipo de tecnologías en el país. Actualmente el sistema se encuentra operativo en Antofagasta y algunas comunas del Gran Santiago, y para 2020 se proyecta su extensión al resto del territorio nacional. 

Se trata de una tendencia al alza en la región. La policía de Río de Janeiro estrenó un sistema de reconocimiento facial en marzo, en el marco del Carnaval, y el Gobierno de la Provincia de Buenos Aires espera tener el suyo funcionando a fines de abril. En Chile, la empresa Citymovil realizó dos experiencias piloto en el sistema de transporte de las comunas de Limache y Talcahuano, ambas en 2017, con el objetivo de fiscalizar que quienes acceden a las tarifas rebajadas para estudiantes y la tercera edad efectivamente fuesen los titulares del beneficio. La misma justificación entregó Metro Valparaíso, que cuenta con una tecnología similar desde agosto de 2018. 

Muchas son las preguntas y cuestionamientos que levanta la implementación de este tipo de tecnologías. Lamentablemente, los medios de comunicación son muy dados a anunciar con gran pompa la puesta en marcha de estos proyectos, sin hacerles ningún tipo de seguimiento, de modo que la única información disponible suele provenir de los comunicados de prensa elaborados por las compañías que los venden y las instituciones que los compran. En ese sentido, el caso de Mall Plaza es ilustrativo. En noviembre de 2018, la cadena de centros comerciales anunció la utilización de un sistema de reconocimiento facial para combatir hurtos y robos, en asociación con las policías uniformada y civil. Cuatro meses más tarde, Las Últimas Noticias publicó los resultados de las pruebas que la PDI realizó a Herta, el software de factura española utilizado por Mall Plaza: el 90% de las identificaciones fueron falsos positivos.

En el caso del Sistema de televigilancia móvil, la información provista ha sido escueta, fragmentaria y, a ratos, contradictoria; poco se sabe respecto a sus capacidades reales. El Capitán Alonso Araya, jefe de la sección de drones de la Prefectura Aeropolicial de Carabineros, afirmó que se estaba utilizando “tecnología de punta”. ¿De qué punta? Nadie sabe. Este comentario, aparentemente insignificante, es un ejemplo claro de lo que Meredith Broussard -autora de Artificial Unintelligence: How Computers Misunderstand the World– denomina tecnochovinismo: la creencia profunda de que la tecnología es siempre la solución a cualquier problema. 

En el caso de las tecnologías de vigilancia, las justificaciones siempre vienen llenas de buenas intenciones y ningún estudio de impacto que avale la medida, como si estos fuesen redundantes e innecesarios. Como si la tecnología fuese por si misma buena y deseable. 

La muchedumbre y el miedo

En Chile, los datos biométricos -como el rostro, las huellas digitales o el iris- califican como datos sensibles y están sujetos al mayor estándar de protección que establece la ley. Su tratamiento puede realizarse de forma excepcional, bajo las circunstancias estipuladas en la legislación o con la autorización expresa del titular de los datos. Así, el uso del reconocimiento facial en el marco de un plan de vigilancia hoy es potencialmente ilegal. A pesar de ello, el anuncio no ha generado gran debate.  ¿Por qué no nos incomoda tanto la presencia de dispositivos capaces de identificarnos y registrar nuestros movimientos en el espacio público? 

En Las redes del poder, Michel Foucault afirma que la delincuencia tiene una utilidad política: en la medida en que es posible fomentar y administrar el miedo, ampliar las facultades del sistema de control policial se vuelve más sencillo y hasta deseable. ”La existencia de ese pequeño peligro interno permanente es una de las condiciones de aceptabilidad de ese sistema de control”, escribe. En un país con niveles completamente dispares entre criminalidad y su percepción -como lo confirma la Encuesta Nacional Urbana de Seguridad Ciudadana (ENUSC)-, la explicación hace sentido. 

Este es un fenómeno que va de la mano con los cambios demográficos asociados al desarrollo de los grandes centros urbanos, como el crecimiento de la población y la migración, y el modo en que este es percibido por los ciudadanos. En El París de Baudelaire, Walter Benjamin analiza a la muchedumbre y la liga al desarrollo de las historias de detectives y al avance en las técnicas de identificación a partir de las huellas digitales. Las aglomeraciones de gente le permiten al individuo esconder aquel secreto que cada uno porta; es fuente de misterio y miedo. “La masa aparece como el asilo que protege al asocial de sus perseguidores”, apunta. Ahí yace también una posibilidad liberadora de la muchedumbre: esconderse entre la gente, conservar el anonimato. 

El desarrollo de la identificación a partir de las huellas dactilares, asistida por la fotografía, se convertirá en “la más decisiva de todas las conquistas sobre el incógnito de una persona”, según Benjamin. Hoy, la cámara fotográfica ha dado paso al dron y al reconocimiento facial, tecnologías que permiten vigilar a la muchedumbre de modo casi imperceptible, pero totalizante; analizándola con rigor matemático, algorítmico, despojando a la muchedumbre de su manto protector y escrutando la verdad inscrita en el rostro de cada individuo. 

Proyecto de verano

“Normalmente no pensamos que la visión requiera inteligencia: todos los que no están ciegos pueden hacerlo y también las ardillas”, explica Margaret Boden, investigadora de las ciencias cognitivas y autora de Mind as a Machine, una historia en dos volúmenes sobre el desarrollo de este campo, desde la antigüedad clásica hasta nuestros días. Quizás por eso cuando Seymour Papert y Gerald Sussman –del Massachusetts Institute of Technology (MIT)- se propusieron conectar una cámara a un computador y encontrar la manera en que éste describiera lo que veía, estaban seguros de que era un problema que podrían resolver durante el verano de 1966. 

El fracaso del proyecto dio origen a lo que hoy se conoce como computer vision o “visión artificial” en castellano, nombre curioso este último, pues sugiere la existencia de una mirada natural, capaz de aprehender una realidad independiente del observador, sea este un ser humano o una máquina. El eco al realismo cartesiano inserta los problemas visuales asociados al reconocimiento facial y las máquinas que miran en una larga genealogía de técnicas orientadas a representar el mundo “tal cual es”, como la cámara fotográfica y, desde luego, la perspectiva. 

Negando su propia artificialidad, W. J. T. Mitchell explica que la gran victoria de la perspectiva fue su capacidad de convencer a toda una civilización de que poseía “un sistema para la producción automática y mecánica de verdades”. Esta ilusión no hace más que incrementarse con el advenimiento de la inteligencia artificial y los recientes desarrollos en el campo del reconocimiento facial, que podrían suponer que el problema se ha zanjado. 

Sin embargo, como advierte Kate Crawford –cofundadora y directora de investigación en el AI Now Institute de la Universidad de Nueva York –, “el desafío que presentan las imágenes y su significado es mucho más político que técnico. Cuando Magritte dice ‘esto no es una manzana’ está haciendo un punto sobre la relación arbitraria y política entre la imagen y su significado; pero si pasas la imagen por un algoritmo entrenado para reconocer características de la fruta, te dirá: ‘No, esto sí es una manzana. Es una manzana verde y roja’”. 

“Cualquier sistema de reconocimiento facial está construido bajo ideas específicas respecto de qué es un rostro y qué tipo de información es posible extraer de él, una cosmovisión anclada en la experiencia específica de quiénes lo construyeron […]. Y si nuestra aproximación a la tecnología continúa siendo acrítica, corremos el riesgo de naturalizar los prejuicios de otros como propios”.

 Ejemplos de algoritmos incapaces de leer el contexto de una imagen, hacer descripciones políticamente inapropiadas o decididamente racistas -como cierto software de Google que etiquetaba a las personas negras como “gorilas”- son comunes. Cathy O’Neil, autora de Weapons of Math Destruction, define un algoritmo como una opinión envuelta en matemáticas: están construidos para servir a los propósitos de quién los ha diseñado. Sin embargo, los algoritmos son frecuentemente presentados como datos objetivos. Al igual que la perspectiva, esta es una ilusión basada en la matemática y su peligro reside en la capacidad para ocultar su propia artificialidad. 

Cualquier sistema de reconocimiento facial está construido bajo ciertas ideas específicas respecto de qué es un rostro y qué tipo de información es posible extraer de él, una cosmovisión anclada en la experiencia específica de quiénes los construyeron y la manera en que han definido sus objetivos. Y si nuestra aproximación a la tecnología continúa siendo acrítica, corremos el riesgo de naturalizar los prejuicios de otros como propios. En un ámbito tan delicado y propenso a actos arbitrarios de discriminación como es el accionar policial, el tecnochovinismo puede tener efectos devastadores, favoreciendo la institucionalización de sesgos de raza, clase, género, edad y etnicidad.  ¿Equivale eso a mayor seguridad?

Posts Relacionados

Palabra Pública en las redes sociales