Por: Carolina Martínez Elebi

Compartir:

News #01 | Agosto 2020

Hace unos meses me acordaba de una serie que vi durante algún tiempo, allá por 2011, que se llamaba Person of interest. En la presentación, uno de los protagonistas decía lo siguiente: «Estás siendo observado. El gobierno tiene un sistema secreto. Una máquina que te espía a cada hora todos los días». En ese momento, la vi como una ficción que me entretenía aunque me inquietaba un poco (aunque no tanto como Black Mirror). Ahora, cualquier semejanza con los sistemas de vigilancia actuales, ¿es pura coincidencia?

¿Por qué es noticia?

Hace tiempo que el reconocimiento facial dejó de ser ciencia ficción. En los últimos años, distintas ciudades del mundo fueron noticia por implementar estos sistemas para “combatir el delito”. Londres, por ejemplo, fue noticia cuando empezó a usarlo, pero también cuando se supo que fallaba en el 81% de los casos (!!) y por su falta de transparencia en cuanto a la base de datos de rostros que entrenan sus algoritmos.

Por su parte, la ciudad de San Francisco y el estado de California fueron noticia por haber prohibido el uso de estos sistemas, y más recientemente, luego del brutal asesinato de George Floyd y del movimiento #BlackLivesMatter, las empresas IBM, Microsoft y Amazon dejaron de brindar su tecnología de reconocimiento facial a la policía, por los efectos de discriminación racial y étnica de estos sistemas.

En abril de 2019, en la Ciudad de Buenos Aires, se instaló un sistema que «permitiría capturar a los 46 mil prófugos de la Justicia” («UltraIP®» por la empresa Danaide S.A., según publicó ADC) y que durante los primeros meses fue noticia recurrente por sus problemas: falsos positivos o «errores de carga» en la base de datos que, por ejemplo, llevaron a una persona inocente a estar seis días presa (lo que habla, principalmente, de la irresponsabilidad y arbitrariedad con la que se conducen las fuerzas de seguridad). A pesar de esto, a los pocos meses también comenzó a usarse en la ciudad de Córdoba.

Pero las fuerzas de seguridad no son las únicas. Esta tecnología también se utiliza en otros espacios y con diversos fines:

Uno de los efectos de la medida de aislamiento para combatir el avance de la pandemia por coronavirus fue el anuncio de la Universidad Nacional de Córdoba (UNC) y del Consejo Interuniversitario Nacional (CIN) de la instalación de un sistema de reconocimiento facial para evaluar a sus estudiantes a distancia y, además, monitorearlos para evitar que se copien. El sistema de la UNC, Respondus, además de tener el servicio LockDown Browser, que es un navegador que bloquea todo lo que esté por fuera de él para que el o la estudiante no pueda cambiar de programa durante su evaluación, también ofrece el sistema Respondus Monitor, que registra y graba toda la actividad de la persona que está siendo evaluada (con cámara y micrófono) para acreditar su identidad, observarla durante el examen y analizar si tuvo un «comportamiento sospechoso». Desde algunas unidades académicas, agrupaciones de docentes y estudiantes expresaron su rechazo ya que consideran que implica «una intromisión en la privacidad de los alumnos y profundiza las desigualdades entre quienes disponen de los recursos tecnológicos y quienes no».

¿Cómo funciona el reconocimiento facial?

Esta tecnología utiliza sistemas basados en complejos algoritmos para detectar detalles específicos y distintivos de las caras de las personas a partir de una foto, una serie de fotos, o un fragmento de video. Estos detalles, que pueden ser el trazo de líneas imaginarias sobre el rostro, la distancia que hay entre los ojos o la forma del mentón, son convertidos en una representación matemática y comparados con información de otras caras previamente recolectadas y guardadas en una base de datos. Así se arman ‘plantillas de caras’ que sólo incluyen esos detalles y a cada persona le corresponde una, y luego son utilizadas para reconocer e identificar a las personas en nuevas fotos o videos. En este video se hace un breve repaso histórico de cómo surgió esta tecnología.

¿Pero cómo un sistema puede saber identificar rostros? Básicamente, vienen entrenando desde hace un tiempo a partir de las miles de millones de imágenes de personas que circulan por internet. Un ejemplo simple para entender cómo funciona. ¿Te acordás cómo era cuando empezaste a usar Facebook? Fue hace muchos años, sí, pero te acordarás que, al principio, cuando publicabas una foto tenías que «etiquetar» vos mismx a cada persona. Con el tiempo, Facebook empezó a sugerirte «¿Es Pedro?», «¿Es Ana?», y vos pensaste que por fin te ibas a ahorrar esa tarea porque Facebook YA SUPONÍA quién era cada unx y vos sólo tenías que confirmarle. Un poco después, Facebook entendió, aprendió, y ya no necesitó sugerirte nada, así que empezó a etiquetar automáticamente a cada persona que reconocía en una nueva foto que subías y, cada tanto, quizás se equivocaba y, entonces, tenías que corregirlo. Esto que pasó fue un entrenamiento.

Ahora pensemos en los filtros de Instagram, Snapchat y otras que, para saber dónde están los ojos, las orejas, la nariz, la boca y el mentón, ofrece la oportunidad de jugar, por ejemplo, a ponernos orejas de perro o anteojos con corazones. Sin ir más lejos, el ejemplo más cercano de entrenamiento de sistemas de reconocimiento facial fue FaceApp con sus filtros para cambiar de edad o de género.

Durante 2019, Hong Kong fue noticia por su ola de manifestaciones en contra de un proyecto de ley del gobierno chino para extraditar a sospechosos de delitos a China continental. Pero también por sus estrategias para bloquear las cámaras de reconocimiento facial con punteros láser [🎬VIDEO acá] o usando máscaras. Sin embargo, hay varias maneras de engañar a los sistemas de reconocimiento facial, desde maquillaje y peinados raros hasta un código QR pegado en la cara o anteojos.


¿Por qué es importante?

Las tecnologías de reconocimiento facial son utilizadas para la vigilancia masiva y se instalan para compensar la enorme falta de confianza que se ha desplegado en las sociedades (y a falta de soluciones para los problemas de fondo). Esta tecnología es cuestionada porque tiene el potencial de interferir directamente con derechos como:

la privacidad
la libertad de expresión
la libertad de reunión y asociación
la no discriminación

y con garantías constitucionales como:

el debido proceso
la presunción de inocencia

Es por esto que en octubre de 2019, desde The Public Voice se publicó la declaración «Una moratoria sobre la tecnología de reconocimiento facial para la vigilancia masiva», firmada por más de 100 organizaciones y más de 1100 personas -activistas, profesionales, docentes e investigadorxs- de todo el mundo.


🎬 La era del capitalismo de vigilancia

En 2019, Shoshana Zuboff, profesora de Harvard Business School, publicó el libro The Age of Surveillance Capitalism en el que se refiere a la mercantilización de los datos personales y donde explica por qué nuestra realidad se parece más a Un mundo feliz que a 1984: El capitalismo de vigilancia trabaja de forma tal que se nos estimula para que nuestros deseos encajen en sus necesidades. En esta entrevista explica la tesis central de su libro.

Un dato: como explica Shoshana, luego de tener los «rostros» y de haber entrenado los sistemas (minuto 9 del video), el siguiente paso es capturar la voz y nuestra forma de hablar para seguir los entrenamientos y, por supuesto, saber más sobre nosotrxs (minuto 20). ¿Te suenan Siri, Alexa, Cortana?


🔥  Bonus track
1. Google, Amazon, Facebook, y Apple testificaron por videollamada ante el Congreso de los Estados Unidos por posibles abusos de posición dominante y prácticas monopólicas.
2. Sobre libertad de expresión y discurso de odio, este video me pareció MUY pertinente (además de breve y entretenido) para entender por qué es un problema que se presione tanto a las empresas como a los Estados para aplicar regulaciones que impidan la circulación de aquellos discursos que catalogamos como «de odio».

📚 Para leer
«La cuestión de los datos. Plusvalía de vida, bienes comunes y Estados inteligentes», por Sofía Scasserra y Leonardo Fabián Sai (junio de 2020).

Espero te haya resultado interesante. Cualquier duda o comentario que tengas, escribime. A mí también me gustaría recibir un mail tuyo.

¡Que tengas un lindo agosto!
Nos leemos 😀

Carolina

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Filtros

Telegram Sumate a nuestro canal de Telegram