Opinarg

El tiempo - Tutiempo.net

Busaniche: "El sistema de reconocimiento facial afecta a quienes no han hecho nada ilegal"


27 de octubre de 2020

Compartir esta nota en

La presidenta de la Fundación Vía Libre, habla sobre los riesgos que implica la legitimación del uso de estos instrumentos de vigilancia.

Por Sebastián Dinerstein

Fotografía: Gentileza Beatriz Busaniche

Fotografía: Gentileza Beatriz Busaniche

Beatriz Busaniche es docente de grado y posgrado en la Universidad de Buenos Aires y  preside la Fundación Vía Libre, organización civil sin fines de lucro que tiene como objetivo "trabajar políticamente en el área de nuevas tecnologías, defender los derechos ciudadanos en entornos mediados por tecnologías de información y comunicación".

En una charla con Opinarg, Busaniche critica la decisión de la Legislatura porteña de aprobar la reforma de la Ley 5688 del Sistema Integral de Seguridad Pública y advierte que "esto afecta especialmente a personas que no han hecho nada ilegal".

-¿Cuáles son los puntos más problemáticos a la reforma de la reforma de la Ley 5688 del Sistema Integral de Seguridad Pública?

-El punto más saliente de la Ley de Reforma de la Ley 5688 para nosotros es la integración de los sistemas de reconocimiento facial y la integración de software para forensia y para predicción -digamos el sistema preventivo- son tres sistemas que nos parecen muy problemáticos en términos de lo que implican. Eso es lo que se está agregando ahora en esta reforma.

Fotografía: Gobierno de la Ciudad de Buenos Aires

Fotografía: Gobierno de la Ciudad de Buenos Aires

-En la Cudad ya se hace uso de las cámaras de videovigilancia. ¿Qué cambiaría en caso de que la reforma se aplique y se autorice el uso de reconocimiento facial?

-Se aprobó el uso de los sistemas de reconocimiento facial que la ciudad de Buenos Aires venía usando desde el año pasado sin un marco legal apropiado y sin una discusión profunda y de fondo. La legislatura legitimó esta práctica con la que nosotros desde la sociedad civil presentamos objeciones y estamos en franco desacuerdo.

La videovigilancia está regulada y puesta en marcha en la ciudad de Buenos Aires. Tiene impuesta condiciones vinculadas con, por ejemplo, la obligación de que se sepa dónde están instaladas las cámaras. Lo que cambia con el uso del reconocimiento facial es que se están incorporando una serie de tecnologías que son diferentes de la simple observación del espacio público, que también tiene una serie de implicancias, impactos y problemas. En este caso se agrega una capa más de problemas: la utilización de sistemas algorítmicos de reconocimiento de los rostros de las personas para identificar personas que pueden ser buscadas en las bases de datos de personas prófugas. Lo que se está integrando acá es un sistema que hace análisis de los rostros y que está “entrenado” como todo sistema de Inteligencia Artificial para buscar determinados rostros. Estos sistemas están en discusión en todo el mundo. Algunas ciudades como Boston, San Francisco y varias ciudades más de los Estados unidos los están prohibiendo. Hay empresas que venden estas tecnologías que están dejando de venderlas a los estados y fuerzas de seguridad para la vigilancia de espacios públicos por el impacto que tienen en materia de Derechos Humanos. Esta tecnología genera una serie de problemáticas nuevas que tienen que ver con la discriminación y la enorme tasa de falsos positivos por el entrenamiento de estas bases de datos y una serie de problemas que impactan en la privacidad y el control social sobre la esfera pública.

Lo que cambia con el uso del reconocimiento facial es que se están incorporando una serie de tecnologías que son diferentes de la simple observación del espacio público.

-¿Por qué no sería simplemente autorizar el uso de una herramienta más?

-Esto no es una herramienta más. Es una herramienta en la cual se generan mecanismos predictivos algorítmicamente que son estadísticas falibles, no certeras y mediadas por tecnologías que no conocemos del todo bien porque los proveedores no entregan la información sobre cómo funcionan ni qué datasets han sido usados para entrenar el algoritmo. A esto suma una serie de cuestiones todavía más problemáticas como la discriminación que producen y los falsos positivos. Los sistemas de reconocimiento facial son particularmente problemáticos frente a personas a personas a de tez más oscura y en el caso de los falsos positivos, algo bastante común en estas tecnologías, queda en cabeza de la ciudadana o ciudadano sindicado como una persona de interés, persona buscada, probar que no ha cometido ningún delito.  Son sistemas automatizados que revierten la carga de la prueba y el debido proceso. Tienen toda una serie de complejidades muy problemáticas para ser puestas en la esfera pública como “una herramienta más”.

-¿Qué pasa con los datos recolectados por estas cámaras?

-El problema no son sólo las cámaras, es el procesamiento de las imágenes que captan las cámaras. El punto es que no se sabe demasiado lo que se hace. En principio, los datos se pueden guardar por hasta 60 días, pero la ciudad ha dado información dispar sobre esto. Ellos dicen que no se registran los rostros de las personas que no son buscadas, pero es muy difícil saber cómo hace el sistema para identificar a una persona buscada sin registrar a las personas no buscadas. Los datos deberían ser destruidos de manera inmediata si no hay ninguna alerta, guardados hasta 60 días si se levantó una alerta y sólo conservados en caso de que haya una orden judicial que lo avale, pero los mecanismos de control que tenemos sobre esto son prácticamente nulos.

-Existen posturas que dicen que si uno o una no anda en nada ilegal no debería de por qué preocuparse... ¿Esto es así?

-La noción de que si uno no ha hecho nada malo no debe preocuparse es uno de los viejos mecanismos para evitar la discusión profunda sobre la defensa del derecho a la privacidad de las personas. Como dice Edward Snowden: “decir que uno no tiene nada que ocultar y que por lo tanto no importa perder el derecho a la privacidad es como decir que porque no tengo nada que decir no me importa el derecho a la libertad de expresión”. El problema central de esto es que no sólo afecta o puede afectar a personas que pueden haber hecho algo ilegal, sino que esto afecta especialmente a personas que no han hecho nada ilegal. Circular por la esfera pública, moverse, tener un color de piel similar o rasgos similares a los de alguien que sí ha hecho algo ilegal puede arrojar un falso positivo. El problema de estas tecnologías es que arrojan una serie de falsos positivos muy alta.

Decir que uno no tiene nada que ocultar y que por lo tanto no importa perder el derecho a la privacidad es como decir que porque no tengo nada que decir no me importa el derecho a la libertad de expresión.

Hay un antecedente en Estados Unidos de la Asociación por los Derechos Civiles de EEUU que hizo una prueba de búsqueda por reconocimiento facial y una base de datos de personas buscadas por la justicia y aplicó esa base de datos a todos los legisladores del congreso estadounidense y encontró a 28 personas que dieron positivo en la búsqueda de delincuentes. Casualmente eran los legisladores de origen hispano y personas negras. Lo que queda claro es que estas son tecnologías que afectan a las personas independientemente de que hayan hecho algo malo o algo bueno. Simplemente con circular por la esfera pública y que existan este tipo de tecnologías estamos expuestos a estas circunstancias problemáticas.

-En el comunicado difundido por ustedes junto con Access Now, Amnistía Internacional, Asociación por los Derechos Civiles, CELS, DATAS y el Observatorio de Derecho Informático Argentino señalan que "el Gobierno de la Ciudad de Buenos Aires impuso este sistema de manera opaca, esquivando la discusión pública, y sin llevar a cabo estudios sobre el impacto en derechos humanos". ¿Alcanza únicamente con permitir la discusión pública en torno al uso de esta tecnología? ¿Qué pasaría si la opinión pública apoyase el uso de estas tecnologías por sobre el resguardo del derecho a la privacidad? Un debate entre seguridad y privacidad no parece tener un resultado obvio.

-Estoy de acuerdo que el debate sobre seguridad y privacidad no tiene un resultado obvio. De hecho, cuando se dice muchas veces que este tipo de cosas hay que someterlas a la voluntad popular, yo tiemblo porque la ciudadanía ha sido prácticamente adoctrinada en estos últimos años con un discurso punitivista, un discurso que habla de que es necesario perder libertades y perder privacidad para garantizar seguridad. Esto es absolutamente falaz. Por supuesto que el debate debe ser ampliado. Justamente es necesario dar este debate porque no se ha dado: se han instalado cámaras y no se ha dado el debate, se han instalado cada vez más medidas de este tipo y se han comprado tecnologías de vigilancia y no se ha dado el debate. Entonces la ciudadanía las naturaliza como algo necesario, inexorable o esencialmente bueno en donde las consecuencias serán negativas para quienes tengan algo que ocultar. Lo cierto es que todas las personas tenemos algo que ocultar porque todas las personas tenemos derecho a tener intimidad. Todos tenemos cortinas en las ventanas de nuestras casas o no nos gusta que nos estén escuchando conversaciones telefónicas. Todas las personas tenemos cosas que hacen a nuestra intimidad. Cuando uno piensa esto en términos de dilema está pensando mal. Perder privacidad es perder un derecho y cuando perdemos privacidad, inmediatamente, perdemos seguridad.

Muchas veces se habla de tecnologías para identificar casos de grooming, abusos contra menores. Siempre se usa a niños y niñas como una población que toca en la gente una fibra sensible y por supuesto que hay que protegerlos. Ahora, nadie piensa que por ejemplo, que un niño o niña que no tiene derecho a la privacidad y está expuesto permanentemente en las redes sociales, sea por su propia voluntad cuando tiene la posibilidad de hacerlo o por la voluntad de las escuelas o familias que vulneran su privacidad lo ponen en riesgo. Cuando hablamos de los casos de grooming, un adulto buscando a una persona menor de edad para ejercer algún tipo de abuso sobre esa persona, la cantidad de información disponible en las redes sociales sobre esos niños y niñas es un instrumento fundamental para generar confianza, conversar, saber qué cosas les gustan. Nadie piensa que la pérdida de privacidad es en sí misma una pérdida de seguridad. Lo que hay que hacer en este debate es no sólo tomar evidencias, cosa que la legislatura de la ciudad de Buenos Aires no hizo, sino también romper la dicotomía entre la privacidad y la seguridad. Perder privacidad es perder seguridad. No hay ningún tipo de medida de seguridad apropiada que implique la pérdida de la privacidad de la ciudadanía. La mirada que hay de la opinión pública es algo que tenemos que revertir las organizaciones que trabajamos en este tema.

Compartir esta nota en