El sistema de reconocimiento facial continúa en suspenso en la Ciudad de Buenos Aires
El uso del Sistema de Reconocimiento Facial de Prófugos (SRFP) en la Ciudad Autónoma de Buenos Aires continúa suspendido tras una audiencia entre especialistas y representantes del Ministerio de Seguridad porteño que determinó que aún no hay acuerdo sobre cómo auditar esta tecnología.
¿Qué es el SRFP y cómo funciona?
El SRFP es una tecnología de inteligencia artificial que analiza imágenes de una base de datos pública llamada CONARC (Consulta Nacional de Rebeldías y Capturas) para detectar e identificar a prófugos de la justicia y delincuentes. Este sistema utiliza características únicas de los rostros, como la forma de la nariz, la distancia entre los ojos o la forma de los pómulos, para realizar la identificación.
¿Por qué está suspendido el SRFP?
El SRFP fue suspendido en septiembre de 2022 por la jueza en lo Contencioso Administrativo de la Ciudad de Buenos Aires, Elena Liberatori, debido a una acción de amparo presentada por el Observatorio de Derecho Informático de la Argentina (ODIA), el Centro de Estudios Legales y Sociales (CELS) y la Fundación Vía Libre. Estas organizaciones argumentaron que el uso de esta tecnología sin un marco normativo adecuado podría vulnerar derechos personales como la privacidad, la igualdad y la no discriminación.
La suspensión fue confirmada por la Sala I de la Cámara de Apelaciones, que envió el caso a primera instancia para insistir en la necesidad de una auditoría para descartar sesgos raciales, étnicos o de género.
¿Cuáles son los argumentos a favor y en contra del SRFP?
El Ministerio de Seguridad de la Ciudad sostiene que el SRFP es una herramienta eficaz para detectar delincuentes y prófugos, ya que ha permitido identificar a más de 1700 personas buscadas por la justicia. Además, afirman que el sistema está sujeto a auditorías por parte de la Defensoría del Pueblo y cuenta con un marco legal que regula su uso.
Sin embargo, las organizaciones que se oponen al SRFP argumentan que esta tecnología puede funcionar mal y llevar a la detención de personas inocentes o a la discriminación de determinados grupos poblacionales. También critican la falta de transparencia en su funcionamiento y la posibilidad de que se utilicen datos personales para fines no autorizados.
¿Qué sigue?
Las partes involucradas en el conflicto acordaron reunirse para elaborar un plan de auditoría que contemple un marco institucional, un presupuesto y un plan metodológico claro. Hasta la fecha, las partes no han avanzado en esa línea y el sistema de reconocimiento facial seguirá suspendido hasta que se presente una nueva propuesta de auditoría ante la Justicia.