Juegos Olímpicos | El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París 2024

Publicidad
Publicidad
Publicidad
Más
Publicidad
Publicidad
Publicidad
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París 2024
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París 2024
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París 2024Hans Lucas via AFP
Para reforzar la seguridad de los Juegos Olímpicos de París 2024, las autoridades usarán la videovigilancia con algoritmos, pero aseguran que ninguno de los programas utilizados permitirá el reconocimiento facial, una controvertida práctica ya experimentada en Francia.

La videovigilancia con algoritmos utiliza un programa asociado a cámaras de vigilancia que analiza secuencias de vídeo para identificar acontecimientos o comportamientos considerados sospechosos o de riesgo, antes de alertar a un operador en tiempo real.

Sin embargo, el reconocimiento facial se centra más en el detalle, ya que permite examinar los rasgos faciales de una persona filmada o fotografiada y comparar el resultado con las imágenes de una base de datos, en tiempo real o más tarde.

Durante el carnaval de Niza en 2019, un "software" de esta última tecnología, desarrollado por ingenieros israelíes, permitió encontrar entre 5.000 personas a casi medio centenar de voluntarios que habían facilitado una foto suya, incluso muy antigua.

Pero esta ciudad de la turística Riviera Francesa, que cuenta con casi 4.500 cámaras de vigilancia de gran precisión, quiere "ir más allá" que una mera experimentación, pero sus deseos chocan con la CNIL (Comisión Nacional de Informática y de las Libertades), autoridad encargada de velar por el respeto de las libertades en la era digital.

Los franceses ya aceptan "estar vigilados 24 horas al día por (el presidente chino) Xi Jinping o por (su par estadounidense) Joe Biden, según la marca de su celular", defiende el alcalde de Niza, Christian Estrosi, ante las reticencias de la CNIL.

Para el regidor, la Inteligencia Artificial (IA) podría haber ayudado a detectar los movimientos del autor del atentado en el Paseo de los Ingleses en 2016 (86 muertos). "Solo las personas fichadas como peligrosas serían objeto de una vigilancia permanente", asegura.

La tecnología de reconocimiento facial carece de un marco jurídico preciso, pero debe respetar, según la CNIL, "el marco de protección de datos de carácter personal", previsto por dos normas europeas: el reglamento general RGPD y la directiva "Policía-Justicia" de 2016.

Esta última norma permite su uso por las "autoridades competentes" en caso de "absoluta necesidad". La policía la utiliza en investigaciones para consultar la base de antecedentes penales, que contiene millones de expedientes de autores y víctimas.

El sistema de paso rápido en las fronteras exteriores de la Unión Europea la utiliza también en el control biométrico de pasaportes en los lugares previstos para ello y bajo determinadas condiciones.

"Oportunidad desaprovechada"

El futuro reglamento europeo sobre Inteligencia Artificial, cuya adopción final se espera en abril, prohíbe "el uso de la identificación biométrica a distancia en tiempo real en los espacios públicos", aunque prevé excepciones.

El reconocimiento facial podría usarse así para "dieciséis delitos", según un vocero de la Comisión Europea: terrorismo, violación, daños graves a las personas, tráfico de seres humanos, asesinato, tráfico de drogas, atracos en banda organizada...

Una "autoridad judicial o administrativa independiente" debería dar su autorización en 24 horas para su uso y los países interesados en poner en marcha esta práctica deben primero aprobar una ley nacional, basándose en el reglamento.

La ONG Amnistía Internacional lamentó no obstante una "oportunidad desaprovechada". "Era la ocasión de prohibir sistemas que son peligrosos e incompatibles con los derechos humanos, como el reconocimiento facial", lamentó Katia Roux, miembro en Francia.

En el caso de la videovigilancia por algoritmos, el Parlamento francés aprobó en abril de 2023 una ley que enmarca su experimentación durante los Juegos. Un comité de usuarios y políticos se encargará de su evaluación hasta 2025.

Esta podrá usarse para identificar ocho tipos de situaciones que impliquen un "riesgo de acto de terrorismo o una amenaza grave para la seguridad de las personas": cruzar una zona prohibida, circular en sentido contrario, presencia o uso de un arma, incendio, estampida, persona en el suelo, afluencia excesiva o paquete abandonado.

Amnistía criticó esta experimentación durante París 2024, al considerar que cuando se usan estas tecnologías de vigilancia, "ya no hay marcha atrás". En Londres 2012, se experimentaron y ahora la policía británica la usa para identificar "potenciales delincuentes antes incluso que se cometan crímenes", advirtió.