El último informe de IE University, titulado 'European Tech Insights Report 2024', recoge que tres de cada cuatro europeos (el 75%) apoyan el uso de la IA en operaciones policiales y militares como el reconocimiento facial y el uso de datos biométricos para la vigilancia. En el caso concreto de España, el 68% de los encuestados se muestra a favor. Son datos contundentes, sobre todo si se tiene en cuenta que esta tecnología suele suscitar muchas dudas e incluso miedos.

"No esperábamos el alto nivel de apoyo al uso de la IA en el ámbito policial y militar", admite Carlos Luca de Tena, executive director del Center for the Governance of Change de IE University. Según explica, en el informe de este año les interesaba conocer la opinión de los ciudadanos sobre temas sensibles como este, en los que "los europeos suelen ser reticentes". Y se han llevado una sorpresa.

Además, la encuesta ha servido para desmontar otra imagen preconcebida. Y es que, como indica el propio Luca de Tena, por lo general los jóvenes suelen estar más abiertos al uso de nuevas tecnologías que las generaciones de más edad. Sin embargo, en este ámbito sucede al contrario. "Probablemente se debe a que la pregunta se interpreta más desde una perspectiva de seguridad que desde un enfoque meramente tecnológico. Y es posible que las generaciones mayores vean en la IA una herramienta que refuerza el orden y la seguridad, aspectos que podrían valorar más que los jóvenes. Aun así, el 70% de los menores de 25 años en Europa también apoya su uso en este ámbito", comenta.

La gente quiere que los cuerpos de defensa y seguridad usen esta tecnología. ¿Pero pueden hacerlo? Echemos un vistazo a la ley. Marcos Judel, presidente de la Asociación Profesional Española de Privacidad (APEP) y socio del bufete Audens, relata que actualmente la principal referencia normativa sobre IA es el Reglamento de Inteligencia Artificial de la Unión Europea, que entró en vigor el 1 de agosto de 2024 y establece un plazo de dos años para su plena aplicación. Aunque en España el Reglamento General de Protección de Datos (RGPD) de 2018 y la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD) también son clave.

"El reglamento europeo de IA establece ciertos usos que están directamente prohibidos, como la identificación biométrica en tiempo real en espacios públicos, ya que puede vulnerar gravemente los derechos a la privacidad y a la protección de datos. Sin embargo, precisamente recoge la excepción para su uso por parte de las fuerzas y cuerpos de seguridad del Estado, especialmente cuando se trata de asuntos de seguridad nacional o defensa", ilustra Judel.

En esos casos, explica, se puede permitir el uso de IA en "contextos específicos", pero siempre que se justifique por la necesidad de prevenir delitos graves, actos terroristas o amenazas significativas a la seguridad nacional. En paralelo, los Estados tienen la obligación de establecer controles rigurosos sobre el uso de estas tecnologías, garantizando su proporcionalidad y legalidad, así como estrictas medidas de control y supervisión.

Pero, ¿qué se entiende por delitos graves o amenazas? "Ahí está el problema. Cuando las sociedades civiles analizamos este reglamento advertimos que su lenguaje era muy amplio, y no estaba sujeto a cuestiones objetivas o sobre las que hubiera un consenso. Por ejemplo, ¿cuándo es aceptable vulnerar los derechos masivos de privacidad para utilizar el reconocimiento facial? No lo sabemos, porque no se define cuándo podemos saltárnoslo ni para qué, solo el ámbito de uso. Ahora mismo España está en el nivel 4 de alerta antiterrorista. ¿Se considera suficiente para permitir el reconocimiento facial en las calles", se pregunta Judith Membrives i Llorens, responsable de tecnología y Derechos Humanos de Lafede.cat.

La opacidad de la Policía y el Ejército

Membrives i Llorens denuncia que este tema suscita un debate que aún no se ha tenido, a pesar de que, afirma, las organizaciones como la suya están intentando llegar a un acuerdo con los poderes públicos. Como consecuencia de esto, desliza que hay otro problema añadido: no sabemos que exactamente que están haciendo nuestros cuerpos de seguridad y defensa con la IA.

"Otra de las cosas que estamos batallando es la transparencia, porque tenemos muy poca información. El reglamento europeo contemplaba la creación de una base de datos pública en la que las administraciones debían incluir los algoritmos o las IA consideradas de alto riesgo que estuvieran usando. La Policía, el Ejército y el resto de cuerpos tienen que cumplir unos requisitos para usar estas tecnologías, pero luego no les piden publicar los resultados", afirma.

"La norma no impone a los Cuerpos y Fuerzas de seguridad del Estado la obligación de hacer pública la información sobre sus tratamientos concretos y el empleo de sistemas de IA con fines de vigilancia. Sin embargo, permite que los ciudadanos puedan saber si sus datos están siendo tratados y, en su caso, acceder a ellos, conocer los fines del tratamiento, los destinatarios y el plazo de conservación, etc. No obstante, pueden darse excepciones para limitar o denegar esta información si es necesario para proteger investigaciones, la seguridad pública, la seguridad nacional o los derechos de terceros. Por lo que en la práctica puede no llegarse a conocer efectivamente algunas cuestiones como estas", precisa Judel.

Membrives i Llorens asegura que esa falta de "rendición de cuentas" hace que lo que sabemos sobre los usos de la IA por parte de los agentes y los militares nos llegue con cuentagotas. Hasta el punto, según detalla, de que suelen enterarse generalmente gracias a investigaciones periodísticas, que descubren que en una licitación o en un contrato público concreto se habla sobre la implementación de una de estas tecnologías.

"No hay sitio donde puedas mirar que están haciendo. No tenemos un listado para saber con certeza para qué se está utilizando y para qué no. Y si haces peticiones de información te dicen que todo son pruebas piloto que no se han implementado", lamenta. "Lo poco que sabemos es que la IA la están utilizando para combatir los discursos extremistas y violentos en las redes. Y el reconocimiento biométrico se usa en las fronteras. Así que lo que estamos viendo es que los usos reales no son los distópicos que la mayoría imaginamos", zanja.

Para valorar la utilidad de estas tecnologías, la experta recurre al uso que le están dando países como EE.UU, que tienen normativas más laxas y las han implementado en mayor grado. Y según cuenta, el reconocimiento facial, la vigilancia masiva con biometría e incluso el reconocimiento de emociones no están siendo especialmente útiles: "No ha habido ningún terrorista al que se le haya identificado en una frontera con estas tecnologías. Ninguno de los sistemas que usan ha dado buenos resultados, los porcentajes de éxito son muy bajos y hay muy poca evidencia científica en estos ámbitos a pesar del optimismo. Al menos que sepamos".