El 18 de mayo de 2018 la cantante Taylor Swift dio un concierto en el Rose Bowl de Pasadena, a unos kilómetros de Los Angeles. Como es costumbre en los espectáculos de la artista, mediática y seguida como pocas, el estadio colgó el cartel de no hay billetes.
Para cuando Swift empezó a entonar los primeros versos de ...Ready for it? los 60.000 asistentes habían pasado por un sistema de reconocimiento facial, condición obligatoria para acceder al recinto. "Todo el que fue al concierto pasó por un software que le escaneaba la cara", ha explicado el jefe de seguridad de Oak View Group, una empresa que se dedica a garantizar que todo vaya bien en grandes eventos, tal y como recoge Quartz.
Swift, una de las celebrities que más ha sufrido por los acosadores, no quería que ninguno de ellos estuviera presente en su concierto, así que instaló un sistema de reconocimiento facial que identificaba a las personas gracias a la Inteligencia Artificial.
¿Es algo normal? De momento no, pero lo será en muy poco tiempo, ya que garantizar la seguridad de 60.000 personas apelotonadas en unos cuantos metros cuadrados es básicamente imposible, como hemos tenido que descubrir de la peor manera en conciertos como el de Ariana Grande en Manchester.
Esta tecnología es, además, relativamente barata y de muy fácil acceso. Implica, eso sí, unos dilemas éticos muy importantes. Si una cantante es capaz de montar un dispositivo semejante, ¿qué no podrá hacer un Gobierno, con todos los recursos que tiene en sus manos?
Fácil, barato... y peligroso
A finales del año 2016 Amazon presento un software bautizado como Rekognition. Es, como el propio nombre sugiere, un sistema basado en Inteligencia Artificial que es capaz de reconocer rostros en imágenes en directo.
Según la descripción del producto que hace la propia página web del gigante de Seattle, Rekognition identifica "personas, objetos y rostros de alta precisión" y es capaz de "detectar, analizar y comparar rostros para una amplia variedad de casos de verificación de usuarios y seguridad pública".
En esencia, Rekognition es todo eso que hemos visto en las películas decenas de veces. Una pantalla en la que los rostros de la gente normal que anda por la calle es escaneado para identificar su identidad, por si acaso tuviera malas intenciones. El problema es que, por el camino, has vigilado a unos cuantos miles de inocentes, de los que tienes información sobre sus movimientos. La privacidad reducida a la mínima expresión.
Prácticamente todos los ciudadanos aceptan que este tipo de tecnología esté en manos del Gobierno, encargado de velar por la seguridad común. El problema es cuando algo así está al acceso de cualquiera. Y cuando decimos de cualquiera es, literalmente, de cualquiera.
Sólo hay que acceder a la web de Amazon Rekognition y contratarlo. En pijama. Con un click. El precio, además, no es ni mucho menos prohibitivo: 0,10 céntimos por minuto si es un vídeo grabado y dos céntimos más si es una emisión en directo, con los primeros 1.000 minutos de regalo.
Por norma general montar un sistema de vigilancia por reconocimiento facial supondría un desembolso económico importante y el montaje de una estructura técnica compleja. Sin embargo, con este software de Amazon es sencillo saber si una determinada persona pasa cada día por la puerta de casa, con lo que eso supone.
De Meghan Markle a vigilar Orlando
El pasado 19 de mayo el príncipe Enrique, uno de los aspirantes a la Corona británica, contrajo matrimonio con la actriz estadounidense Meghan Markle en uno de los eventos del año en la sociedad inglesa. Entre los invitados estuvo Rekognition. La BBC, que emitió el enlace, uso el software de Amazon para identificar a la infinidad de rostros famosos que aparecían en la lista de invitados. Usos prosaicos.
No lo son tantos aquellos que le pueden dar los cuerpos de policía de los condados de Orlando y Oregon, en Estados Unidos. Ambos utilizan Rekognition y, además, gracias a un acuerdo con Amazon, les cuesta menos de 20 dólares al mes.
"Hay cámaras autorizadas que están colocadas por toda la ciudad. Emiten en directo y buscan y recopilan rostros", explicaba el director de Rekognition, Ranju Das, en una conferencia poniendo como ejemplo el caso de Orlando.
Los departamentos de policía de ambas zonas, situadas en puntos opuestos de Estados Unidos, confían en este sistema, algo que no ha gustado a todos. Amazon se ha defendido en más de una ocasión, explicando que su sistema "tiene muchas aplicaciones en el mundo" y asegurando que "vigilamos que se cumpla la ley a la hora de usarlo". "Nuestra calidad de vida sería mucho peor si hubiéramos vetado toda la tecnología nueva sólo porque alguna gente pudiera utilizarla de mala manera", ha alegado la compañía de Seattle.
Funcionamiento y fallos
El uso del sistema es, a nivel teórico, bastante sencillo: el cliente sólo tiene que facilitarle a Amazon un documento en el que se incluya una imagen de todo el que queramos. Cuantos más, mejor. Una vez dentro de Rekognition, el software hace un estudio de cada cara cogiendo como referencia ambos ojos, la nariz y las comisuras de la boca.
No hay límites. Según explica Amazon, el reconocimiento facial puede identificar "colecciones de hasta decenas de millones de rostros" en vídeos en directo, gracias a una herramienta que llaman Kinesis Video Streams. Si el cliente lo desea incluso se puede identificar el estado de ánimo de una persona en medio de una multitud, si tiene los ojos abiertos o si está sonriendo.
Por supuesto, el sistema no es perfecto. Así lo demostró la Unión por los Derechos Civiles (ACLU, por sus siglas en inglés), una organización estadounidense especialmente activa, cuando decidió servirse de Rekognition para demostrar lo peligroso de su uso sin una regulación firme.
Esta agrupación creó una base de datos con 25.000 rostros y le pidió al software que identificara a los 535 miembros del Congreso de Estados Unidos cuando entraban para una de las sesiones de la Cámara. El truco estaba en que ninguna de las 25.000 imágenes coincidía con la cara de los congresistas. Hubo 28 coincidencias.
"Una identificación de una persona le puede costar su libertad. Hay que tomarse amenazas así mucho más en serio", explicaba tras el experimento la ACLU en un comunicado en el que, además, detallaban que el montaje de todo les había costado apenas 12 dólares.
Amazon respondió y atribuyó el fallo a una calibración deficiente, pero el sistema tiene fallos y son más que evidentes. La policía metropolitana de Londres, otro de los cuerpos que utilizan un sistema de reconocimiento facial, afirmó el pasado mes de junio que su sistema tiene una tasa de fallos del 98% y que no habían podido efectuar ni una detención gracias a él. Mucho por pulir.
Te puede interesar
-
OpenAI cambia el nombre de su nuevo modelo de IA por 'culpa' de Telefónica
-
Los científicos que trabajan para teletransportar olores: "Podremos enviarlos igual que los emails"
-
Los aviones que sobrevuelan los países buscando sus tesoros naturales
-
Tres ideas de regalo por menos de 20€ con las que acertar seguro esta Navidad
Lo más visto
- 1 Muface: las novedades del contrato que ultima el Gobierno
- 2 Sánchez, ridículo imborrable
- 3 Imane Khelif contra el odio: “Represento a las mujeres del mundo”
- 4 Perdóname, Pedro, por haber desconfiado del fiscal y de tu palabra
- 5 Los claroscuros de la duquesa roja: lesbiana y cercana a ETA
- 6 Podemos allana el camino para el regreso de Irene Montero
- 7 Viajeros de un tren de Renfe rompen la ventanilla por humo
- 8 Las 10 mejores planchas de pelo del 2024
- 9 El infierno de una misión española investigada por Egipto