Desde hace unos días FaceApp vive su segundo gran boom de descargas. Ocupa los primeros puestos en las tiendas de aplicaciones de Apple y Android. Aunque existe desde 2017, esta app creada por el ruso Yaroslav Goncharov no se popularizó hasta julio del año pasado. Entonces llamó la atención su tecnología para simular cómo envejece el rostro de una persona. Ahora se ha puesto de moda por otro de sus filtros: el cambio de género.
Pero su popularidad ha traído de vuelta otro debate, el uso de los datos que recopila. FaceApp se suma así a la lista de apps controvertidas que alguna vez han estado disponibles para ordenador o móviles. Estas son algunas de ellas.
FaceApp
Comprobar en FaceApp cómo podrías ser en unas décadas era y sigue siendo muy sencillo. La aplicación es gratuita, aunque ofrece una versión ‘pro’ con más opciones y sin anuncios. Una vez dentro, el usuario debe permitir el acceso a la biblioteca de fotos del móvil. Luego escoge una imagen suya o de quién sea y ya estaría todo listo para ‘jugar’. El programa utiliza inteligencia artificial (IA) para alterar el rostro y lograr, por ejemplo, que aparezca más sonriente, maquillado, con barba o con un nuevo peinado.
Además de envejecer, FaceApp permite rejuvenecer con bastante éxito el aspecto de un anciano. Ahora hemos visto a cientos de usuarios compartir su transformación al sexo opuesto. También han circulado las versiones femeninas de Pedro Sánchez o Pablo Iglesias. De hecho, entre las fotos de famosos españoles más utilizadas en la aplicación están las de Santiago Abascal, Rosalía, Francisco Franco o el Rubius.
Lo que levantó sospechas fue su 'política de privacidad'. Algunos usuarios y expertos en protección de datos cuestionaron el uso que podría hacer FaceApp con los millones de fotografías que almacenaba. Sus 'condiciones de uso', según explicaron a Efe expertos en ciberseguridad, incluían términos "completamente abusivos" que dejaban indefenso al usuario. Dejando en el aire el derecho al olvido, a la intimidad y la seguridad de que esos datos personales no se cederían a terceros.
Los expertos señalaron otro problema: FaceApp es rusa y, por tanto, escapa al control de la Unión Europea. Pese a que la aplicación se desarrolló San Petesburgo, su creadora, Wireless Lab, aseguró que los datos que recopilaba no los enviaba a este país. La compañía se vio obligada en julio del año pasado a responder a las críticas. La mayoría de las imágenes que almacena en sus servidores, explicó, las elimina en un plazo de 48 horas. Tampoco vende esos datos a terceros, pero sí se reserva el derecho de compartir cierta información que les ayuda a "medir el tráfico y las tendencias de uso".
Baptiste Robert, un investigador de seguridad especializado en apps móviles, quitó hierro a la polémica de FaceApp. "La información que envió la aplicación solo fue el modelo de mi dispositivo, su número de identificación y la versión de Android. Información muy limitada y que es bastante común que las aplicaciones envíen", señaló al The New York Times. Pero sí se percató de que FaceApp cargaba las fotografías en sus servidores sin pedir permiso a los usuarios. Hace dos semanas la empresa actualizó sus términos de uso, aunque siguen solicitando bastante información personal, según detalla Omicrono.
Deep Nude
"No soy un pervertido, simplemente me considero un amante de la tecnología". Con esas palabras, Alberto, nombre anónimo, defendía ante Vice su creación: DeepNude. Un software que utilizaba inteligencia artificial para eliminar la ropa de las mujeres que aparecen en fotografías. La aplicación no duró ni una semana en el mercado.
DeepNude apareció el 23 de junio del año pasado para Windows y Linux. En la versión gratuita que ofrecía en su página web los desnudos estaban tapados parcialmente con marcas de agua. Si pagabas 50 dólares se eliminaban esas marcas de agua, pero se añadía a la imagen la palabra 'fake'.
La aplicación no era perfecta. Los mejores resultados los obtenía cuando tenía que quitar la ropa en fotografías de alta resolución y con mujeres que enseñaban gran parte de su cuerpo. Gracias a un entrenamiento con más de 10.000 imágenes de mujeres desnudas, el software sustituía la ropa por pechos y vaginas. DeepNude no funcionaba con hombres o dibujos animados, solo con mujeres. ¿La razón? Era más sencillo encontrar en Internet imágenes de mujeres desnudas, explicó su desarrollador.
La app murió a las pocas horas de aparecer en los medios de comunicación. En un escueto comunicado, DeepNude señaló el proyecto cerraba por la "probabilidad" de que se hiciera un mal uso de la herramienta. "El mundo aún no está preparado para DeepNude", concluyó.
La app 'espía' de LaLiga
Un 'espía' para localizar qué bares emitían el fútbol sin licencia. Así se podría resumir una de las funciones que la Liga de Fútbol Profesional integró en su app para móviles. En junio de 2018, eldiario.es reveló que LaLiga quería utilizar a los aficionados al deporte rey para detectar el fraude. Bastaba con descargarse la app y dar los permisos requeridos. Gracias a ese paso, LaLiga podía escuchar el sonido ambiente a través del teléfono y comprobar sí el aficionado estaba en un establecimiento donde se emitía una señal 'pirata'. La app también permitía geolocalizar el smartphone.
¿Qué explicaciones dio LaLiga? El organismo aclaró que su nueva política de privacidad servía para proteger a los clubes y aficionados del fraude en la emisión de partidos. "Estas actividades suponen anualmente una pérdida estimada de 150 millones de euros para el fútbol español", alegó en un comunicado. La app sólo activaba el micrófono y la geolocalización durante las franjas horarias en las que se retransmitían los partidos. Accedía al código binario generado por la grabación del sonido ambiente, pero no al audio.
La Agencia Española de Protección de Datos (AEPD) sancionó a LaLiga con 250.000 euros por violar con su app uno de los principios básicos de transparencia. No bastaba con avisar al usuario sólo cuando se instala la aplicación, debía hacerlo cada vez que activaba el micrófono para recoger el sonido ambiente.
Strava y las bases militares
¿Cómo una app de running acaba revelando la ubicación de bases militares de EEUU en peligrosos países del extranjero? Es lo que ocurrió con Strava, una de las aplicaciones deportivas más famosas del mundo. En noviembre de 2017, Strava publicó un mapa global con las rutas de running o bici más frecuentadas por sus usuarios. Para registrarlas era necesario que los deportistas llevaran puestas pulseras que monitorizasen su actividad.
Algo llamó la atención de varias personas en ese mapa: estaba completamente oscuro en zonas de guerra, salvo en las bases militares norteamericanas y sus entornos. Tal y como detalló The Washington Post, EEUU había fomentado el uso de estas pulseras entre sus soldados para evitar problemas de obesidad. Este fallo, apunta Omicrono, se produjo por una falta de cuidado de los propios usuarios de Strava. En la app se permite a los deportistas que su actividad sea privada y no se compartan sus datos en los mapas de calor.
Mei, la app que analiza tus relaciones de WhatsApp
La inteligencia artificial permite (o, al menos, intenta) descifrar sí a la persona con la que hablas por WhatsApp le gustas o es sólo una amiga. Mei se presenta como el consejero para "mejorar" tus relaciones. "A veces puede ser difícil interpretar conversaciones de mensajes de texto y comprender a la persona que está al otro lado. Afortunadamente, ahora hay IA que puede ayudar", asegura en Apple Store su desarrolladora.
Mei ha aprendido analizando millones de conversaciones. Ha visto "más frases, mensajes coquetos y conversaciones en la zona de amistad (friendzone) que cualquier otra persona". Gracias a esa práctica la app dirá al usuario cómo es de probable que los mensajes de su interlocutor tengan un sentido romántico. Hay más. La aplicación también ofrece consejos sobre cómo comunicarse con el receptor.
Que Mei se convierta en un consejero virtual tiene un coste: darles acceso a las conversaciones de WhatsApp. Además, según El Correo, también se la da permiso para que acceda a las fotos almacenadas, al IMEI y a las llamadas que se realicen.
Te puede interesar
-
OpenAI cambia el nombre de su nuevo modelo de IA por 'culpa' de Telefónica
-
Los científicos que trabajan para teletransportar olores: "Podremos enviarlos igual que los emails"
-
Los aviones que sobrevuelan los países buscando sus tesoros naturales
-
Tres ideas de regalo por menos de 20€ con las que acertar seguro esta Navidad
Lo más visto
- 1 Los claroscuros de la duquesa roja: lesbiana y cercana a ETA
- 2 La España nuclear enfila el apagón: 60 pueblos sin reactor ni futuro
- 3 Muface: las novedades del contrato que ultima el Gobierno
- 4 Sánchez, ridículo imborrable
- 5 Las revelaciones sobre el Fiscal General revolucionan a Ayuso
- 6 Imane Khelif contra el odio: “Represento a las mujeres del mundo”
- 7 Podemos allana el camino para el regreso de Irene Montero
- 8 Viajeros de un tren de Renfe rompen la ventanilla por humo
- 9 Los mejores disfraces caseros para Halloween 2023: 'hazlo tú mismo'