Cuando subió al escenario Richard Stallman, el programador estadounidense y fundador del movimiento del Software Libre, pidió a los centenares de personas reunidas para ver su conferencia en el reciente III Foro de la Cultura de Burgos que nadie subiera fotos suyas a Facebook, Instagram ni Whatsapp. "Son los tres tentáculos del mismo monstruo de husmear", afirmó el experto en alertar de los riesgos del Big Data y la Inteligencia Artificial. "Si subes fotos tuyas estás ayudando a la labor de seguimiento que hacen estas compañías", explicó en referencia a las redes sociales. "Por favor, si quieres sacarme una foto desactiva primero la geolocalización", añadió Stallman. El creador hace más de 30 años de la Free Software Foundation tampoco usa Spotify, Amazon ni Netflix: "No soportaría la idea de someterme a ese espionaje", explica en referencia al historial que los servicios de streaming hacen de qué ve, escucha o lee cada usuario. Por supuesto, siempre paga en efectivo.
El recelo por la privacidad de Stallman, que ni siquiera tiene teléfono móvil, no es la única advertencia sobre los peligros de la tecnología que está por venir. La más inquietante de todas, sin duda, fue la relativa a los vehículos autónomos. Pero no habló sobre el ya desgastado dilema de a quién atropellaría el automóvil en caso de accidente. Le preocupa más que la movilidad del futuro quede en manos de compañías privadas como Uber, según Stallman, dada la falta de transparencia en su gestión de los datos de sus usuarios. "Habría que prohibir que un sistema de transporte reciba el nombre de los pasajeros y construya un historial", sostiene este programador formado en los años 70 en Harvard y el Instituto Tecnológico de Massachusetts (MIT). Y advierte: "En el futuro el Estado podría obtener una copia y utilizar los vehículos autónomos para reprimir disidentes, por ejemplo, llevándolos contra su voluntad a comisaría una vez que estén dentro del vehículo".
El escenario que describe resulta inquietante, pero también muy útil para detener terroristas o delincuentes en busca y captura, si igual que ahora los jueces pueden dar una orden de registro de un domicilio cuando tienen indicios de una investigación criminal, pudieran también ordenar el control remoto de un vehículo autónomo. ¿Autorizaremos a los estados a tomar posesión de un vehículo autónomo por razones de seguridad nacional, por ejemplo? Se acabarían las persecuciones policiales por carretera. Bastaría con localizar el vehículo autónomo del forajido para conducirlo al calabozo. ¿Pero sería técnicamente posible que en un hipotético futuro de coches autónomos un gobierno o una tercera persona con acceso a este tomara control de un vehículo para conducir a sus ocupantes a un destino contra su voluntad?
¿Autorizaremos a los estados a tomar posesión de un vehículo autónomo por razones de seguridad nacional?
"Técnicamente sí", explica con cierta reticencia Lucas García, doctor en matemáticas y experto en machine learning y Big Data Analytics de la empresa MathWorks, que trabaja investigando redes neuronales y soluciones para vehículos autónomos. García fue el encargado de explicar en el encuentro Big Data Spain las claves para el éxito de la conducción automatizada, desde los sistemas avanzados de asistencia al conductor (ADAS) hasta la conducción totalmente autónoma. "Lo inteligente no es el trozo de hierro que es el vehículo, sino los modelos con los que se le puede dotar de control", explica.
El coche autónomo no va a aparecer un día en nuestras carreteras de la noche a la mañana. Le estamos cediendo poco a poco cada vez más control de los vehículos que todavía conducimos los humanos. De la velocidad de crucero en las autopistas a la gestión de los pequeños acelerones y frenazos en los atascos. También hay vehículos en el mercado español que ya ofrecen la capacidad de frenarse antes de una colisión y que, también por seguridad, enderezan el vehículo si detectan que por ejemplo se está cambiando de forma involuntaria de carril si el conductor se está quedando dormido. Ninguno de estos avances ofrece dilemas morales. Pero hay otros muchos que sí. Como pensar que todos y cada uno de los recorridos que hagamos en ellos quedarán registrados en una base de datos. ¿Qué uso podrá hacerse de esa información?
"Como sociedad nos tenemos que plantear todos estos dilemas", apunta García. "Al fin y al cabo, le estaremos dejando nuestras vidas confiadas a este sistema. Pero también lo hacemos al montar en un ascensor y no nos preocupa porque ya nos hemos acostumbrado". Según este ingeniero y matemático ocupado en enseñarle a pensar a las máquinas, no es descabellado pensar que en una década ya tengamos vehículos autónomos circulando por nuestras calles. "No al nivel de vehículo privado, pero sí por ejemplo como una flota de taxis".
El dilema de las rotondas
Pero todavía faltan muchos algoritmos por resolver antes de llegar a ese punto. Quedan muchos obstáculos por resolver para los vehículos autónomos en las pruebas que se hacen con ellos. Algunos tan mundanos como decidir cuándo salir de una rotonda. "Es muy complicado todavía interpretar cuándo es suficientemente seguro salir o no porque el ser humano es impredecible", apunta.
Se han dado casos en las pruebas con estos vehículos en California en los que se han quedado atrapados durante horas sin poder salir de la rotonda por nunca considerarlo suficientemente seguro. ¿Por qué los humanos que conducían coches sí tomaban la decisión?
Salir de una rotonda con seguridad, igual que reconocer una señal de Stop aunque tenga un grafitti encima, se parecen en que para ambas situaciones los humanos utilizamos la intuición. Los humanos resolvemos muchas situaciones de la vida diaria sin saber bien cómo ni por qué. Ese sentido común es algo de lo que todavía el deep learning no ha sido capaz de dotar a las máquinas.
La pérdida de incertidumbre
"La inteligencia artificial todavía está lejos de la inteligencia humana", afirma el experto en machine learning Jon Mcloone, director de servicios técnicos de Wolfram Research Europe de visita en Big Data Spain. Su trabajo consiste en establecer modelos de predicción para automatizar procesos. Y lo mismo se puede utilizar esta tecnología para anticipar quién va a ganar jugando a piedra, papel o tijera (resulta que los humanos no somos tan aleatorios como creemos y los patrones inconscientes nos delatan) como para calcular qué estudiante tiene más posibilidades de fracasar en la escuela.
Y ahí viene el siguiente dilema. ¿Qué haremos cuando podamos anticipar con bastante seguridad qué estudiantes tienen más probabilidades de aprovechar un curso que otro? "Nos veremos en el dilema de decidir qué hacer con esa pérdida de incertidumbre", afirma McLoone. "Si podemos calcular quién tiene más probabilidades de fracasar en la escuela, igual que podremos predecir quién va a desarrollar esta u otra enfermedad con un análisis genético, eso puede servir para tirar la toalla y no matricular a mi hijo o puedo usar la información para doblar esfuerzos en su educación para que lo consiga", explica.
Esta pérdida de incertidumbre creciente en un mundo cada vez más datificado supone un cambio profundo en la gestión de industrias como por ejemplo las aseguradoras, que se basan precisamente en la gestión del riesgo. Las empresas aseguran a todos porque con unos ganarán el dinero que les cuestan los que sí han tenido accidentes o han caído enfermos. ¿Pero qué pasa si con el uso del big data y la inteligencia artificial se puede llegar a predecir el riesgo real de que una persona sufra Parkinson o tenga más propensión a sufrir una depresión? ¿Quién los asegurará? En Europa está prohibido utilizar este tipo de información, pero todavía hay poco estudiado.
"El dilema para la industria aseguradora es doble", apunta este experto en la predicción de comportamientos usando modelos matemáticos. "Porque el que sabe que no tiene riesgos tampoco va a querer asegurarse y no vas a contratar seguros para aquello que según el algoritmo de turno tienes una baja posibilidad de que te suceda".
Sin embargo, nada de esto es lo que más preocupa a McLoone. Igual que a Stallman, también él pone énfasis en "quién tiene los datos y qué uso se hace de ellos", afirma el experto cuya empresa se dedica precisamente a esto. Y de hecho lo reconoce: "Como yo sé hacerlo estoy más tranquilo, pero si no me preocuparía".
Desastres naturales
La inteligencia artificial y el big data ya están siendo utilizados para salvar vidas. No solo en el caso de las aplicaciones médicas, también en situaciones críticas como los desastres naturales. El empleo de imágenes satelitales, por ejemplo, en combinación con Big Data y el aprendizaje automático se convierten en una herramienta de inteligencia de negocio al reducir el tiempo para recolectar información. Es lo que hace Steven Pousty en DigitalGlobe, una empresa dedicada a fotografiar lugares del planeta en una altísima resolución que luego comercializa entre sus clientes. Cada día capturan tres millones de km2 de imágenes.
Esta tecnología satelital, según Pousty, permite controlar el tráfico ahorrándose por ejemplo los helicópteros que nos sobrevuelen. Y lo mismo permite analizar daños en riadas o incendios que contar el número de camiones barcos que pasan por un determinado lugar para analizar la actividad económica en tiempo real. Un servicio muy popular entre instrumentos de inversión como los hedge funds. Ya no es necesario esperar a las estadísticas mensuales de un gobierno para conocer cifras sobre el estado de la economía. El que tenga acceso a esta tecnología tendrá ventaja para anticipar ciclos económicos.
Y aunque ya se está utilizando esta tecnología para ayudar en labores humanitarias, también podría ser un instrumento de control de la población de, por ejemplo, refugiados que quieren huir o entrar en un país.
"En el futuro vamos a tener muchos satélites como estos que ya estamos usando nosotros que pueden utilizarse para que las aseguradoras evalúen daños mucho más rápidamente y eso puede ayudarles a dar mucho mejor servicio a sus clientes", afirma Pousty, que prefiere centrarse en el lado más útil y positivo de su tecnología.
Al final, todos estos expertos en inteligencia artificial y manejo de datos coinciden en reconocer que con esta nueva tecnología nos enfrentamos a una serie de retos que van a requerir repensar no solo los procesos, también las reglas que nos damos como sociedad.
"Habría que enseñarle a la gente cómo usar la inteligencia artificial para resolver preguntas", insiste McLoone. "No tiene sentido que la educación siga basada en métodos del siglo XIX en vez de enseñar a los estudiantes cuáles son los problemas que les pueden resolver el big data y la inteligencia artificial y, sobre todo, cuáles no. Conocer los límites de una tecnología también es importante".
Te puede interesar
Lo más visto
- 1 ¿Qué es el linfoma cerebral que padece Raphael?
- 2 La labor de zapa de Marruecos en América Latina contra el Sáhara Occidental
- 3 El palacete en París que Sánchez le ha devuelto al PNV
- 4 50 años de 'Señora Azul', el clásico que no fue un éxito: “España se olvida de sus artistas”
- 5 Ayuso anuncia nueve rebajas fiscales contra el problema de la vivienda y la despoblación en Madrid
- 6 Beyoncé sorprende con una Super Bowl propia para Netflix
- 7 Vox se distancia del Rey tras sus alusiones a la inmigración
- 8 Putin está lejos de querer la paz en Ucrania para 2025
- 9 No iba a escribir de la serie de Sorogoyen, pero...