Más de un centenar de periodistas españoles y latinoamericanos se acreditaron este lunes para seguir la rueda de prensa en la que presentaba su nuevo libro. Es la muestra de que Yuval Noaḥ Harari (Israel, 1976) ya se ha convertido en un auténtico gurú, y ha entrado en la liga de los -poquísimos- autores que convierten cada estreno en todo un acontecimiento. De por sí, eso es mucho decir. Pero más aún cuando hablamos de alguien que ha apostado porque cada uno de sus ensayos sea un proyecto, en sí mismo, mastodóntico. Tanto por los temas que aborda, que son pilares de nuestra civilización, como por el marco temporal que elige para analizarlos, que suele abarcar como mínimo miles de años cuando no es, directamente, la historia entera de la humanidad.

Harari, que es historiador, filósofo y profesor de la Universidad Hebrea de Jerusalén, está estos días en Washington (EE.UU) inmerso en plena gira de lanzamiento. Seis años después de su último libro, la expectación era máxima por conocer cuál sería su nuevo trabajo. Hasta ahora, en su corta carrera, es justo decir que su éxito ha estado a la altura de su ambición. Y es que en sus anteriores obras (Sapiens, Homo Deus y 21 lecciones para el siglo XXI) fueron todas un auténtico bombazo. No sólo por las cifras -más de 45 millones de copias vendidas en 65 idiomas- sino por el hecho de que el autor consiguió realmente que generaran un auténtico debate público.

Ahora presenta Nexus (Editorial Debate), a la venta en España desde el pasado 10 de septiembre. Y la fórmula es la misma, aunque en esta ocasión el tema central es otro. A lo largo de 500 páginas, el autor repasa cómo los seres humanos han ambicionado desde siempre tener la máxima información posible, y también analiza cómo las distintas sociedades la han utilizado desde la Edad de Piedra hasta la actualidad.

Desde luego, la visión de Harari no es optimista. Aunque admite que hemos hecho avances importantes, y ciertamente positivos, considera que la cantidad de información cada vez mayor que estamos acumulando no nos está otorgando los beneficios esperados. Más bien al contrario. Su postura parte de la premisa de que la información no tiene necesariamente una relación esencial con la verdad, y puede estar basada en prejuicios, interpretaciones falsas, equivocaciones o, directamente, mentiras. Algo que muchos entendieron y utilizaron a su favor a lo largo de la historia.

"Hay lugares como Silicon Valley donde tienen la ingenua visión de que la gente sabrá más si tiene más información. Pero no es así. La información no es conocimiento, la mayor parte es basura. El problema es que tenemos un montón de información que nos inunda, y eso hace que la verdad caiga al fondo", deslizó el propio autor en la rueda de prensa. "Si queremos cambiarlo tenemos que crear instituciones académicas y medios de comunicación que inviertan en el esfuerzo de descubrir y diseminar la verdad para que no quede enterrada. Es parte de la responsabilidad de las sociedades de hoy resistir a la visión ingenua que tienen personas como Elon Musk", añadió.

En el libro Harari pone varios ejemplos de cómo todo esto puede llegar a ser peligroso. Uno de los más perturbadores es el tratado Malleus Maleficarum, publicado por los inquisidores Heinrich Kramer y Jakob Sprenger en 1487, que se convirtió en un manual de referencia en toda Europa para identificar y asesinar a las brujas gracias a la imprenta, contribuyendo así al delirio generalizado. Pero también los hay más recientes. Como el papel que jugó Facebook en la limpieza étnica que Myanmar llevó a cabo en 2017 contra la población rohinyá. Según denunciaron la ONU y Amnistía Internacional, los algoritmos de Meta alimentaron los discursos de odio que acabaron sembrando el germen de la violencia. Algo que la compañía acabó admitiendo.

En su estudio histórico de las redes de información, Harari se reservó gran parte del libro para hablar de la última gran revolución: la inteligencia artificial. Desde luego, la elección es buena. No solo es la tecnología del momento, también es un tema sobre el que existen numerosas incógnitas. "La IA es distinta a cualquier otra cosa que hayamos inventando antes porque es un agente independiente, no una herramienta. Anteriormente las tecnologías podían tener un poder ingente, pero estaba en manos de los seres humanos decidir si las utilizábamos y dónde hacerlo. En cambio, la IA puede tomar decisiones y crear nuevas ideas. Así que en última instancia creará una versión de sí misma más potente. Es una explosión que está fuera de nuestro control", aseguró el escritor.

Él no niega que la IA tenga usos positivos. Pero cree que su trabajo consiste, precisamente, en hablar del lado negativo para compensar los discursos de las "empresas ricas", que están "ignorando" uno peligros que él ya vislumbra: "Habrá quien piense que todo esto es demasiado exagerado. Pero la inteligencia artificial está solo en una etapa muy incipiente, aún no hemos visto nada. La comparación con la evolución biológica sería que a día de hoy la IA es una ameba. Hemos necesitado millones de años para que las amebas den paso a los dinosaurios, a los mamíferos o a los seres humanos. Pero la evolución de la IA es digital, así que será millones de veces más rápida. Y si ChatGPT es una ameba, ¿qué pasará cuando sea un dinosaurio?".

Una herramienta totalitaria

Para Harari la IA tiene un potencial como herramienta totalitaria jamás visto. En este punto, el autor recuerda que los regímenes autoritarios tratan de tenerlo todo bajo control, pero los totalitarios van más allá y anhelan vigilar todos los aspectos de la vida de la gente. Qué vemos, qué escuchamos, qué leemos, con quién quedamos... Stalin y Hitler lo intentaron, aunque tenían dificultades para vigilar a tanta gente. Pero la IA "permite acabar con cualquier libertad gracias a los teléfonos, a las cámaras o a los reconocimientos de imagen y de voz. Así que ya no necesitas seguir a todo el mundo", relató.

"Israel ya está creando un régimen así en los territorios ocupados, con cámaras y drones que siguen a todo el mundo todo el tiempo. Y en los últimos dos o tres años Irán está haciendo lo mismo también. Han creado un sistema con IA para vigilar que las mujeres lleven el rostro cubierto mientras conducen con un software de reconocimiento facial. Y si detectan que no llevan el velo, les llega un SMS diciéndoles que su vehículo ha quedado confiscado por el Estado y deben detenerlo y salir de él. No es ciencia ficción, está pasando ahora. La autoridad para castigar a las mujeres está en manos de la IA", resumió.

Para Harari, la pelota está sobre el tejado de los gigantes tecnológicos que están desarrollando lo que llama una "inteligencia alienígena". Son ellos los que deben responsabilizarse del monstruo que están creando. Y es que, aunque los humanos seamos imperfectos, para el autor nuestros fallos son asumibles, e incluso entendibles. Pero las máquinas no están cometiendo errores. Simplemente están haciendo aquello para lo que fueron programadas.

"La gente tiene derecho a decir estupideces, e incluso a mentir. En ocasiones se les perseguirá por hacerlo, en casos extremos. Pero en ese aspecto estoy de acuerdo con Mark Zuckerberg y Elon Musk, y creo que las democracias sí deben llevar cuidado a la hora de censurar. Pero aquí el problema son los algoritmos que están creando las grandes corporaciones, que están basados en un modelo de negocio que busca que la gente esté enganchada a la plataforma. Por eso amplifican mensajes que hace que aumenten las dosis de miedo, ira o rabia de los usuarios y consiguen que la gente se implique más. Las empresas tienen que ser responsables, porque día de hoy los medios más potentes del mundo son las redes", concluyó.