Hace unos días la organización estadounidense Future of Life publicó un manifiesto para pedir a las empresas que interrumpan los grandes proyectos que estén desarrollando con inteligencia artificial durante un plazo de seis meses. La carta ha sido firmada ya por casi 2.000 expertos mundiales de diversos ámbitos, entre los que se encuentran Elon Musk y cofundadores de Apple, Skype o Pinterest, entre otros. Todos ellos coinciden en que falta planificación y legislación dentro de este sector, que no para de crecer a pasos agigantados. Y aseguran que ha llegado el momento de actuar antes de que la situación se descontrole. No hacerlo, alertan, plantearía "riesgos profundos para la sociedad y la humanidad".
Según explican, no pretenden prohibir la inteligencia artificial, sino dar un paso atrás en una carrera "peligrosa", que hasta ahora ha servido para desarrollar "mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable". Por eso piden hacer un parón, y animan a las empresas a que aprovechen ese tiempo para debatir y llegar a un consenso que establezca protocolos de seguridad que garanticen que todos los sistemas son "precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales".
Entre los firmantes del manifiesto había varios españoles, que aunque consideran que la IA tiene beneficios potenciales enormes, explican que hay aspectos concretos que les preocupan. El Independiente ha podido hablar con varios de ellos, y de su relato se extrae que la sensación mayoritaria es la incertidumbre por la falta de información. Pero ya apuntan problemas concretos que están empezando a ser palpables.
"No se entiende bien el funcionamiento de estos sistemas, que se están desarrollando muy rápido. Es todo una carrera de diversas empresas para dominar mercado, pero nadie sabe con certeza hasta dónde pueden llegar. Y a medida que estamos avanzando estamos viendo que las consecuencias que puede haber son importantes", explica Jordi Miralda Escudé, doctor en astrofísica en la Universidad de Princeton y miembro del Instituto de Ciencias del Cosmos de la Universidad de Barcelona (ICCUB), que habla incluso de que los sistemas democráticos podrían estar en riesgo.
"Es un ataque a la realidad"
Uno de los más preocupados es Manel Sanromà, profesor de matemáticas en la Universidad Rovira i Virgili de Tarragona de Matemáticas y fundador de CivicAi, una asociación catalana que promulga un uso ético de estas tecnologías. Él coincide con el resto de expertos españoles en que ha sido la nueva versión de ChatGPT lo que les ha hecho darse cuenta que este tema es "muy serio".
"Le pones una pregunta y parece que lo entiende. El resultado es un texto muy bien argumentado y con todo el sentido del mundo. Luego será verdad o no, pero toca el lenguaje, que es la columna vertebral de la cultura", asegura el profesor catalán, que añade que el potencial de esta herramienta para propagar fake news, que ya son habituales en redes sociales, es enorme.
Sanromà detalla cómo se imagina el futuro si no llegan las regulaciones que piden: "Estamos a meses de que un chaval medio loco haga un vídeo falso de gente conocida, o desconocida, haciendo o diciendo barbaridades. Es un ataque a la realidad, porque es muy difícil de contrastar. Imagínate un vídeo creíble con personas que no existen donde unos musulmanes asesinan a unos hindús. En 24 horas tienes enfrentada a Pakistán con la India, que son dos potencias nucleares. Y todo con herramientas al alcance de la mano".
La posibilidad de que las inteligencias artificiales se rebelen contra nosotros, sin embargo, la ve más lejana. Pero también la contempla. "Tal vez en unos años", comenta, una máquina pueda tomar el control. Y pone de ejemplo a la película 2001: Una odisea en el espacio, de Stanley Kubrick. "Si no lo miramos bien no sé dónde nos puede llevar. Por eso necesitamos una regulación urgente, antes de final de año. Vamos muy tarde, tenemos que pasar de las palabras a los hechos. Si lo hacemos se puede respirar y acabar el año teniendo una primavera de inteligencia artificial. Sino vendrá un invierno", sostiene Sanromà.
"Esto no es Terminator"
Cristina Urdiales, profesora de robótica en la Universidad de Málaga que cuenta con un doctorado en IA, es bastante más moderada. Aunque comparte el fondo del manifiesto, califica algunas partes como "muy alarmistas". "Esto no es Terminator", asegura. Sin embargo, sí que apunta los problemas que ella ya ha percibido.
"Hay algunos programas como Dall-e o Midjourney que han puesto en alerta a mucha gente del mundo del arte, porque no se sabe donde alimentan y entrenan sus modelos. Son una caja negra que nadie te explica. Y nadie te garantiza que estén cogiendo imágenes sin copyright, lo que podría traer problemas legales y de aprendizaje de sesgos. Si no sabes de dónde está aprendiendo puede que no sea totalmente legal", explica Urdiales.
Uno de los mejores ejemplos es el propio Chat GPT , que, como indica Urdiales, que tampoco explica de donde saca la información. "Cuando le preguntas no es capaz de explicártelo, y muchas veces se lo inventa. Te referencia a trabajos que no existe", asegura la profesora.
Un producto "perfecto"
A Juan Antonio Fernández Madrigal, compañero de robótica de Urdiales en la Universidad de Málaga, le preocupa que la velocidad de los cambios se traduzca en una pérdida de derechos humanos. Uno de los mejores ejemplos es en algunas profesiones, donde mucha gente ha perdido su trabajo o se le ha reducido el sueldo por máquinas que ofrecen mejores resultados y son más baratas.
"Lo están notando mucho en el nicho de los traductores. Se les paga menos porque muchos ahora tienen que arreglar el trabajo del algoritmo de un máquina, que hace traducciones que no están bien del todo. También pasa con los ilustradores o los desarrolladores de videojuegos. Pierden sueldo y ya no están haciendo el trabajo para el que se postularon, que era algo creativo, sino que se dedican a retocar lo que hace el algoritmo", explica el profesor de robótica.
En el campo de los fraudes, detalla Fernández, todavía no se ha visto mucho. Pero su potencial ahí también es enorme, al igual que en el nicho educativo. El profesor asegura que en EEUU algunas inteligencias artificiales ejercen ya como tutores. Algo que también le preocupa: "Más allá de que lo hagan mejor o peor, han sido entrenados con sesgos de orientación propia que son adecuados para los beneficios de esa empresa, no para educar mejor".
"A cualquier herramienta que una empresa desarrolle se le ven los límites y problemas que tiene a medio o largo plazo. Pero esto está yendo tan rápido que eso no se ha producido, sólo podemos usar la intuición. Por eso el producto es por ahora perfecto", explica Fernández. "En algunos casos quizás nos estaremos equivocando y las previsiones que estamos haciendo serán imposibles o muy complicadas. Pero en otros casos la inteligencia artificial puede ir más a allá de lo que imaginamos. Somos incapaces de imaginar el abanico", concluye el profesor.
Te puede interesar
-
Los científicos que trabajan para teletransportar olores: "Podremos enviarlos igual que los emails"
-
Los aviones que sobrevuelan los países buscando sus tesoros naturales
-
Muere Federico Mayor Zaragoza, exministro de Educación y Ciencia y exdirector general de la UNESCO
-
Tres ideas de regalo por menos de 20€ con las que acertar seguro esta Navidad
Lo más visto
- 1 RTVE, a puerta cerrada: habrá bajada de sueldos de directivos
- 2 La odisea de Santos, subinspector jubilado, con un ictus y abandonado en Brasil
- 3 WhatsAPP se actualiza con tres nuevas funciones
- 4 La 'operación Alegría' en Aragón reactiva la presión sobre Montero para que lidere el PSOE andaluz
- 5 El borrado del teléfono de García Ortiz, un "indicio incriminatorio"
- 6 El extraño caso del teléfono vacío
- 7 Orban dinamita la UE al dar asilo al Puigdemont polaco
- 8 La asesora de Moncloa dice que la contrató Begoña Gómez por "confianza" y que su figura la tenían otras mujeres de presidentes
- 9 Los científicos que trabajan para teletransportar olores