La Autoridad Saudita de Datos e IA (SDAIA) ha demostrado el compromiso y liderazgo de Arabia Saudí en el desarrollo de tecnologías de Inteligencia Artificial éticas y seguras, con el lanzamiento de una vanguardista herramienta de autoevaluación que valora el cumplimiento ético en el desarrollo de la misma. Esta solución, disponible a través de la Plataforma Nacional de Gobernanza de Datos, ayuda a las organizaciones a medir su adherencia con los principios éticos establecidos respecto a la IA.

Así, en concordancia con los objetivos de Saudi Vision 2030, los estándares globales de derechos humanos y las recomendaciones de la UNESCO respecto a la ética de la IA, esta herramienta ayuda a las empresas con el aumento de la mejora del cumplimiento ético y la madurez de la IA, fomentando la inversión e impulsando el crecimiento económico.

¿Cómo mide la herramienta el compromiso de las organizaciones?

La herramienta sirve como recurso crucial para las agencias gubernamentales, las empresas privadas y los desarrolladores independientes, ofreciendo un marco sistemático con el que evaluar y analizar qué tan bien sus productos de Inteligencia Artificial se alinean con las pautas éticas. De esta manera, las organizaciones podrán medir su compromiso con el desarrollo responsable, la adopción y la implementación de la IA a través de detalladas métricas de evaluación.

Logo de SDAIA
Logo de SDAIA | SDAIA

A partir de 81 preguntas clave alineadas a los estándares globales, el marco de evaluación determina el cumplimiento ético de la IA a través de siete principios fundamentales, que tienen por objetivo promover su desarrollo ético mientras mantienen un equilibro entre innovación y responsabilidad. Estos principios son: imparcialidad, privacidad y seguridad, fiabilidad y seguridad, transparencia y explicabilidad, rendición de cuentas y responsabilidad, humanidad y beneficios sociales y medioambientales.

Como resultado, las respuestas a las preguntas, que utilizan una sencilla escala de valoración del 1 al 5, generan informes pormenorizados con los que destacar los puntos fuertes de cada organización, e identifican las áreas susceptibles de mejora.

Equidad y bienestar

El marco hace hincapié en la equidad de las aplicaciones de la IA para evitar los prejuicios y la discriminación, garantizando al mismo tiempo un desarrollo centrado en el ser humano y en la protección de sus derechos mientras se promueve su bienestar.

Los aspectos clave de la evaluación incluyen la valoración de la privacidad y la protección de los datos, manteniendo la fiabilidad y la seguridad del sistema. La herramienta se centra también en la transparencia de las operaciones de Inteligencia Artificial, haciendo que los algoritmos complejos y los procesos de toma de decisiones sean más comprensibles y responsables. Por ello, un componente clave de la herramienta se centra en la rendición de cuentas, garantizando mecanismos transparentes en la aplicación de la Inteligencia Artificial y en la toma de decisiones. En conjunto, todos estos principios fomentan una innovación responsable que se ajusta a los valores humanos y a las necesidades de la sociedad.

Por todo ello, las organizaciones pueden utilizar la herramienta varias veces para aumentar su madurez en el cumplimiento de la ética de la IA y supervisar su desarrollo ético. Este enfoque interactivo proporciona flexibilidad con la que fortalecer continuamente los compromisos éticos y alinear las prácticas con las tendencias tecnológicas emergentes.