Evaluar a la policía por su capacidad para reducir las tasas de criminalidad en un determinado barrio; a los médicos por alargar la vida de sus pacientes; a los profesores por los aprobados de sus alumnos y a los consejeros delegados de una compañía por el precio que alcanzan las acciones puede parecer razonable. De hecho, a menudo se hace.
Vivimos una época de veneración de la métrica, de adoración de datos. Las empresas almacenan grandes cantidades de información sobre clientes y empleados. Algunos incluso a los que aún no les han encontrado utilidad posible, pero se almacenan con un impulso de bulimia digital por si algún día hacen falta. El mantra de moda dice que el futuro son los datos. Y eso nadie lo duda ya en la era de la inteligencia artificial. ¿Pero dónde están los límites? ¿Podemos medirlo todo?
El mantra de moda dice que el futuro son los datos. Y eso nadie lo duda ya en la era de la inteligencia artificial. ¿Pero dónde están los límites?
"Gran parte de la información no tiene ningún uso real", escribe el historiador Jerry Z. Muller en The Tyranny of Metrics sobre la "carrera de armamentos de datos" que le toca, como a tantos otros profesionales, recopilar en interminables informes de dudosa utilidad. El enfado que le supuso la pérdida de tiempo de uno de esos análisis llevó a este profesor de Historia a investigar los recursos que se malgastan en la medición de rendimiento en áreas como educación, medicina, vigilancia, negocios y también el ejército.
Medir la efectividad de la policía en función a las tasas de delincuencia, por ejemplo, incentiva a que la policía engorde la gravedad de algunos delitos para mejorar sus estadísticas. Evaluar a los médicos por la capacidad de curar a sus pacientes les lleva a priorizar los casos más fáciles; si se valora a los profesores por el resultado de sus alumnos en los exámenes, en vez de centrarse en motivarles en aprender, los niños aprenden a aprobar exámenes en vez de contenidos; y si se bonifica a los directivos por el precio de las acciones, como bien aprendimos en la crisis que inició con el colapso de Lehman Brothers, se merma la capacidad de tomar decisiones buenas para la empresa en el largo plazo. La culpa no es de los datos, claro, sino de tomarlos como la panacea olvidando los incentivos perversos que generan ciertas métricas.
En nombre de la eficiencia no solo se pierde mucho tiempo. Esta manía tan nuestra de querer medirlo todo acarrea también, más a menudo de lo que pensamos, más problemas que soluciones. Por eso Muller advierte de la tiranía de las métricas "para cualquiera que quiera entender una de las grandes razones por las que tantas organizaciones contemporáneas funcionan menos de lo debido, disminuyendo la productividad y frustrando a quienes trabajan en ellas", afirma el historiador.
No solo hay una pulsión matemática en la necesidad de medirlo todo en las organizaciones. También es un asidero emocional al que sujetarse en tiempos de cambio acelerado. "La tendencia a delegar más decisiones en la medición entra en la lógica de la necesidad de sentir que tenemos el control y lo tenemos todo calculado”, afirma Miquel Seguró, investigador de la Càtedra Ethos de la Universitat Ramon Llull y profesor de Filosofía de la Universitat Oberta de Catalunya. "La idea de que algún día todo se podrá calcular y llevar a cálculos empíricos ayuda a gestionar la sensación de incertidumbre creciente. En parte sirve para hacernos la ilusión de que podemos dominar lo que no dominamos".
Los fallos frecuentes
Ya sea para decidir cuál es el empleado que merece un ascenso o quién será la próxima cita de Tinder, cada vez delegamos más decisiones en algoritmos que basan sus resultados en métricas a veces muy dudosas y casi siempre poco transparentes. El problema no está en los datos, sino en los incentivos que generan y la dependencia que provocan.
Tanto los humanos como los algoritmos diseñados por ellos tienden a medir lo que es fácilmente cuantificable. "Lo que no se puede medir no existe", enseñan en las escuelas de negocios . Pero que existen muchas cosas que sean difíciles de justificar ante el departamento de Contabilidad no quiere decir que no existan, sostiene Muller. Entre los errores frecuentes a la hora de basar decisiones en métricas estandarizadas está centrarse solo en una o pocas medidas, incluso cuando los resultados que intentamos medir son complejos. Y entre los efectos secundarios de centrarse en lo que es fácilmente medible, como por ejemplo como los ingresos y las ganancias trimestrales, el número de contratos realizados o de exámenes aprobados, acaba desviándose la atención de lo que no es tan evidente, como la motivación y la confianza.
La solución, claro, no está en prescindir de los datos. Lo que hay es que entenderlos mejor
"El peligro de someterse a las métricas estandarizadas es que la diferencia se convierte en algo sospechoso", afirma el filósofo Miquel Seguró, autor de La vida también se piensa (Herder, 2018). "Lo que no responde al patrón pasa a ser considerado fuera de lo normal. Y eso puede llevar a que cada uno se someta a una misma medida estándar que no corresponde a su nivel óptimo. Igual que hay gente a la que le vale dormir cinco horas y otros necesitan nueve, si se dice que todos durmamos ocho el que no se ajusta al estándar lleva una connotación negativa".
Además, hay otro factor humano a tener en cuenta: las trampas. Desde que existen los libros de cuentas, existen los márgenes para anotaciones. Y los engaños. Para ilustrar el riesgo de medirlo todo, Muller llena de ejemplos en el que al exigirle a los trabajadores o a un sistema que reduzcan a números su rendimiento, estos recurren de forma sistemática a trampear el sistema.
No hace falta inventarse las cifras para que parezcan más altas, a veces basta con trampearlas. Cuando los hospitales empezaron a ser penalizados financieramente en función a las tasas de reingreso de sus pacientes, empezaron a ocultar los reingresos contabilizándolos como servicios ambulatorios. Los reingresos, claro, contaban que se habían reducido a la mitad, aunque el número de pacientes tratados fueran parecidos.
La intuición y lo imprevisible
El mundo digital va en una dirección en la que parece que lo ideal esté previsto y el mercado anticipe nuestras preferencias. "La tecnología cada vez está más personalizada", afirma José María Torralba, profesor titular de Ética de la Facultad de Filosofía y Letras de la Universidad de Navarra. "Los algoritmos intervienen en las decisiones de las compras, de los viajes… Y esto plantea muchos problemas éticos. Uno es la idea misma de que todo esté previsto. Que no haya un espacio para lo imprevisible me parece una pérdida. Si llegáramos a ese mundo previsible se cuestionaría incluso la propia libertad como si estuviera escrito lo que vamos a hacer".
El segundo problema que ve este filósofo experto en acción humana es la trampa de quererlo cuantificar todo: Se hacen algoritmos para cuantificar los gustos de las personas, los comportamientos políticos… y hasta la compatibilidad en el amor de potenciales emparejamientos. “¿Se puede cuantificar la vida humana?", se pregunta Torralba. “Yo diría que no, porque siempre habrá un aspecto de libertad. Si por el desarrollo de la tecnología construimos un mundo en el que todo es cuantificable, incluso aunque llegásemos a hacerlo tecnológicamente posible, el resultado sería empobrecedor porque atrofiaríamos la vida humana hasta encajarla en una tabla de Excel”.
La solución, claro, no está en prescindir de los datos. Y menos en la época de la transformación digital en la que vivimos donde cada vez más aspectos de la vida cotidiana, de las citas en Tinder a los tratamientos médicos, se van metabolizando en datos. Lo que hay es que entenderlos mejor.
"No solo faltan científicos e ingenieros, faltan analistas de negocios que entiendan realmente de qué va todo esto", afirma Marc Torrens, profesor de Operaciones, Innovación y Data Science ESADE. "No hay nada mágico detrás del machine learning. No hay nada realmente inteligente, hay que desmitificar el big data. El experto en datos de una empresa no es más que un científico al que le encantan las matemáticas. Los que tienen la responsabilidad de entender el poder de los algoritmos y sus consecuencias son los directivos de turno, del jefe de marketing al consejero delegado. Porque si la persona encargada de gestionar el negocio no calibra bien ni lo que se puede hacer ni el cómo con lo que mide, no entiende las consecuencias de sus acciones. Es urgente que quienes toman las decisiones sean conscientes de lo que se puede hacer y lo que no con los datos, pero falta mucho conocimiento".
La culpa no es de los números, claro. Ni del big data. Sino de haber incrustado en el panorama organizativo presuntos indicadores objetivos que se anteponen a la experiencia, la intuición y el talento. "Los indicadores de desempeño pueden ciertamente ayudar, pero no reemplazar, las funciones clave de la administración: pensar con anticipación, juzgar y decidir", escribe Muller.
"Por supuesto hay cosas que no se pueden medir", reconoce Marc Torrens, experto en análisis de datos. "Factores como la empatía o el sentido común no se pueden capturar con datos... de momento". Y añade: "Aunque seguramente no podrán calcularse nunca". Como ejemplo pone el estudio que hizo Facebook con datos de 68.000 usuarios a los que les pidió que respondieran varios test psicológicos para conocer su personalidad. "La conclusión fue que los algoritmos en Facebook en base a los clics de lo que nos gusta deducen mejor el carácter y la personalidad que un familiar o amigo de confianza. Saben más de ti que tú mismo", afirma.
Una cosa es identificar patrones, pero en lo que tanto ingenieros como filósofos coinciden es en que la interpretación del conocimiento no es cosa de máquinas. "Estadísticamente los algoritmos funcionan mejor que un ser humano en procesar datos, pero la interpretación de los resultados es tarea humana", afirma Torrens. "Hace cinco años no creíamos que estos algoritmos pudieran llegar a ser tan precisos. Por ejemplo, ya puedes recibir un anuncio de un viaje que estabas pensando en hacer aunque no hubieras hecho ninguna búsqueda porque los algoritmos empiezan a deducir que si has hecho una serie de cosas te sugieren cosas o viajes que estaban a punto de interesarte".
Cada vez más expertos en inteligencia artificial reclaman, de hecho, el valor del 'slow data' frente al 'big data'
Cada vez más expertos en inteligencia artificial reclaman, de hecho, el valor del slow data frente al big data. Dejar de acumular datos al por mayor para afinar más en los procesos de gestión. El despacito y buena letra de los datos. El dilema no es de las métricas frente al juicio humano, sino que las métricas sean la base del juicio humano y no las sustitutas de este. Es decir, los profesionales deben saber cada vez más sobre métrica y dominar el big data en su campo. No para fiarse de todo lo que dice, lo cual haría prescindible al humano, sino para saber interpretarlas adecuadamente, reconocer las típicas distorsiones características de las que advierte Muller y, sobre todo, saber identificar todo aquello especialmente valioso que no se puede medir. No en vano el sentido común es una de las cualidades más difíciles de enseñarle a la inteligencia artificial.
"Debemos ser críticos con los sistemas de medición", dice Seguró. "Hay muchas cosas en las que las personas somos previsibles, pero hay situaciones de la vida que no controlamos. Y eso asusta. El paradigma cientifista de llevarlo todo a lo cuantitativo es una manera de afrontar la resolución de problemas, pero hay que combinarla con otras perspectivas. Porque siempre habrá parámetros que se nos escapan".
Muller reivindica el valor del contexto más allá de los datos. Claro, que para eso el jefe de turno encargado de evaluar debe conocer bien la compañía, el departamento y el negocio por dentro. La gran utilidad de unos datos presuntamente objetivos es que a los fichajes recién llegados (o a los encargados que no tienen ni idea de cómo trabajan sus empleados) les permite hacerse una composición de lugar que a menudo es más bien una simple ilusión de control.
Tener pautas sobre cuándo tiene sentido una medición y cuándo corre el riesgo de desviarnos del valor de nuestra experiencia es algo que aprenden los buenos cocineros en las escuelas de cocina. No estaría de más que las escuelas de negocios se apresuraran a recordarlo más a menudo. Más datos no equivale a tomar una mejor decisión. Un análisis reflexivo, sin embargo, sí. Sobre todo si está basado en datos relevantes.
Te puede interesar
Lo más visto
- 1 Muface: las novedades del contrato que ultima el Gobierno
- 2 Las revelaciones sobre el Fiscal General revolucionan a Ayuso
- 3 Imane Khelif contra el odio: “Represento a las mujeres del mundo”
- 4 Los claroscuros de la duquesa roja: lesbiana y cercana a ETA
- 5 Perdóname, Pedro, por haber desconfiado del fiscal y de tu palabra
- 6 El extraño caso del teléfono vacío
- 7 Comprobar Lotería de Navidad 2024 - El Independiente
- 8 Sánchez elogia a Mohamed VI y defiende a Marruecos en UE
- 9 El teniente Lacalle salvó a 500 personas de la DANA en Chiva