COMPLEJIDAD Y RIESGO.

Deja de intentar cambiar la realidad, tratando de eliminar la complejidad. David Whyte.

Llevé mi bicicleta hasta el letrero que decía “Jaral del Progreso 12 Km.”; miré mi reloj, para fijar la hora de inicio; comencé a pedalear. A la primera loma, el ardor en mis muslos comenzó a enseñarme el significado de Movimiento Rectilíneo Uniforme. Las curvas, los chivos y mulas que se atravesaban en el camino, al igual que una que otra camioneta, que me obligaba a hacerme a la orilla, confirmaron el significado.

Una hora y cincuenta y cuatro minutos después, llegué al final de mi trayecto; el letrero decía “Bienvenido al Jaral del Progreso”. Doce kilómetros en ciento catorce minutos significaban una velocidad promedio de 105.26 metros por minuto. Sobra decir que nunca he sido un atleta, pero, ese viaje me enseñó lo que significan los problemas de simplicidad: una abstracción sobre un conjunto limitado de variables con relaciones deterministas.

En la fórmula “Velocidad = Distancia / Tiempo”, las lomas, las curvas, los chivos y las mulas están convenientemente ausentes. Tal vez coincida usted conmigo en que, de igual modo, una fórmula como “Riesgo = Probabilidad x Consecuencias” debe estar ignorando algunas variables.

Pasemos de las bicicletas a las viudas escocesas, una historia fascinante:

Alrededor de 1744, Alexander Webster y Robert Wallace, ministros de la iglesia escocesa, cayeron en la cuenta de que, al morir los pastores de su iglesia, sus familias quedaban en condiciones miserables; acudieron entonces a Colin Maclaurin (profesor de matemáticas), quien les ayudó a colectar y ordenar información respecto de su gremio, para responder algunas preguntas:
-¿Cuántos pastores habría en su gremio?
-¿Cuántos morirían cada año?
-¿A cuántos les sobreviviría una viuda y cuánto tiempo sobreviviría la viuda?
-¿Cuántos hijos menores quedarían huérfanos?
Luego de aplicar su ciencia, el profesor pudo determinar que con una contribución anual de 2 libras 12 chelines y 2 peniques, a un fondo común, podría garantizarse un ingreso de 10 libras anuales para los deudos. También calculó que el fondo acumularía 58,348 libras para el año 1765. En esto último erró, pero sólo por una libra.
En realidad, las matemáticas que usó el profesor Maclaurin no podían predecir cuando moriría alguien en particular, sólo podían decirnos que morirían 27 pastores anualmente y que 18 de ellos dejarían viudas, es decir, resolvían problemas de muchas variables con propiedades de conjunto: Problemas de Complejidad Desorganizada.

A esta clase de problemas pertenece el modelo de riesgo de Kaplan y Garrick, que nos dice que el Riesgo es igual a la probabilidad de que, en un escenario determinado, un evento determinado –de frecuencia determinada– cause un daño determinado.

R = {< si, pi ( Fi ), xi >}

Este modelo no nos puede decir cuanto ganará alguien en particular en un casino, pero, sí puede ayudarnos a determinar la probabilidad de que el casino pierda. Naturalmente, estará muy claro para usted que el casino es un escenario donde muchas variables están controladas, hay elementos finitos y reglas claras en cada juego y, por ejemplo, el croupier no puede alcoholizarse mientras juega, en tanto que el cliente…

El entorno de nuestras organizaciones, claramente, es mucho más complejo que los juegos de casino, permítame contarle una historia de complejidad:

A inicios de los 60’s, del siglo pasado, Edward Norton Lorenz desarrolló un algoritmo simulador que generaba, recursivamente, predicciones meteorológicas; en dicho modelo se calculaba recursivamente el siguiente estado meteorológico, partiendo del estado inmediato anterior. Especificó las condiciones iniciales del instante cero y arrancó las iteraciones; detuvo el proceso, digamos, en la iteración “n” e imprimió los resultados; reanudó el proceso, en la iteración “n+1”, especificando, como condiciones iniciales, los resultados impresos previamente. Al concluir, para asegurarse de que la interrupción no hubiese inducido algún error, repitió el proceso, esta vez continuadamente; pudo, entonces, observar que no hubo diferencia hasta la iteración “n”, no obstante, a partir de la iteración “n+1”, los resultados se fueron alejando notablemente, hasta que no se podía advertir correspondencia alguna. Al investigar la causa de la desviación, determinó que: la diferencia se debió a que los números impresos tenían tres decimales, mientras que la memoria de la computadora hacia cálculos con seis decimales; esa minúscula diferencia de menos de una milésima en la iteración “n+1”, había sido suficiente para provocar la enorme divergencia en los resultados. Lorenz describió sus observaciones como “el efecto mariposa”.

Seguro que usted ya pudo advertir que estamos hablando del caos. La dinámica de nuestras organizaciones se desenvuelve en un contexto que exhibe un comportamiento caótico, en el cual, aunque la predicción es sumamente difícil, sí es posible observar patrones y repeticiones, propios de los procesos naturales.

Hasta este punto, hemos pasado de problemas de simplicidad (pocas variables) a problemas de complejidad desorganizada (muchas variables con propiedades de conjunto) y, de ahí, a problemas de complejidad organizada (múltiples variables interrelacionadas e interdependientes), esta última clase de problemas no pueden ser abordados sin una importante capacidad de procesamiento de información ni sin los algoritmos.

A finales de los 50´s, Warren Weaver escribió un informe prospectivo sobre el avance científico, categorizando cronológicamente los problemas que el conocimiento científico ha ido resolviendo; hasta antes de 1900, dice Weaver, nuestra ciencia resolvía problemas de pocas variables (Simplicidad); en la primera mitad del siglo veinte abordaba problemas que implicaban muchas variables con propiedades de conjunto, empleando modelos probabilísticos (Complejidad desorganizada); a partir de mediados del siglo pasado comenzaba a resolver problemas de gran diversidad de variables y complejas relaciones de interdependencia (Complejidad Organizada), empleando algoritmos para su solución.

Ya se estará usted preguntando ¿Por qué, en pleno siglo XXI, seguimos usando, para la evaluación del riesgo, modelos de solución del siglo XIX? ¿Por qué no estamos usando el poder de los algoritmos?

Tal vez mi respuesta no abarque todas las razones, pero sí una muy influyente: la didáctica de la simplificación; quiero decir, la práctica recurrente de los docentes de simplificar en exceso, para reducir las dificultades del aprendizaje o de la enseñanza, ya sea porque se cree incapaz al alumno o por la escaza autoconfianza del docente.

En el ámbito de la seguridad, ejemplos sobran: el famoso triángulo del delito o el cuadrado de la protección, que no trascienden al recurso mnemotécnico y que resultarían inocuos si no soslayaran las complejidades de la problemática subyacente; más aún, el reduccionismo de los estudios de contexto externo que, plasmados en raquíticos análisis FODA, sin más soporte que la opinión de quien lo elabora, resultan en flácidos fundamentos de los sistemas de gestión.

Ya sea como docente o como aprendiz, si cree usted que debe salir de la trampa del reduccionismo simplificador, permítame recomendarle algunas lecturas:

SCIENCE AND COMPLEXITY:
https://people.physics.anu.edu.au/~tas110/Teaching/Lectures/L1/Material/WEAVER1947.pdf
INTRODUCCION AL PENSAMIENTO COMPLEJO:
https://www.sedh.gob.hn/documentos-recientes/203-introducci%C3%B3n-al-pensamiento-complejo/file

F.Crisóstomo.

Deja un comentario