Los orígenes de las matemáticas detrás de los algoritmos que impulsan el mundo moderno
Hace más de un siglo, una amarga disputa filosófica entre dos matemáticos rusos encendió una cadena de ideas que acabaría transformando silenciosamente el mundo. En el centro de este choque intelectual había una pregunta aparentemente sencilla: ¿pueden la aleatoriedad y el libre albedrío medirse matemáticamente? Lo que comenzó como un debate sobre los fundamentos de la teoría de la probabilidad acabó dando lugar a avances que influirían en los motores de búsqueda, la física nuclear y la inteligencia artificial, gracias a un concepto que hoy conocemos como cadena de Markov.
Una rivalidad entre política y probabilidad
En 1905, en plena oleada de levantamientos socialistas en la Rusia imperial, la agitación política se filtró en la vida académica. En polos opuestos, tanto ideológicos como matemáticos, se encontraban dos figuras colosales. Pável Nekrásov, monárquico devoto y matemático profundamente religioso, creía que la ley de los grandes números demostraba la independencia de las acciones individuales, lo que para él era evidencia del libre albedrío divino. Su adversario, Andréi Markov, ateo declarado y lógico implacable, rechazaba esa afirmación como una distorsión de las matemáticas.
La rebelión de Markov no era solo política: era probabilística. Se propuso desmontar la idea de que la independencia era un requisito para comprender el mundo estadísticamente. Con un simple poema de Pushkin y un meticuloso recuento de letras, demostró que incluso los eventos dependientes —aquellos influidos por estados anteriores— podían seguir patrones estadísticos predecibles. Probó que un texto, con todas sus letras interdependientes, podía obedecer igualmente la ley de los grandes números.
De ahí surgió un enfoque radicalmente nuevo para modelar la incertidumbre: las cadenas de Markov, sistemas probabilísticos en los que el futuro depende únicamente del presente, no del pasado. Markov consideró su trabajo como un ejercicio de “análisis puro”, sin imaginar que esa herramienta teórica acabaría impulsando algoritmos que controlan desde internet hasta la fisión nuclear.
Del solitario al Proyecto Manhattan
Cuatro décadas después, esta matemática abstracta encontró su primera gran aplicación en la invención más destructiva de la historia. Tras la Segunda Guerra Mundial, el matemático polaco-estadounidense Stanislaw Ulam, convaleciente de una grave enfermedad, pasaba horas jugando al solitario. Se preguntó cuáles serían las probabilidades de ganar una partida. Resolverlo analíticamente era imposible: había demasiadas combinaciones posibles. Así que propuso algo radical: simular cientos de partidas y contar los resultados.
Ese enfoque de muestreo aleatorio pronto halló un uso urgente. Los científicos del Proyecto Manhattan, que estudiaban las interacciones de neutrones en un núcleo nuclear, se enfrentaban a un laberinto estadístico similar. Con ayuda de John von Neumann y del recién construido ordenador ENIAC, Ulam aplicó una variante de las cadenas de Markov combinada con simulaciones aleatorias para modelar estas interacciones. El método recibió el nombre de método de Montecarlo, evocando el azar de un casino.
El cambio no solo aceleró la investigación nuclear: marcó un punto de inflexión. Incluso los sistemas más complejos, desde partículas atómicas hasta comportamientos económicos, podían entenderse mediante cadenas de probabilidad cuidadosamente diseñadas.
El nacimiento de PageRank y el dominio de Google
Avancemos a los inicios de internet. En los años 90, buscadores como Yahoo clasificaban páginas por coincidencia de palabras clave, un sistema fácil de manipular y ciego a la calidad del contenido. Hacía falta una solución más inteligente que determinara qué páginas eran realmente relevantes.
En Stanford, Sergey Brin y Larry Page se inspiraron en las cadenas de Markov para crear PageRank, un algoritmo que trataba cada página web como un “estado” y cada enlace como una transición. Un usuario que navegara aleatoriamente —el “navegante aleatorio”— pasaría más tiempo en las páginas mejor conectadas y recomendadas. Igual que con las vocales y consonantes de Markov, la web podía representarse como un modelo estadístico sin memoria.
Para evitar que el navegante quedara atrapado en bucles de enlaces, introdujeron un “factor de amortiguación”: un 15% de probabilidad de saltar a una página al azar. Este ajuste garantizaba la exploración y la convergencia, haciendo que PageRank fuera no solo elegante, sino práctico. Su creación superó rápidamente a rivales como Yahoo o Lycos, y en 1998 lanzaron Google, con un nombre mal escrito (“googol”) pero con las matemáticas correctas. Hoy, Alphabet vale 2 billones de dólares y PageRank sigue siendo un pilar de la búsqueda en internet.
Cadenas de Markov en la era de la IA
Las ideas de Markov no se detuvieron ahí. En los años 40, Claude Shannon —padre de la teoría de la información— retomó su trabajo en el contexto del lenguaje. Vio que tratar un texto como una cadena de probabilidades dependientes podía generar secuencias sorprendentemente coherentes. Al ampliar el número de palabras previas usadas para predecir la siguiente, sus modelos comenzaron a imitar la estructura del lenguaje humano.
Los actuales modelos de lenguaje, como GPT, son herederos de esas ideas. Aunque van más allá de las cadenas de Markov básicas mediante mecanismos de “atención” que ponderan el contexto de forma dinámica, el reto central sigue siendo el mismo: predecir la siguiente unidad en función de lo anterior. Es un juego de probabilidades, ahora con miles de millones de parámetros y cantidades de datos inimaginables.
Sin embargo, la IA generativa introduce un nuevo matiz: a medida que estos modelos aprenden de internet y luego generan contenido que vuelve a internet, se produce un bucle estadístico. Esta retroalimentación corre el riesgo de generar resultados planos y uniformes. En sistemas con fuertes bucles de retroalimentación —como el cambio climático o el contagio financiero—, los modelos simples sin memoria pueden quedarse cortos.
Un legado medido en simplicidad
La elegancia de las cadenas de Markov reside en su simplicidad. En un mundo saturado de complejidad, permiten preguntar: ¿qué pasa después, sabiendo solo dónde estamos ahora? Desde modelar explosiones nucleares hasta guiar buscadores y predecir palabras, esta propiedad ha simplificado problemas que parecían intratables.
La ironía es que todo surgió de una enemistad personal entre dos matemáticos ideológicamente opuestos. La obstinación de Markov por refutar a su rival —su negativa a aceptar que las matemáticas se usaran para respaldar la teología— dio origen a un método que hoy sostiene buscadores, simulaciones nucleares e inteligencia artificial.
Todo empezó con el lanzamiento de una moneda y un poema. Terminó cambiando para siempre la manera en que modelamos el azar, la toma de decisiones y la inteligencia. En esta era dominada por algoritmos, todos vivimos, en cierto sentido, dentro de una cadena de Markov.



