La conciencia desde el punto de vista de la IA

El conocimiento que el ser humano tiene de sí mismo, que constituye el concepto de conciencia, ha sido y sigue siendo un enigma al que se enfrentan filósofos, antropólogos y neurocientíficos. Pero quizá, lo más sugerente es el hecho de que la conciencia es un concepto central en el comportamiento humano y que siendo consciente de ello no encuentre una explicación para ella.

Sin entrar en detalles, hasta le edad moderna el concepto de conciencia tenía unas raíces profundas en el concepto de alma y de creencias religiosas, atribuyendo con frecuencia a la intervención divina en la diferenciación de la naturaleza humana de otras especies.

En la edad moderna se produce un cambio sustancial basado en el concepto del “yo” de Descartes (cogito ergo sum) y posteriormente en el modelo propuesto por Kant y que se estructura alrededor de lo que se conoce como “argumentos trascendentales” [1].  

Con posterioridad, se han desarrollado una variedad de corrientes de pensamiento, entre las que destacan las teorías dualistas, monistas, materialistas y neurocognitivas. En términos generales, estas teorías se focalizan en los aspectos sicológicos y fenomenológicos que describen la realidad consciente. En el caso de las teorías neurocognitivas la evidencia neurológica es un pilar fundamental. Pero en definitiva, todas estas teorías son de naturaleza abstracta y, de momento, no han logrado dar una justificación formal de la conciencia y a como un “ente” puede desarrollar un comportamiento consciente, así como a conceptos tales como la moral o la ética.

Un aspecto al que se enfrentan estos modelos y que ponen en cuestión el concepto del “cogito” es el cambio de conducta producido por daños cerebrales y que en algunos casos puede llegar a ser reeducada, lo que muestra que el cerebro y los procesos de aprendizaje juegan un papel fundamental en la conciencia.

En este sentido, los avances en Inteligencia Artificial (AI) [2] ponen de manifiesto los fundamentos formales del aprendizaje, mediante los cuales un algoritmo puede adquirir conocimiento y en el que las redes neuronales son actualmente un componente fundamental. Por esta razón, la utilización de estos nuevos conocimientos puede proyectar luz sobre la naturaleza de la conciencia.

El paradigma del Test de Turing

Para analizar cual pueden ser los mecanismos que sustentan la conciencia podemos comenzar por el Test de Turing [3], en el que una máquina se pone a prueba para comprobar si ésta muestra un comportamiento similar al de un ser humano.

Sin entrar en la definición del Test de Turing, podemos asimilar este concepto al de un chatbot, tal como muestra la figura 1, lo que nos puede proporcionar una idea intuitiva de este concepto. Pero podemos ir todavía más lejos si nos planteamos su implementación. Para ello se requiere disponer de una ingente cantidad de diálogos entre humanos, que nos permita entrenar el modelo mediante técnicas de Deep Learning [4]. Y aunque pueda parecer extraño, la disponibilidad de diálogos es la parte más laboriosa del proceso.

Figura 1.-Esquema del Test de Turing

Una vez entrenado el chatbot podemos preguntar su comportamiento desde un punto de vista psicofísico. La respuesta parece bastante evidente, ya que aunque éste pueda mostrar un comportamiento muy complejo éste será siempre un comportamiento reflejo, a pesar de que su interlocutor pueda deducir que su interlocutor tenga sentimientos e incluso un comportamiento inteligente. Esto último es un tema controvertido por la dificultad de definir lo que supone un comportamiento inteligente y que se pone de manifiesto con las preguntas: ¿Inteligente? ¿Comparado con qué?

Pero el Test de Turing sólo tiene como objetivo determinar la capacidad de una máquina para mostrar un comportamiento similar al del ser humano, sin entrar en el análisis de los mecanismos para establecer esta funcionalidad.

En el caso del ser humano, estos mecanismos pueden clasificarse en dos apartados: aprendizaje genético y aprendizaje neuronal.

El aprendizaje genético

El aprendizaje genético se basa en la capacidad de aprendizaje de la biología para establecer funciones adaptadas al procesado de la realidad circundante. Expresado de esta manera no parece un argumento obvio ni convincente, pero la computación basada en el ADN (DNA computing) [5] es una demostración formal de la capacidad de aprendizaje biológico. La evolución de las capacidades adquiridas mediante este proceso se basa en una estrategia de prueba y error, algo que es inherente al aprendizaje, por lo que la evolución biológica es un proceso lento, tal como muestra la naturaleza.

Las reacciones instintivas están fundamentadas en el aprendizaje genético, de tal forma que todas las especies de seres vivos están dotadas de ciertas facultades sin necesidad de un entrenamiento posterior significativo. Como ejemplos de ello se puede mencionar el instinto de supervivencia, el de reproducción, el maternal y paternal. Estas funciones están localizadas en las capas interiores del cerebro y que los humanos comparten con los vertebrados.

No vamos a entrar en detalles relativos a la neurociencia [6], ya que lo único que nos interesa en este análisis es destacar dos aspectos fundamentales: la especialización funcional y la plasticidad de cada una de sus estructuras neuronales. Así, la estructura, plasticidad y especialización está determinada por factores genéticos, de tal forma que las capas internas, como por ejemplo el sistema límbico, tienen una funcionalidad muy especializada y requieren poco entrenamiento para ser funcionales. Por el contrario, las estructuras externas, localizadas en el neocórtex, son muy plásticas y su funcionalidad está muy marcada por el aprendizaje y la experiencia.

Por tanto, el aprendizaje genético es el responsable de la estructura, plasticidad y especialización, mientras que el aprendizaje neuronal está íntimamente ligado a la funcionalidad plática del tejido neuronal.

Un claro ejemplo de la especialización funcional basada en el aprendizaje genético es el procesado del espacio-tiempo que compartimos con el resto de seres vivos superiores y que está localizado en el sistema límbico. Esto dota al cerebro de estructuras dedicadas al establecimiento de un mapa espacial y al tratamiento del retardo temporal, lo que proporciona la capacidad de establecer trayectorias de forma anticipada, vitales para la supervivencia y para interaccionar con la realidad espacio-temporal.

Esta funcionalidad tiene un alto grado de automatismo, lo que hace que su capacidad funcional sea efectiva desde el mismo momento del nacimiento. Sin embargo, esto no es exactamente así en los humanos, ya que estos sistemas neuronales funcionan de forma coordinada con el neocórtex, el cual requiere un alto grado de entrenamiento neuronal.

Así, por ejemplo, esta especialización funcional impide visualizar y comprender de forma intuitiva geometrías de más de tres dimensiones espaciales, algo que los humanos sólo podemos tratar de forma abstracta a un nivel superior mediante el neocórtex, que tiene una funcionalidad plástica y que es el soporte principal del aprendizaje neuronal.

Es interesante considerar que la funcionalidad del neocórtex, cuyo tiempo de respuesta es mayor que el de las capas inferiores, puede interferir en la reacción de las funciones automáticas. Esto se pone claramente de manifiesto en la pérdida de concentración en actividades que requieren un alto grado de automatismo, como ocurre en ciertas actividades deportivas. Esto hace que además de tener una capacidad física apropiada y una capacidad de procesado automática bien desarrollada y entrenada, los deportistas de élite requieran una preparación psicológica específica.

Esto es aplicable a todos los sistemas sensoriales, como la visión, audición, equilibrio, en los que el aprendizaje genético determina y condiciona la interpretación de la información procedente de los óranos sensoriales. Pero a medida que esta información asciende a las capas superiores de cerebro, el procesado e interpretación de la información está determinado por el aprendizaje neuronal.

Esto es lo que diferencia a los humanos del resto de las especies, al estar dotados de un neocórtex muy desarrollado, lo que proporciona una capacidad de aprendizaje neuronal muy significativo, de donde parece emerger el ser consciente.

No obstante, hay evidencias sólidas de la capacidad de sentir y de tener un cierto nivel de conciencia en algunas especies. Esto es lo que ha desencadenado un movimiento para el reconocimiento legal de sentimientos en ciertas especies de animales, e incluso reconocer el status de persona para algunas especies de homínidos.

El aprendizaje neuronal: La IA como una fuente de intuición

En la actualidad, la IA está constituida por un conjunto de estrategias matemáticas que se agrupan bajo diferentes denominaciones en función de sus características. Así, el Aprendizaje Automático (Machine Learning, ML) está formado por algoritmos matemáticos clásicos, de tipo estadístico, árboles de decisión, clustering, support vector machine, etc. Por el contrario, el aprendizaje profundo (Deep Learning) se inspira en el funcionamiento del tejido neuronal, y exhibe un comportamiento complejo que se aproxima a ciertas capacidades de los humanos.

En el estado actual de desarrollo de esta disciplina, los diseños se reducen a la implementación y el entrenamiento de tareas específicas, como son los sistemas de diagnóstico automático, asistentes, chatbots, juegos, etc, por lo que estos sistemas se agrupan en lo que se denomina Artificial Narrow Intelligence.

La perspectiva que ofrecen estos nuevos conocimientos permite establecer tres grandes categorías dentro de la IA:

  • Artificial Narrow Intelligence.
  • Artificial General Intelligence. Sistemas de IA con una capacidad similar a la del ser humano.
  • Artificial Super Intelligence: Sistemas de IA autoconscientes con una capacidad igual o superior a la del ser humano.  

La implementación de redes neuronales utilizadas en Deep Learning se inspira en la funcionalidad de las neuronas y del tejido neuronal, tal como muestra la figura 2 [7]. Como consecuencia, los estímulos nerviosos procedentes de los terminales de los axones que se conectan a las dendritas (sinapsis) son ponderados y procesados en función de la configuración funcional de la neurona adquirida mediante aprendizaje, produciendo un estímulo nervioso que se propaga a otras neuronas, a través de los axones terminales.

Figura 2. Estructura de una neurona y modelo matemático

Las redes neuronales artificiales se estructuran creando capas del modelo matemático de neurona, tal como muestra la figura 3. Una cuestión fundamental de este modelo es determinar los mecanismos necesarios para establecer los parámetros de ponderación Wi en cada una de las unidades que forman la red neuronal. Para ello podría utilizarse los mecanismos neuronales. Sin embargo, aunque existe una idea muy general de cómo se configura la funcionalidad de las sinapsis, el establecimiento de la funcionalidad a nivel de la red neuronal es todavía un misterio.

Figura 3. Arquitectura de una red neuronal artificial

En el caso de las redes neuronales artificiales, la matemática ha encontrado una solución que permite establecer los valores Wi, mediante lo que se conoce como aprendizaje supervisado. Para ello se requiere disponer de un dataset en el que cada uno de sus elementos represente un estímulo X i  y la respuesta a dicho estímulo Y i. De esta forma, una vez inicializados de forma aleatoria los valores Wi se procede a la fase de entrenamiento, presentando cada uno de los estímulos X i  y comparando la respuesta con los valores Y i. Los errores producidos se propagan hacia atrás mediante un algoritmo conocido como backpropagation.

Mediante la aplicación secuencial de los elementos de un conjunto de entrenamiento (training set) perteneciente al dataset en varias sesiones se alcanza un estado de convergencia, en el que la red neuronal logra un grado de precisión apropiada, comprobado mediante un conjunto de elementos de validación (validation set), perteneciente al dataset que no son utilizados para el entrenamiento.

Un ejemplo es mucho más intuitivo para entender la naturaleza de los elementos de un dataset. Así, en un dataset utilizado en el entrenamiento de sistemas autónomos de conducción, X i corresponden a imágenes  en las cuales aparecen patrones de diferentes tipos de vehículos, peatones, vías públicas, etc. Cada una de estas imágenes tiene asociada una categoría Y i, en la que se especifica los patrones que aparecen en dicha imagen. Hay que destacar que en el estado actual de desarrollo de los sistemas de IA, la confección del dataset es realizada por los humanos, por lo que el aprendizaje es de tipo supervisado y requiere unos recursos muy significativos.

En el aprendizaje no supervisado la categoría Y i es generada de forma automática, aunque su estado de desarrollo es muy incipiente. Un ejemplo muy ilustrativo es el programa Alpha Zero desarrollado por DeepMind [8], de tal forma que el aprendizaje se realiza proporcionándole las reglas de juego (ajedrez, go, shogi) y desarrollando contra sí mismo partidas, de tal forma que los movimientos y el resultado configuran (X i , Y i). La red neuronal se actualiza continuamente con estos resultados, mejorando de forma secuencial su comportamiento y por tanto los nuevos resultados (X i , Y i), alcanzando un nivel de juego sobrehumano.

Es importante observar que en el caso de los seres vivos superiores el aprendizaje no supervisado se realiza mediante la interacción del sistema neuronal aferente (sensorial) y del sistema neuronal eferente (motor). Aunque desde un punto de vista funcional no hay diferencias sustanciales, esta interacción se realiza en dos niveles, tal como muestra la figura 4:

  • La interacción con el entorno inanimado.
  • La interacción con otros seres vivos, especialmente de la misma especie.

El primer nivel de interacción proporciona un conocimiento sobre la realidad física. Por el contrario, el segundo nivel de interacción permite establecer hábitos de supervivencia y sobre todo hábitos sociales. En el caso de los humanos este nivel adquiere una gran importancia y complejidad, ya que de él emergen conceptos como moral y ética, así como la capacidad de acumular y  transmitir conocimiento de generación en generación.

Figura 4. Estructura del aprendizaje no supervisado

En consecuencia, el aprendizaje no supervisado se fundamenta en la recursividad de los sistemas aferentes y eferentes. Esto significa que a diferencia de los modelos utilizados en aprendizaje profundo (Deep  Learning), que son unidireccionales, los sistemas de IA no supervisados requieren la implementación de dos sistemas independientes. Un sistema aferente que produzca una respuesta a partir de un estímulo y un sistema eferente que a partir de la respuesta corrija mediante una técnica de reforzamiento el comportamiento del sistema aferente.

¿Cuál es el fundamento de la Conciencia?

Del desarrollo de la IA se deducen dos aspectos fundamentales:

  • La capacidad de aprendizaje de los algoritmos.
  • La necesidad de estructuras aferentes y eferentes para soportar el aprendizaje no supervisado.

Por otra parte, es sabido que los procesos traumáticos en el cerebro o las patologías asociadas al envejecimiento pueden producir cambios en la personalidad y en la percepción consciente.  Esto indica claramente que estas funciones están localizadas en el cerebro y soportadas por el tejido neuronal.

Pero hay que apoyarse en la antropología para tener una idea más precisa de cuáles son los fundamentos de la conciencia y de cómo está se ha desarrollado en los seres humanos. Así, se puede observar una correlación directa entre la capacidad craneal de una especie de homínido y sus habilidades, organización social, espiritualidad y, sobre todo, en la percepción abstracta del mundo circundante. Esta correlación está claramente determinada por el tamaño del neocórtex y puede observarse en menor medida otras especies, tales como los primates, mostrando una capacidad de dolor emocional, una organización social estructurada y cierta facultad de aprendizaje abstracto.

De acuerdo a todo lo anterior, se podría concluir que la conciencia emerge de la capacidad de aprendizaje del tejido neuronal y se alcanzaría a medida que la complejidad estructural y los recursos funcionales del cerebro adquieren un nivel apropiado de desarrollo. Pero esto conduce directamente al escenario propuesto por el Test de Turing, de tal forma que se obtendría un sistema con un comportamiento complejo indistinguible de un humano, lo cual no aporta ninguna prueba sobre la existencia de la conciencia.  

Para entender esto, podemos preguntar cómo un humano llega a la conclusión de que el resto de los humanos tienen conciencia. En realidad, no tiene ningún argumento para llegar a esta conclusión, ya que como mucho podría comprobar que verifican el test de Turing. El humano llega a la conclusión de que otros humanos tienen conciencia por semejanza consigo mismo. Mediante introspección, un humano tiene conciencia de sí mismo y puesto que el resto de los humanos son semejantes a él concluye que el resto de los humanos tienen conciencia.

Por tanto, llegaríamos a la conclusión de que la conciencia es consecuencia de un hecho sobrenatural, lo cual requiere la intervención de una causalidad ajena a la realidad y que plantea varias inconsistencias. En primer lugar, la conciencia de un humano es temporal y no es adquirida súbitamente. Al nacer, el humano es un ser inmaduro cuyo cerebro debe concluir un proceso de crecimiento y que en paralelo va aprendiendo funciones básicas para interaccionar con el entorno. En este contexto, en los primeros años de vida va adquiriendo la conciencia de forma progresiva hasta que es capaz de preguntarse quién es y el porqué. Otra inconsistencia es el hecho de que existan o hayan existido especies conscientes, mientras que el resto no tengan esta capacidad.

En definitiva, la única respuesta que se puede dar a cual es el fundamento de la conciencia es el mecanismo de introspección del propio cerebro. En el esquema de aprendizaje no supervisado se han puesto de manifiesto los mecanismos aferentes y eferentes que permiten al cerebro relacionarse con el mundo exterior a través de los órganos sensoriales y motores. Sin embargo, a este modelo hay que añadir otro flujo de información, tal como se muestra en la figura 5, que potencia el aprendizaje y que corresponde a la interconexión de estructuras neuronales del cerebro y que de forma recursiva establecen los mecanismos del razonamiento, la imaginación y porqué no de la conciencia.

Figura 5. Mecanismo de razonamiento e imaginación.

Esta afirmación puede parecer radical, pero si meditamos sobre ello veremos que la única diferencia entre la imaginación y la conciencia es que la capacidad de los humanos de identificarse a sí mismos plantea preguntas existenciales de difícil respuesta, pero que desde el punto de vista del tratamiento de la información requieren los mismos recursos que el razonamiento o la imaginación.

¿Pero cómo esta hipótesis puede ser demostrada? Una posible solución sería construir un sistema basado en tecnologías del aprendizaje que nos confirmara la hipótesis. ¿Pero, se aceptaría esta confirmación como cierta?, o simplemente se decidiría que el sistema verifica el Test de Turing.

[1]Stanford Encyclopedia of Philosophy, «Kant’s View of the Mind and Consciousness of Self,» 8 Oct 2020. [En línea]. Available: https://plato.stanford.edu/entries/kant-mind/. [Último acceso: 6 Jun 2021].
[2]S. J. Russell y P. Norvig, Artificial Intelligence: A Modern Approach, Pearson, 2021.
[3]A. Turing, «Computing Machinery and Intelligence,» Mind, vol. LIX, nº 236, p. 433–60, 1950.
[4]C. C. Aggarwal, Neural Networks and Deep Learning, Springer, 2018.
[5]L. M. Adleman, «Molecular computation of solutions to combinatorial problems,» Science, vol. 266, nº 5187, pp. 1021-1024, 1994.
[6]E. R. Kandel, J. D. Koester, S. H. Mack y S. A. Siegelbaum, Principles of Neural Science, Macgraw Hill, 2021.
[7]F. Rosenblatt, «The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain,» Psychological Review, vol. 65, nº 6, pp. 386-408, 1958.
[8]D. Silver, T. Hubert y J. Schrittwieser, «DeepMind,» [En línea]. Available: https://deepmind.com/blog/article/alphazero-shedding-new-light-grand-games-chess-shogi-and-go. [Último acceso: 6 Jun 2021].

La irrazonable eficacia de las matemáticas

En el post “Cuál es la naturaleza de la matemática” se ha expuesto el dilema de si la matemática es descubierta o inventada por los humanos, sin que de momento se haya llegado a aportar pruebas convincentes en ninguno de los dos sentidos.

Una forma más profunda de abordar el tema es tal como lo planteó Eugene P. Wigner [1], preguntándose por la irrazonable eficacia de las matemáticas en las ciencias naturales.

Según Roger Penrose esto plantea tres misterios [2] [3], identificando tres «mundos» distintos: el mundo de nuestra percepción consciente, el mundo físico y el mundo platónico de las formas matemáticas. De esta forma:

  • El mundo de la realidad física parece obedecer leyes que en realidad residen en el mundo de las formas matemáticas.
  • Las propias mentes que perciben —el reino de nuestra percepción consciente— se las han arreglado para surgir del mundo físico.
  • Esas mismas mentes han sido capaces de acceder al mundo matemático al descubrir, o crear, y dar articulación a un capital de formas y conceptos matemáticos.

La eficacia de la matemática presenta dos aspectos diferentes. Uno activo en el que los físicos desarrollan modelos matemáticos que permiten describir de forma precisa el comportamiento de los fenómenos físicos, pero también hacer predicciones sobre ellos, lo cual es un hecho sorprendente.

Aunque más extraordinario aun es el aspecto pasivo de la matemática, de tal forma que los conceptos que los matemáticos exploran de forma abstracta acaban siendo las soluciones de problemas firmemente enraizados en la realidad física.

Pero esta visión de la matemática tiene detractores especialmente fuera del campo de la física, en áreas en las que las matemáticas no parecen tener este comportamiento. Así, el neurobiólogo Jean-Pierre Changeux señala [4]: «Afirmar la realidad física de los objetos matemáticos en el mismo nivel que los fenómenos naturales que se estudian en biología plantea, en mi opinión, un considerable problema epistemológico. ¿Cómo puede un estado físico interno de nuestro cerebro representar otro estado físico externo a él?»

Obviamente, parece que analizar el problema utilizando casos de estudio de diferentes áreas de conocimiento no permite establecer argumentos formales para llegar a una conclusión sobre la naturaleza de la matemática. Por esta razón, se deben buscar un método abstracto que permita superar estas dificultades. En este sentido, la Teoría de la Información (IT) [5], la Teoría de la Información Algorítmica (AIT) [6] y la Teoría de la Computación (TC) [7] pueden ser herramientas de análisis que ayuden a resolver el problema.

¿Qué entendemos por matemáticas?

La pregunta puede parecer obvia, pero las matemáticas están estructuradas en múltiples áreas: algebra, lógica, cálculo, etc., y lo cierto es que cuando nos referimos al éxito de la matemática en el campo de la física subyace la idea de las teorías físicas apoyadas en modelos matemáticos: física cuántica, electromagnetismo, relatividad general, etc.

Sin embargo, cuando estos modelos matemáticos se tratan de aplicar en otras áreas no parecen tener la misma eficacia, por ejemplo en la biología, la sociología o las finanzas, lo que parece contradecir la experiencia en el campo de la física.

Por esta razón, una cuestión fundamental es analizar cómo funcionan estos modelos y cuáles son las causas que dificultan su aplicación fuera del ámbito de la física. Para ello, imaginemos cualquiera de los modelos de éxito de la física, como son la teoría de la gravitación, el electromagnetismo, la cuántica o la relatividad general. Estos modelos se basan en un conjunto de ecuaciones definidas en lenguaje matemático, que determinan las leyes que controlan el fenómeno descrito, las cuales admiten soluciones analíticas que describen la dinámica del sistema. Así por ejemplo, un cuerpo sometido a una fuerza de atracción central describe una trayectoria definida por una cónica.

Esta funcionalidad es una herramienta de análisis potente, ya que permite analizar los sistemas en condiciones hipotéticas y llegar a conclusiones que pueden ser posteriormente verificadas experimentalmente. ¡Pero cuidado! Este escenario de éxito enmascara una realidad que frecuentemente pasa desapercibida, ya que generalmente los escenarios en los que el modelo admite una solución analítica son muy limitados. Así, el modelo gravitatorio no admite solución analítica cuando el número de cuerpos es n>=3 [8], salvo el casos muy concretos como son los denominados puntos de Lagrange. Es más, el sistema tiene un comportamiento muy sensible a las condiciones iniciales, de tal forma que pequeñas variaciones en dichas condiciones pueden producir grandes desviaciones a largo plazo.

Esta es una característica fundamental de los sistemas no lineales y, aunque el sistema esté regido por unas leyes deterministas, su comportamiento es caótico. Sin entrar en detalles que se escapan de este análisis, este es el comportamiento general del cosmos y de todo lo que acontece en él.

Hay un caso que puede considerarse extraordinario es el modelo cuántico que, de acuerdo a la ecuación de Schrödinger o al modelo matricial de Heisenberg, es un modelo lineal y reversible. No obstante, la información que emerge de la realidad cuántica es de naturaleza estocástica.   

En definitiva, los modelos que describen la realidad física sólo tienen una solución analítica en casos muy particulares. Para escenarios complejos, se pueden obtener soluciones particulares al problema mediante series numéricas, pero la solución general de cualquier proposición matemática se obtiene mediante la Máquina de Turing (TM) [9].

Este modelo puede ser representado de forma abstracta mediante la concatenación de tres objetos matemáticosxyz〉 (secuencias de bits) que ejecutados en una máquina de Turing TM(〈xyz〉), determinan la solución. Así, por ejemplo, en el caso del electromagnetismo, el objeto z corresponderá a la descripción de las condiciones de contorno del sistema, y a la definición de las ecuaciones de Maxwell y x a la definición formal del cálculo matemático. TM es la máquina de Turing definida por un conjunto finito de estados. Por tanto, el problema se reduce al tratamiento de un conjunto de bits〈xyz〉de acuerdo a unas reglas axiomáticas definidas en TM, y que en el caso óptimo se puede reducir a una máquina con tres estados (más el estado de HALT) y dos símbolos (bit).

La naturaleza como una máquina de Turing

Y aquí volvemos al punto de partida. ¿Cómo es posible que la realidad pueda ser representada por un conjunto de bits y por un reducido número de reglas axiomáticas?

Con anterioridad al desarrollo de la IT, el concepto de información no tenía un sentido formal, tal como pone de manifiesto su definición clásica en los diccionarios. De hecho, hasta que las tecnologías de la comunicación no comenzaron a desarrollarse, palabras como “enviar” se referían exclusivamente a objetos materiales.

Sin embargo, todo lo que ocurre en el universo es interacción y transferencia, y en el caso de los humanos el medio más elaborado para esta interacción es el lenguaje natural y que consideramos el hito más importante en que se apoya el desarrollo cultural. Es quizá por esta razón que en el debate sobre si la matemática es inventada o descubierta se utilice el lenguaje natural como argumento.

Pero la TC muestra que el lenguaje natural no es formal, al no estar definido sobre bases axiomáticas, por lo que los argumentos basados en él pueden ser de dudosa validez. Y es aquí donde la IT y la TC proporcionan una visión amplia sobre el problema planteado.

En un sistema físico cada una de las partículas componentes tiene unas propiedades físicas y un estado, de tal forma que cuando interacciona con el entorno modifica su estado en función de sus propiedades, de su estado y de la interacción física exterior. Este proceso de interacción es recíproco y como consecuencia del conjunto de interacciones el sistema desarrolla una dinámica temporal.

Así, por ejemplo, la dinámica de una partícula está determinada por la curvatura del espacio-tiempo que indica a la partícula como debe moverse y esta a s vez interacciona con el espacio-tiempo, modificando su curvatura.

En resumen, un sistema tiene una descripción que está distribuida en cada una de las partes que componen el sistema. De esta forma, el sistema podría ser descrito de varias maneras diferentes:

  • Como un conjunto de TMs interaccionando entre sí. 
  • Como una TM que describe el sistema total.
  • Como una TM que describa parcialmente el comportamiento global, mostrando propiedades emergentes del sistema.

La conclusión fundamental es que el sistema es una máquina de Turing. Por tanto, la cuestión no es si la matemática es descubierta o inventada o preguntarnos cómo es posible que la matemática sea tan eficaz describiendo el sistema. La cuestión es cómo es posible que un ente inteligente – natural o artificial- llegue a esta conclusión e incluso sea capaz de deducir las leyes axiomáticas que controlan el sistema.

La justificación se debe fundamentar en que la naturaleza es la que impone la funcionalidad y no los entes inteligentes que forman parte de la naturaleza. La naturaleza es capaz de desarrollar cualquier funcionalidad computable, por lo que entre otras funcionalidades, el aprendizaje y el reconocimiento de patrones de comportamiento es una funcionalidad básica de la naturaleza. De esta forma, la naturaleza desarrolla una dinámica compleja de la que surge el comportamiento físico, la biología, los seres vivos, y los entes inteligentes.

Como consecuencia, la naturaleza ha creado estructuras que son capaces de identificar sus propios patrones de comportamiento, tales como leyes físicas, y en última instancia identificar la naturaleza como una Máquina de Turing Universal (UTM). Esto es lo que hace que la interacción física sea consistente a todos los niveles. Así, en el caso expuesto de la capacidad de los seres vivos para establecer un mapa espacio-temporal, esto les permite interactuar con el entorno, de lo contrario su existencia no sería posible. Obviamente este mapa corresponde a un espacio Euclideo, pero si el ser vivo en cuestión fuera capaz de moverse a velocidades próximas a la luz, el mapa aprendido correspondería al descrito por la relatividad.

Una visión más allá de la física

Si bien la TC, la IT y la AIT son el soporte teórico que nos permiten sustentar esta visión de la naturaleza, los avances en la tecnología de computación y en la AI son una fuente de inspiración, mostrando como la realidad puede ser descrita como una secuencia estructurada de bits. Esto a su vez permite realizar funciones tales como extracción y reconocimiento de patrones, determinación de su complejidad y aprendizaje automático.

A pesar de esto, quedan preguntas fundamentales por contestar, en particular que ocurre con aquellos casos en los que la matemática no parecer tener el mismo existo que en el caso de la física, como puede ser el caso de la biología, la economía o de la sociología. 

Muchos de los argumentos utilizados en contra de la visión anterior se fundamentan en el hecho de que la descripción de la realidad en términos matemáticos, o mejor dicho, en términos de conceptos computacionales no parece encajar, o al menos de forma precisa, en áreas de conocimiento más allá de la física. Sin embargo, es necesario reconocer que se han producido avances muy significativos en áreas como la biología y la economía.

Así, los conocimientos sobre biología muestran que la química de la vida está estructurada en varios lenguajes superpuestos:

  • El lenguaje de los ácidos nucleicos, constituido por un alfabeto de 4 símbolos y que codifica la estructura del ADN y del ARN.
  • El lenguaje de los amino ácidos, constituido por un alfabeto de 64 símbolos y que codifica las proteínas. El proceso de transcripción para la síntesis de proteínas se realiza mediante una concordancia entre ambos lenguajes.
  • El lenguaje de las regiones intergénicas del genoma. Su funcionalidad está todavía por aclarar, pero todo parece indicar que son responsables del control de la producción de proteínas en diferentes partes del cuerpo, mediante la activación de interruptores moleculares.  

Por otra parte, la predicción de la estructura de proteínas mediante técnicas de aprendizaje profundo es una muestra sólida que asocia la biología a la TC [10]. Destacar también que la biología como un proceso de información debe verificar las leyes de la lógica, en particular el teorema de recursión  [11], por lo que la replicación del ADN debe realizar al menos en dos fases por procesos independientes.

En el caso de la economía se han producido avances relevantes a partir de la década de los 80 del siglo XX, con el desarrollo de la finanzas computacionales [12]. Pero como un ejemplo paradigmático nos centraremos en los mercados financieros que nos debe servir para comprobar en un entorno muy alejado de la física la hipótesis de que la naturaleza tiene el comportamiento de una máquina de Turing. 

Básicamente, los mercados financieros son un espacio que puede ser físico o virtual, a través del cual se intercambian activos financieros entre agentes económicos y en el que se definen los precios de dichos activos.

Un mercado financiero está regido por la ley de la oferta y la demanda. Es decir, cuando un agente económico quiere algo a un precio determinado, solo lo podrá comprar a ese precio si hay otro agente dispuesto a venderle ese algo a dicho precio.

Tradicionalmente, los agentes económicos eran personas pero, con el desarrollo de aplicaciones informáticos complejas, actualmente estas aplicaciones actúan también como agentes económicos, de forma supervisada y no supervisada, dado origen a diferentes tipos de estrategias de inversión.

Este sistema puede ser modelado por una máquina de Turing que emula todos los agentes económicos involucrados, o como un  conjunto de máquinas de Turing interaccionando entre sí, cada una de las cuales emula un agente económico.

La definición de este modelo requiere implementar las reglas axiomáticas del mercado, así como la funcionalidad de cada uno de los agentes económicos, que permitan determinar los precios de compra o venta a los que estén dispuestos a negociar. Aquí es donde radica el problema, ya que esto depende de factores muy diversos y complejos, como son la disposición de información sobre los valores negociados, la sicología del agente y otros muchos factores como son los contingentes o las estrategias especulativas.

En resumen, esto hace que la emulación del sistema sea imposible en la práctica. No obstante, hay que señalar que los corredores de bolsa y las aplicaciones automáticas pueden obtener una ventaja competitiva mediante la identificación de patrones globales, o incluso mediante la utilización de información privilegiada, aunque esta práctica está penada por ley en mercados convenientemente regulados.

La cuestión que se puede plantear es si esta imposibilidad de emulación precisa invalida la hipótesis planteada. Si volvemos al caso de estudio de la gravitación Newtoniana, determinada por la fuerza atractiva central, se puede observar que, aunque funcionalmente es diferente, comparte una característica fundamental que imposibilita en la práctica la emulación del sistema y que está presente en todos los escenarios.  

Si pretendemos emular el caso del sistema solar deberemos determinar la posición, velocidad y el momento angular de todos los cuerpos celestes involucrados, sol, planetas, planetas enanos, planetoides, satélites, así como el resto de cuerpos situados en el sistema, tales como el cinturón de asteroides, el cinturón de Kuiper y la nube de Oort, así como la masa y energía dispersa. Adicionalmente, se debe determinar la forma y estructura de los cuerpos, sólidos, líquidos y gaseosos. También habrá que considerar los efectos de las colisiones que modifican la estructura de los cuerpos resultantes. Finalmente habrá que considerar la actividad fisicoquímica, tales como fenómenos geológicos, biológicos, radiación, ya que modifican la estructura y dinámica de los cuerpos y están sujetos a fenómenos cuánticos, lo que supone otra fuente de incertidumbre.  Y aun así el modelo no es adecuado, ya que es necesario aplicar un modelo relativista.

Esto hace que la emulación precisa sea imposible en la práctica, tal como demuestran las continuas correcciones en las efemérides de los satélites GPS, o los ajustes de las trayectorias de los viajes espaciales, donde el viaje a Plutón realizado por la nave New Horizons de la NASA es un caso paradigmático.

Conclusiones

Del análisis anterior se puede plantea la hipótesis de que el universo es un sistema axiomático regido por unas leyes que determina una dinámica que es consecuencia de la interacción y transferencia de las entidades que la componen.

Como consecuencia de los fenómenos de interacción y transferencia, el propio sistema puede emular de forma parcial y aproximada su comportamiento, lo que da origen a procesos de aprendizaje y que finalmente da origen a la vida y la inteligencia. Esto hace posible que los seres vivos interaccionen de forma compleja con en medio ambiente y que entes inteligentes puedan observar la realidad y establecer modelos de dicha realidad.

De esta forma surgen las representaciones abstractas como son el lenguaje natural y las matemáticas. Con el desarrollo de la IT [5] se concluye que todos los objetos pueden ser representados por un conjunto de bits, que pueden ser procesados mediante reglas axiomáticas [7] y que codificados de forma óptima determinan la complejidad del objeto, definida como complejidad de Kolmogorov [6].

El desarrollo de la TC establece que estos modelos pueden ser definidos como una TM, por lo que en el límite puede plantearse la hipótesis de que el universo es equivalente a una máquina de Turing y que los límites de la realidad pueden ir más allá del propio universo, en lo que se define como multiverso y que sería equivalente a una UTM. Esta concordancia entre un universo y una TM  permite plantear la hipótesis de que el universo no es más que información procesada por reglas axiomáticas.  

Por tanto, de la observación de los fenómenos naturales se pueden extraer las leyes de comportamiento que constituyen los modelos abstractos (axiomas), así como la información necesaria para describir los casos de realidad (información). Puesto que esta representación re realiza sobre una realidad física, su representación será siempre aproximada, de tal forma que sólo el universo podrá emularse a sí mismo. Puesto que el universo es consistente, los modelos no hacen más que corroborar este hecho. Pero recíprocamente, la equivalencia entre el universo y una TM implica que las deducciones realizadas a partir de modelos consistentes deben ser satisfechas por la realidad.

No obstante, todo parece indicar que esta forma de percibir la realidad está distorsionada por los sentidos, ya que a nivel de la realidad clásica lo que observamos son las consecuencias de los procesos que acontecen en este nivel funcional, apareciendo los conceptos tales como masa, energía, inercia.

Pero cuando se indaga en las capas que sustentan la realidad clásica esta percepción desaparece, ya que nuestros sentidos no tienen la capacidad directa para su observación, de tal forma que lo que emerge no es más que un modelo de reglas axiomáticas que procesan información, desapareciendo la concepción física sensorial. Esto justificaría la dificultad para comprender los fundamentos de la realidad.

En ocasiones se especula con la posibilidad de que la realidad no sea más que una compleja simulación, pero esto plantea un problema, ya que en tal caso sería necesario un soporte para su realización, lo que implica la existencia de una realidad subyacente necesaria para soportar dicha simulación [15].

Hay dos aspectos que no se han tratado y que son de una importancia trascendental para la comprensión del universo. El primero se refiere a la irreversibilidad en la capa de realidad clásica. De acuerdo a la AIT, la cantidad de información de una TM permanece constante, por lo que la irreversibilidad de los sistemas termodinámicos es un indicio de que estos sistemas son abiertos, ya que no verifican esta propiedad, aspecto al que la física debe dar respuesta.

El segundo está relacionado con el teorema de no clonación. Los sistemas cuánticos son reversibles y, de acuerdo al teorema de no clonación, no es posible hacer copias exactas del estado cuántico desconocido de una partícula. Pero de acuerdo al teorema de recursión, son necesarios al menos dos procesos independientes para hacer una copia. Esto significaría que en la capa cuántica no es posible disponer de al menos dos procesos independientes para copiar dicho estado cuántico. Una explicación alternativa sería que estos estados cuánticos tienen una complejidad no computable.

Finalmente, hay que destacar que la cuestión relativa a si la matemática en inventada o descubierta por los humanos está viciada por una visión antrópica del universo, que considera a los humanos como parte central de éste. Pero hay que concluir que los humanos son una parte del universo, al igual que todas las entidades que lo conforman, en particular las matemáticas.

Bibliografía

[1]E. P. Wigner, “The unreasonable effectiveness of mathematics in the natural sciences.,” Communications on Pure and Applied Mathematics, vol. 13, no. 1, pp. 1-14, 1960.
[2]R. Penrose, The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics, Oxford: Oxford University Press, 1989.
[3]R. Penrose, The Road to Reality: A Complete Guide to the Laws of the Universe, London: Jonathan Cape, 2004.
[4]J. P. Changeux and A. Connes, Conversations on Mind, Matter, and Mathematics, Princeton N. J.: Princeton University Press, 1995.
[5]C. E. Shannon, “A Mathematical Theory of Communication,” The Bell System Technical Journal, vol. 27, pp. 379-423, 1948.
[6]P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[7]M. Sipser, Introduction to the Theory of Computation, Wadsworth Publishing Co Inc, 2012.
[8]H. Poincaré, New Methods of Celestial Mechanics, Springer, 1992.
[9]A. M. Turing, “On computable numbers with an application to the Entscheidungsproblem,” Proc. London Math. Society, vol. 2, no. 42, pp. 230-265, 1936.
[10]A. W. Senior, R. Evans and e. al., “Improved protein structure prediction using potentials from deep learning,” Nature, vol. 577, pp. 706-710, Jan 2020.
[11]S. Kleene, “On Notation for ordinal numbers,” J. Symbolic Logic, no. 3, p. 150–155, 1938.
[12]A. Savine, Modern Computational Finance: AAD and Parallel Simulations, Wiley, 2018.
[13]N. Bostrom, “Are We Living in a Computer Simulation?,” The Philosophical Quarterly, vol. 53, no. 211, p. 243–255, April 2003.

¿Cuál es la naturaleza de la matemática?

La capacidad de las matemáticas para describir el comportamiento de la naturaleza, en particular en el campo de la física, es un hecho sorprendente, sobre todo si se tiene en cuenta que la matemática es una entidad abstracta creada por la mente humana y desconectada de la realidad física.  Pero si la matemática es una entidad creada por los humanos ¿cómo es posible esta correspondencia tan precisa?

A lo largo de los siglos este ha sido un tema de debate, centrándose en dos ideas contrapuestas: ¿Es la matemática inventada o descubierta por los humanos?

Esta pregunta ha dividido a la comunidad científica: filósofos, físicos, lógicos, cognitivos y lingüistas, pudiéndose decir que no sólo no hay un consenso, sino que generalmente se llega a posturas totalmente enfrentadas. Mario Livio en el ensayo “¿Es Dios un matemático?” [1] describe de forma amplia y precisa los acontecimientos históricos sobre el tema, desde los filósofos griegos hasta nuestros días.

El objetivo de este post es analizar este dilema, introduciendo nuevas herramientas de análisis como son la Teoría de la Información (IT) [2], la Teoría de la Información Algorítmica (AIT) [3] y la Teoría de la Computación (TC) [4], sin olvidar la perspectiva que muestra los nuevos conocimientos sobre Inteligencia Artificial (AI).

En este post se va a realizar un breve repaso del estado actual del tema, sin entrar en su desarrollo histórico, tratando de identificar las dificultades que obstaculizan su resolución, para en post posteriores analizar el problema desde una óptica diferente a la convencional, utilizando las herramientas lógicas que nos ofrecen las teorías anteriormente mencionadas.

Corrientes de pensamiento: ¿Inventada o descubierta?

De forma muy simplificada, se puede decir que en la actualidad la postura de que la matemática es descubierta por los humanos está encabezada por Max Tegmark, que plantea  en “Nuestro Universo Matemático” [5] que el universo es una entidad puramente matemática, lo que justificaría que la matemática describa la realidad con precisión, sino que la propia realidad sea una entidad matemática.

En el lado contrario,  existe un nutrido grupo  de científicos, entre los que cabría destacar a los cognitivos y biólogos que, basándose en el hecho de las capacidades del cerebro, mantienen que la matemática es un ente inventado por los humanos.

Max Tegmark: Nuestro Universo Matemático

En ambos casos, no existen argumentos que hagan caer la balanza hacia una de las hipótesis. Así, en el caso de Max Tegmark mantiene que la teoría definitiva (Teoría del Todo) no puede incluir conceptos tales como «partículas subatómicas», «cuerdas vibratorias», «deformación del espacio-tiempo» u otros constructos concebidos por el hombre. Por tanto, la única descripción posible del cosmos implica únicamente conceptos abstractos y relaciones entre ellos, lo que para él constituye la definición operativa de la matemática.

Este razonamiento supone que el cosmos tiene una naturaleza completamente independiente de la percepción humana, y su comportamiento está regido exclusivamente por dichos conceptos abstractos. Esta visión del cosmos parece acertada en la medida que elimina toda visión antrópica del universo, en la que los humanos no son más que una parte de él. Sin embargo, no justifica que las leyes físicas y los conceptos matemáticos abstractos sean la misma entidad.

En el caso de los que mantienen que la matemática es un ente inventado por los humanos los argumentos no suelen tener una estructura formal y se podría decir que en muchos casos corresponden más a una postura personal y de sentimiento. Una excepción es la postura mantenida por biólogos y cognitivos, en la cual los argumentos se fundamentan en la capacidad creativa del cerebro humano y que justificaría que la matemática es un ente creado por él.

Para estos, la matemática no difiere realmente del lenguaje natural, por lo que la matemática no sería más que otro lenguaje. Así, la concepción de la matemática no sería más que la idealización y abstracción de elementos del mundo físico. Sin embargo, este planteamiento presenta varias dificultades para poder concluir que la matemática es una entidad inventada por los humanos.

Por una parte, no aporta criterios formales para su demostración. Pero además presupone que la capacidad de aprendizaje es un atributo exclusivo de los humanos. Este es un punto crucial, que será tratado en post posteriores. Adicionalmente, se utiliza el lenguaje natural como un concepto central, sin tener en cuenta que cualquier interacción sea de la naturaleza que sea se realiza mediante un lenguaje, tal como demuestra la teoría de la computación [4], la cual es una teoría del lenguaje.

En consecuencia, se puede concluir que ninguna de las dos corrientes de pensamiento presentan argumentos concluyentes sobre cuál es la naturaleza de la matemática. Por esto, parece necesario analizar desde nuevos puntos de vista cuál es la causa para ello, ya que la realidad física y la matemática parecen íntimamente ligadas.

La matemática como una entidad descubierta

En el caso que considera la matemática la esencia misma del cosmos, y por tanto que la matemática es un ente descubierto por los humanos, el argumento es la equivalencia de los modelos matemáticos con el comportamiento físico. Pero para que este argumento sea concluyente se debería desarrollar la Teoría del Todo, en la cual las entidades físicas  fueran estrictamente de naturaleza matemática. Esto significa que la realidad estaría sustentada en un conjunto de axiomas y de la información que describe el modelo, el estado y la dinámica del sistema.

Esto significa una desmaterialización de la física, algo que de alguna forma parece estar ocurriendo a medida que avanza el desarrollo de las estructuras más profundas de la física. Así, las partículas del modelo estándar no son más que entidades abstractas con unas propiedades observables. Esta pudiera ser la clave, existiendo un indicio en el principio de Landauer [6], que establece una equivalencia entre información y energía.

Pero la resolución del problema por medios físicos o, para ser más precisos, por medio del contraste de modelos matemáticos con la realidad presenta una dificultad fundamental. En general, los modelos matemáticos describen la funcionalidad de un determinado contexto o capa de realidad, y  todos ellos tienen una característica común, de tal forma que estos modelos son irreductibles y desconectados de las capas subyacentes. Por tanto, se debería llegar a desentrañar la capa funcional más profunda, que desde el punto de vista de la AIT y de la TC es un problema no-computable.

La matemática como una entidad inventada

La corriente de opinión a favor de que la matemática es una entidad inventada por los humanos se sustenta en el lenguaje natural y en la capacidad del cerebro para aprender,  imaginar y crear.  

Pero esta argumentación tiene dos debilidades fundamentales. Por una parte, no proporciona argumentos formales que permitan probar de forma concluyente la hipótesis de que la matemática es una entidad inventada. Por otra parte, atribuye propiedades al cerebro humano que son una característica general del cosmos.

El hipocampo: Un ejemplo paradigmático del dilema descubierto o inventado.

Para aclarar este último punto, pongamos como ejemplo la invención de los números enteros por los humanos, que se usa habitualmente para apoyar esta postura. Imaginemos ahora un animal interaccionando con el entorno. Pera esto, éste tiene que interpretar el espacio tiempo con precisión como medio básico de supervivencia. Obviamente, el animal debe haber aprendido o inventado el mapa espacio temporal, algo mucho más complejo que los números naturales.

Es más, la naturaleza ha proporcionado o inventado el hipocampo [7], una estructura neuronal especializada en adquirir información a largo plazo que forma una circunvolución compleja, formando una red neuronal recurrente, muy adecuada para el tratamiento del mapa espacio-temporal y para la resolución de trayectorias. Y por supuesto esta estructura es física y codificada en el genoma de los animales superiores. La cuestión es: ¿Es esta estructura descubierta o inventada por la naturaleza?

En lo relativo al uso del lenguaje como argumento, hay que apuntar que el lenguaje es el medio de interacción en la naturaleza en todos los niveles funcionales. Así, la biología es un lenguaje, la interacción entre partículas es formalmente un lenguaje, aunque este punto requiere un análisis más profundo para su justificación. En particular, el lenguaje natural es de hecho un lenguaje no formal, por lo que no es un leguaje axiomático, lo que hace que sea inconsistente.

Finalmente, en relación con la capacidad de aprendizaje atribuida al cerebro, esta es una característica fundamental de la naturaleza, como demuestran los modelos matemáticos de aprendizaje y puestos de manifiesto de forma incipiente por la AI.

Otra forma de abordar la pregunta sobre la naturaleza de la matemática es mediante el enigma de Wigner [8], en el cual se pregunta por la eficacia inexplicable de las matemáticas. Pero este tema y los temas abiertos anteriormente serán tratados y ampliados en post posteriores.

Bibliografía

[1] M. Livio, Is God a Mathematician?, New York: Simon & Schuster Paperbacks, 2009.
[2] C. E. Shannon, «A Mathematical Theory of Communication,» The Bell System Technical Journal, vol. 27, pp. 379-423, 1948. 
[3] P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[4] M. Sipser, Introduction to the Theory of Computation, Course Technology, 2012.
[5] M. Tegmark, Our Mathematical Universe: My Quest For The Ultimate Nature Of Reality, Knopf Doubleday Publishing Group, 2014.
[6] R. Landauer, «Irreversibility and Heat Generation in Computing Process,» IBM J. Res. Dev., vol. 5, pp. 183-191, 1961.
[7] S. Jacobson y E. M. Marcus, Neuroanatomy for the Neuroscientist, Springer, 2008.
[8] E. P. Wigner, «The unreasonable effectiveness of mathematics in the natural sciences.,» Communications on Pure and Applied Mathematics, vol. 13, nº 1, pp. 1-14, 1960.

COVID-19: ¿Qué hace diferente a esta pandemia?

La zoonosis, o salto de un virus de animales a los humanos, tiene las características de un evento contingente. En principio, este salto puede ser limitado por medio del control sanitario de especies animales domésticas y por medio de la regulación del comercio, contacto y consumo de especies salvajes. Sin embargo, dada la complejidad de la sociedad moderna y del estrecho contacto entre humanos a nivel global, la probabilidad del salto de un virus al humano no es un evento evitable, por lo que la zoonosis puede ser considerada un fenómeno contingente.

Esta situación se ha puesto claramente de manifiesto en los últimos tiempos con la aparición del MERS (MERS-Cov), SARS (SARS-Cov) y recientemente el COVID-19 (SARS-Cov-2).  Esta propagación está motivada fundamentalmente por la globalización, aunque los factores son múltiples y complejos, como son los controles sanitarios y la estructura de las explotaciones ganaderas. Pero la lista es larga, pudiéndose mencionar también la expansión de otras enfermedades víricas por causa del cambio climático, como pueden ser el Zika, la Chikungunya o el Dengue.

La cuestión que se plantea en este escenario es: ¿Qué factores influyen en la magnitud y rapidez de la expansión de una pandemia? Así, en los casos mencionados anteriormente se puede apreciar una diferencia muy significativa en el comportamiento y extensión de la infección. Excepto en el caso del COVID-19, la expansión ha sido limitada y los brotes han podido ser localizados y aislados, evitando una expansión global.

Por el contrario, la situación ha sido completamente diferente con el CoVID-19. Así, su rápida expansión ha cogido desprevenidos a sociedades poco familiarizadas con este tipo de problemas, por lo que los sistemas sanitarios se han visto desbordados y sin protocolos apropiados para el tratamiento de la infección. Por otra parte, los gobernantes inconscientes de la magnitud del problema, e ignorante de las mínimas precauciones de cómo impedir la propagación del virus, parece haber cometido una serie de errores encadenados, típicos de procesos catastróficos, tales como quiebras económicas y accidentes aéreos.

El impacto a largo plazo es todavía muy difícil de evaluar, ya que ha desencadenado un círculo vicioso de acontecimientos que afectan a actividades fundamentales de la sociedad moderna.

En particular,  el impacto en los servicios sanitarios va a dejar una huella profunda, con extensión a áreas que en principio no están directamente relacionadas con el COVID-19, cómo son los efectos sicológicos y psiquiátricos derivados de la percepción del peligro y del confinamiento social. Pero más importante aún es la detracción de recursos en otras actividades sanitarias, habiéndose reducido el flujo de la actividad sanitaria cotidiana, por lo que es previsible un futuro aumento de las tasas de la morbilidad y la mortalidad de otras enfermedades, especialmente de cáncer.

A todo esto hay que añadir el deterioro de la actividad económica, con reducciones de PIB de hasta dos cifras, que va a desencadenar un incremento de la pobreza, sobre todo en los segmentos de población más desfavorecidos. Y puesto que el factor económico es la correa de transmisión de la actividad humana, es fácil imaginar un escenario de tormenta perfecta.

Factores determinantes de la pandemia COVID-19

Pero volvamos a la pregunta que se ha planteado, sobre la singularidad del SARS-Cov-2, para que su expansión haya sido imparable y que en la actualidad nos estemos enfrentando a una segunda oleada.

Para desentrañar este interrogante se puede analizar lo que nos muestran los modelos matemáticos de expansión de una infección, comenzando por el modelo SIR clásico. Este tipo de modelos permite determinar las tasas de infección (β) y de recuperación (γ), así como la tasa de reproducción básica (R0=β/γ) a partir de la morbilidad observada.

El origen de los modelos SIR (Susceptible, Infeccioso, Recuperado) se remonta a principios del siglo XX, propuestos por Kermack and McKendrick en 1927. La ventaja de estos modelos es que están basados en un sistema de ecuaciones diferenciales, el cual puede ser resuelto de forma analítica y por tanto adecuado para su resolución en la época que fueron propuestos. 

Sin embargo, este tipo de modelos son básicos y no facilitan hacer consideraciones de distribución geográfica, movilidad, probabilidad de contagio, estado clínico, desarrollo temporal de cada una de las fases de la infección, edad, sexo, distancia social, protección, rastreo y estrategias de test. Por otra parte, el modelo SIR clásico tiene una estructura deductiva, exclusivamente. Esto significa que a partir de los datos de morbilidad es posible determinar la tasa de reproducción básica de forma exclusiva, ocultando parámetros fundamentales en el proceso de pandemia, como se justificará a continuación.

Para contrastar esta idea es necesario plantear nuevas aproximaciones a la simulación del proceso de pandemia, como es el caso de estudio propuesto en “Un modelo de difusión del Covid-19” y en su implementación. En este caso, el modelo es una estructura SIR discreta, en el que los individuos pasan por un proceso de infección y recuperación con estados realistas, además de incluir todos los parámetros de definición del escenario mencionados anteriormente, o sea, probabilidad de infección, distribución geográfica de la población, movilidad, etc. Esto permite una simulación precisa de la pandemia y, a pesar de su complejidad, su estructura es muy adecuada para implementación con los medios computacionales actuales.

La primera conclusión que se obtuvo de las simulaciones de la fase inicial de la pandemia fue la necesidad de considerar la existencia de una población asintomática muy significativa. Así, en el modelo clásico es posible obtener una rápida expansión de la pandemia considerando simplemente valores elevados de la tasa de infección (β).

Por el contrario, en el modelo discreto la aplicación de los datos existentes no justificaba los datos observados, a no ser que hubiera una población asintomática muy significativa que ocultara la verdadera magnitud de la extensión de la infección. Se debe considerar que la población sintomática en las primeras fases de  la pandemia era reducida. Esto unido a los datos de expansión por diferentes zonas geográficas y las posibles probabilidad de infección producía unos resultados temporales de expansión mucho más lentos e que incluso no desencadenaban el cebado del modelo.

En resumen, el resultado de las simulaciones conducía a escenarios totalmente inconsistentes, hasta que se incluyó una población de asintomáticos elevada, a partir de la cual el modelo comenzó a comportarse de acuerdo a los datos observados. En la actualidad se disponen ya de estadísticas más precisas que confirman este comportamiento  que, en el grupo de infectados, llegan a establecer que el 80% son asintomáticos, el 15% son sintomáticos que requieren algún tipo de atención médica por medio de tratamiento o de ingreso hospitalario y, el resto, un 5% que requiere desde soporte vital de nivel básico hasta soporte vital avanzado.

Estas cifras permiten explicar la virulencia de una pandemia, la cual está fuertemente regulada por el porcentaje de individuos asintomáticos. Este comportamiento justifica la enorme diferencia entre el comportamiento de diferentes tipos de virus. Así, si un virus tiene una alta morbilidad es sencillo de rastrear y de aislar, ya que los casos infecciosos no permanecen ocultos. Por el contrario un virus con baja morbilidad mantiene oculto a los individuos portadores de la enfermedad, al pertenecer al grupo de asintomáticos. A diferencia de los virus mencionados anteriormente, el COVID-19 es un ejemplo paradigmático de este escenario, con el agravante de que es un virus que ha demostrado una gran capacidad de contagio.

Este comportamiento ha propiciado que cuando la pandemia ha mostrado su cara ya existía un enorme grupo de individuos portadores. Y este ha sido probablemente el origen de una cadena de acontecimientos de graves consecuencias sanitarias, económicas y sociales.

Los mecanismos de expansión y contención de la pandemia

Visto en retrospectiva, todo parece indicar que la aparente escasa incidencia de las primeras semanas hizo percibir que el riesgo de pandemia era reducido y poco virulento. Obviamente,  una observación distorsionada claramente por la ocultación del problema provocada por la naturaleza asintomática de la mayoría de los infectados.

Esto posiblemente condicionó también la respuesta para su contención. La inadecuada gestión de la amenaza por parte de gobiernos e instituciones, la falta de recursos de protección y el mensaje transmitido a la población acabó por materializar la pandemia.

En este contexto, hay un aspecto que llama profundamente la atención. Una enfermedad con una alta capacidad infecciosa requiere un medio de transmisión muy eficaz y puesto que los primeros síntomas eran de tipo pulmonar se debería haber concluido que la vía aérea era el medio de transmisión principal. Sin embargo, se puso mucho énfasis en el contacto físico directo y en la distancia social. Es sorprendente la minimización del efecto de los aerosoles, los cuales son muy activos en espacios cerrados, tal como se está reconociendo en la actualidad.

Hay que apuntar también otro matiz aparentemente insignificante relacionado con el comportamiento de la pandemia bajo medidas de protección. Éste está relacionado con el modelado de la pandemia. En el modelo SIR clásico se presupone que la tasa de infección (β) y de recuperación (γ) son exclusivamente proporcionales a los tamaños de las poblaciones en los diferentes estados. Sin embargo, esto es una aproximación que enmascara el proceso estadístico subyacente y que en el caso de la recuperación supone además un error conceptual. Este supuesto determina la estructura de las ecuaciones diferenciales del modelo, imponiendo una solución general de tipo exponencial que no es necesariamente la real.

Por cierto, las funciones exponenciales introducen un retardo de fase, lo que produce el efecto de que la recuperación de un individuo se produzca a trozos, por ejemplo, ¡primero la cabeza y luego las piernas!

Pero la realidad es que el proceso de infección es un proceso totalmente estocástico que es función de la probabilidad de contagio determinada por la capacidad del virus, de la susceptibilidad del individuo, la interacción entre individuos infectados y susceptibles, la distribución geográfica, la movilidad, etc. En definitiva, este proceso tiene una  naturaleza Gaussiana.

Como luego se justificará, este proceso Gaussiano aparece enmascarado por la superposición de la infección en diferentes áreas geográficas, por lo que son sólo visibles en brotes locales independientes, como consecuencia de una contención efectiva de los brotes. Un ejemplo de esto lo encontramos en el caso de Corea del Sur, representado en la figura siguiente.

En el caso de la recuperación el proceso corresponde a una línea de retardo estocástica y por tanto Gaussiana, ya que sólo depende de los parámetros temporales de recuperación impuestos por el virus, la respuesta del individuo y los tratamientos curativos. Por tanto, el proceso de recuperación es totalmente independiente para cada individuo.

El resultado es que la solución general del modelo SIR discreto son Gaussianas y por tanto responden a una función exponencial cuadrática, a diferencia de las funciones exponenciales de orden uno del modelo SIR clásico. Esto hace que las medidas de protección sean mucho más eficaces que las expuestas por los modelos convencionales, por lo que deben considerarse un elemento fundamental para determinar la estrategia de contención de la pandemia.

La cuestión es que una vez que la pandemia es un hecho evidente se debe proceder a establecer medidas de contención y confinamiento. Es en este punto donde la COVID-19 plantea un reto de gran complejidad, como consecuencia de la gran proporción de individuos asintomáticos, que son los principales contribuyentes a la expansión de la infección.

Una solución radical al problema requiere el confinamiento estricto de toda la población durante un periodo no inferior al periodo de latencia del virus en un infectado. Para ser efectiva, esta medida debe estar acompañada de las medidas de protección en el entorno familiar o cercano, así como de amplias campañas de rastreo. Esta estrategia ha mostrado su eficacia en algunos países de Asia. 

En realidad, la adopción de medidas tempranas de profilaxis y contención es la única medida para contener de forma eficaz la pandemia, tal como muestra el resultado del  modelo para diferentes fechas de confinamiento. Es interesante destacar que la dispersión de las curvas en las zonas de cebado del modelo es consecuencia de la naturaleza estocástica del modelo.

Pero la aplicación tardía de esta medida, cuando el número de infectados ocultos era ya muy elevada, unido a la falta de una cultura profiláctica frente a pandemias en los países occidentales ha hecho que estas medidas hayan sido poco efectivas y muy lesivas.

En este sentido, hay que destacar que la postura de los gobiernos ha sido tibia y en la mayor parte de los casos totalmente errática, lo que ha contribuido a que las medidas de confinamiento hayan tenido un seguimiento muy laxo por parte de la población.

En este punto es importante destacar que ante la falta de una acción eficaz, los gobiernos han basado su estrategia de distracción en la disponibilidad de una vacuna, algo que a todas luces no es una solución a corto plazo.

Como consecuencia de la ineficacia de la medida, el periodo de confinamiento se ha prolongado en exceso, levantándose las restricciones una vez que las estadísticas de morbilidad y mortalidad iban bajando. El resultado es que, como el virus está extendido en la población, se han producido inevitablemente nuevas olas de contagio.

Este es otro aspecto importante a la hora interpretar las cifras de expansión de la pandemia. De acuerdo al modelo SIR clásico todo parece indicar que en la progresión de las cifras hay que esperar un pico de contagios que debe disminuir exponencialmente. A lo largo de los primeros meses, los responsables del control de la pandemia han estado buscando este pico, así como el aplanamiento de la curva de integración de los casos totales. Algo esperado pero que nunca parecía llegar.

La explicación a este fenómeno es bastante sencilla. La expansión de la pandemia no está sujeta a la infección de un grupo cerrado de individuos, como supone el modelo SIR clásico. Por el contrario, La expansión del virus se produce una función de áreas geográficas con una densidad de población específica y de la movilidad de los individuos entre ellas. El resultado es que las curvas que describen la pandemia son una superposición compleja de los resultados de todo este conglomerado, tal como muestra la curva de fallecidos en España, en las fechas indicadas. 

El resultado es que el proceso puede prolongarse en el tiempo, de tal forma que la dinámica de las curvas es una superposición compleja de brotes que evolucionan de acuerdo a múltiples factores, como son la densidad y  la movilidad de la población, las medidas de protección, etc.  

 Esto indica que los conceptos que se manejan sobre expansión de una pandemia deben ser profundamente revisados. Lo cual no debe sorprendernos si se considera que a lo largo de la historia no han existido datos fiables que hayan permitido contrastar su comportamiento.

Evolución de la morbilidad y la mortalidad.

Otro aspecto interesante es el estudio de la evolución de la morbilidad y de la mortalidad del SARS-Cov-2. Para ello pueden utilizarse los históricos de la casuística, sobre todo ahora que se comienza a tener datos de una segunda oleada de infección, tal como se muestra en la figura siguiente.

A la vista de estos datos podría sacarse una conclusión precipitada, asegurando que el virus está afectando a la población con una mayor virulencia, aumentando la morbilidad, pero por otra parte también podría decirse que la mortalidad está disminuyendo de forma drástica.

Pero nada más lejos de la realidad si se considera el procedimiento de obtención de los datos de casos diagnosticados. Así, se puede observar que la magnitud de la curva de diagnosticados en segunda fase es mayor que en la primera fase, lo que indica una mayor morbilidad. Sin embargo, en la primera fase el diagnostico era mayoritariamente de tipo sintomático, dada la carencia de recursos para la realización de test. Por el contrario, en la segunda fase el diagnóstico ha sido realizado de forma sintomática y por medio de test, PCR y serológicos.

Esto no ha hecho más que aflorar la magnitud del grupo de infectados asintomáticos, que estaban ocultos en la primera fase. Por tanto, no se puede hablar de una mayor morbilidad. Al contrario, si se observa la pendiente de evolución de la curva, ésta es más suave, lo que indica que la probabilidad de infección está siendo mucho más baja que la mostrada en el mes de mes de marzo. Esto es un claro indicativo de que las medidas de protección son efectivas. Y lo serían más si la disciplina fuera mayor y los mensajes convergieran en esta medida, en lugar de crear confusión e incertidumbre.

Si se comparan las pendientes de las curvas de casos, queda patente que la expansión de la pandemia en la primera fase fue muy abrupta, como consecuencia de la existencia de multitud de vectores  asintomáticos y de la falta absoluta de medidas de prevención. En la segunda fase la pendiente es más suave, atribuible a las medidas de prevención. La comparación de estas pendientes es de un factor de 4, aproximadamente.

Sin embargo, es posible que sin medidas de prevención la segunda fase pudiera ser mucho más agresiva. Esto es así si se considera que es muy posible que el número de vectores contagio en la actualidad sea muy superior al existente en la primera fase, ya que la pandemia está mucho más extendida. Por tanto el factor de expansión pudiera haber sido mucho mayor en la segunda fase, como consecuencia de este parámetro.

En cuanto a la mortalidad, el cociente entre fallecidos y diagnosticados parece haber descendido drásticamente, lo que conduciría a decir que la letalidad del virus ha descendido. Así en el pico de la primera fase su valor era aproximadamente 0.1, mientras que en la segunda fase tiene un valor aproximado de 0.01, o sea un orden de magnitud inferior.

Pero considerando que en las cifras de diagnosticados de la primera fase los asintomáticos estaban ocultos, ambos cocientes no son comparables. Obviamente, el término correspondiente a los asintomáticos permitiría explicar esta aparente disminución, aunque también hay que considerar que la mortalidad real ha disminuido como consecuencia de la mejora de los protocolos de tratamiento.

En consecuencia, no es posible sacar consecuencias sobre la evolución de la letalidad del virus, pero lo que es cierto es que las magnitudes de mortalidad están descendiendo por dos razones. Una virtual, como es la disponibilidad de cifras de infectados más fiables, y, otra real, como consecuencia de la mejora de los protocolos de tratamiento.

Estrategia de futuro

En el momento actual, parece claro que la expansión del virus es un hecho consolidado, por lo que la única estrategia posible a corto y medio plazo es limitar su impacto. A largo plazo, la disponibilidad de una vacuna podría finalmente erradicar la enfermedad, aunque también habrá que considerar la posibilidad de que la enfermedad se convierta en endémica o recurrente.

Por esta razón, y considerando las implicaciones de la pandemia en la actividad humana de todo tipo, los planes de futuro deben basarse en una estrategia de optimización, de tal forma que se minimice el impacto en la salud general de la población y en la economía. Esto es así, ya que el aumento de la pobreza podrá llegar a tener un impacto superior a la propia pandemia.

Bajo este punto de vista y considerando los aspectos analizados con anterioridad, la estrategia debe basar en los siguientes puntos:

  • Medidas de protección y profilaxis estrictas: Mascarillas, limpieza, ventilación, distancia social en todos los ámbitos.
  • Protección de los segmentos de población de riesgo.
  • Mantener en la medida de lo posible las actividades económicas y cotidianas.
  • Conciencia social. Declaración y aislamiento voluntario en caso de infección y cumplimiento de las normas sin necesidad de medidas coercitivas. 
  • Implementar una estructura organizativa para la realización de test masivos, rastreo y aislamiento de infectados.

Es importante destacar que, tal como está demostrando la experiencia, las medidas agresivas de confinamiento no son adecuadas para evitar olas sucesivas de infección y en general son altamente ineficaces, ya que producen desconfianza y rechazo, lo cual es un freno para luchar contra la pandemia.

Otro aspecto interesante es que la implementación de los puntos anteriores no corresponde a proyectos estrictamente de tipo sanitario, sino que son proyectos de gestión y control de recursos. Por esta razón, las actividades orientadas a luchar contra la pandemia deben ser proyectos Ad hoc, ya que la pandemia es un hecho eventual, al cual hay que dedicar esfuerzos específicos.

Dirigir el esfuerzo a través de organizaciones tales como la propia sanidad no producirá más que una desestructuración de la propia organización y una dispersión de recursos, tarea para la cual no se ha creado ni tiene el perfil para ello.

Covid-19: Interpretación de datos

A la vista de la expansión del Covid-19 en diferentes países, y tomando como referencia el modelo de expansión expuesto en el post anterior, se puede hacer una interpretación de los datos, con objeto de resolver algunas dudas y contradicciones planteadas en diferentes foros.

Pero antes de comenzar este análisis, es importante destacar una característica sobresaliente de la expansión del Covid-19 puesta de manifiesto por el modelo. En general, la modelización de los procesos infecciosos se suele centrar en la tasa de infección de los individuos, dejando en un segundo plano los aspectos temporales como los periodos de incubación o de latencia de los patógenos. Esto se justifica como consecuencia de que su influencia pasa generalmente desapercibida, además de introducir dificultades en el estudio analítico de los modelos.  

Sin embargo, en el caso del Covid-19 su rápida expansión hace evidente el efecto de los parámetros temporales, poniendo a los sistemas sanitarios en situaciones críticas y dificultando la interpretación de los datos que van surgiendo a medida que la pandemia se extiende.  

En este sentido hay que destacar como características sobresalientes del Covid-19:

  • La elevada capacidad de infección.
  • La capacidad de infección de individuos en fase de incubación.
  • La capacidad de infección de individuos asintomáticos.

Esto hace que el número de posibles casos asintomáticos sea muy elevado, presentando una gran dificultad su diagnóstico, como consecuencia de la falta de medios provocada por la novedad y rápida expansión del virus.

Por esta razón, el modelo implementado ha tenido en cuenta los parámetros temporales de desarrollo de la infección, lo que requiere un modelo numérico, ya que la solución analítica es muy compleja y posiblemente sin solución estrictamente analítica.  

Como consecuencia el modelo presenta una característica distintiva frente a los modelos convencionales, la cual se pone de manifiesto en la figura siguiente.  

Esta consiste en que es necesario distinguir a los grupos de individuos asintomáticos y sintomáticos, ya que presentan una evolución temporal retardada  en el tiempo. Como consecuencia de esto ocurre lo mismo con la curvas de individuos hospitalizados y en UCI.

Esto permite aclarar algunos aspectos ligados a la evolución real del virus. Así por ejemplo, en relación con la declaración de las medidas excepcionales en Italia y España, se esperaba una mejora sustancial en la contención de la pandemia, algo que todavía parece lejana. La razón que justifica este comportamiento es que las medidas de contención han sido tomadas en base a la evolución de la curva de individuos sintomáticos, pasando por alto el hecho de que ya existía una población muy importante de individuos asintomáticos.

Tal como se aprecia en las gráficas, las medidas hubieran debido tomarse al menos con tres semanas de antelación, o sea de acuerdo a la curva de evolución de individuos asintomáticos. Pero para poder tomar esta decisión de forma acertada se debería haber dispuesto de estos datos, algo totalmente imposible, como consecuencia de la falta de una campaña de test sobre la población. 

Esta situación se corrobora con el ejemplo de China, que si bien no pudo contenerse la expansión del virus en una etapa temprana, las medidas de contención se tomaron, en una escala comparativa de tiempo, varias semanas antes.

Los datos de Alemania son también muy significativos, exhibiendo una tasa de mortalidad muy inferior a los de Italia y España. Aunque esto plantea una incógnita de cara a la capacidad de infección en este país, en realidad es fácil de explicar. En Italia y España se está comenzando a hacer  test de infección por Covid-19. Sin embargo, en Alemania estos test se están realizando desde hace varias semanas a un ritmo de varios cientos de miles por semana. Por el contrario, las cifras de individuos diagnosticados en Italia y España deberán ser revisadas en el futuro.

Esto explica que para un número elevado de individuos  infectados la tasa de mortalidad  sea más baja.  Esto tiene además una ventaja determinante, ya que el diagnóstico precoz permite aislar a los individuos infectados, reduciendo la posibilidad de infección a otros individuos, lo que finalmente va a resultar en una tasa de mortalidad inferior.

Por tanto, se puede hacer una rápida conclusión que puede resumirse en los siguientes puntos:  

  • Las medidas de aislamiento de la población son necesarias, pero poco efectivas cuando estas se toman en una fase avanzada de la pandemia.
  • La detección precoz de la infección es un aspecto totalmente determinante en la contención de la pandemia y sobre todo en la reducción de la tasa de mortalidad.

Un modelo de la difusión del Covid-19

La razón para abordar este tema es doble. Por una parte, el Covid-19 es el reto más importante para la humanidad en este momento, pero por otra parte el proceso de expansión del virus es un ejemplo de cómo la naturaleza establece modelos basados en el procesado de información.

El análisis de la dinámica de expansión del virus y sus consecuencias la basaremos en un modelo implementado en Python, que para aquellos que tengan interés puede ser descargado, pudiéndose realizar los cambios que se consideren oportunos para analizar diferentes escenarios.

El modelo

El modelo está basado en una estructura de 14 estados y 20 parámetros, los cuales determinan las probabilidades y la dinámica temporal de las transiciones entre estados. Es importante destacar que en el modelo se ha considerado que los únicos vectores de propagación del virus son los estados “sintomático” y “asintomático”.  El modelo también establece parámetros de movilidad de los individuos y la tasa de infección.

El modelo tiene algunas simplificaciones, así supone que la distribución geográfica de la población es homogénea, lo ha contribuido a reducir significativamente el esfuerzo computacional. En principio, esto puede parecer una limitación importante, sin embargo veremos que no supone un obstáculo para extraer conclusiones globales. La figura siguiente representa de forma simplificada el diagrama de estados del modelo. Las condiciones que establecen las transiciones pueden ser consultadas en el modelo.

Los parámetros se han ajustado de acuerdo a la experiencia obtenida de la progresión del virus, por lo que la información es limitada y deberá estar sujeta a revisión posterior. En cualquier caso, parece claro que el virus presenta una alta eficiencia a la hora de infiltrase en las células para realizar el proceso de copia, por lo que la carga viral necesaria para la infección es reducida. Esta presupone una alta tasa de infección, por lo que además se supone que una parte importante de la población será infectada.

Los escenarios de propagación del virus pueden ser catalogados en los siguientes apartados:

  • Medidas de acción temprana para confinar la expansión del virus.  
  • Propagación descontrolada del virus.
  • Medidas excepcionales para limitar la propagación de virus.

El primer escenario no va a ser analizado ya que no es el caso de la situación actual. Este escenario puede ser analizado modificando los parámetros del modelo.

Por tanto, los escenarios de interés son los de propagación descontrolada y el de toma de medidas excepcionales, ya que estos representan el estado de pandemia actual.

La evolución natural

La dinámica del modelo para el caso de propagación descontrolada se muestra en la figura siguiente. En esta se puede apreciar que los vectores más importantes en la propagación del virus son los individuos asintomáticos, por tres razones fundamentales. La primera es el amplio impacto del virus en la población. La segunda está determinada por el hecho de que sólo produce un cuadro sintomático en una fracción limitada de la población. La tercera está directamente relacionada con las limitaciones prácticas para diagnosticar individuos asintomáticos, como consecuencia de la novedad y rápida expansión del Covid-19.

Por esta razón parece claro que las medidas extraordinarias para contener el virus deben incidir en limitar de forma drástica el contacto entre humanos. Esto es lo que seguramente ha aconsejado la posible suspensión de las actividades académicas, que incluye a de la población infantil y juvenil, no por ser un grupo de riesgo sino por ser la población más activa en la propagación del virus.

La otra característica de la dinámica de propagación es el abrupto crecimiento temporal de afectados por el virus, hasta que este alcanza a la toda la población, iniciándose una rápida recuperación, pero condenando a los grupos de riesgo a su ingreso en la Unidad de Cuidados Intensivos (ICU) y probablemente a la muerte.

Esto planteará una problemática aguda en los sistemas sanitarios, pudiéndose prever un incremento de casos colaterales que fácilmente pueden superar a los casos directos producidos por el Covid-19. Esto aconseja la toma de medidas extraordinarias, pero al mismo tiempo surge la duda de la eficacia de estas medidas, ya que su rápida expansión puede reducir la eficacia de estas medidas, llegando tarde la toma de decisiones.

La situación actual

Este escenario se representa en las figuras siguientes en la que se decreta una cuarentena para gran parte de la población, restringiendo la capacidad de movimiento de los vectores de propagación. Para confirmar lo expuesto anteriormente se han modelado dos situaciones. La primera, en la que la decisión de medidas extraordinarias se ha tomado antes de que la curva de sintomáticos diagnosticados comience a crecer, lo que en la figura ocurre alrededor del día 40 desde el paciente cero. La segunda, en la que la decisión se ha tomado posteriormente, cuando la curva de sintomáticos diagnosticados está en claro crecimiento, alrededor del día 65 desde el paciente cero.

Estos dos escenarios indican claramente que es más que posible que las medidas se hayan tomado con retraso y que la pandemia sigue su curso natural, debido al retardo existente entre las gráficas de infectados y la de pacientes sintomáticos. En consecuencia, parece que las medidas de contención no van a ser todo lo efectivas que cabría esperar, y considerando que los factores económicos van posiblemente a tener consecuencias muy profundas a largo y medio en el bienestar de la sociedad, se debería pensar en soluciones alternativas.

Es interesante observar como la declaración de medidas especiales modifica el comportamiento temporal de la pandemia. Pero, una vez que estas no se han tomado en una fase inicial de la aparición del virus, las consecuencias son profundas.

Lo que se puede esperar

Obviamente, la solución más apropiada sería encontrar remedios para curar la enfermedad, en lo que se está trabajando activamente, pero que tiene un periodo de desarrollo que pueden superar los establecidos por la dinámica de la pandemia.

Sin embargo, como se conoce los grupos de riesgo, el impacto  y la magnitud de estos, una posible solución alternativa sería:

  • Someter a una cuarentena extrita a estos colectivos, manteniéndoles totalmente aislados del virus e implementando servicios de atención para poder hacer efectivo este aislamiento hasta que remita la pandemia, o se encuentre un tratamiento efectivo.
  • Implementar hospitales dedicados exclusivamente al tratamiento del Covid-19.
  • Para el resto de la población no incluida en los grupos de riesgo seguir con la actividad normal, dejando que la pandemia se extienda (Algo que parece ya ser una posibilidad inevitable). No obstante, se deberán tomar estrictas medidas profilácticas y de seguridad. 

Esta estrategia presenta ventajas innegables. En primer lugar, esto reduciría la presión sobre el sistema sanitario, evitando el colapso de la actividad normal del sistema y propiciando una recuperación más rápida.  En segundo lugar, reduciría los problemas de flujo de capital y tesorería en los estados, que pueden conducir a una crisis sin precedentes, cuyas consecuencias serán con toda seguridad más graves que la propia pandemia.

Por último, queda por analizar un aspecto importante del modelo  como es su limitación para modelar una distribución no homogénea de la población. Este apartado es fácil de resolver si se considera que funciona correctamente para el caso de las ciudades. Así, para modelas el caso de una extensión geográfica más amplia sólo hay que modelas los casos particulares de cada cuidad o comunidad con un desfase temporal tal como está mostrando la propia extensión de la pandemia.

Queda aún por determinar un aspecto como es la duración de las medidas extraordinarias. Si se considera que la carga viral para infectar a un individuo es pequeña, es posible que los repositorios remanentes al final del periodo de cuarentena puedan volver a activar la enfermedad, en aquellos individuos que todavía no hayan sido expuestos al virus o que no se hayan inmunizado. Esto es especialmente importante si se considera que las personas curadas pueden seguir infectadas 15 días más.

Percepción de la complejidad

En post anteriores, la naturaleza de la realidad y de su complejidad se ha enfocado desde el punto de vista de la Teoría de la Información. Sin embargo, es interesante hacer este análisis desde el punto de vista de la percepción humana y de esta manera obtener una visión más intuitiva.

Obviamente, hacer un análisis exhaustivo de la realidad desde esta perspectiva es complejo debido a diversidad de los órganos de percepción y a los aspectos fisiológicos y neurológicos que sobre ellos se desarrollan. En este sentido, se podría exponer como la información percibida es procesada, en función de cada uno de los órganos de percepción. Especialmente el sistema auditivo y el visual, ya que estos tienen una mayor trascendencia en los aspectos culturales. Así, en el post dedicado a la percepción del color se ha descrito como los parámetros físicos de la luz son codificados por las células fotorreceptoras de la retina.

Sin embargo, en este post el planteamiento va a consistir en analizar de forma abstracta como el conocimiento condiciona la interpretación de la información, de tal forma que la experiencia previa puede dirigir el análisis en una cierta dirección. Este comportamiento establece a priori supuestos o condicionantes que limitan el análisis de la información en toda su extensión y que como consecuencia impiden obtener ciertas respuestas o soluciones. La superación de estos obstáculos, a pesar del condicionamiento planteado por la experiencia previa, es lo que se conoce como pensamiento lateral.

Para comenzar, consideremos el caso de los acertijos matemáticos de series en los que se presenta una secuencia de números, caracteres o gráficos en las que se pide determinar cómo continua la secuencia. Por ejemplo, dada la secuencia “IIIIIIIVVV”, se pide determinar cuál es el carácter siguiente. Si la cultura romana no hubiera llegado a desarrollarse, podría decirse que el carácter siguiente es “V”, o también que la secuencia ha sido hecha por peques haciendo garabatos. Pero este no es el caso, por lo que el cerebro comienza a maquinar determinando que los caracteres pueden ser romanos y que la secuencia es la de los números “1,2,3,…”. En consecuencia el carácter siguiente debe ser “I”.

De esta forma, se puede apreciar como el conocimiento adquirido condiciona la interpretación de la información percibida por los sentidos. Pero de este ejemplo se puede extraer otra conclusión, consistente en la ordenación de la información como un signo de inteligencia. Para exponer esta idea de manera formal consideremos una secuencia numérica, por ejemplo la serie de Fibonacci “0,1,2,3,5,8,…”. Análogamente al caso anterior el número siguiente deberá ser 13, de tal forma que el término general puede expresarse como fn=fn-1+fn-2. No obstante podemos definir otra función matemática discreta que tome los valores “0,1,2,3,5,8” para n =0,1,2,3,4,5, pero difiera para el resto de valores de n pertenecientes a los números naturales, tal como muestra la figura siguiente. De hecho, con este criterio es posible definir infinitas funciones que cumplan este criterio.

Por tanto, la pregunta es: ¿Qué tiene de particular la serie de Fibonacci respecto del conjunto  funciones que cumplen la condición definida anteriormente?

Aquí se puede hacer el razonamiento ya utilizado en el caso de la serie de números romanos. De tal forma que la formación matemática conduce a identificar la serie de números como pertenecientes a la serie de Fibonacci. Pero esto plantea una contradicción, ya que podría haberse identificado cualquiera de las funciones que cumplen el mismo criterio. Para despejar esta contradicción se debe volver a hacer uso de la Teoría Algorítmica de la Información (AIT).

En primer lugar, hay que destacar que culturalmente el juego de las adivinanzas supone implícitamente seguir unas reglas lógicas y que, por tanto, la respuesta esté libre de arbitrariedad. Así, en el caso de las series numéricas el juego consiste en determinar una regla que justifique el resultado. Si ahora se trata de identificar una regla que determine la secuencia “0,1,2,3,5,8,…” veremos que la más sencilla es fn=fn-1+fn-2. De hecho, es posible que esta sea la más sencilla dentro de este tipo de expresiones. El resto son expresiones complejas, arbitrarias o siendo simples siguen reglas diferentes a las reglas implícitas del acertijo.

Desde el punto de vista de la AIT,  la solución que contiene menos información y que, como consecuencia, puede expresarse de la forma más simple será la respuesta más probable que dará el cerebro a la hora de identificar un patrón determinado por un estímulo. En el ejemplo expuesto, la descripción de la solución previsible será la compuesta por:

  • Una máquina de Turing.
  • La información para codificar las reglas de cálculo.
  • La información para codificar la expresión analítica de la solución más simple. En el ejemplo expuesto corresponde a la expresión de la serie de Fibonacci.

Obviamente existen soluciones de complejidad similar o incluso menor, como por ejemplo la realizada por una máquina de Turing que genere de forma periódica la secuencia “0,1,2,3,5,8”. Pero la mayoría de los casos las soluciones tendrán una descripción más compleja, de tal forma que, de acuerdo a la AIT, in la mayoría de los casos su descripción más compacta será la propia secuencia, la cual no podrá ser comprimida ni expresada de forma analítica.

Por ejemplo, se puede comprobar fácilmente que la función:

genera para valores enteros de n la secuencia “0,1,1,2,3,5,8,0,-62,-279,…”, por lo que podría decirse que las cantidades que siguen a la serie propuesta son “…,0,-62,-279,…”. Obviamente,  la complejidad de esta secuencia es ligeramente superior a la de la serie de Fibonacci, como consecuencia de la complejidad de la descripción de la función y de las operaciones a realizar. 

De forma análoga, podemos tratar de definir otros algoritmos que generen la secuencia propuesta, los cuales irán creciendo en complejidad. Esto pone de manifiesto la posibilidad de interpretación de la información desde diferentes puntos de vista que vayan más allá de las soluciones obvias, que están condicionadas por experiencias previas.

Si además de todo lo anterior se considera que, de acuerdo al principio de Landauer, la complejidad informativa tiene asociado un mayor consumo energético, la resolución de problemas complejos no sólo requiere un mayor esfuerzo computacional, sino también un mayor esfuerzo energético.

Esto puede explicar la sensación de satisfacción producida cuando se resuelve un determinado problema, y la tendencia a implicarse en actividades relajantes que se caracterizan por la sencillez o la monotonía. Por el contrario, la falta de respuesta a un problema produce frustración y desasosiego.

Esto contrasta con la idea que generalmente se tiene sobre la inteligencia. Así, la capacidad de resolver problemas como los expuestos se considera un signo de inteligencia. Pero por el contrario la búsqueda de interpretaciones más complejas parece no tener este estatus. Algo similar ocurre con el concepto de entropía, que generalmente se interpreta como desorden o caos y sin embargo desde el punto de vista de la información es una medida de la cantidad de información.

Otro aspecto que se debe destacar es el hecho de que el proceso cognitivo está sustentado por el procesado de información y, por tanto, sujeto a las reglas de la lógica matemática, cuya naturaleza es irrefutable. Es importante esta matización, ya que generalmente se pone énfasis en los mecanismos físicos y biológicos que soportan los procesos cognitivos, pudiendo llegar finalmente a asignarles una naturaleza espiritual o esotérica.

Por tanto, se puede concluir que el proceso cognitivo está sujeto a la naturaleza y estructura del procesado de información y que desde el punto de vista formal de la teoría de la computabilidad corresponde a una máquina de Turing. De tal forma que la naturaleza ha creado una estructura de procesado basada en la física de la realidad emergente –realidad clásica–, materializada en una red neuronal, la cual interpreta la información codificada por los sentidos de acuerdo a la algorítmica establecida por la experiencia previa. Como consecuencia de ello el sistema realiza dos funciones fundamentales:

  • Interactuar con el entorno, produciendo una respuesta a los estímulos recibidos.
  • Potenciar la capacidad de interpretación, adquiriendo nuevas capacidades –algorítmica– como consecuencia de la capacidad de aprendizaje proporcionada por la red neuronal, tal como muestra la figura.  

Pero lo cierto es que los estímulos de entrada están condicionados por los órganos sensoriales, los cuales constituyen un primer filtro de la información y que por tanto condicionan la percepción de la realidad. La pregunta que se puede realizar es: ¿Qué impacto tiene este filtrado en la percepción de la realidad?

La realidad como un proceso de información

La física tiene por objeto la descripción e interpretación de la realidad material a partir de la observación. Para ello, la matemática ha sido una herramienta fundamental para formalizar dicha realidad mediante modelos, que a su vez han permitido hacer predicciones que posteriormente han sido corroboradas experimentalmente. Esto crea un nexo sorprendente entre realidad y la lógica abstracta que hace sospechar la existencia de una profunda relación más allá de su definición conceptual. De hecho, la capacidad de la matemática de describir con precisión los procesos físicos nos puede llevar a pensar que la realidad no es más que una manifestación de un mundo matemático.

Pero quizá es necesario definir con mayor detalle lo que entendemos por esto. Habitualmente, cuando nos referimos a las matemáticas pensamos en conceptos tales como teoremas o ecuaciones. Sin embargo, podemos tener otra visión de la matemática como un sistema de procesado de información, en la que los conceptos anteriores pueden ser interpretados como una expresión compacta del comportamiento del sistema, tal como nos enseña la teoría de la información algorítmica [1].

De esta manera, las leyes físicas determinan como la información que describe el sistema es procesada, estableciendo una dinámica espacio-temporal del sistema. Como consecuencia, se establece un paralelismo entre el sistema físico y el sistema computacional que desde un punto de vista abstracto son equivalentes. Resultando esta equivalencia algo totalmente sorprendente, ya que en principio suponemos que ambos sistemas pertenecen a ámbitos del conocimiento totalmente diferentes.

Pero dejando aparte este hecho, podemos preguntar qué consecuencias podemos extraer de esta equivalencia. En particular, la teoría de la computabilidad [2] y la teoría de la información [3] [1] nos proporcionan criterios para determinar la reversibilidad computacional y la complejidad de un sistema [4]. En particular:

  • En un sistema computacional reversible (RCS) la cantidad de información permanece constante a lo largo de la dinámica del sistema.
  • En un sistema computacional no-reversible (NRCS) la cantidad de información nunca se incrementa a lo largo de la dinámica del sistema.
  • La complejidad del sistema corresponde a la expresión más compacta del sistema, denominada complejidad de Kolmogorov y es una medida absoluta.

Es importante destacar que en un sistema NRCS la información no se pierde, sino que es explícitamente descartada. Esto significa que no existe ninguna razón fundamental para que dicha información no sea mantenida, ya que la complejidad de un sistema RCS se mantiene constante. En la práctica, la implementación de sistemas computacionales es no-reversible con objeto de optimizar recursos, como consecuencia de las limitaciones tecnológicas para su implementación. De hecho, la energía actualmente necesaria para su implementación es muy superior a la establecida por el principio de Landauer [5].

Si nos centramos en el análisis de sistemas físicos reversibles, como es el caso de la mecánica cuántica, la relatividad, la mecánica newtoniana o el electromagnetismo, se pueden observar magnitudes físicas invariantes que son una consecuencia de la reversibilidad computacional. Estas están determinadas por procesos matemáticos unitarios, lo que significa que todo proceso tiene un proceso inverso [6]. Pero las dificultades para comprender la realidad desde un punto de vista de la lógica matemática parecen surgir de inmediato, siendo la termodinámica y la medida cuántica ejemplos paradigmáticos.

En el caso de la medida cuántica, el estado del sistema antes de realizarse la medida está en una superposición de estados, de tal forma que al realizarse la medida el estado colapsa en uno de los posibles estados en los que estaba el sistema [7]. Esto significa que el escenario de medida cuántica corresponde al de un sistema computacional no-reversible, en el que la información del sistema disminuye al desaparecer la superposición de estados, haciendo que el sistema sea no-reversible como consecuencia de la pérdida de información.

Esto implica que la realidad física pierde información de forma sistemática, lo cual plantea dos contradicciones fundamentales. La primera es el hecho de que la mecánica cuántica es una teoría reversible y que la realidad observable se sustenta sobre ella. La segunda es que esta pérdida de información se contradice con el aumento sistemático de entropía clásica, lo cual a su vez plantea una contradicción más profunda, puesto que en la realidad clásica se produce un incremento espontáneo de información, como consecuencia del incremento de entropía.

La solución a la primera contradicción es relativamente simple si eliminamos la visión antrópica de la realidad. En general, en el proceso de medida cuántica se introduce  el concepto de observador, lo que crea un cierto grado de subjetividad que es muy importante aclarar, ya que puede conducir a errores de interpretación. En este proceso hay dos capas de realidad claramente separadas, la capa cuántica y la capa clásica, de las cuales ya se ha tratado en posts anteriores. La realización de la medida cuántica involucra a dos sistemas cuánticos, uno que definimos como el sistema a medir y otro que corresponde al sistema de medida, que puede considerarse como observador cuántico, y ambos tienen una naturaleza cuántica. Como resultado de esta interacción emerge la información clásica, donde está situado el observador clásico que puede identificarse p.ej. con un físico en un laboratorio. 

Ahora consideremos que la medida está estructurada en dos bloques, uno el sistema cuántico bajo observación y otro el sistema de medida que incluye al observador cuántico y al observador clásico. En este caso se está interpretando que el sistema cuántico bajo medida es un sistema cuántico abierto que pierde información cuántica en el proceso de medida y que como resultado emerge una información clásica de menor cuantía. En definitiva, este escenario ofrece un balance negativo de información.

Pero, por el contrario, en la capa de realidad cuántica se produce la interacción de dos sistemas cuánticos que, se puede  decir,  se observan mutuamente de acuerdo a operadores unitarios, por lo que el sistema es cerrado produciéndose un intercambio de información con un balance nulo de información. Como resultado de esta interacción emerge la capa clásica. Pero entonces parece producirse un balance positivo de información, ya que de este proceso emerge información clásica. Pero realmente lo que ocurre es que la información emergente, que constituye la capa clásica, es simplemente una visión simplificada de la capa cuántica. Por esta razón podemos decir que la capa clásica es una realidad emergente.

Así, se puede decir que la capa cuántica está formada por subsistemas que interaccionan entre sí de forma unitaria, constituyendo un sistema cerrado en el que la información y, por tanto, la complejidad del sistema es un invariante. Como consecuencia de estas interacciones, la capa clásica emerge como una realidad irreductible de la capa cuántica.

En cuanto a la contradicción producida por el aumento de la entropía, las razones que justifican este comportamiento parecen más sutiles. Sin embargo, una primera pista puede estar en el hecho de que este aumento ocurre sólo en la capa clásica. También hay que tener en cuenta que, según la teoría algorítmica de la información, la complejidad de un sistema y, por tanto, la cantidad de información que describe el sistema, es el conjunto formado por la información procesada y la información necesaria para describir al propio procesador. 

Un escenario físico que puede ilustrar esta situación es el caso del big bang [8], en el que se considera que la entropía del sistema en su inicio era muy reducida o incluso nula. Esto es así ya que la radiación de fondo de microondas muestra un patrón bastante homogéneo, por lo que la cantidad de información para su descripción y, por tanto, su entropía es reducida. Pero si creamos un modelo computacional de este escenario, es evidente que la complejidad del sistema se ha incrementado de manera formidable, lo cual es incompatible desde el punto de vista lógico. Esto indica que en el modelo no sólo la información es incompleta, sino también la descripción de los procesos que lo gobiernan. ¿Pero qué indicios físicos tenemos que muestren que esto sea así?

Quizá la muestra más clara de esto es la inflación cósmica [9], de tal forma que la métrica del espacio-tiempo cambia con el tiempo, de tal forma que las dimensiones espaciales crecen con el tiempo. Para explicar este comportamiento se ha postulado la existencia de la energía oscura como motor de este proceso [10], lo que de una forma física reconoce las lagunas que pone de manifiesto la lógica matemática. Quizá un aspecto al que no se le suele prestar atención es la interacción entre el vacío y los fotones, lo que produce una pérdida de energía en los fotones a medida que el espacio-tiempo se expande. Esta pérdida supone una disminución de información que necesariamente debe ser transferida al espacio-tiempo.

Esta situación hace que el vacío, que en el contexto de la física clásica no es más que una métrica abstracta, se esté convirtiendo en una pieza física fundamental de enorme complejidad. Aspectos que contribuyen a esta concepción del vacío son el entrelazado de partículas cuánticas [11], la decoherencia y la energía de punto cero [12].

De todo lo anterior se puede plantear una hipótesis de cuál es la estructura de realidad desde un punto de vista computacional, como muestra la figura siguiente. Si partimos de la base de que la capa cuántica es una estructura unitaria y cerrada, su complejidad permanecerá constante. Pero la funcionalidad y complejidad de esta permanece oculta a la observación y sólo es posible modelarla a través de un proceso inductivo basado en la experimentación y que ha conducido a la definición de modelos físicos, de tal forma que estos modelos permiten describir la realidad clásica. Como consecuencia, la capa cuántica muestra una realidad que constituye la capa clásica y que es una visión parcial y, de acuerdo a los resultados teóricos y experimentales, extremadamente reducida de la realidad subyacente y que hace que la realidad clásica sea una realidad irreductible.

La cuestión fundamental que se puede plantear en este modelo es si la complejidad de la capa clásica es constante o si puede variar a lo largo del tiempo, ya que sólo está sujeta a las leyes de la capa subyacente y es una visión parcial e irreductible de dicha capa funcional. Pero para que la capa clásica sea invariante se requiere que esta sea cerrada y que por tanto lo sea su descripción computacional, lo cual no se verifica ya que está sujeta a la capa cuántica. En consecuencia, la complejidad de la capa clásica puede variar.

En consecuencia, surge la cuestión de si existe algún mecanismo en la capa cuántica que justifique la fluctuación de la complejidad de la capa clásica. Obviamente una de las causas es la decoherencia cuántica, la cual hace que la información sea observable en la capa clásica. De forma similar, la inflación cósmica produce un incremento de la complejidad, al hacer crecer el espacio-tiempo. Por el contrario, las fuerzas atractivas tienden a reducir la complejidad, por lo que la gravedad sería el factor más destacado.

De la observación de la realidad clásica se puede responder que actualmente su entropía tiende a crecer, como consecuencia de que la decoherencia y la inflación son causas  predominantes. Sin embargo, se pueden imaginar escenarios de recesión, como puede ser un escenario de big crunch en los que la entropía disminuyera. Por tanto, la tendencia de la entropía puede ser una consecuencia del estado dinámico del sistema.

En resumen, se puede decir que la cantidad de información en la capa cuántica permanece constante, como consecuencia de su naturaleza unitaria. Por el contrario, la cantidad de información en la capa clásica está determinada por la cantidad de información que emerge de la capa cuántica. Por tanto, el reto que se plantea es determinar con precisión los mecanismos que determinan la dinámica de este proceso. Adicionalmente, se pueden analizar escenarios específicos que en general corresponden al ámbito de la termodinámica. Otros escenarios de interés pueden ser de naturaleza cuántica como es el planteado por Hugh Everett sobre la interpretación de muchos mundos (IMM), mejor conocido como Many-Worlds Interpretation (MWI).

Bibliografía

[1] P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[2] M. Sipser, Introduction to the Theory of Computation, Course Technology, 2012.
[3] C. E. Shannon, “A Mathematical Theory of Communication,” vol. 27, pp. 379-423, 623-656, 1948.
[4] M. A. Nielsen and I. L. Chuang, Quantum computation and Quantum Information, Cambridge University Press, 2011.
[5] R. Landauer, «Irreversibility and Heat Generation in Computing Process,» IBM J. Res. Dev., vol. 5, pp. 183-191, 1961.
[6] J. Sakurai y J. Napolitano, Modern Quantum Mechanics, Cambridge University Press, 2017.
[7] G. Auletta, Foundations and Interpretation of Quantum Mechanics, World Scientific, 2001.
[8] A. H. Guth, The Inflationary Universe, Perseus, 1997.
[9] A. Liddle, An Introduction to Modern Cosmology, Wiley, 2003.
[10] P. J. E. Peebles and Bharat Ratra, “The cosmological constant and dark energy,” arXiv:astro-ph/0207347, 2003.
[11] A. Aspect, P. Grangier and G. Roger, “Experimental Tests of Realistic Local Theories via Bell’s Theorem,” Phys. Rev. Lett., vol. 47, pp. 460-463, 1981.
[12] H. B. G. Casimir and D. Polder, “The Influence of Retardation on the London-van der Waals Forces,” Phys. Rev., vol. 73, no. 4, pp. 360-372, 1948.

Sobre la complejidad del número PI (π)

Introducción

No hay duda de que desde los orígenes de la geometría los humanos han sido seducidos por el número π. Así, una de sus características fundamentales es que determina la relación entre la longitud de una circunferencia y su radio. Pero esto no queda aquí, ya que esta constante aparece de forma sistemática en los modelos matemáticos y científicos que describen el comportamiento de la naturaleza. De hecho, es tal su popularidad que es el único número que tiene su día conmemorativo. La gran fascinación alrededor de π ha planteado especulaciones sobre la información codificada en sus cifras y sobre todo ha desencadenado una inacabable carrera por su determinación, habiéndose calculado a fecha de hoy varias decenas de billones de cifras.

Formalmente, la clasificación de los números reales se realiza de acuerdo a las reglas del cálculo. De este modo, Cantor demostró que los números reales pueden clasificarse como contables infinitos e incontables infinitos, lo que comúnmente se denominan racionales e irracionales. Los números racionales son aquellos que pueden ser expresados como cociente de dos números enteros. Mientras que los números irracionales no pueden ser expresados de esta manera. Estos se clasifican a su vez como números algebraicos y números trascendentes. Los primeros corresponden a las raíces no racionales de las ecuaciones algebraicas, o sea, de raíces de polinomios. Por el contrario, los números trascendentes son soluciones de ecuaciones trascendentes, o sea no polinómicas, cono son las funciones exponenciales y trigonométricas.

Georg Cantor. Co-creador de la Teoría de Conjuntos.

Sin entrar en mayor detalle, lo que nos debe llamar la atención es que esta clasificación de los números se basa en reglas de cálculo posicional, en las que cada cifra tiene un valor jerarquizado. Pero qué ocurre si los números son tratados como secuencias ordenadas de bits, en las que la posición no es un atributo de valor.  En este caso, la Teoría Algorítmica de la Información (AIT) permite establecer una medida de la información contenida en una secuencia finita de bits, y en general de cualquier objeto matemático, y que por tanto esté definida en el dominio de los números naturales.

¿Qué nos enseña la AIT?

Esta medida se fundamento en el concepto de complejidad de Kolmogorov (KC), de tal forma que la complejidad de Kolmogorov K(x) de un objeto finito x se define como la longitud de la descripción binaria efectiva más corta de x. Donde el término “descripción efectiva” conecta la KC con la teoría de la computación, de tal forma que K(x) correspondería a la longitud del programa más corto que imprime x y entra en estado de halt. Para ser precisos, la definición formal de K(x) es:

K(x) = minp,i{ K(i) + l(p):Ti(p) = x } + O(1)

Donde Ti(p) es la máquina de Turing (TM) i que ejecuta p e imprime x, l(p) es la longitud de p, y K(i) es la complejidad de la Ti. Por consiguiente, el objeto p es una representación comprimida del objeto x relativa a Ti, ya que x puede recuperarse a partir de p mediante el proceso de decodificación definido por Ti, por lo que se define como información significativa de x (meaningful information). El resto es considerado como información carente de sentido,  redundante, accidental o ruido (meaningless information). El término O(1) indica que K(i) es una función recursiva y en general es no computable, aunque por su definición es independiente de la máquina en que se ejecute (machine independent) y cuyo resultado tiene un mismo orden de magnitud en cada una de las implementaciones. En este sentido, los teoremas de incompletitud de Gödel, la máquina de Turing  y la complejidad de Kolmogorov conducen a la misma conclusión sobre la indecidibilidad, poniendo de manifiesto la existencia de funciones no computables.

La KC muestra que la información puede ser comprimida, pero no establece ningún procedimiento general para su implementación, lo cual es sólo posible para ciertas secuencias. En efecto, a partir de la definición de la KC se demuestra que ésta es una propiedad intrínseca de las secuencias de bits, de tal forma que hay secuencias que no pueden ser comprimidas. Así, el número de secuencia de n bits que pueden ser codificadas mediante m bits es menor que 2m, por lo que la fracción de secuencias de n bits con K(x) ≥ n-k es menor que 2-k. Si se consideran las posibles secuencias de n bits, cada una de ellas tendrán una probabilidad de ocurrencia igual a 2-n, por lo que la probabilidad de que la complejidad de una secuencia sea K(x) ≥ n-k es igual o mayor que (1-2-k). En definitiva, la mayor parte de las secuencias de bits no pueden ser comprimidas más allá de su propio tamaño, mostrando una elevada complejidad al no presentar ningún tipo de patrón. Aplicado al campo de la física, este comportamiento de la información justifica la hipótesis ergódica. Como consecuencia, esto significa que la mayor parte de los problemas no pueden ser resueltos de forma analítica, ya que sólo pueden ser representados por ellos mismos y como consecuencia no pueden ser descritos de forma compacta mediante reglas formales.

Podría pensarse que la complejidad de una secuencia puede reducirse a voluntad aplicando un criterio de codificación que modifique la secuencia en otra con menos complejidad. En general, esto no hace más que aumentar la complejidad, ya que en el cálculo de la función K(x) habría que añadir la complejidad del algoritmo de codificación que hace que ésta crezca como n2. Finalmente, añadir que la KC es aplicable a cualquier objeto matemático, enteros, conjuntos, funciones, y se demuestra que, a medida que crece la complejidad del objeto matemático, K(x) es equivalente a la entropía H definida en el contexto de la Teoría de la Información. La ventaja de la AIT es que realiza un tratamiento semántico de la información, al ser un proceso axiomático, por lo que no requiere disponer a priori de ningún tipo de alfabeto para realizar la medida de la información.

¿Qué puede decirse sobre la complejidad de π?

De acuerdo a su definición, la KC no puede ser aplicada a los números irracionales, ya que en este caso la máquina de Turing no alcanza el estado de halt, ya que como sabemos estos números tienen un número infinito de cifras. Dicho de otro modo, y para ser formalmente correctos, la máquina de Turing sólo está definida en el campo de los números naturales (se debe recordar que su cardinalidad es la misma que la delos racionales), mientras que los números irracionales tienen una cardinalidad superior a la de los números naturales. Esto significa que la KC y la entropía equivalente H de los números irracionales son indecibles y por tanto no computables.

Para resolver esta dificultad podemos asimilar un número irracional X a la concatenación de una secuencia de bits compuesta por un número racional x y por un residuo δx, de tal forma que en términos numéricos X=x+δx, pero en términos de información X={x,δx}. Como consecuencia, δx es un número irracional δx→0. No obstante, δx es una secuencia de bits con una KC indecible y por tanto no computable. De esta manera, se puede expresar:

K(X) = K(x)+K(δx)

Pudiendo asimilarse la complejidad de X a la complejidad de x. A priori esta aproximación puede parecer sorprendente e inadmisible, puesto que el término K(δx) es despreciado, cuando en realidad tiene una complejidad indecible. Pero esta aproximación es similar a la realizada en el cálculo de la entropía de una variable continua o al proceso de renormalización utilizado en física, con objeto de obviar la complejidad de los procesos subyacentes que permanecen ocultos a la realidad observable.

En consecuencia, la secuencia p, que ejecuta la máquina de Turing i para obtener x, estará compuesta por la concatenación de:

  • La secuencia de bits que codifican las reglas del cálculo en la máquina de Turing i.
  • La secuencia de bits que codifica la expresión comprimida de x, por ejemplo la expresión de una determinada serie numérica de x.
  • La longitud de la secuencia x que se desea decodificar y que determina cuando la máquina de Turing debe alcanzar el estado de halt, por ejemplo un gúgol (10100).  

En definitiva, se puede concluir que la complejidad K(x) de los números irracionales conocidos, p. ej. √2, π, e,…, es reducida. Por esta razón, el reto debe ser la obtención de la expresión óptima de K(x) y no las cifras que codifican estos números, ya que de acuerdo a lo expuesto su expresión descomprimida, o sea el desarrollo de sus cifras, tiene un elevado grado de redundancia (meaningless information).

Esto que en teoría es sorprendente y cuestionable es en la práctica un hecho irrefutable, ya que la complejidad de δx permanecerá siempre oculta, ya que es indecible y por tanto no computable.

Otra conclusión importante es que proporciona un criterio de clasificación de los números irracionales en dos grupos: representables y no representables. Los primeros corresponden a los números irracionales que pueden ser representados por expresiones matemáticas, las cuales serían la expresión comprimida de los números. Mientras que los números no representables corresponderían a los números irracionales que sólo podrían ser expresados por ellos mismos y que por tanto son indecibles. En definitiva, la cardinalidad de los números irracionales representables es la de los números naturales. Se debe destacar que el criterio de clasificación anterior es aplicable a cualquier objeto matemático.

Por otra parte, es evidente que la matemática, y en particular el cálculo, acepta de facto los criterios establecidos para definir la complejidad K(x). Este hecho puede pasar desapercibido debido a que, tradicionalmente en este contexto, los números se analizan desde la óptica de la codificación posicional, de tal forma que el residuo no representable queda filtrado por medio del concepto de límite, de tal forma que δx→0. Sin embargo, cuando se trata de evaluar la complejidad informativa de un objeto matemático puede ser necesario aplicar un procedimiento de renormalización.

Una visión macroscópica del gato de Schrödinger

Del análisis realizado en el apartado anterior se puede concluir que en general no es posible asociar los estados macroscópicos de un sistema complejo a sus estados cuánticos. Así, los estados macroscópicos correspondientes al gato muerto (DC) o vivo (AC) no pueden considerarse estados cuánticos, ya que de acuerdo a la teoría cuántica el sistema podría expresarse como una superposición de estos. En consecuencia, tal como se ha justificado, para sistemas macroscópicos no es posible definir estados cuánticos tales como |DC〉 y |AC〉. Por otra parte, los estados (DC) y (AC) son una realidad observable, lo que indica que el sistema presenta dos realidades, una realidad cuántica y una realidad emergente que puede definirse como realidad clásica.

La realidad cuántica estará definida por su función de onda, formada por la superposición de los subsistemas cuánticos que forman el sistema y que evolucionará de acuerdo a la interacción existente entre todos los elementos cuánticos que forman el sistema y el entorno. Por simplicidad, si se considera el sistema CAT de forma aislada, la sucesión de su estado cuántico puede expresarse como:

|CAT[n]〉 = |SC1[n]〉⊗|SC2[n]〉⊗…⊗|SCi[n]〉⊗…⊗|SCk[n][n]〉.

Expresión en la que se ha tenido en cuenta que el número de subsistemas cuánticos no entrelazados k varía también con el tiempo, por lo que es función de la secuencia n, considerando el tiempo como una variable discreta.

La realidad clásica observable podrá describirse por el estado del sistema que, si para el objeto “gato” se define como (CAT[n]), del razonamiento anterior se concluye que (CAT[n]) ≢ |CAT[n]〉. En otras palabras, los estados cuánticos y clásicos de un objeto complejo no son equivalentes.

La cuestión que queda por justificar es la irreductibilidad del estado clásico observable (CAT) a partir de la realidad cuántica subyacente, representada por el estado cuántico |CAT〉. Esto se puede realizar si se considera que la relación funcional entre los estados |CAT〉 y (CAT) es extraordinariamente compleja, estando sujeta a los conceptos matemáticos en los que se fundamentan los 0 sistemas complejos, como son:

  • El comportamiento estadístico de la información observable que emerge de la realidad cuántica.
  • La no linealidad de las leyes de la física.
  • El enorme número de entidades cuánticas involucradas en un sistema macroscópico.

Esto hace que, de acuerdo a la teoría de la información algorítmica [1], no se pueda establecer una solución analítica que determine la evolución del objeto complejo a partir de su estado inicial. Esto significa que, en la práctica, el proceso de evolución de un objeto complejo sólo puede ser representado por sí mismo, tanto a nivel cuántico como clásico. De acuerdo a la teoría algorítmica de la información, este proceso es equivalente a un objeto matemático compuesto por un conjunto ordenado de bits procesado de acuerdo a reglas axiomáticas. De tal forma que la información del objeto está definida por la complejidad de Kolmogorov, de tal forma que esta no varía en el tiempo, siempre que el proceso sea un sistema aislado. Hay que señalar que la complejidad de Kolmogorov permite determinar la información contenida en un objeto, sin necesidad de disponer previamente de un alfabeto para la determinación de su entropía, tal como ocurre en la teoría de la información [2], si bien ambos conceptos coinciden en el límite.

Desde este punto de vista surgen dos cuestiones fundamentales. La primera es la evolución de la entropía del sistema y la segunda es la aparente pérdida de información en el proceso de observación, mediante el cual emerge la realidad clásica a partir de la realidad cuántica. Esto abre una posible línea de análisis que será abordada más adelante.

Pero volviendo al análisis de cuál es la relación entre los estados clásico y cuántico, es posible tener una visión intuitiva de como el estado (CAT) acaba estando desconectado del estado |CAT〉, analizando el sistema de forma cualitativa.

En primer lugar, se debe considerar que prácticamente el 100% de la información cuántica contenida en el estado |CAT〉 permanece oculta dentro de las partículas elementales que constituyen el sistema. Esto es una consecuencia de que la estructura físico-química [3] de sus moléculas está determinada exclusivamente por los electrones que sustentan sus enlaces covalentes. A continuación, se debe considerar que la interacción molecular, sobre la que se fundamenta la biología molecular, se realiza por medio de fuerzas de van der Waals y puentes de hidrógeno, lo que crea un nuevo nivel de desconexión funcional con la capa subyacente.

Sustentado por este nivel funcional aparece una nueva estructura funcional formada por la biología celular [4], a partir de la cual aparecen los organismos vivos, desde seres unicelulares hasta seres complejos formados por órganos multicelulares. En esta capa es donde emerge el concepto de ser vivo, que establece una nueva frontera entre lo estrictamente físico y el concepto de percepción. De esta forma emerge el tejido nervioso [5], que permite la interacción compleja entre individuos y sobre el cual se sustentan nuevas estructuras y conceptos, tales como conciencia, cultura, organización social, que no sólo están reservadas a los seres humanos, si bien es en estos últimos donde la funcionalidad es más compleja.

Pero a la complejidad de las capas funcionales hay que añadir la no-linealidad de las leyes a que están sujetas y que son condiciones necesarias y suficientes para un comportamiento de caos determinista [6]. Esto significa que cualquier variación en las condiciones iniciales producirá una dinámica diferente, por lo que cualquier emulación acabará divergiendo del original, siendo este comportamiento la justificación del libre albedrio. En este sentido, el principio de indeterminación de Heisenberg [7] impide conocer con exactitud las condiciones iniciales del sistema clásico, en cualquiera de las capas funcionales descritas anteriormente. En consecuencia, todas ellas tendrán una naturaleza irreductible y su dinámica imprevisible, sólo determinada por el propio sistema.

Llegado a este punto y a la vista de esta compleja estructura funcional debemos preguntar a que se refiere el estado (CAT), puesto que hasta ahora se ha supuesto implícitamente la existencia de un estado clásico. La compleja estructura funcional del objeto “gato” permite hacer una descripción de éste a diferentes niveles. Así, el objeto gato se  puede describir de diversas maneras:

  • Como átomos y moléculas sujetos a las leyes de la fisicoquímica.
  • Como moléculas que interaccionan de acuerdo a la biología molecular.
  • Como conjuntos complejos de moléculas que dan origen a la biología celular.
  • Como conjuntos de células para formar órganos y organismos vivos.
  • Como estructuras de proceso de información que dan origen a los mecanismos de percepción e interacción con el entorno y que permiten desarrollar comportamientos individuales y sociales.

Como resultado, cada uno de estos estratos funcionales puede ser expresado por medio de un determinado estado, por lo que hablar de un único estado macroscópico (CAT) no es correcto. Cada uno de estos estados describirá el objeto de acuerdo a unas reglas funcionales diferentes, por lo que cabe preguntar qué relación existe entre estas descripciones y cuál es su complejidad. De forma análoga a los argumentos utilizados para demostrar que los estados |CAT〉 y (CAT) no son equivalentes y estar incorrelados entre sí, los estados que describen el objeto “gato” a diferentes niveles funcionales no serán equivalentes y podrán en cierta medida estar desconectados entre sí.

Este comportamiento es una prueba de cómo la realidad se estructura en capa funcionales irreductibles, de tal forma que cada una de las capas puede ser modelada de forma independiente e irreductible, por medio de un conjunto ordenado de bits procesados de acuerdo a reglas axiomáticas.

Bibliografía

[1]  P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[2]  C. E. Shannon, «A Mathematical Theory of Communication,» The Bell System Technical Journal, vol. 27, pp. 379-423, 1948.
[3]  P. Atkins and J. de Paula, Physical Chemestry, Oxford University Press, 2006.
[4]  A. Bray, J. Hopkin, R. Lewis and W. Roberts, Essential Cell Biology, Garlan Science, 2014.
[5]  D. Purves and G. J. Augustine, Neuroscience, Oxford Univesisty press, 2018.
[6]  Gleick, Chaos: Making a New Science, Penguin Books, 1988.
[7]  W. Heisenberg, «The Actual Content of Quantum Theoretical Kinematics and Mechanics,» Zeit-schrift fur Physik.   Translation: NASA TM-77379., vol. 43, nº 3-4, pp. 172-198, 1927.