La irrazonable eficacia de las matemáticas

En el post “Cuál es la naturaleza de la matemática” se ha expuesto el dilema de si la matemática es descubierta o inventada por los humanos, sin que de momento se haya llegado a aportar pruebas convincentes en ninguno de los dos sentidos.

Una forma más profunda de abordar el tema es tal como lo planteó Eugene P. Wigner [1], preguntándose por la irrazonable eficacia de las matemáticas en las ciencias naturales.

Según Roger Penrose esto plantea tres misterios [2] [3], identificando tres «mundos» distintos: el mundo de nuestra percepción consciente, el mundo físico y el mundo platónico de las formas matemáticas. De esta forma:

  • El mundo de la realidad física parece obedecer leyes que en realidad residen en el mundo de las formas matemáticas.
  • Las propias mentes que perciben —el reino de nuestra percepción consciente— se las han arreglado para surgir del mundo físico.
  • Esas mismas mentes han sido capaces de acceder al mundo matemático al descubrir, o crear, y dar articulación a un capital de formas y conceptos matemáticos.

La eficacia de la matemática presenta dos aspectos diferentes. Uno activo en el que los físicos desarrollan modelos matemáticos que permiten describir de forma precisa el comportamiento de los fenómenos físicos, pero también hacer predicciones sobre ellos, lo cual es un hecho sorprendente.

Aunque más extraordinario aun es el aspecto pasivo de la matemática, de tal forma que los conceptos que los matemáticos exploran de forma abstracta acaban siendo las soluciones de problemas firmemente enraizados en la realidad física.

Pero esta visión de la matemática tiene detractores especialmente fuera del campo de la física, en áreas en las que las matemáticas no parecen tener este comportamiento. Así, el neurobiólogo Jean-Pierre Changeux señala [4]: «Afirmar la realidad física de los objetos matemáticos en el mismo nivel que los fenómenos naturales que se estudian en biología plantea, en mi opinión, un considerable problema epistemológico. ¿Cómo puede un estado físico interno de nuestro cerebro representar otro estado físico externo a él?»

Obviamente, parece que analizar el problema utilizando casos de estudio de diferentes áreas de conocimiento no permite establecer argumentos formales para llegar a una conclusión sobre la naturaleza de la matemática. Por esta razón, se deben buscar un método abstracto que permita superar estas dificultades. En este sentido, la Teoría de la Información (IT) [5], la Teoría de la Información Algorítmica (AIT) [6] y la Teoría de la Computación (TC) [7] pueden ser herramientas de análisis que ayuden a resolver el problema.

¿Qué entendemos por matemáticas?

La pregunta puede parecer obvia, pero las matemáticas están estructuradas en múltiples áreas: algebra, lógica, cálculo, etc., y lo cierto es que cuando nos referimos al éxito de la matemática en el campo de la física subyace la idea de las teorías físicas apoyadas en modelos matemáticos: física cuántica, electromagnetismo, relatividad general, etc.

Sin embargo, cuando estos modelos matemáticos se tratan de aplicar en otras áreas no parecen tener la misma eficacia, por ejemplo en la biología, la sociología o las finanzas, lo que parece contradecir la experiencia en el campo de la física.

Por esta razón, una cuestión fundamental es analizar cómo funcionan estos modelos y cuáles son las causas que dificultan su aplicación fuera del ámbito de la física. Para ello, imaginemos cualquiera de los modelos de éxito de la física, como son la teoría de la gravitación, el electromagnetismo, la cuántica o la relatividad general. Estos modelos se basan en un conjunto de ecuaciones definidas en lenguaje matemático, que determinan las leyes que controlan el fenómeno descrito, las cuales admiten soluciones analíticas que describen la dinámica del sistema. Así por ejemplo, un cuerpo sometido a una fuerza de atracción central describe una trayectoria definida por una cónica.

Esta funcionalidad es una herramienta de análisis potente, ya que permite analizar los sistemas en condiciones hipotéticas y llegar a conclusiones que pueden ser posteriormente verificadas experimentalmente. ¡Pero cuidado! Este escenario de éxito enmascara una realidad que frecuentemente pasa desapercibida, ya que generalmente los escenarios en los que el modelo admite una solución analítica son muy limitados. Así, el modelo gravitatorio no admite solución analítica cuando el número de cuerpos es n>=3 [8], salvo el casos muy concretos como son los denominados puntos de Lagrange. Es más, el sistema tiene un comportamiento muy sensible a las condiciones iniciales, de tal forma que pequeñas variaciones en dichas condiciones pueden producir grandes desviaciones a largo plazo.

Esta es una característica fundamental de los sistemas no lineales y, aunque el sistema esté regido por unas leyes deterministas, su comportamiento es caótico. Sin entrar en detalles que se escapan de este análisis, este es el comportamiento general del cosmos y de todo lo que acontece en él.

Hay un caso que puede considerarse extraordinario es el modelo cuántico que, de acuerdo a la ecuación de Schrödinger o al modelo matricial de Heisenberg, es un modelo lineal y reversible. No obstante, la información que emerge de la realidad cuántica es de naturaleza estocástica.   

En definitiva, los modelos que describen la realidad física sólo tienen una solución analítica en casos muy particulares. Para escenarios complejos, se pueden obtener soluciones particulares al problema mediante series numéricas, pero la solución general de cualquier proposición matemática se obtiene mediante la Máquina de Turing (TM) [9].

Este modelo puede ser representado de forma abstracta mediante la concatenación de tres objetos matemáticosxyz〉 (secuencias de bits) que ejecutados en una máquina de Turing TM(〈xyz〉), determinan la solución. Así, por ejemplo, en el caso del electromagnetismo, el objeto z corresponderá a la descripción de las condiciones de contorno del sistema, y a la definición de las ecuaciones de Maxwell y x a la definición formal del cálculo matemático. TM es la máquina de Turing definida por un conjunto finito de estados. Por tanto, el problema se reduce al tratamiento de un conjunto de bits〈xyz〉de acuerdo a unas reglas axiomáticas definidas en TM, y que en el caso óptimo se puede reducir a una máquina con tres estados (más el estado de HALT) y dos símbolos (bit).

La naturaleza como una máquina de Turing

Y aquí volvemos al punto de partida. ¿Cómo es posible que la realidad pueda ser representada por un conjunto de bits y por un reducido número de reglas axiomáticas?

Con anterioridad al desarrollo de la IT, el concepto de información no tenía un sentido formal, tal como pone de manifiesto su definición clásica en los diccionarios. De hecho, hasta que las tecnologías de la comunicación no comenzaron a desarrollarse, palabras como “enviar” se referían exclusivamente a objetos materiales.

Sin embargo, todo lo que ocurre en el universo es interacción y transferencia, y en el caso de los humanos el medio más elaborado para esta interacción es el lenguaje natural y que consideramos el hito más importante en que se apoya el desarrollo cultural. Es quizá por esta razón que en el debate sobre si la matemática es inventada o descubierta se utilice el lenguaje natural como argumento.

Pero la TC muestra que el lenguaje natural no es formal, al no estar definido sobre bases axiomáticas, por lo que los argumentos basados en él pueden ser de dudosa validez. Y es aquí donde la IT y la TC proporcionan una visión amplia sobre el problema planteado.

En un sistema físico cada una de las partículas componentes tiene unas propiedades físicas y un estado, de tal forma que cuando interacciona con el entorno modifica su estado en función de sus propiedades, de su estado y de la interacción física exterior. Este proceso de interacción es recíproco y como consecuencia del conjunto de interacciones el sistema desarrolla una dinámica temporal.

Así, por ejemplo, la dinámica de una partícula está determinada por la curvatura del espacio-tiempo que indica a la partícula como debe moverse y esta a s vez interacciona con el espacio-tiempo, modificando su curvatura.

En resumen, un sistema tiene una descripción que está distribuida en cada una de las partes que componen el sistema. De esta forma, el sistema podría ser descrito de varias maneras diferentes:

  • Como un conjunto de TMs interaccionando entre sí. 
  • Como una TM que describe el sistema total.
  • Como una TM que describa parcialmente el comportamiento global, mostrando propiedades emergentes del sistema.

La conclusión fundamental es que el sistema es una máquina de Turing. Por tanto, la cuestión no es si la matemática es descubierta o inventada o preguntarnos cómo es posible que la matemática sea tan eficaz describiendo el sistema. La cuestión es cómo es posible que un ente inteligente – natural o artificial- llegue a esta conclusión e incluso sea capaz de deducir las leyes axiomáticas que controlan el sistema.

La justificación se debe fundamentar en que la naturaleza es la que impone la funcionalidad y no los entes inteligentes que forman parte de la naturaleza. La naturaleza es capaz de desarrollar cualquier funcionalidad computable, por lo que entre otras funcionalidades, el aprendizaje y el reconocimiento de patrones de comportamiento es una funcionalidad básica de la naturaleza. De esta forma, la naturaleza desarrolla una dinámica compleja de la que surge el comportamiento físico, la biología, los seres vivos, y los entes inteligentes.

Como consecuencia, la naturaleza ha creado estructuras que son capaces de identificar sus propios patrones de comportamiento, tales como leyes físicas, y en última instancia identificar la naturaleza como una Máquina de Turing Universal (UTM). Esto es lo que hace que la interacción física sea consistente a todos los niveles. Así, en el caso expuesto de la capacidad de los seres vivos para establecer un mapa espacio-temporal, esto les permite interactuar con el entorno, de lo contrario su existencia no sería posible. Obviamente este mapa corresponde a un espacio Euclideo, pero si el ser vivo en cuestión fuera capaz de moverse a velocidades próximas a la luz, el mapa aprendido correspondería al descrito por la relatividad.

Una visión más allá de la física

Si bien la TC, la IT y la AIT son el soporte teórico que nos permiten sustentar esta visión de la naturaleza, los avances en la tecnología de computación y en la AI son una fuente de inspiración, mostrando como la realidad puede ser descrita como una secuencia estructurada de bits. Esto a su vez permite realizar funciones tales como extracción y reconocimiento de patrones, determinación de su complejidad y aprendizaje automático.

A pesar de esto, quedan preguntas fundamentales por contestar, en particular que ocurre con aquellos casos en los que la matemática no parecer tener el mismo existo que en el caso de la física, como puede ser el caso de la biología, la economía o de la sociología. 

Muchos de los argumentos utilizados en contra de la visión anterior se fundamentan en el hecho de que la descripción de la realidad en términos matemáticos, o mejor dicho, en términos de conceptos computacionales no parece encajar, o al menos de forma precisa, en áreas de conocimiento más allá de la física. Sin embargo, es necesario reconocer que se han producido avances muy significativos en áreas como la biología y la economía.

Así, los conocimientos sobre biología muestran que la química de la vida está estructurada en varios lenguajes superpuestos:

  • El lenguaje de los ácidos nucleicos, constituido por un alfabeto de 4 símbolos y que codifica la estructura del ADN y del ARN.
  • El lenguaje de los amino ácidos, constituido por un alfabeto de 64 símbolos y que codifica las proteínas. El proceso de transcripción para la síntesis de proteínas se realiza mediante una concordancia entre ambos lenguajes.
  • El lenguaje de las regiones intergénicas del genoma. Su funcionalidad está todavía por aclarar, pero todo parece indicar que son responsables del control de la producción de proteínas en diferentes partes del cuerpo, mediante la activación de interruptores moleculares.  

Por otra parte, la predicción de la estructura de proteínas mediante técnicas de aprendizaje profundo es una muestra sólida que asocia la biología a la TC [10]. Destacar también que la biología como un proceso de información debe verificar las leyes de la lógica, en particular el teorema de recursión  [11], por lo que la replicación del ADN debe realizar al menos en dos fases por procesos independientes.

En el caso de la economía se han producido avances relevantes a partir de la década de los 80 del siglo XX, con el desarrollo de la finanzas computacionales [12]. Pero como un ejemplo paradigmático nos centraremos en los mercados financieros que nos debe servir para comprobar en un entorno muy alejado de la física la hipótesis de que la naturaleza tiene el comportamiento de una máquina de Turing. 

Básicamente, los mercados financieros son un espacio que puede ser físico o virtual, a través del cual se intercambian activos financieros entre agentes económicos y en el que se definen los precios de dichos activos.

Un mercado financiero está regido por la ley de la oferta y la demanda. Es decir, cuando un agente económico quiere algo a un precio determinado, solo lo podrá comprar a ese precio si hay otro agente dispuesto a venderle ese algo a dicho precio.

Tradicionalmente, los agentes económicos eran personas pero, con el desarrollo de aplicaciones informáticos complejas, actualmente estas aplicaciones actúan también como agentes económicos, de forma supervisada y no supervisada, dado origen a diferentes tipos de estrategias de inversión.

Este sistema puede ser modelado por una máquina de Turing que emula todos los agentes económicos involucrados, o como un  conjunto de máquinas de Turing interaccionando entre sí, cada una de las cuales emula un agente económico.

La definición de este modelo requiere implementar las reglas axiomáticas del mercado, así como la funcionalidad de cada uno de los agentes económicos, que permitan determinar los precios de compra o venta a los que estén dispuestos a negociar. Aquí es donde radica el problema, ya que esto depende de factores muy diversos y complejos, como son la disposición de información sobre los valores negociados, la sicología del agente y otros muchos factores como son los contingentes o las estrategias especulativas.

En resumen, esto hace que la emulación del sistema sea imposible en la práctica. No obstante, hay que señalar que los corredores de bolsa y las aplicaciones automáticas pueden obtener una ventaja competitiva mediante la identificación de patrones globales, o incluso mediante la utilización de información privilegiada, aunque esta práctica está penada por ley en mercados convenientemente regulados.

La cuestión que se puede plantear es si esta imposibilidad de emulación precisa invalida la hipótesis planteada. Si volvemos al caso de estudio de la gravitación Newtoniana, determinada por la fuerza atractiva central, se puede observar que, aunque funcionalmente es diferente, comparte una característica fundamental que imposibilita en la práctica la emulación del sistema y que está presente en todos los escenarios.  

Si pretendemos emular el caso del sistema solar deberemos determinar la posición, velocidad y el momento angular de todos los cuerpos celestes involucrados, sol, planetas, planetas enanos, planetoides, satélites, así como el resto de cuerpos situados en el sistema, tales como el cinturón de asteroides, el cinturón de Kuiper y la nube de Oort, así como la masa y energía dispersa. Adicionalmente, se debe determinar la forma y estructura de los cuerpos, sólidos, líquidos y gaseosos. También habrá que considerar los efectos de las colisiones que modifican la estructura de los cuerpos resultantes. Finalmente habrá que considerar la actividad fisicoquímica, tales como fenómenos geológicos, biológicos, radiación, ya que modifican la estructura y dinámica de los cuerpos y están sujetos a fenómenos cuánticos, lo que supone otra fuente de incertidumbre.  Y aun así el modelo no es adecuado, ya que es necesario aplicar un modelo relativista.

Esto hace que la emulación precisa sea imposible en la práctica, tal como demuestran las continuas correcciones en las efemérides de los satélites GPS, o los ajustes de las trayectorias de los viajes espaciales, donde el viaje a Plutón realizado por la nave New Horizons de la NASA es un caso paradigmático.

Conclusiones

Del análisis anterior se puede plantea la hipótesis de que el universo es un sistema axiomático regido por unas leyes que determina una dinámica que es consecuencia de la interacción y transferencia de las entidades que la componen.

Como consecuencia de los fenómenos de interacción y transferencia, el propio sistema puede emular de forma parcial y aproximada su comportamiento, lo que da origen a procesos de aprendizaje y que finalmente da origen a la vida y la inteligencia. Esto hace posible que los seres vivos interaccionen de forma compleja con en medio ambiente y que entes inteligentes puedan observar la realidad y establecer modelos de dicha realidad.

De esta forma surgen las representaciones abstractas como son el lenguaje natural y las matemáticas. Con el desarrollo de la IT [5] se concluye que todos los objetos pueden ser representados por un conjunto de bits, que pueden ser procesados mediante reglas axiomáticas [7] y que codificados de forma óptima determinan la complejidad del objeto, definida como complejidad de Kolmogorov [6].

El desarrollo de la TC establece que estos modelos pueden ser definidos como una TM, por lo que en el límite puede plantearse la hipótesis de que el universo es equivalente a una máquina de Turing y que los límites de la realidad pueden ir más allá del propio universo, en lo que se define como multiverso y que sería equivalente a una UTM. Esta concordancia entre un universo y una TM  permite plantear la hipótesis de que el universo no es más que información procesada por reglas axiomáticas.  

Por tanto, de la observación de los fenómenos naturales se pueden extraer las leyes de comportamiento que constituyen los modelos abstractos (axiomas), así como la información necesaria para describir los casos de realidad (información). Puesto que esta representación re realiza sobre una realidad física, su representación será siempre aproximada, de tal forma que sólo el universo podrá emularse a sí mismo. Puesto que el universo es consistente, los modelos no hacen más que corroborar este hecho. Pero recíprocamente, la equivalencia entre el universo y una TM implica que las deducciones realizadas a partir de modelos consistentes deben ser satisfechas por la realidad.

No obstante, todo parece indicar que esta forma de percibir la realidad está distorsionada por los sentidos, ya que a nivel de la realidad clásica lo que observamos son las consecuencias de los procesos que acontecen en este nivel funcional, apareciendo los conceptos tales como masa, energía, inercia.

Pero cuando se indaga en las capas que sustentan la realidad clásica esta percepción desaparece, ya que nuestros sentidos no tienen la capacidad directa para su observación, de tal forma que lo que emerge no es más que un modelo de reglas axiomáticas que procesan información, desapareciendo la concepción física sensorial. Esto justificaría la dificultad para comprender los fundamentos de la realidad.

En ocasiones se especula con la posibilidad de que la realidad no sea más que una compleja simulación, pero esto plantea un problema, ya que en tal caso sería necesario un soporte para su realización, lo que implica la existencia de una realidad subyacente necesaria para soportar dicha simulación [15].

Hay dos aspectos que no se han tratado y que son de una importancia trascendental para la comprensión del universo. El primero se refiere a la irreversibilidad en la capa de realidad clásica. De acuerdo a la AIT, la cantidad de información de una TM permanece constante, por lo que la irreversibilidad de los sistemas termodinámicos es un indicio de que estos sistemas son abiertos, ya que no verifican esta propiedad, aspecto al que la física debe dar respuesta.

El segundo está relacionado con el teorema de no clonación. Los sistemas cuánticos son reversibles y, de acuerdo al teorema de no clonación, no es posible hacer copias exactas del estado cuántico desconocido de una partícula. Pero de acuerdo al teorema de recursión, son necesarios al menos dos procesos independientes para hacer una copia. Esto significaría que en la capa cuántica no es posible disponer de al menos dos procesos independientes para copiar dicho estado cuántico. Una explicación alternativa sería que estos estados cuánticos tienen una complejidad no computable.

Finalmente, hay que destacar que la cuestión relativa a si la matemática en inventada o descubierta por los humanos está viciada por una visión antrópica del universo, que considera a los humanos como parte central de éste. Pero hay que concluir que los humanos son una parte del universo, al igual que todas las entidades que lo conforman, en particular las matemáticas.

Bibliografía

[1]E. P. Wigner, “The unreasonable effectiveness of mathematics in the natural sciences.,” Communications on Pure and Applied Mathematics, vol. 13, no. 1, pp. 1-14, 1960.
[2]R. Penrose, The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics, Oxford: Oxford University Press, 1989.
[3]R. Penrose, The Road to Reality: A Complete Guide to the Laws of the Universe, London: Jonathan Cape, 2004.
[4]J. P. Changeux and A. Connes, Conversations on Mind, Matter, and Mathematics, Princeton N. J.: Princeton University Press, 1995.
[5]C. E. Shannon, “A Mathematical Theory of Communication,” The Bell System Technical Journal, vol. 27, pp. 379-423, 1948.
[6]P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[7]M. Sipser, Introduction to the Theory of Computation, Wadsworth Publishing Co Inc, 2012.
[8]H. Poincaré, New Methods of Celestial Mechanics, Springer, 1992.
[9]A. M. Turing, “On computable numbers with an application to the Entscheidungsproblem,” Proc. London Math. Society, vol. 2, no. 42, pp. 230-265, 1936.
[10]A. W. Senior, R. Evans and e. al., “Improved protein structure prediction using potentials from deep learning,” Nature, vol. 577, pp. 706-710, Jan 2020.
[11]S. Kleene, “On Notation for ordinal numbers,” J. Symbolic Logic, no. 3, p. 150–155, 1938.
[12]A. Savine, Modern Computational Finance: AAD and Parallel Simulations, Wiley, 2018.
[13]N. Bostrom, “Are We Living in a Computer Simulation?,” The Philosophical Quarterly, vol. 53, no. 211, p. 243–255, April 2003.

Sponsored Post Learn from the experts: Create a successful blog with our brand new courseThe WordPress.com Blog

WordPress.com is excited to announce our newest offering: a course just for beginning bloggers where you’ll learn everything you need to know about blogging from the most trusted experts in the industry. We have helped millions of blogs get up and running, we know what works, and we want you to to know everything we know. This course provides all the fundamental skills and inspiration you need to get your blog started, an interactive community forum, and content updated annually.

¿Cuál es la naturaleza de la matemática?

La capacidad de las matemáticas para describir el comportamiento de la naturaleza, en particular en el campo de la física, es un hecho sorprendente, sobre todo si se tiene en cuenta que la matemática es una entidad abstracta creada por la mente humana y desconectada de la realidad física.  Pero si la matemática es una entidad creada por los humanos ¿cómo es posible esta correspondencia tan precisa?

A lo largo de los siglos este ha sido un tema de debate, centrándose en dos ideas contrapuestas: ¿Es la matemática inventada o descubierta por los humanos?

Esta pregunta ha dividido a la comunidad científica: filósofos, físicos, lógicos, cognitivos y lingüistas, pudiéndose decir que no sólo no hay un consenso, sino que generalmente se llega a posturas totalmente enfrentadas. Mario Livio en el ensayo “¿Es Dios un matemático?” [1] describe de forma amplia y precisa los acontecimientos históricos sobre el tema, desde los filósofos griegos hasta nuestros días.

El objetivo de este post es analizar este dilema, introduciendo nuevas herramientas de análisis como son la Teoría de la Información (IT) [2], la Teoría de la Información Algorítmica (AIT) [3] y la Teoría de la Computación (TC) [4], sin olvidar la perspectiva que muestra los nuevos conocimientos sobre Inteligencia Artificial (AI).

En este post se va a realizar un breve repaso del estado actual del tema, sin entrar en su desarrollo histórico, tratando de identificar las dificultades que obstaculizan su resolución, para en post posteriores analizar el problema desde una óptica diferente a la convencional, utilizando las herramientas lógicas que nos ofrecen las teorías anteriormente mencionadas.

Corrientes de pensamiento: ¿Inventada o descubierta?

De forma muy simplificada, se puede decir que en la actualidad la postura de que la matemática es descubierta por los humanos está encabezada por Max Tegmark, que plantea  en “Nuestro Universo Matemático” [5] que el universo es una entidad puramente matemática, lo que justificaría que la matemática describa la realidad con precisión, sino que la propia realidad sea una entidad matemática.

En el lado contrario,  existe un nutrido grupo  de científicos, entre los que cabría destacar a los cognitivos y biólogos que, basándose en el hecho de las capacidades del cerebro, mantienen que la matemática es un ente inventado por los humanos.

Max Tegmark: Nuestro Universo Matemático

En ambos casos, no existen argumentos que hagan caer la balanza hacia una de las hipótesis. Así, en el caso de Max Tegmark mantiene que la teoría definitiva (Teoría del Todo) no puede incluir conceptos tales como «partículas subatómicas», «cuerdas vibratorias», «deformación del espacio-tiempo» u otros constructos concebidos por el hombre. Por tanto, la única descripción posible del cosmos implica únicamente conceptos abstractos y relaciones entre ellos, lo que para él constituye la definición operativa de la matemática.

Este razonamiento supone que el cosmos tiene una naturaleza completamente independiente de la percepción humana, y su comportamiento está regido exclusivamente por dichos conceptos abstractos. Esta visión del cosmos parece acertada en la medida que elimina toda visión antrópica del universo, en la que los humanos no son más que una parte de él. Sin embargo, no justifica que las leyes físicas y los conceptos matemáticos abstractos sean la misma entidad.

En el caso de los que mantienen que la matemática es un ente inventado por los humanos los argumentos no suelen tener una estructura formal y se podría decir que en muchos casos corresponden más a una postura personal y de sentimiento. Una excepción es la postura mantenida por biólogos y cognitivos, en la cual los argumentos se fundamentan en la capacidad creativa del cerebro humano y que justificaría que la matemática es un ente creado por él.

Para estos, la matemática no difiere realmente del lenguaje natural, por lo que la matemática no sería más que otro lenguaje. Así, la concepción de la matemática no sería más que la idealización y abstracción de elementos del mundo físico. Sin embargo, este planteamiento presenta varias dificultades para poder concluir que la matemática es una entidad inventada por los humanos.

Por una parte, no aporta criterios formales para su demostración. Pero además presupone que la capacidad de aprendizaje es un atributo exclusivo de los humanos. Este es un punto crucial, que será tratado en post posteriores. Adicionalmente, se utiliza el lenguaje natural como un concepto central, sin tener en cuenta que cualquier interacción sea de la naturaleza que sea se realiza mediante un lenguaje, tal como demuestra la teoría de la computación [4], la cual es una teoría del lenguaje.

En consecuencia, se puede concluir que ninguna de las dos corrientes de pensamiento presentan argumentos concluyentes sobre cuál es la naturaleza de la matemática. Por esto, parece necesario analizar desde nuevos puntos de vista cuál es la causa para ello, ya que la realidad física y la matemática parecen íntimamente ligadas.

La matemática como una entidad descubierta

En el caso que considera la matemática la esencia misma del cosmos, y por tanto que la matemática es un ente descubierto por los humanos, el argumento es la equivalencia de los modelos matemáticos con el comportamiento físico. Pero para que este argumento sea concluyente se debería desarrollar la Teoría del Todo, en la cual las entidades físicas  fueran estrictamente de naturaleza matemática. Esto significa que la realidad estaría sustentada en un conjunto de axiomas y de la información que describe el modelo, el estado y la dinámica del sistema.

Esto significa una desmaterialización de la física, algo que de alguna forma parece estar ocurriendo a medida que avanza el desarrollo de las estructuras más profundas de la física. Así, las partículas del modelo estándar no son más que entidades abstractas con unas propiedades observables. Esta pudiera ser la clave, existiendo un indicio en el principio de Landauer [6], que establece una equivalencia entre información y energía.

Pero la resolución del problema por medios físicos o, para ser más precisos, por medio del contraste de modelos matemáticos con la realidad presenta una dificultad fundamental. En general, los modelos matemáticos describen la funcionalidad de un determinado contexto o capa de realidad, y  todos ellos tienen una característica común, de tal forma que estos modelos son irreductibles y desconectados de las capas subyacentes. Por tanto, se debería llegar a desentrañar la capa funcional más profunda, que desde el punto de vista de la AIT y de la TC es un problema no-computable.

La matemática como una entidad inventada

La corriente de opinión a favor de que la matemática es una entidad inventada por los humanos se sustenta en el lenguaje natural y en la capacidad del cerebro para aprender,  imaginar y crear.  

Pero esta argumentación tiene dos debilidades fundamentales. Por una parte, no proporciona argumentos formales que permitan probar de forma concluyente la hipótesis de que la matemática es una entidad inventada. Por otra parte, atribuye propiedades al cerebro humano que son una característica general del cosmos.

El hipocampo: Un ejemplo paradigmático del dilema descubierto o inventado.

Para aclarar este último punto, pongamos como ejemplo la invención de los números enteros por los humanos, que se usa habitualmente para apoyar esta postura. Imaginemos ahora un animal interaccionando con el entorno. Pera esto, éste tiene que interpretar el espacio tiempo con precisión como medio básico de supervivencia. Obviamente, el animal debe haber aprendido o inventado el mapa espacio temporal, algo mucho más complejo que los números naturales.

Es más, la naturaleza ha proporcionado o inventado el hipocampo [7], una estructura neuronal especializada en adquirir información a largo plazo que forma una circunvolución compleja, formando una red neuronal recurrente, muy adecuada para el tratamiento del mapa espacio-temporal y para la resolución de trayectorias. Y por supuesto esta estructura es física y codificada en el genoma de los animales superiores. La cuestión es: ¿Es esta estructura descubierta o inventada por la naturaleza?

En lo relativo al uso del lenguaje como argumento, hay que apuntar que el lenguaje es el medio de interacción en la naturaleza en todos los niveles funcionales. Así, la biología es un lenguaje, la interacción entre partículas es formalmente un lenguaje, aunque este punto requiere un análisis más profundo para su justificación. En particular, el lenguaje natural es de hecho un lenguaje no formal, por lo que no es un leguaje axiomático, lo que hace que sea inconsistente.

Finalmente, en relación con la capacidad de aprendizaje atribuida al cerebro, esta es una característica fundamental de la naturaleza, como demuestran los modelos matemáticos de aprendizaje y puestos de manifiesto de forma incipiente por la AI.

Otra forma de abordar la pregunta sobre la naturaleza de la matemática es mediante el enigma de Wigner [8], en el cual se pregunta por la eficacia inexplicable de las matemáticas. Pero este tema y los temas abiertos anteriormente serán tratados y ampliados en post posteriores.

Bibliografía

[1] M. Livio, Is God a Mathematician?, New York: Simon & Schuster Paperbacks, 2009.
[2] C. E. Shannon, «A Mathematical Theory of Communication,» The Bell System Technical Journal, vol. 27, pp. 379-423, 1948. 
[3] P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[4] M. Sipser, Introduction to the Theory of Computation, Course Technology, 2012.
[5] M. Tegmark, Our Mathematical Universe: My Quest For The Ultimate Nature Of Reality, Knopf Doubleday Publishing Group, 2014.
[6] R. Landauer, «Irreversibility and Heat Generation in Computing Process,» IBM J. Res. Dev., vol. 5, pp. 183-191, 1961.
[7] S. Jacobson y E. M. Marcus, Neuroanatomy for the Neuroscientist, Springer, 2008.
[8] E. P. Wigner, «The unreasonable effectiveness of mathematics in the natural sciences.,» Communications on Pure and Applied Mathematics, vol. 13, nº 1, pp. 1-14, 1960.

COVID-19: ¿Qué hace diferente a esta pandemia?

La zoonosis, o salto de un virus de animales a los humanos, tiene las características de un evento contingente. En principio, este salto puede ser limitado por medio del control sanitario de especies animales domésticas y por medio de la regulación del comercio, contacto y consumo de especies salvajes. Sin embargo, dada la complejidad de la sociedad moderna y del estrecho contacto entre humanos a nivel global, la probabilidad del salto de un virus al humano no es un evento evitable, por lo que la zoonosis puede ser considerada un fenómeno contingente.

Esta situación se ha puesto claramente de manifiesto en los últimos tiempos con la aparición del MERS (MERS-Cov), SARS (SARS-Cov) y recientemente el COVID-19 (SARS-Cov-2).  Esta propagación está motivada fundamentalmente por la globalización, aunque los factores son múltiples y complejos, como son los controles sanitarios y la estructura de las explotaciones ganaderas. Pero la lista es larga, pudiéndose mencionar también la expansión de otras enfermedades víricas por causa del cambio climático, como pueden ser el Zika, la Chikungunya o el Dengue.

La cuestión que se plantea en este escenario es: ¿Qué factores influyen en la magnitud y rapidez de la expansión de una pandemia? Así, en los casos mencionados anteriormente se puede apreciar una diferencia muy significativa en el comportamiento y extensión de la infección. Excepto en el caso del COVID-19, la expansión ha sido limitada y los brotes han podido ser localizados y aislados, evitando una expansión global.

Por el contrario, la situación ha sido completamente diferente con el CoVID-19. Así, su rápida expansión ha cogido desprevenidos a sociedades poco familiarizadas con este tipo de problemas, por lo que los sistemas sanitarios se han visto desbordados y sin protocolos apropiados para el tratamiento de la infección. Por otra parte, los gobernantes inconscientes de la magnitud del problema, e ignorante de las mínimas precauciones de cómo impedir la propagación del virus, parece haber cometido una serie de errores encadenados, típicos de procesos catastróficos, tales como quiebras económicas y accidentes aéreos.

El impacto a largo plazo es todavía muy difícil de evaluar, ya que ha desencadenado un círculo vicioso de acontecimientos que afectan a actividades fundamentales de la sociedad moderna.

En particular,  el impacto en los servicios sanitarios va a dejar una huella profunda, con extensión a áreas que en principio no están directamente relacionadas con el COVID-19, cómo son los efectos sicológicos y psiquiátricos derivados de la percepción del peligro y del confinamiento social. Pero más importante aún es la detracción de recursos en otras actividades sanitarias, habiéndose reducido el flujo de la actividad sanitaria cotidiana, por lo que es previsible un futuro aumento de las tasas de la morbilidad y la mortalidad de otras enfermedades, especialmente de cáncer.

A todo esto hay que añadir el deterioro de la actividad económica, con reducciones de PIB de hasta dos cifras, que va a desencadenar un incremento de la pobreza, sobre todo en los segmentos de población más desfavorecidos. Y puesto que el factor económico es la correa de transmisión de la actividad humana, es fácil imaginar un escenario de tormenta perfecta.

Factores determinantes de la pandemia COVID-19

Pero volvamos a la pregunta que se ha planteado, sobre la singularidad del SARS-Cov-2, para que su expansión haya sido imparable y que en la actualidad nos estemos enfrentando a una segunda oleada.

Para desentrañar este interrogante se puede analizar lo que nos muestran los modelos matemáticos de expansión de una infección, comenzando por el modelo SIR clásico. Este tipo de modelos permite determinar las tasas de infección (β) y de recuperación (γ), así como la tasa de reproducción básica (R0=β/γ) a partir de la morbilidad observada.

El origen de los modelos SIR (Susceptible, Infeccioso, Recuperado) se remonta a principios del siglo XX, propuestos por Kermack and McKendrick en 1927. La ventaja de estos modelos es que están basados en un sistema de ecuaciones diferenciales, el cual puede ser resuelto de forma analítica y por tanto adecuado para su resolución en la época que fueron propuestos. 

Sin embargo, este tipo de modelos son básicos y no facilitan hacer consideraciones de distribución geográfica, movilidad, probabilidad de contagio, estado clínico, desarrollo temporal de cada una de las fases de la infección, edad, sexo, distancia social, protección, rastreo y estrategias de test. Por otra parte, el modelo SIR clásico tiene una estructura deductiva, exclusivamente. Esto significa que a partir de los datos de morbilidad es posible determinar la tasa de reproducción básica de forma exclusiva, ocultando parámetros fundamentales en el proceso de pandemia, como se justificará a continuación.

Para contrastar esta idea es necesario plantear nuevas aproximaciones a la simulación del proceso de pandemia, como es el caso de estudio propuesto en “Un modelo de difusión del Covid-19” y en su implementación. En este caso, el modelo es una estructura SIR discreta, en el que los individuos pasan por un proceso de infección y recuperación con estados realistas, además de incluir todos los parámetros de definición del escenario mencionados anteriormente, o sea, probabilidad de infección, distribución geográfica de la población, movilidad, etc. Esto permite una simulación precisa de la pandemia y, a pesar de su complejidad, su estructura es muy adecuada para implementación con los medios computacionales actuales.

La primera conclusión que se obtuvo de las simulaciones de la fase inicial de la pandemia fue la necesidad de considerar la existencia de una población asintomática muy significativa. Así, en el modelo clásico es posible obtener una rápida expansión de la pandemia considerando simplemente valores elevados de la tasa de infección (β).

Por el contrario, en el modelo discreto la aplicación de los datos existentes no justificaba los datos observados, a no ser que hubiera una población asintomática muy significativa que ocultara la verdadera magnitud de la extensión de la infección. Se debe considerar que la población sintomática en las primeras fases de  la pandemia era reducida. Esto unido a los datos de expansión por diferentes zonas geográficas y las posibles probabilidad de infección producía unos resultados temporales de expansión mucho más lentos e que incluso no desencadenaban el cebado del modelo.

En resumen, el resultado de las simulaciones conducía a escenarios totalmente inconsistentes, hasta que se incluyó una población de asintomáticos elevada, a partir de la cual el modelo comenzó a comportarse de acuerdo a los datos observados. En la actualidad se disponen ya de estadísticas más precisas que confirman este comportamiento  que, en el grupo de infectados, llegan a establecer que el 80% son asintomáticos, el 15% son sintomáticos que requieren algún tipo de atención médica por medio de tratamiento o de ingreso hospitalario y, el resto, un 5% que requiere desde soporte vital de nivel básico hasta soporte vital avanzado.

Estas cifras permiten explicar la virulencia de una pandemia, la cual está fuertemente regulada por el porcentaje de individuos asintomáticos. Este comportamiento justifica la enorme diferencia entre el comportamiento de diferentes tipos de virus. Así, si un virus tiene una alta morbilidad es sencillo de rastrear y de aislar, ya que los casos infecciosos no permanecen ocultos. Por el contrario un virus con baja morbilidad mantiene oculto a los individuos portadores de la enfermedad, al pertenecer al grupo de asintomáticos. A diferencia de los virus mencionados anteriormente, el COVID-19 es un ejemplo paradigmático de este escenario, con el agravante de que es un virus que ha demostrado una gran capacidad de contagio.

Este comportamiento ha propiciado que cuando la pandemia ha mostrado su cara ya existía un enorme grupo de individuos portadores. Y este ha sido probablemente el origen de una cadena de acontecimientos de graves consecuencias sanitarias, económicas y sociales.

Los mecanismos de expansión y contención de la pandemia

Visto en retrospectiva, todo parece indicar que la aparente escasa incidencia de las primeras semanas hizo percibir que el riesgo de pandemia era reducido y poco virulento. Obviamente,  una observación distorsionada claramente por la ocultación del problema provocada por la naturaleza asintomática de la mayoría de los infectados.

Esto posiblemente condicionó también la respuesta para su contención. La inadecuada gestión de la amenaza por parte de gobiernos e instituciones, la falta de recursos de protección y el mensaje transmitido a la población acabó por materializar la pandemia.

En este contexto, hay un aspecto que llama profundamente la atención. Una enfermedad con una alta capacidad infecciosa requiere un medio de transmisión muy eficaz y puesto que los primeros síntomas eran de tipo pulmonar se debería haber concluido que la vía aérea era el medio de transmisión principal. Sin embargo, se puso mucho énfasis en el contacto físico directo y en la distancia social. Es sorprendente la minimización del efecto de los aerosoles, los cuales son muy activos en espacios cerrados, tal como se está reconociendo en la actualidad.

Hay que apuntar también otro matiz aparentemente insignificante relacionado con el comportamiento de la pandemia bajo medidas de protección. Éste está relacionado con el modelado de la pandemia. En el modelo SIR clásico se presupone que la tasa de infección (β) y de recuperación (γ) son exclusivamente proporcionales a los tamaños de las poblaciones en los diferentes estados. Sin embargo, esto es una aproximación que enmascara el proceso estadístico subyacente y que en el caso de la recuperación supone además un error conceptual. Este supuesto determina la estructura de las ecuaciones diferenciales del modelo, imponiendo una solución general de tipo exponencial que no es necesariamente la real.

Por cierto, las funciones exponenciales introducen un retardo de fase, lo que produce el efecto de que la recuperación de un individuo se produzca a trozos, por ejemplo, ¡primero la cabeza y luego las piernas!

Pero la realidad es que el proceso de infección es un proceso totalmente estocástico que es función de la probabilidad de contagio determinada por la capacidad del virus, de la susceptibilidad del individuo, la interacción entre individuos infectados y susceptibles, la distribución geográfica, la movilidad, etc. En definitiva, este proceso tiene una  naturaleza Gaussiana.

Como luego se justificará, este proceso Gaussiano aparece enmascarado por la superposición de la infección en diferentes áreas geográficas, por lo que son sólo visibles en brotes locales independientes, como consecuencia de una contención efectiva de los brotes. Un ejemplo de esto lo encontramos en el caso de Corea del Sur, representado en la figura siguiente.

En el caso de la recuperación el proceso corresponde a una línea de retardo estocástica y por tanto Gaussiana, ya que sólo depende de los parámetros temporales de recuperación impuestos por el virus, la respuesta del individuo y los tratamientos curativos. Por tanto, el proceso de recuperación es totalmente independiente para cada individuo.

El resultado es que la solución general del modelo SIR discreto son Gaussianas y por tanto responden a una función exponencial cuadrática, a diferencia de las funciones exponenciales de orden uno del modelo SIR clásico. Esto hace que las medidas de protección sean mucho más eficaces que las expuestas por los modelos convencionales, por lo que deben considerarse un elemento fundamental para determinar la estrategia de contención de la pandemia.

La cuestión es que una vez que la pandemia es un hecho evidente se debe proceder a establecer medidas de contención y confinamiento. Es en este punto donde la COVID-19 plantea un reto de gran complejidad, como consecuencia de la gran proporción de individuos asintomáticos, que son los principales contribuyentes a la expansión de la infección.

Una solución radical al problema requiere el confinamiento estricto de toda la población durante un periodo no inferior al periodo de latencia del virus en un infectado. Para ser efectiva, esta medida debe estar acompañada de las medidas de protección en el entorno familiar o cercano, así como de amplias campañas de rastreo. Esta estrategia ha mostrado su eficacia en algunos países de Asia. 

En realidad, la adopción de medidas tempranas de profilaxis y contención es la única medida para contener de forma eficaz la pandemia, tal como muestra el resultado del  modelo para diferentes fechas de confinamiento. Es interesante destacar que la dispersión de las curvas en las zonas de cebado del modelo es consecuencia de la naturaleza estocástica del modelo.

Pero la aplicación tardía de esta medida, cuando el número de infectados ocultos era ya muy elevada, unido a la falta de una cultura profiláctica frente a pandemias en los países occidentales ha hecho que estas medidas hayan sido poco efectivas y muy lesivas.

En este sentido, hay que destacar que la postura de los gobiernos ha sido tibia y en la mayor parte de los casos totalmente errática, lo que ha contribuido a que las medidas de confinamiento hayan tenido un seguimiento muy laxo por parte de la población.

En este punto es importante destacar que ante la falta de una acción eficaz, los gobiernos han basado su estrategia de distracción en la disponibilidad de una vacuna, algo que a todas luces no es una solución a corto plazo.

Como consecuencia de la ineficacia de la medida, el periodo de confinamiento se ha prolongado en exceso, levantándose las restricciones una vez que las estadísticas de morbilidad y mortalidad iban bajando. El resultado es que, como el virus está extendido en la población, se han producido inevitablemente nuevas olas de contagio.

Este es otro aspecto importante a la hora interpretar las cifras de expansión de la pandemia. De acuerdo al modelo SIR clásico todo parece indicar que en la progresión de las cifras hay que esperar un pico de contagios que debe disminuir exponencialmente. A lo largo de los primeros meses, los responsables del control de la pandemia han estado buscando este pico, así como el aplanamiento de la curva de integración de los casos totales. Algo esperado pero que nunca parecía llegar.

La explicación a este fenómeno es bastante sencilla. La expansión de la pandemia no está sujeta a la infección de un grupo cerrado de individuos, como supone el modelo SIR clásico. Por el contrario, La expansión del virus se produce una función de áreas geográficas con una densidad de población específica y de la movilidad de los individuos entre ellas. El resultado es que las curvas que describen la pandemia son una superposición compleja de los resultados de todo este conglomerado, tal como muestra la curva de fallecidos en España, en las fechas indicadas. 

El resultado es que el proceso puede prolongarse en el tiempo, de tal forma que la dinámica de las curvas es una superposición compleja de brotes que evolucionan de acuerdo a múltiples factores, como son la densidad y  la movilidad de la población, las medidas de protección, etc.  

 Esto indica que los conceptos que se manejan sobre expansión de una pandemia deben ser profundamente revisados. Lo cual no debe sorprendernos si se considera que a lo largo de la historia no han existido datos fiables que hayan permitido contrastar su comportamiento.

Evolución de la morbilidad y la mortalidad.

Otro aspecto interesante es el estudio de la evolución de la morbilidad y de la mortalidad del SARS-Cov-2. Para ello pueden utilizarse los históricos de la casuística, sobre todo ahora que se comienza a tener datos de una segunda oleada de infección, tal como se muestra en la figura siguiente.

A la vista de estos datos podría sacarse una conclusión precipitada, asegurando que el virus está afectando a la población con una mayor virulencia, aumentando la morbilidad, pero por otra parte también podría decirse que la mortalidad está disminuyendo de forma drástica.

Pero nada más lejos de la realidad si se considera el procedimiento de obtención de los datos de casos diagnosticados. Así, se puede observar que la magnitud de la curva de diagnosticados en segunda fase es mayor que en la primera fase, lo que indica una mayor morbilidad. Sin embargo, en la primera fase el diagnostico era mayoritariamente de tipo sintomático, dada la carencia de recursos para la realización de test. Por el contrario, en la segunda fase el diagnóstico ha sido realizado de forma sintomática y por medio de test, PCR y serológicos.

Esto no ha hecho más que aflorar la magnitud del grupo de infectados asintomáticos, que estaban ocultos en la primera fase. Por tanto, no se puede hablar de una mayor morbilidad. Al contrario, si se observa la pendiente de evolución de la curva, ésta es más suave, lo que indica que la probabilidad de infección está siendo mucho más baja que la mostrada en el mes de mes de marzo. Esto es un claro indicativo de que las medidas de protección son efectivas. Y lo serían más si la disciplina fuera mayor y los mensajes convergieran en esta medida, en lugar de crear confusión e incertidumbre.

Si se comparan las pendientes de las curvas de casos, queda patente que la expansión de la pandemia en la primera fase fue muy abrupta, como consecuencia de la existencia de multitud de vectores  asintomáticos y de la falta absoluta de medidas de prevención. En la segunda fase la pendiente es más suave, atribuible a las medidas de prevención. La comparación de estas pendientes es de un factor de 4, aproximadamente.

Sin embargo, es posible que sin medidas de prevención la segunda fase pudiera ser mucho más agresiva. Esto es así si se considera que es muy posible que el número de vectores contagio en la actualidad sea muy superior al existente en la primera fase, ya que la pandemia está mucho más extendida. Por tanto el factor de expansión pudiera haber sido mucho mayor en la segunda fase, como consecuencia de este parámetro.

En cuanto a la mortalidad, el cociente entre fallecidos y diagnosticados parece haber descendido drásticamente, lo que conduciría a decir que la letalidad del virus ha descendido. Así en el pico de la primera fase su valor era aproximadamente 0.1, mientras que en la segunda fase tiene un valor aproximado de 0.01, o sea un orden de magnitud inferior.

Pero considerando que en las cifras de diagnosticados de la primera fase los asintomáticos estaban ocultos, ambos cocientes no son comparables. Obviamente, el término correspondiente a los asintomáticos permitiría explicar esta aparente disminución, aunque también hay que considerar que la mortalidad real ha disminuido como consecuencia de la mejora de los protocolos de tratamiento.

En consecuencia, no es posible sacar consecuencias sobre la evolución de la letalidad del virus, pero lo que es cierto es que las magnitudes de mortalidad están descendiendo por dos razones. Una virtual, como es la disponibilidad de cifras de infectados más fiables, y, otra real, como consecuencia de la mejora de los protocolos de tratamiento.

Estrategia de futuro

En el momento actual, parece claro que la expansión del virus es un hecho consolidado, por lo que la única estrategia posible a corto y medio plazo es limitar su impacto. A largo plazo, la disponibilidad de una vacuna podría finalmente erradicar la enfermedad, aunque también habrá que considerar la posibilidad de que la enfermedad se convierta en endémica o recurrente.

Por esta razón, y considerando las implicaciones de la pandemia en la actividad humana de todo tipo, los planes de futuro deben basarse en una estrategia de optimización, de tal forma que se minimice el impacto en la salud general de la población y en la economía. Esto es así, ya que el aumento de la pobreza podrá llegar a tener un impacto superior a la propia pandemia.

Bajo este punto de vista y considerando los aspectos analizados con anterioridad, la estrategia debe basar en los siguientes puntos:

  • Medidas de protección y profilaxis estrictas: Mascarillas, limpieza, ventilación, distancia social en todos los ámbitos.
  • Protección de los segmentos de población de riesgo.
  • Mantener en la medida de lo posible las actividades económicas y cotidianas.
  • Conciencia social. Declaración y aislamiento voluntario en caso de infección y cumplimiento de las normas sin necesidad de medidas coercitivas. 
  • Implementar una estructura organizativa para la realización de test masivos, rastreo y aislamiento de infectados.

Es importante destacar que, tal como está demostrando la experiencia, las medidas agresivas de confinamiento no son adecuadas para evitar olas sucesivas de infección y en general son altamente ineficaces, ya que producen desconfianza y rechazo, lo cual es un freno para luchar contra la pandemia.

Otro aspecto interesante es que la implementación de los puntos anteriores no corresponde a proyectos estrictamente de tipo sanitario, sino que son proyectos de gestión y control de recursos. Por esta razón, las actividades orientadas a luchar contra la pandemia deben ser proyectos Ad hoc, ya que la pandemia es un hecho eventual, al cual hay que dedicar esfuerzos específicos.

Dirigir el esfuerzo a través de organizaciones tales como la propia sanidad no producirá más que una desestructuración de la propia organización y una dispersión de recursos, tarea para la cual no se ha creado ni tiene el perfil para ello.

Covid-19: Interpretación de datos

A la vista de la expansión del Covid-19 en diferentes países, y tomando como referencia el modelo de expansión expuesto en el post anterior, se puede hacer una interpretación de los datos, con objeto de resolver algunas dudas y contradicciones planteadas en diferentes foros.

Pero antes de comenzar este análisis, es importante destacar una característica sobresaliente de la expansión del Covid-19 puesta de manifiesto por el modelo. En general, la modelización de los procesos infecciosos se suele centrar en la tasa de infección de los individuos, dejando en un segundo plano los aspectos temporales como los periodos de incubación o de latencia de los patógenos. Esto se justifica como consecuencia de que su influencia pasa generalmente desapercibida, además de introducir dificultades en el estudio analítico de los modelos.  

Sin embargo, en el caso del Covid-19 su rápida expansión hace evidente el efecto de los parámetros temporales, poniendo a los sistemas sanitarios en situaciones críticas y dificultando la interpretación de los datos que van surgiendo a medida que la pandemia se extiende.  

En este sentido hay que destacar como características sobresalientes del Covid-19:

  • La elevada capacidad de infección.
  • La capacidad de infección de individuos en fase de incubación.
  • La capacidad de infección de individuos asintomáticos.

Esto hace que el número de posibles casos asintomáticos sea muy elevado, presentando una gran dificultad su diagnóstico, como consecuencia de la falta de medios provocada por la novedad y rápida expansión del virus.

Por esta razón, el modelo implementado ha tenido en cuenta los parámetros temporales de desarrollo de la infección, lo que requiere un modelo numérico, ya que la solución analítica es muy compleja y posiblemente sin solución estrictamente analítica.  

Como consecuencia el modelo presenta una característica distintiva frente a los modelos convencionales, la cual se pone de manifiesto en la figura siguiente.  

Esta consiste en que es necesario distinguir a los grupos de individuos asintomáticos y sintomáticos, ya que presentan una evolución temporal retardada  en el tiempo. Como consecuencia de esto ocurre lo mismo con la curvas de individuos hospitalizados y en UCI.

Esto permite aclarar algunos aspectos ligados a la evolución real del virus. Así por ejemplo, en relación con la declaración de las medidas excepcionales en Italia y España, se esperaba una mejora sustancial en la contención de la pandemia, algo que todavía parece lejana. La razón que justifica este comportamiento es que las medidas de contención han sido tomadas en base a la evolución de la curva de individuos sintomáticos, pasando por alto el hecho de que ya existía una población muy importante de individuos asintomáticos.

Tal como se aprecia en las gráficas, las medidas hubieran debido tomarse al menos con tres semanas de antelación, o sea de acuerdo a la curva de evolución de individuos asintomáticos. Pero para poder tomar esta decisión de forma acertada se debería haber dispuesto de estos datos, algo totalmente imposible, como consecuencia de la falta de una campaña de test sobre la población. 

Esta situación se corrobora con el ejemplo de China, que si bien no pudo contenerse la expansión del virus en una etapa temprana, las medidas de contención se tomaron, en una escala comparativa de tiempo, varias semanas antes.

Los datos de Alemania son también muy significativos, exhibiendo una tasa de mortalidad muy inferior a los de Italia y España. Aunque esto plantea una incógnita de cara a la capacidad de infección en este país, en realidad es fácil de explicar. En Italia y España se está comenzando a hacer  test de infección por Covid-19. Sin embargo, en Alemania estos test se están realizando desde hace varias semanas a un ritmo de varios cientos de miles por semana. Por el contrario, las cifras de individuos diagnosticados en Italia y España deberán ser revisadas en el futuro.

Esto explica que para un número elevado de individuos  infectados la tasa de mortalidad  sea más baja.  Esto tiene además una ventaja determinante, ya que el diagnóstico precoz permite aislar a los individuos infectados, reduciendo la posibilidad de infección a otros individuos, lo que finalmente va a resultar en una tasa de mortalidad inferior.

Por tanto, se puede hacer una rápida conclusión que puede resumirse en los siguientes puntos:  

  • Las medidas de aislamiento de la población son necesarias, pero poco efectivas cuando estas se toman en una fase avanzada de la pandemia.
  • La detección precoz de la infección es un aspecto totalmente determinante en la contención de la pandemia y sobre todo en la reducción de la tasa de mortalidad.

Un modelo de la difusión del Covid-19

La razón para abordar este tema es doble. Por una parte, el Covid-19 es el reto más importante para la humanidad en este momento, pero por otra parte el proceso de expansión del virus es un ejemplo de cómo la naturaleza establece modelos basados en el procesado de información.

El análisis de la dinámica de expansión del virus y sus consecuencias la basaremos en un modelo implementado en Python, que para aquellos que tengan interés puede ser descargado, pudiéndose realizar los cambios que se consideren oportunos para analizar diferentes escenarios.

El modelo

El modelo está basado en una estructura de 14 estados y 20 parámetros, los cuales determinan las probabilidades y la dinámica temporal de las transiciones entre estados. Es importante destacar que en el modelo se ha considerado que los únicos vectores de propagación del virus son los estados “sintomático” y “asintomático”.  El modelo también establece parámetros de movilidad de los individuos y la tasa de infección.

El modelo tiene algunas simplificaciones, así supone que la distribución geográfica de la población es homogénea, lo ha contribuido a reducir significativamente el esfuerzo computacional. En principio, esto puede parecer una limitación importante, sin embargo veremos que no supone un obstáculo para extraer conclusiones globales. La figura siguiente representa de forma simplificada el diagrama de estados del modelo. Las condiciones que establecen las transiciones pueden ser consultadas en el modelo.

Los parámetros se han ajustado de acuerdo a la experiencia obtenida de la progresión del virus, por lo que la información es limitada y deberá estar sujeta a revisión posterior. En cualquier caso, parece claro que el virus presenta una alta eficiencia a la hora de infiltrase en las células para realizar el proceso de copia, por lo que la carga viral necesaria para la infección es reducida. Esta presupone una alta tasa de infección, por lo que además se supone que una parte importante de la población será infectada.

Los escenarios de propagación del virus pueden ser catalogados en los siguientes apartados:

  • Medidas de acción temprana para confinar la expansión del virus.  
  • Propagación descontrolada del virus.
  • Medidas excepcionales para limitar la propagación de virus.

El primer escenario no va a ser analizado ya que no es el caso de la situación actual. Este escenario puede ser analizado modificando los parámetros del modelo.

Por tanto, los escenarios de interés son los de propagación descontrolada y el de toma de medidas excepcionales, ya que estos representan el estado de pandemia actual.

La evolución natural

La dinámica del modelo para el caso de propagación descontrolada se muestra en la figura siguiente. En esta se puede apreciar que los vectores más importantes en la propagación del virus son los individuos asintomáticos, por tres razones fundamentales. La primera es el amplio impacto del virus en la población. La segunda está determinada por el hecho de que sólo produce un cuadro sintomático en una fracción limitada de la población. La tercera está directamente relacionada con las limitaciones prácticas para diagnosticar individuos asintomáticos, como consecuencia de la novedad y rápida expansión del Covid-19.

Por esta razón parece claro que las medidas extraordinarias para contener el virus deben incidir en limitar de forma drástica el contacto entre humanos. Esto es lo que seguramente ha aconsejado la posible suspensión de las actividades académicas, que incluye a de la población infantil y juvenil, no por ser un grupo de riesgo sino por ser la población más activa en la propagación del virus.

La otra característica de la dinámica de propagación es el abrupto crecimiento temporal de afectados por el virus, hasta que este alcanza a la toda la población, iniciándose una rápida recuperación, pero condenando a los grupos de riesgo a su ingreso en la Unidad de Cuidados Intensivos (ICU) y probablemente a la muerte.

Esto planteará una problemática aguda en los sistemas sanitarios, pudiéndose prever un incremento de casos colaterales que fácilmente pueden superar a los casos directos producidos por el Covid-19. Esto aconseja la toma de medidas extraordinarias, pero al mismo tiempo surge la duda de la eficacia de estas medidas, ya que su rápida expansión puede reducir la eficacia de estas medidas, llegando tarde la toma de decisiones.

La situación actual

Este escenario se representa en las figuras siguientes en la que se decreta una cuarentena para gran parte de la población, restringiendo la capacidad de movimiento de los vectores de propagación. Para confirmar lo expuesto anteriormente se han modelado dos situaciones. La primera, en la que la decisión de medidas extraordinarias se ha tomado antes de que la curva de sintomáticos diagnosticados comience a crecer, lo que en la figura ocurre alrededor del día 40 desde el paciente cero. La segunda, en la que la decisión se ha tomado posteriormente, cuando la curva de sintomáticos diagnosticados está en claro crecimiento, alrededor del día 65 desde el paciente cero.

Estos dos escenarios indican claramente que es más que posible que las medidas se hayan tomado con retraso y que la pandemia sigue su curso natural, debido al retardo existente entre las gráficas de infectados y la de pacientes sintomáticos. En consecuencia, parece que las medidas de contención no van a ser todo lo efectivas que cabría esperar, y considerando que los factores económicos van posiblemente a tener consecuencias muy profundas a largo y medio en el bienestar de la sociedad, se debería pensar en soluciones alternativas.

Es interesante observar como la declaración de medidas especiales modifica el comportamiento temporal de la pandemia. Pero, una vez que estas no se han tomado en una fase inicial de la aparición del virus, las consecuencias son profundas.

Lo que se puede esperar

Obviamente, la solución más apropiada sería encontrar remedios para curar la enfermedad, en lo que se está trabajando activamente, pero que tiene un periodo de desarrollo que pueden superar los establecidos por la dinámica de la pandemia.

Sin embargo, como se conoce los grupos de riesgo, el impacto  y la magnitud de estos, una posible solución alternativa sería:

  • Someter a una cuarentena extrita a estos colectivos, manteniéndoles totalmente aislados del virus e implementando servicios de atención para poder hacer efectivo este aislamiento hasta que remita la pandemia, o se encuentre un tratamiento efectivo.
  • Implementar hospitales dedicados exclusivamente al tratamiento del Covid-19.
  • Para el resto de la población no incluida en los grupos de riesgo seguir con la actividad normal, dejando que la pandemia se extienda (Algo que parece ya ser una posibilidad inevitable). No obstante, se deberán tomar estrictas medidas profilácticas y de seguridad. 

Esta estrategia presenta ventajas innegables. En primer lugar, esto reduciría la presión sobre el sistema sanitario, evitando el colapso de la actividad normal del sistema y propiciando una recuperación más rápida.  En segundo lugar, reduciría los problemas de flujo de capital y tesorería en los estados, que pueden conducir a una crisis sin precedentes, cuyas consecuencias serán con toda seguridad más graves que la propia pandemia.

Por último, queda por analizar un aspecto importante del modelo  como es su limitación para modelar una distribución no homogénea de la población. Este apartado es fácil de resolver si se considera que funciona correctamente para el caso de las ciudades. Así, para modelas el caso de una extensión geográfica más amplia sólo hay que modelas los casos particulares de cada cuidad o comunidad con un desfase temporal tal como está mostrando la propia extensión de la pandemia.

Queda aún por determinar un aspecto como es la duración de las medidas extraordinarias. Si se considera que la carga viral para infectar a un individuo es pequeña, es posible que los repositorios remanentes al final del periodo de cuarentena puedan volver a activar la enfermedad, en aquellos individuos que todavía no hayan sido expuestos al virus o que no se hayan inmunizado. Esto es especialmente importante si se considera que las personas curadas pueden seguir infectadas 15 días más.

Percepción de la complejidad

En post anteriores, la naturaleza de la realidad y de su complejidad se ha enfocado desde el punto de vista de la Teoría de la Información. Sin embargo, es interesante hacer este análisis desde el punto de vista de la percepción humana y de esta manera obtener una visión más intuitiva.

Obviamente, hacer un análisis exhaustivo de la realidad desde esta perspectiva es complejo debido a diversidad de los órganos de percepción y a los aspectos fisiológicos y neurológicos que sobre ellos se desarrollan. En este sentido, se podría exponer como la información percibida es procesada, en función de cada uno de los órganos de percepción. Especialmente el sistema auditivo y el visual, ya que estos tienen una mayor trascendencia en los aspectos culturales. Así, en el post dedicado a la percepción del color se ha descrito como los parámetros físicos de la luz son codificados por las células fotorreceptoras de la retina.

Sin embargo, en este post el planteamiento va a consistir en analizar de forma abstracta como el conocimiento condiciona la interpretación de la información, de tal forma que la experiencia previa puede dirigir el análisis en una cierta dirección. Este comportamiento establece a priori supuestos o condicionantes que limitan el análisis de la información en toda su extensión y que como consecuencia impiden obtener ciertas respuestas o soluciones. La superación de estos obstáculos, a pesar del condicionamiento planteado por la experiencia previa, es lo que se conoce como pensamiento lateral.

Para comenzar, consideremos el caso de los acertijos matemáticos de series en los que se presenta una secuencia de números, caracteres o gráficos en las que se pide determinar cómo continua la secuencia. Por ejemplo, dada la secuencia “IIIIIIIVVV”, se pide determinar cuál es el carácter siguiente. Si la cultura romana no hubiera llegado a desarrollarse, podría decirse que el carácter siguiente es “V”, o también que la secuencia ha sido hecha por peques haciendo garabatos. Pero este no es el caso, por lo que el cerebro comienza a maquinar determinando que los caracteres pueden ser romanos y que la secuencia es la de los números “1,2,3,…”. En consecuencia el carácter siguiente debe ser “I”.

De esta forma, se puede apreciar como el conocimiento adquirido condiciona la interpretación de la información percibida por los sentidos. Pero de este ejemplo se puede extraer otra conclusión, consistente en la ordenación de la información como un signo de inteligencia. Para exponer esta idea de manera formal consideremos una secuencia numérica, por ejemplo la serie de Fibonacci “0,1,2,3,5,8,…”. Análogamente al caso anterior el número siguiente deberá ser 13, de tal forma que el término general puede expresarse como fn=fn-1+fn-2. No obstante podemos definir otra función matemática discreta que tome los valores “0,1,2,3,5,8” para n =0,1,2,3,4,5, pero difiera para el resto de valores de n pertenecientes a los números naturales, tal como muestra la figura siguiente. De hecho, con este criterio es posible definir infinitas funciones que cumplan este criterio.

Por tanto, la pregunta es: ¿Qué tiene de particular la serie de Fibonacci respecto del conjunto  funciones que cumplen la condición definida anteriormente?

Aquí se puede hacer el razonamiento ya utilizado en el caso de la serie de números romanos. De tal forma que la formación matemática conduce a identificar la serie de números como pertenecientes a la serie de Fibonacci. Pero esto plantea una contradicción, ya que podría haberse identificado cualquiera de las funciones que cumplen el mismo criterio. Para despejar esta contradicción se debe volver a hacer uso de la Teoría Algorítmica de la Información (AIT).

En primer lugar, hay que destacar que culturalmente el juego de las adivinanzas supone implícitamente seguir unas reglas lógicas y que, por tanto, la respuesta esté libre de arbitrariedad. Así, en el caso de las series numéricas el juego consiste en determinar una regla que justifique el resultado. Si ahora se trata de identificar una regla que determine la secuencia “0,1,2,3,5,8,…” veremos que la más sencilla es fn=fn-1+fn-2. De hecho, es posible que esta sea la más sencilla dentro de este tipo de expresiones. El resto son expresiones complejas, arbitrarias o siendo simples siguen reglas diferentes a las reglas implícitas del acertijo.

Desde el punto de vista de la AIT,  la solución que contiene menos información y que, como consecuencia, puede expresarse de la forma más simple será la respuesta más probable que dará el cerebro a la hora de identificar un patrón determinado por un estímulo. En el ejemplo expuesto, la descripción de la solución previsible será la compuesta por:

  • Una máquina de Turing.
  • La información para codificar las reglas de cálculo.
  • La información para codificar la expresión analítica de la solución más simple. En el ejemplo expuesto corresponde a la expresión de la serie de Fibonacci.

Obviamente existen soluciones de complejidad similar o incluso menor, como por ejemplo la realizada por una máquina de Turing que genere de forma periódica la secuencia “0,1,2,3,5,8”. Pero la mayoría de los casos las soluciones tendrán una descripción más compleja, de tal forma que, de acuerdo a la AIT, in la mayoría de los casos su descripción más compacta será la propia secuencia, la cual no podrá ser comprimida ni expresada de forma analítica.

Por ejemplo, se puede comprobar fácilmente que la función:

genera para valores enteros de n la secuencia “0,1,1,2,3,5,8,0,-62,-279,…”, por lo que podría decirse que las cantidades que siguen a la serie propuesta son “…,0,-62,-279,…”. Obviamente,  la complejidad de esta secuencia es ligeramente superior a la de la serie de Fibonacci, como consecuencia de la complejidad de la descripción de la función y de las operaciones a realizar. 

De forma análoga, podemos tratar de definir otros algoritmos que generen la secuencia propuesta, los cuales irán creciendo en complejidad. Esto pone de manifiesto la posibilidad de interpretación de la información desde diferentes puntos de vista que vayan más allá de las soluciones obvias, que están condicionadas por experiencias previas.

Si además de todo lo anterior se considera que, de acuerdo al principio de Landauer, la complejidad informativa tiene asociado un mayor consumo energético, la resolución de problemas complejos no sólo requiere un mayor esfuerzo computacional, sino también un mayor esfuerzo energético.

Esto puede explicar la sensación de satisfacción producida cuando se resuelve un determinado problema, y la tendencia a implicarse en actividades relajantes que se caracterizan por la sencillez o la monotonía. Por el contrario, la falta de respuesta a un problema produce frustración y desasosiego.

Esto contrasta con la idea que generalmente se tiene sobre la inteligencia. Así, la capacidad de resolver problemas como los expuestos se considera un signo de inteligencia. Pero por el contrario la búsqueda de interpretaciones más complejas parece no tener este estatus. Algo similar ocurre con el concepto de entropía, que generalmente se interpreta como desorden o caos y sin embargo desde el punto de vista de la información es una medida de la cantidad de información.

Otro aspecto que se debe destacar es el hecho de que el proceso cognitivo está sustentado por el procesado de información y, por tanto, sujeto a las reglas de la lógica matemática, cuya naturaleza es irrefutable. Es importante esta matización, ya que generalmente se pone énfasis en los mecanismos físicos y biológicos que soportan los procesos cognitivos, pudiendo llegar finalmente a asignarles una naturaleza espiritual o esotérica.

Por tanto, se puede concluir que el proceso cognitivo está sujeto a la naturaleza y estructura del procesado de información y que desde el punto de vista formal de la teoría de la computabilidad corresponde a una máquina de Turing. De tal forma que la naturaleza ha creado una estructura de procesado basada en la física de la realidad emergente –realidad clásica–, materializada en una red neuronal, la cual interpreta la información codificada por los sentidos de acuerdo a la algorítmica establecida por la experiencia previa. Como consecuencia de ello el sistema realiza dos funciones fundamentales:

  • Interactuar con el entorno, produciendo una respuesta a los estímulos recibidos.
  • Potenciar la capacidad de interpretación, adquiriendo nuevas capacidades –algorítmica– como consecuencia de la capacidad de aprendizaje proporcionada por la red neuronal, tal como muestra la figura.  

Pero lo cierto es que los estímulos de entrada están condicionados por los órganos sensoriales, los cuales constituyen un primer filtro de la información y que por tanto condicionan la percepción de la realidad. La pregunta que se puede realizar es: ¿Qué impacto tiene este filtrado en la percepción de la realidad?

La realidad como un proceso de información

La física tiene por objeto la descripción e interpretación de la realidad material a partir de la observación. Para ello, la matemática ha sido una herramienta fundamental para formalizar dicha realidad mediante modelos, que a su vez han permitido hacer predicciones que posteriormente han sido corroboradas experimentalmente. Esto crea un nexo sorprendente entre realidad y la lógica abstracta que hace sospechar la existencia de una profunda relación más allá de su definición conceptual. De hecho, la capacidad de la matemática de describir con precisión los procesos físicos nos puede llevar a pensar que la realidad no es más que una manifestación de un mundo matemático.

Pero quizá es necesario definir con mayor detalle lo que entendemos por esto. Habitualmente, cuando nos referimos a las matemáticas pensamos en conceptos tales como teoremas o ecuaciones. Sin embargo, podemos tener otra visión de la matemática como un sistema de procesado de información, en la que los conceptos anteriores pueden ser interpretados como una expresión compacta del comportamiento del sistema, tal como nos enseña la teoría de la información algorítmica [1].

De esta manera, las leyes físicas determinan como la información que describe el sistema es procesada, estableciendo una dinámica espacio-temporal del sistema. Como consecuencia, se establece un paralelismo entre el sistema físico y el sistema computacional que desde un punto de vista abstracto son equivalentes. Resultando esta equivalencia algo totalmente sorprendente, ya que en principio suponemos que ambos sistemas pertenecen a ámbitos del conocimiento totalmente diferentes.

Pero dejando aparte este hecho, podemos preguntar qué consecuencias podemos extraer de esta equivalencia. En particular, la teoría de la computabilidad [2] y la teoría de la información [3] [1] nos proporcionan criterios para determinar la reversibilidad computacional y la complejidad de un sistema [4]. En particular:

  • En un sistema computacional reversible (RCS) la cantidad de información permanece constante a lo largo de la dinámica del sistema.
  • En un sistema computacional no-reversible (NRCS) la cantidad de información nunca se incrementa a lo largo de la dinámica del sistema.
  • La complejidad del sistema corresponde a la expresión más compacta del sistema, denominada complejidad de Kolmogorov y es una medida absoluta.

Es importante destacar que en un sistema NRCS la información no se pierde, sino que es explícitamente descartada. Esto significa que no existe ninguna razón fundamental para que dicha información no sea mantenida, ya que la complejidad de un sistema RCS se mantiene constante. En la práctica, la implementación de sistemas computacionales es no-reversible con objeto de optimizar recursos, como consecuencia de las limitaciones tecnológicas para su implementación. De hecho, la energía actualmente necesaria para su implementación es muy superior a la establecida por el principio de Landauer [5].

Si nos centramos en el análisis de sistemas físicos reversibles, como es el caso de la mecánica cuántica, la relatividad, la mecánica newtoniana o el electromagnetismo, se pueden observar magnitudes físicas invariantes que son una consecuencia de la reversibilidad computacional. Estas están determinadas por procesos matemáticos unitarios, lo que significa que todo proceso tiene un proceso inverso [6]. Pero las dificultades para comprender la realidad desde un punto de vista de la lógica matemática parecen surgir de inmediato, siendo la termodinámica y la medida cuántica ejemplos paradigmáticos.

En el caso de la medida cuántica, el estado del sistema antes de realizarse la medida está en una superposición de estados, de tal forma que al realizarse la medida el estado colapsa en uno de los posibles estados en los que estaba el sistema [7]. Esto significa que el escenario de medida cuántica corresponde al de un sistema computacional no-reversible, en el que la información del sistema disminuye al desaparecer la superposición de estados, haciendo que el sistema sea no-reversible como consecuencia de la pérdida de información.

Esto implica que la realidad física pierde información de forma sistemática, lo cual plantea dos contradicciones fundamentales. La primera es el hecho de que la mecánica cuántica es una teoría reversible y que la realidad observable se sustenta sobre ella. La segunda es que esta pérdida de información se contradice con el aumento sistemático de entropía clásica, lo cual a su vez plantea una contradicción más profunda, puesto que en la realidad clásica se produce un incremento espontáneo de información, como consecuencia del incremento de entropía.

La solución a la primera contradicción es relativamente simple si eliminamos la visión antrópica de la realidad. En general, en el proceso de medida cuántica se introduce  el concepto de observador, lo que crea un cierto grado de subjetividad que es muy importante aclarar, ya que puede conducir a errores de interpretación. En este proceso hay dos capas de realidad claramente separadas, la capa cuántica y la capa clásica, de las cuales ya se ha tratado en posts anteriores. La realización de la medida cuántica involucra a dos sistemas cuánticos, uno que definimos como el sistema a medir y otro que corresponde al sistema de medida, que puede considerarse como observador cuántico, y ambos tienen una naturaleza cuántica. Como resultado de esta interacción emerge la información clásica, donde está situado el observador clásico que puede identificarse p.ej. con un físico en un laboratorio. 

Ahora consideremos que la medida está estructurada en dos bloques, uno el sistema cuántico bajo observación y otro el sistema de medida que incluye al observador cuántico y al observador clásico. En este caso se está interpretando que el sistema cuántico bajo medida es un sistema cuántico abierto que pierde información cuántica en el proceso de medida y que como resultado emerge una información clásica de menor cuantía. En definitiva, este escenario ofrece un balance negativo de información.

Pero, por el contrario, en la capa de realidad cuántica se produce la interacción de dos sistemas cuánticos que, se puede  decir,  se observan mutuamente de acuerdo a operadores unitarios, por lo que el sistema es cerrado produciéndose un intercambio de información con un balance nulo de información. Como resultado de esta interacción emerge la capa clásica. Pero entonces parece producirse un balance positivo de información, ya que de este proceso emerge información clásica. Pero realmente lo que ocurre es que la información emergente, que constituye la capa clásica, es simplemente una visión simplificada de la capa cuántica. Por esta razón podemos decir que la capa clásica es una realidad emergente.

Así, se puede decir que la capa cuántica está formada por subsistemas que interaccionan entre sí de forma unitaria, constituyendo un sistema cerrado en el que la información y, por tanto, la complejidad del sistema es un invariante. Como consecuencia de estas interacciones, la capa clásica emerge como una realidad irreductible de la capa cuántica.

En cuanto a la contradicción producida por el aumento de la entropía, las razones que justifican este comportamiento parecen más sutiles. Sin embargo, una primera pista puede estar en el hecho de que este aumento ocurre sólo en la capa clásica. También hay que tener en cuenta que, según la teoría algorítmica de la información, la complejidad de un sistema y, por tanto, la cantidad de información que describe el sistema, es el conjunto formado por la información procesada y la información necesaria para describir al propio procesador. 

Un escenario físico que puede ilustrar esta situación es el caso del big bang [8], en el que se considera que la entropía del sistema en su inicio era muy reducida o incluso nula. Esto es así ya que la radiación de fondo de microondas muestra un patrón bastante homogéneo, por lo que la cantidad de información para su descripción y, por tanto, su entropía es reducida. Pero si creamos un modelo computacional de este escenario, es evidente que la complejidad del sistema se ha incrementado de manera formidable, lo cual es incompatible desde el punto de vista lógico. Esto indica que en el modelo no sólo la información es incompleta, sino también la descripción de los procesos que lo gobiernan. ¿Pero qué indicios físicos tenemos que muestren que esto sea así?

Quizá la muestra más clara de esto es la inflación cósmica [9], de tal forma que la métrica del espacio-tiempo cambia con el tiempo, de tal forma que las dimensiones espaciales crecen con el tiempo. Para explicar este comportamiento se ha postulado la existencia de la energía oscura como motor de este proceso [10], lo que de una forma física reconoce las lagunas que pone de manifiesto la lógica matemática. Quizá un aspecto al que no se le suele prestar atención es la interacción entre el vacío y los fotones, lo que produce una pérdida de energía en los fotones a medida que el espacio-tiempo se expande. Esta pérdida supone una disminución de información que necesariamente debe ser transferida al espacio-tiempo.

Esta situación hace que el vacío, que en el contexto de la física clásica no es más que una métrica abstracta, se esté convirtiendo en una pieza física fundamental de enorme complejidad. Aspectos que contribuyen a esta concepción del vacío son el entrelazado de partículas cuánticas [11], la decoherencia y la energía de punto cero [12].

De todo lo anterior se puede plantear una hipótesis de cuál es la estructura de realidad desde un punto de vista computacional, como muestra la figura siguiente. Si partimos de la base de que la capa cuántica es una estructura unitaria y cerrada, su complejidad permanecerá constante. Pero la funcionalidad y complejidad de esta permanece oculta a la observación y sólo es posible modelarla a través de un proceso inductivo basado en la experimentación y que ha conducido a la definición de modelos físicos, de tal forma que estos modelos permiten describir la realidad clásica. Como consecuencia, la capa cuántica muestra una realidad que constituye la capa clásica y que es una visión parcial y, de acuerdo a los resultados teóricos y experimentales, extremadamente reducida de la realidad subyacente y que hace que la realidad clásica sea una realidad irreductible.

La cuestión fundamental que se puede plantear en este modelo es si la complejidad de la capa clásica es constante o si puede variar a lo largo del tiempo, ya que sólo está sujeta a las leyes de la capa subyacente y es una visión parcial e irreductible de dicha capa funcional. Pero para que la capa clásica sea invariante se requiere que esta sea cerrada y que por tanto lo sea su descripción computacional, lo cual no se verifica ya que está sujeta a la capa cuántica. En consecuencia, la complejidad de la capa clásica puede variar.

En consecuencia, surge la cuestión de si existe algún mecanismo en la capa cuántica que justifique la fluctuación de la complejidad de la capa clásica. Obviamente una de las causas es la decoherencia cuántica, la cual hace que la información sea observable en la capa clásica. De forma similar, la inflación cósmica produce un incremento de la complejidad, al hacer crecer el espacio-tiempo. Por el contrario, las fuerzas atractivas tienden a reducir la complejidad, por lo que la gravedad sería el factor más destacado.

De la observación de la realidad clásica se puede responder que actualmente su entropía tiende a crecer, como consecuencia de que la decoherencia y la inflación son causas  predominantes. Sin embargo, se pueden imaginar escenarios de recesión, como puede ser un escenario de big crunch en los que la entropía disminuyera. Por tanto, la tendencia de la entropía puede ser una consecuencia del estado dinámico del sistema.

En resumen, se puede decir que la cantidad de información en la capa cuántica permanece constante, como consecuencia de su naturaleza unitaria. Por el contrario, la cantidad de información en la capa clásica está determinada por la cantidad de información que emerge de la capa cuántica. Por tanto, el reto que se plantea es determinar con precisión los mecanismos que determinan la dinámica de este proceso. Adicionalmente, se pueden analizar escenarios específicos que en general corresponden al ámbito de la termodinámica. Otros escenarios de interés pueden ser de naturaleza cuántica como es el planteado por Hugh Everett sobre la interpretación de muchos mundos (IMM), mejor conocido como Many-Worlds Interpretation (MWI).

Bibliografía

[1] P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[2] M. Sipser, Introduction to the Theory of Computation, Course Technology, 2012.
[3] C. E. Shannon, “A Mathematical Theory of Communication,” vol. 27, pp. 379-423, 623-656, 1948.
[4] M. A. Nielsen and I. L. Chuang, Quantum computation and Quantum Information, Cambridge University Press, 2011.
[5] R. Landauer, «Irreversibility and Heat Generation in Computing Process,» IBM J. Res. Dev., vol. 5, pp. 183-191, 1961.
[6] J. Sakurai y J. Napolitano, Modern Quantum Mechanics, Cambridge University Press, 2017.
[7] G. Auletta, Foundations and Interpretation of Quantum Mechanics, World Scientific, 2001.
[8] A. H. Guth, The Inflationary Universe, Perseus, 1997.
[9] A. Liddle, An Introduction to Modern Cosmology, Wiley, 2003.
[10] P. J. E. Peebles and Bharat Ratra, “The cosmological constant and dark energy,” arXiv:astro-ph/0207347, 2003.
[11] A. Aspect, P. Grangier and G. Roger, “Experimental Tests of Realistic Local Theories via Bell’s Theorem,” Phys. Rev. Lett., vol. 47, pp. 460-463, 1981.
[12] H. B. G. Casimir and D. Polder, “The Influence of Retardation on the London-van der Waals Forces,” Phys. Rev., vol. 73, no. 4, pp. 360-372, 1948.

Sobre la complejidad del número PI (π)

Introducción

No hay duda de que desde los orígenes de la geometría los humanos han sido seducidos por el número π. Así, una de sus características fundamentales es que determina la relación entre la longitud de una circunferencia y su radio. Pero esto no queda aquí, ya que esta constante aparece de forma sistemática en los modelos matemáticos y científicos que describen el comportamiento de la naturaleza. De hecho, es tal su popularidad que es el único número que tiene su día conmemorativo. La gran fascinación alrededor de π ha planteado especulaciones sobre la información codificada en sus cifras y sobre todo ha desencadenado una inacabable carrera por su determinación, habiéndose calculado a fecha de hoy varias decenas de billones de cifras.

Formalmente, la clasificación de los números reales se realiza de acuerdo a las reglas del cálculo. De este modo, Cantor demostró que los números reales pueden clasificarse como contables infinitos e incontables infinitos, lo que comúnmente se denominan racionales e irracionales. Los números racionales son aquellos que pueden ser expresados como cociente de dos números enteros. Mientras que los números irracionales no pueden ser expresados de esta manera. Estos se clasifican a su vez como números algebraicos y números trascendentes. Los primeros corresponden a las raíces no racionales de las ecuaciones algebraicas, o sea, de raíces de polinomios. Por el contrario, los números trascendentes son soluciones de ecuaciones trascendentes, o sea no polinómicas, cono son las funciones exponenciales y trigonométricas.

Georg Cantor. Co-creador de la Teoría de Conjuntos.

Sin entrar en mayor detalle, lo que nos debe llamar la atención es que esta clasificación de los números se basa en reglas de cálculo posicional, en las que cada cifra tiene un valor jerarquizado. Pero qué ocurre si los números son tratados como secuencias ordenadas de bits, en las que la posición no es un atributo de valor.  En este caso, la Teoría Algorítmica de la Información (AIT) permite establecer una medida de la información contenida en una secuencia finita de bits, y en general de cualquier objeto matemático, y que por tanto esté definida en el dominio de los números naturales.

¿Qué nos enseña la AIT?

Esta medida se fundamento en el concepto de complejidad de Kolmogorov (KC), de tal forma que la complejidad de Kolmogorov K(x) de un objeto finito x se define como la longitud de la descripción binaria efectiva más corta de x. Donde el término “descripción efectiva” conecta la KC con la teoría de la computación, de tal forma que K(x) correspondería a la longitud del programa más corto que imprime x y entra en estado de halt. Para ser precisos, la definición formal de K(x) es:

K(x) = minp,i{ K(i) + l(p):Ti(p) = x } + O(1)

Donde Ti(p) es la máquina de Turing (TM) i que ejecuta p e imprime x, l(p) es la longitud de p, y K(i) es la complejidad de la Ti. Por consiguiente, el objeto p es una representación comprimida del objeto x relativa a Ti, ya que x puede recuperarse a partir de p mediante el proceso de decodificación definido por Ti, por lo que se define como información significativa de x (meaningful information). El resto es considerado como información carente de sentido,  redundante, accidental o ruido (meaningless information). El término O(1) indica que K(i) es una función recursiva y en general es no computable, aunque por su definición es independiente de la máquina en que se ejecute (machine independent) y cuyo resultado tiene un mismo orden de magnitud en cada una de las implementaciones. En este sentido, los teoremas de incompletitud de Gödel, la máquina de Turing  y la complejidad de Kolmogorov conducen a la misma conclusión sobre la indecidibilidad, poniendo de manifiesto la existencia de funciones no computables.

La KC muestra que la información puede ser comprimida, pero no establece ningún procedimiento general para su implementación, lo cual es sólo posible para ciertas secuencias. En efecto, a partir de la definición de la KC se demuestra que ésta es una propiedad intrínseca de las secuencias de bits, de tal forma que hay secuencias que no pueden ser comprimidas. Así, el número de secuencia de n bits que pueden ser codificadas mediante m bits es menor que 2m, por lo que la fracción de secuencias de n bits con K(x) ≥ n-k es menor que 2-k. Si se consideran las posibles secuencias de n bits, cada una de ellas tendrán una probabilidad de ocurrencia igual a 2-n, por lo que la probabilidad de que la complejidad de una secuencia sea K(x) ≥ n-k es igual o mayor que (1-2-k). En definitiva, la mayor parte de las secuencias de bits no pueden ser comprimidas más allá de su propio tamaño, mostrando una elevada complejidad al no presentar ningún tipo de patrón. Aplicado al campo de la física, este comportamiento de la información justifica la hipótesis ergódica. Como consecuencia, esto significa que la mayor parte de los problemas no pueden ser resueltos de forma analítica, ya que sólo pueden ser representados por ellos mismos y como consecuencia no pueden ser descritos de forma compacta mediante reglas formales.

Podría pensarse que la complejidad de una secuencia puede reducirse a voluntad aplicando un criterio de codificación que modifique la secuencia en otra con menos complejidad. En general, esto no hace más que aumentar la complejidad, ya que en el cálculo de la función K(x) habría que añadir la complejidad del algoritmo de codificación que hace que ésta crezca como n2. Finalmente, añadir que la KC es aplicable a cualquier objeto matemático, enteros, conjuntos, funciones, y se demuestra que, a medida que crece la complejidad del objeto matemático, K(x) es equivalente a la entropía H definida en el contexto de la Teoría de la Información. La ventaja de la AIT es que realiza un tratamiento semántico de la información, al ser un proceso axiomático, por lo que no requiere disponer a priori de ningún tipo de alfabeto para realizar la medida de la información.

¿Qué puede decirse sobre la complejidad de π?

De acuerdo a su definición, la KC no puede ser aplicada a los números irracionales, ya que en este caso la máquina de Turing no alcanza el estado de halt, ya que como sabemos estos números tienen un número infinito de cifras. Dicho de otro modo, y para ser formalmente correctos, la máquina de Turing sólo está definida en el campo de los números naturales (se debe recordar que su cardinalidad es la misma que la delos racionales), mientras que los números irracionales tienen una cardinalidad superior a la de los números naturales. Esto significa que la KC y la entropía equivalente H de los números irracionales son indecibles y por tanto no computables.

Para resolver esta dificultad podemos asimilar un número irracional X a la concatenación de una secuencia de bits compuesta por un número racional x y por un residuo δx, de tal forma que en términos numéricos X=x+δx, pero en términos de información X={x,δx}. Como consecuencia, δx es un número irracional δx→0. No obstante, δx es una secuencia de bits con una KC indecible y por tanto no computable. De esta manera, se puede expresar:

K(X) = K(x)+K(δx)

Pudiendo asimilarse la complejidad de X a la complejidad de x. A priori esta aproximación puede parecer sorprendente e inadmisible, puesto que el término K(δx) es despreciado, cuando en realidad tiene una complejidad indecible. Pero esta aproximación es similar a la realizada en el cálculo de la entropía de una variable continua o al proceso de renormalización utilizado en física, con objeto de obviar la complejidad de los procesos subyacentes que permanecen ocultos a la realidad observable.

En consecuencia, la secuencia p, que ejecuta la máquina de Turing i para obtener x, estará compuesta por la concatenación de:

  • La secuencia de bits que codifican las reglas del cálculo en la máquina de Turing i.
  • La secuencia de bits que codifica la expresión comprimida de x, por ejemplo la expresión de una determinada serie numérica de x.
  • La longitud de la secuencia x que se desea decodificar y que determina cuando la máquina de Turing debe alcanzar el estado de halt, por ejemplo un gúgol (10100).  

En definitiva, se puede concluir que la complejidad K(x) de los números irracionales conocidos, p. ej. √2, π, e,…, es reducida. Por esta razón, el reto debe ser la obtención de la expresión óptima de K(x) y no las cifras que codifican estos números, ya que de acuerdo a lo expuesto su expresión descomprimida, o sea el desarrollo de sus cifras, tiene un elevado grado de redundancia (meaningless information).

Esto que en teoría es sorprendente y cuestionable es en la práctica un hecho irrefutable, ya que la complejidad de δx permanecerá siempre oculta, ya que es indecible y por tanto no computable.

Otra conclusión importante es que proporciona un criterio de clasificación de los números irracionales en dos grupos: representables y no representables. Los primeros corresponden a los números irracionales que pueden ser representados por expresiones matemáticas, las cuales serían la expresión comprimida de los números. Mientras que los números no representables corresponderían a los números irracionales que sólo podrían ser expresados por ellos mismos y que por tanto son indecibles. En definitiva, la cardinalidad de los números irracionales representables es la de los números naturales. Se debe destacar que el criterio de clasificación anterior es aplicable a cualquier objeto matemático.

Por otra parte, es evidente que la matemática, y en particular el cálculo, acepta de facto los criterios establecidos para definir la complejidad K(x). Este hecho puede pasar desapercibido debido a que, tradicionalmente en este contexto, los números se analizan desde la óptica de la codificación posicional, de tal forma que el residuo no representable queda filtrado por medio del concepto de límite, de tal forma que δx→0. Sin embargo, cuando se trata de evaluar la complejidad informativa de un objeto matemático puede ser necesario aplicar un procedimiento de renormalización.

Una visión macroscópica del gato de Schrödinger

Del análisis realizado en el apartado anterior se puede concluir que en general no es posible asociar los estados macroscópicos de un sistema complejo a sus estados cuánticos. Así, los estados macroscópicos correspondientes al gato muerto (DC) o vivo (AC) no pueden considerarse estados cuánticos, ya que de acuerdo a la teoría cuántica el sistema podría expresarse como una superposición de estos. En consecuencia, tal como se ha justificado, para sistemas macroscópicos no es posible definir estados cuánticos tales como |DC〉 y |AC〉. Por otra parte, los estados (DC) y (AC) son una realidad observable, lo que indica que el sistema presenta dos realidades, una realidad cuántica y una realidad emergente que puede definirse como realidad clásica.

La realidad cuántica estará definida por su función de onda, formada por la superposición de los subsistemas cuánticos que forman el sistema y que evolucionará de acuerdo a la interacción existente entre todos los elementos cuánticos que forman el sistema y el entorno. Por simplicidad, si se considera el sistema CAT de forma aislada, la sucesión de su estado cuántico puede expresarse como:

|CAT[n]〉 = |SC1[n]〉⊗|SC2[n]〉⊗…⊗|SCi[n]〉⊗…⊗|SCk[n][n]〉.

Expresión en la que se ha tenido en cuenta que el número de subsistemas cuánticos no entrelazados k varía también con el tiempo, por lo que es función de la secuencia n, considerando el tiempo como una variable discreta.

La realidad clásica observable podrá describirse por el estado del sistema que, si para el objeto “gato” se define como (CAT[n]), del razonamiento anterior se concluye que (CAT[n]) ≢ |CAT[n]〉. En otras palabras, los estados cuánticos y clásicos de un objeto complejo no son equivalentes.

La cuestión que queda por justificar es la irreductibilidad del estado clásico observable (CAT) a partir de la realidad cuántica subyacente, representada por el estado cuántico |CAT〉. Esto se puede realizar si se considera que la relación funcional entre los estados |CAT〉 y (CAT) es extraordinariamente compleja, estando sujeta a los conceptos matemáticos en los que se fundamentan los 0 sistemas complejos, como son:

  • El comportamiento estadístico de la información observable que emerge de la realidad cuántica.
  • La no linealidad de las leyes de la física.
  • El enorme número de entidades cuánticas involucradas en un sistema macroscópico.

Esto hace que, de acuerdo a la teoría de la información algorítmica [1], no se pueda establecer una solución analítica que determine la evolución del objeto complejo a partir de su estado inicial. Esto significa que, en la práctica, el proceso de evolución de un objeto complejo sólo puede ser representado por sí mismo, tanto a nivel cuántico como clásico. De acuerdo a la teoría algorítmica de la información, este proceso es equivalente a un objeto matemático compuesto por un conjunto ordenado de bits procesado de acuerdo a reglas axiomáticas. De tal forma que la información del objeto está definida por la complejidad de Kolmogorov, de tal forma que esta no varía en el tiempo, siempre que el proceso sea un sistema aislado. Hay que señalar que la complejidad de Kolmogorov permite determinar la información contenida en un objeto, sin necesidad de disponer previamente de un alfabeto para la determinación de su entropía, tal como ocurre en la teoría de la información [2], si bien ambos conceptos coinciden en el límite.

Desde este punto de vista surgen dos cuestiones fundamentales. La primera es la evolución de la entropía del sistema y la segunda es la aparente pérdida de información en el proceso de observación, mediante el cual emerge la realidad clásica a partir de la realidad cuántica. Esto abre una posible línea de análisis que será abordada más adelante.

Pero volviendo al análisis de cuál es la relación entre los estados clásico y cuántico, es posible tener una visión intuitiva de como el estado (CAT) acaba estando desconectado del estado |CAT〉, analizando el sistema de forma cualitativa.

En primer lugar, se debe considerar que prácticamente el 100% de la información cuántica contenida en el estado |CAT〉 permanece oculta dentro de las partículas elementales que constituyen el sistema. Esto es una consecuencia de que la estructura físico-química [3] de sus moléculas está determinada exclusivamente por los electrones que sustentan sus enlaces covalentes. A continuación, se debe considerar que la interacción molecular, sobre la que se fundamenta la biología molecular, se realiza por medio de fuerzas de van der Waals y puentes de hidrógeno, lo que crea un nuevo nivel de desconexión funcional con la capa subyacente.

Sustentado por este nivel funcional aparece una nueva estructura funcional formada por la biología celular [4], a partir de la cual aparecen los organismos vivos, desde seres unicelulares hasta seres complejos formados por órganos multicelulares. En esta capa es donde emerge el concepto de ser vivo, que establece una nueva frontera entre lo estrictamente físico y el concepto de percepción. De esta forma emerge el tejido nervioso [5], que permite la interacción compleja entre individuos y sobre el cual se sustentan nuevas estructuras y conceptos, tales como conciencia, cultura, organización social, que no sólo están reservadas a los seres humanos, si bien es en estos últimos donde la funcionalidad es más compleja.

Pero a la complejidad de las capas funcionales hay que añadir la no-linealidad de las leyes a que están sujetas y que son condiciones necesarias y suficientes para un comportamiento de caos determinista [6]. Esto significa que cualquier variación en las condiciones iniciales producirá una dinámica diferente, por lo que cualquier emulación acabará divergiendo del original, siendo este comportamiento la justificación del libre albedrio. En este sentido, el principio de indeterminación de Heisenberg [7] impide conocer con exactitud las condiciones iniciales del sistema clásico, en cualquiera de las capas funcionales descritas anteriormente. En consecuencia, todas ellas tendrán una naturaleza irreductible y su dinámica imprevisible, sólo determinada por el propio sistema.

Llegado a este punto y a la vista de esta compleja estructura funcional debemos preguntar a que se refiere el estado (CAT), puesto que hasta ahora se ha supuesto implícitamente la existencia de un estado clásico. La compleja estructura funcional del objeto “gato” permite hacer una descripción de éste a diferentes niveles. Así, el objeto gato se  puede describir de diversas maneras:

  • Como átomos y moléculas sujetos a las leyes de la fisicoquímica.
  • Como moléculas que interaccionan de acuerdo a la biología molecular.
  • Como conjuntos complejos de moléculas que dan origen a la biología celular.
  • Como conjuntos de células para formar órganos y organismos vivos.
  • Como estructuras de proceso de información que dan origen a los mecanismos de percepción e interacción con el entorno y que permiten desarrollar comportamientos individuales y sociales.

Como resultado, cada uno de estos estratos funcionales puede ser expresado por medio de un determinado estado, por lo que hablar de un único estado macroscópico (CAT) no es correcto. Cada uno de estos estados describirá el objeto de acuerdo a unas reglas funcionales diferentes, por lo que cabe preguntar qué relación existe entre estas descripciones y cuál es su complejidad. De forma análoga a los argumentos utilizados para demostrar que los estados |CAT〉 y (CAT) no son equivalentes y estar incorrelados entre sí, los estados que describen el objeto “gato” a diferentes niveles funcionales no serán equivalentes y podrán en cierta medida estar desconectados entre sí.

Este comportamiento es una prueba de cómo la realidad se estructura en capa funcionales irreductibles, de tal forma que cada una de las capas puede ser modelada de forma independiente e irreductible, por medio de un conjunto ordenado de bits procesados de acuerdo a reglas axiomáticas.

Bibliografía

[1]  P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[2]  C. E. Shannon, «A Mathematical Theory of Communication,» The Bell System Technical Journal, vol. 27, pp. 379-423, 1948.
[3]  P. Atkins and J. de Paula, Physical Chemestry, Oxford University Press, 2006.
[4]  A. Bray, J. Hopkin, R. Lewis and W. Roberts, Essential Cell Biology, Garlan Science, 2014.
[5]  D. Purves and G. J. Augustine, Neuroscience, Oxford Univesisty press, 2018.
[6]  Gleick, Chaos: Making a New Science, Penguin Books, 1988.
[7]  W. Heisenberg, «The Actual Content of Quantum Theoretical Kinematics and Mechanics,» Zeit-schrift fur Physik.   Translation: NASA TM-77379., vol. 43, nº 3-4, pp. 172-198, 1927.

La realidad como una estructura de capas irreductible

Nota.- Este post es el primero de una serie en el que se analizarán los objetos macroscópicos desde el punto de vista cuántico y clásico, así como la naturaleza de la observación. Finalmente, todos ellos serán integrados en un único artículo.

Introducción

La teoría cuántica establece los fundamentos del comportamiento de las partículas y de su interacción entre ellas. En general, estos fundamentos se aplican a sistemas microscópicos formados por un número muy limitados de partículas. Sin embargo, nada indica que la aplicación de la teoría cuántica no pueda ser aplicada a objetos macroscópicos, ya que las propiedades emergentes de dichos objetos deberán estar fundamentadas en la realidad cuántica subyacente. Obviamente, existe una limitación práctica establecida por el incremento de complejidad, que crece de forma exponencial al aumentar el número de partículas elementales.

La referencia inicial a este planteamiento fue realizada por Schrödinger [1], indicando que la superposición cuántica de estados no representaba ninguna contradicción a nivel macroscópico. Para ello, utilizó lo que se conoce como la paradoja del gato de Schrödinger en la que el gato podía estar en una superposición de estados, una en la que el gato estaba vivo y otra en la que el gato estaba muerto. Originalmente, la motivación de Schrödinger fue plantear una discusión sobre la paradoja EPR [2], que ponía de manifiesto la incompletitud de la teoría cuántica. Esto ha sido finalmente resuelto mediante el denominado teorema de Bell [3] y su constatación experimental por Aspect [4], dejando claro que el entrelazado de partículas cuánticas es una realidad en la que se fundamenta la computación cuántica [5]. Un resumen de los aspectos relativos a la realización de un sistema cuántico que emule el gato de Schrödinger ha sido realizado por Auletta [6], aunque estos están restringidos a sistemas cuánticos no macroscópicos.

Pero la pregunta que sigue aún vigente es si la teoría cuántica puede ser utilizada para describir objetos macroscópicos y si el concepto del entrelazado cuántico aplica también a estos objetos. Contrariamente a la postura de Schrödinger, Wigner planteó, por medio de la paradoja del amigo, que la mecánica cuántica no podía tener una validez ilimitada [7]. Recientemente, Frauchiger y Renner [8] han planteado un experimento virtual (Gedankenexperiment) que muestra que la mecánica cuántica no es consistente cuando se aplica a objetos complejos.

Para analizar estos resultados se va a utilizar, sin pérdida de generalidad, el paradigma del gato de Schrödinger desde dos puntos de vista, uno como un objeto cuántico y el otro como un objeto macroscópico (en el siguiente post). Esto permitirá determinar su consistencia y su relación funcional, lo que conducirá al establecimiento de una estructura funcional irreductible. Como consecuencia de esto será también necesario analizar la naturaleza del observador dentro de esta estructura funcional (en un post posterior).

El gato de Schrödinger como una realidad cuántica

En el experimento del gato de Schrödinger existen varias entidades [1], la partícula radiactiva, el monitor de radiación, el matraz con veneno y el gato. Por simplicidad, el experimento puede reducirse a dos variables cuánticas: el gato CAT y el sistema formado por la partícula radioactiva, el monitor de radiación y el matraz con veneno, que definiremos como sistema veneno PS.

El Gato de Schrödinger. Fuente: Doug Hatfield https://commons.wikimedia.org/wiki/File:Schrodingers_cat.svg)

Estas variables cuánticas pueden ser expresadas como [9]:

|CAT〉 = α1|DC〉 + β1|LC〉. Estado cuántico del gato: gato muerto |DC〉, gato vivo |LC〉.

|PS〉 = α2|PD〉 + β2|PA〉: Estado cuántico del sistema de veneno: veneno desactivado |PD〉, veneno activado |PA〉.

El estado cuántico del experimento del gato de Schrödinger SCE en su conjunto podrá expresarse como:

|SCE〉 = |CAT〉⊗|PS〉=α1α2|DC〉|PD〉+α1β2|DC〉|PA〉+β1α2|LC〉|PD〉+β1β2|LC〉|PA〉.

Puesto que para un observador clásico el resultado final del experimento requiere que los |DC〉|PD〉 y |LC〉|PA〉 no son posibles, el experimento debe ser preparado de tal forma que los estados cuánticos |CAT〉 y |PS〉 estén entrelazados [10] [11], de tal forma que la función de onda del experimento sea:

|SCE〉 =α|DC〉|PA〉+β|LC〉|PD〉.

Como consecuencia, la observación del experimento [12] dará como resultado un estado:

|SCE〉 = |DC〉|PA〉, con probabilidad α2, (veneno activado, gato muerto).

o:

|SCE〉 = |LC〉|PD〉, con probabilidad β2, (veneno desactivado, gato vivo).

Aunque desde el punto de vista formal de la teoría cuántica el planteamiento del experimento es correcto, para un observador clásico el experimento presenta varias objeciones. Una de estas es relativa a que el experimento requiere establecer “a priori” el requisito de que los sistemas PS y CAT estén entrelazados. Algo contradictorio, ya que desde el punto de vista de la preparación del experimento cuántico no existe ninguna restricción, pudiendo existir resultados con estados cuánticos |DC〉|PD〉, o |LC〉|PA〉, algo totalmente imposible para un observador clásico, suponiendo en todo caso que el veneno sea efectivo y que se da por supuesto en el experimento. Por tanto, el experimento SCE es inconsistente, por lo que es necesario analizar la raíz de la incongruencia existente entre el sistema cuántico SCE y el resultado de la observación.

Otra objeción, que aparentemente puede parecer trivial, es que para que el experimento SCE colapse en uno de sus estados el observador OBS debe estar entrelazado con el experimento, ya que éste debe interaccionar con él. De lo contrario, la operación realizada por el observador no tendría ninguna consecuencia en el experimento. Por esta razón, este aspecto requerirá un análisis más detallado.

Volviendo a la primera objeción, desde la perspectiva de la teoría cuántica puede parecer posible preparar el sistema PS y CAT en una superposición de estados entrelazada. Sin embargo, se debe considerar que ambos sistema está compuesto por un enorme número de subsistemas cuánticos Si no entrelazados entre sí y sometidos a una continua decoherencia [13] [14]. Hay que destacar que los subsistemas Si tendrán internamente una estructura entrelazada. Así, los sistemas CAT y PS podrán expresarse como:

|CAT〉 = |SC1〉⊗|SC2〉⊗…⊗|SCi〉⊗…⊗|SCk〉,

|PS〉 = |SP1〉⊗|SP2〉⊗…⊗|SPi〉⊗…⊗|SPl〉,

de tal forma que la observación de un determinado subsistema hace que su estado colapse, no produciendo ninguna influencia en el resto de los subsistemas, los cuales desarrollarán una dinámica cuántica independiente. Esto hace inviable que los estados |LC〉 y |DC〉 puedan ser simultáneos y como consecuencia el sistema CAT no puede estar en esta superposición de estados. Un razonamiento análogo puede hacerse del sistema PS, aunque es obvio que funcionalmente éste es mucho más simple.

En definitiva, desde un punto de vista teórico es posible tener un sistema cuántico equivalente al SCE, para lo cual todos los subsistemas componentes deberán estar totalmente entrelazados entre sí, y además el sistema requerirá una preparación “a priori” de su estado. Sin embargo, la realidad emergente difiere radicalmente de este escenario, por lo que dicho experimento parece ser irrealizable en la práctica. Pero lo más llamativo es que, si se generaliza el experimento SCE, la realidad observable sería radicalmente diferente a la realidad observada.

Para entender mejor las consecuencias de que el estado cuántico del sistema SCE deba prepararse “a priori”, imaginemos que el proveedor del veneno ha cambiado su contenido por un líquido inocuo. Como resultado de esto, el experimento podrá matar al gato sin causa alguna.

A partir de estas conclusiones se puede plantear la pregunta de si la teoría cuántica puede explicar de forma general y consistente la realidad observable a nivel macroscópico. Pero quizá lo que hay que preguntar también es si los supuestos sobre los que se ha realizado el experimento SCE son correctos. Así, por ejemplo: ¿Es correcto utilizar en el dominio de la física cuántica los conceptos de gato vivo o gato muerto? Lo que a su vez plantea otro tipo de cuestiones, tal como: ¿Es correcto en general establecer un vínculo fuerte entre la realidad observable y la realidad cuántica subyacente?

La conclusión a la que se puede llegar, a partir de las contradicciones del experimento SCE, es que el escenario de un sistema cuántico complejo no puede ser tratado en los mismos términos que un sistema simple. En términos de la computación cuántica estos corresponden, respectivamente, a sistemas formados por un número enorme o por un número limitado de qubits [5]. Como consecuencia de esto, la realidad clásica será un hecho irreductible, que fundamentado en la realidad cuántica termina por estar desconectado de ésta. Esto conduce a definir la realidad en dos capas funcionales independientes e irreductibles, una capa de realidad cuántica y una capa de realidad clásica. Esto justificaría el criterio establecidos por la interpretación de Copenhague [15] y su naturaleza estadística, como medio para desconectar funcionalmente ambas realidades. De esta forma, la teoría cuántica no sería otra cosa que una descripción de la información que puede emerger de una realidad subyacente, pero no una descripción de dicha realidad. En este punto, es importante destacar que el comportamiento estadístico es el medio que permite reducir o eliminar [16] la correlación funcional entre procesos y que sería la causa de la irreductibilidad.

Bibliografía 

[1] E. Schrödinger, «Die gegenwärtige Situation in der Quantenmechanik,» Naturwissenschaften, vol. 23, pp. 844-849, 1935.
[2] A. Einstein, B. Podolsky and N. Rose, “Can Quantum-Mechanical Description of Physical Reality be Considered Complete?,” Physical Review, vol. 47, pp. 777-780, 1935.
[3] J. S. Bell, «On the Einstein Podolsky Rosen Paradox,» Physics, vol. 1, nº 3, pp. 195-290, 1964.
[4] A. Aspect, P. Grangier and G. Roger, “Experimental Tests of Realistic Local Theories via Bell’s Theorem,” Phys. Rev. Lett., vol. 47, pp. 460-463, 1981.
[5] M. A. Nielsen and I. L. Chuang, Quantum computation and Quantum Information, Cambridge University Press, 2011.
[6] G. Auletta, Foundations and Interpretation of Quantum Mechanics, World Scientific, 2001.
[7] E. P. Wigner, «Remarks on the mind–body question,» de Symmetries and Reflections, Indiana University Press, 1967, pp. 171-184.
[8] D. Frauchiger and R. Renner, “Quantum Theory Cannot Consistently Describe the Use of Itself,” Nature Commun., vol. 9, no. 3711, 2018.
[9] P. Dirac, The Principles of Quantum Mechanics, Oxford University Press, 1958.
[10] E. Schrödinger, «Discussion of Probability Relations between Separated Systems,» Mathematical Proceedings of the Cambridge Philosophical Society, vol. 31, nº 4, pp.  555-563, 1935.
[11] E. Schrödinger, «Probability Relations between Separated Systems,» Mathematical Proceedings of the Cambridge Philosophical Society, vol. 32, nº 3, pp. 446­-452, 1936.
[12] M. Born, «On the quantum mechanics of collision processes.,» Zeit. Phys.( D. H. Delphenich translation), vol. 37, pp. 863-867, 1926.
[13] H. D. Zeh, «On the Interpretation of Measurement in Quantum Theory,» Found. Phys., vol. 1, nº 1, pp. 69-76, 1970.
[14] W. H. Zurek, «Decoherence, einselection, and the quantum origins of the classical,» Rev. Mod. Phys., vol. 75, nº 3, pp. 715-775, 2003.
[15] W. Heisenberg, Physics and Philosophy. The revolution in Modern Science, Harper, 1958.
[16] E. W. Weisstein, «MathWorld,» [En línea]. Available: http://mathworld.wolfram.com/Covariance.html.