COVID-19: ¿Qué hace diferente a esta pandemia?

La zoonosis, o salto de un virus de animales a los humanos, tiene las características de un evento contingente. En principio, este salto puede ser limitado por medio del control sanitario de especies animales domésticas y por medio de la regulación del comercio, contacto y consumo de especies salvajes. Sin embargo, dada la complejidad de la sociedad moderna y del estrecho contacto entre humanos a nivel global, la probabilidad del salto de un virus al humano no es un evento evitable, por lo que la zoonosis puede ser considerada un fenómeno contingente.

Esta situación se ha puesto claramente de manifiesto en los últimos tiempos con la aparición del MERS (MERS-Cov), SARS (SARS-Cov) y recientemente el COVID-19 (SARS-Cov-2).  Esta propagación está motivada fundamentalmente por la globalización, aunque los factores son múltiples y complejos, como son los controles sanitarios y la estructura de las explotaciones ganaderas. Pero la lista es larga, pudiéndose mencionar también la expansión de otras enfermedades víricas por causa del cambio climático, como pueden ser el Zika, la Chikungunya o el Dengue.

La cuestión que se plantea en este escenario es: ¿Qué factores influyen en la magnitud y rapidez de la expansión de una pandemia? Así, en los casos mencionados anteriormente se puede apreciar una diferencia muy significativa en el comportamiento y extensión de la infección. Excepto en el caso del COVID-19, la expansión ha sido limitada y los brotes han podido ser localizados y aislados, evitando una expansión global.

Por el contrario, la situación ha sido completamente diferente con el CoVID-19. Así, su rápida expansión ha cogido desprevenidos a sociedades poco familiarizadas con este tipo de problemas, por lo que los sistemas sanitarios se han visto desbordados y sin protocolos apropiados para el tratamiento de la infección. Por otra parte, los gobernantes inconscientes de la magnitud del problema, e ignorante de las mínimas precauciones de cómo impedir la propagación del virus, parece haber cometido una serie de errores encadenados, típicos de procesos catastróficos, tales como quiebras económicas y accidentes aéreos.

El impacto a largo plazo es todavía muy difícil de evaluar, ya que ha desencadenado un círculo vicioso de acontecimientos que afectan a actividades fundamentales de la sociedad moderna.

En particular,  el impacto en los servicios sanitarios va a dejar una huella profunda, con extensión a áreas que en principio no están directamente relacionadas con el COVID-19, cómo son los efectos sicológicos y psiquiátricos derivados de la percepción del peligro y del confinamiento social. Pero más importante aún es la detracción de recursos en otras actividades sanitarias, habiéndose reducido el flujo de la actividad sanitaria cotidiana, por lo que es previsible un futuro aumento de las tasas de la morbilidad y la mortalidad de otras enfermedades, especialmente de cáncer.

A todo esto hay que añadir el deterioro de la actividad económica, con reducciones de PIB de hasta dos cifras, que va a desencadenar un incremento de la pobreza, sobre todo en los segmentos de población más desfavorecidos. Y puesto que el factor económico es la correa de transmisión de la actividad humana, es fácil imaginar un escenario de tormenta perfecta.

Factores determinantes de la pandemia COVID-19

Pero volvamos a la pregunta que se ha planteado, sobre la singularidad del SARS-Cov-2, para que su expansión haya sido imparable y que en la actualidad nos estemos enfrentando a una segunda oleada.

Para desentrañar este interrogante se puede analizar lo que nos muestran los modelos matemáticos de expansión de una infección, comenzando por el modelo SIR clásico. Este tipo de modelos permite determinar las tasas de infección (β) y de recuperación (γ), así como la tasa de reproducción básica (R0=β/γ) a partir de la morbilidad observada.

El origen de los modelos SIR (Susceptible, Infeccioso, Recuperado) se remonta a principios del siglo XX, propuestos por Kermack and McKendrick en 1927. La ventaja de estos modelos es que están basados en un sistema de ecuaciones diferenciales, el cual puede ser resuelto de forma analítica y por tanto adecuado para su resolución en la época que fueron propuestos. 

Sin embargo, este tipo de modelos son básicos y no facilitan hacer consideraciones de distribución geográfica, movilidad, probabilidad de contagio, estado clínico, desarrollo temporal de cada una de las fases de la infección, edad, sexo, distancia social, protección, rastreo y estrategias de test. Por otra parte, el modelo SIR clásico tiene una estructura deductiva, exclusivamente. Esto significa que a partir de los datos de morbilidad es posible determinar la tasa de reproducción básica de forma exclusiva, ocultando parámetros fundamentales en el proceso de pandemia, como se justificará a continuación.

Para contrastar esta idea es necesario plantear nuevas aproximaciones a la simulación del proceso de pandemia, como es el caso de estudio propuesto en “Un modelo de difusión del Covid-19” y en su implementación. En este caso, el modelo es una estructura SIR discreta, en el que los individuos pasan por un proceso de infección y recuperación con estados realistas, además de incluir todos los parámetros de definición del escenario mencionados anteriormente, o sea, probabilidad de infección, distribución geográfica de la población, movilidad, etc. Esto permite una simulación precisa de la pandemia y, a pesar de su complejidad, su estructura es muy adecuada para implementación con los medios computacionales actuales.

La primera conclusión que se obtuvo de las simulaciones de la fase inicial de la pandemia fue la necesidad de considerar la existencia de una población asintomática muy significativa. Así, en el modelo clásico es posible obtener una rápida expansión de la pandemia considerando simplemente valores elevados de la tasa de infección (β).

Por el contrario, en el modelo discreto la aplicación de los datos existentes no justificaba los datos observados, a no ser que hubiera una población asintomática muy significativa que ocultara la verdadera magnitud de la extensión de la infección. Se debe considerar que la población sintomática en las primeras fases de  la pandemia era reducida. Esto unido a los datos de expansión por diferentes zonas geográficas y las posibles probabilidad de infección producía unos resultados temporales de expansión mucho más lentos e que incluso no desencadenaban el cebado del modelo.

En resumen, el resultado de las simulaciones conducía a escenarios totalmente inconsistentes, hasta que se incluyó una población de asintomáticos elevada, a partir de la cual el modelo comenzó a comportarse de acuerdo a los datos observados. En la actualidad se disponen ya de estadísticas más precisas que confirman este comportamiento  que, en el grupo de infectados, llegan a establecer que el 80% son asintomáticos, el 15% son sintomáticos que requieren algún tipo de atención médica por medio de tratamiento o de ingreso hospitalario y, el resto, un 5% que requiere desde soporte vital de nivel básico hasta soporte vital avanzado.

Estas cifras permiten explicar la virulencia de una pandemia, la cual está fuertemente regulada por el porcentaje de individuos asintomáticos. Este comportamiento justifica la enorme diferencia entre el comportamiento de diferentes tipos de virus. Así, si un virus tiene una alta morbilidad es sencillo de rastrear y de aislar, ya que los casos infecciosos no permanecen ocultos. Por el contrario un virus con baja morbilidad mantiene oculto a los individuos portadores de la enfermedad, al pertenecer al grupo de asintomáticos. A diferencia de los virus mencionados anteriormente, el COVID-19 es un ejemplo paradigmático de este escenario, con el agravante de que es un virus que ha demostrado una gran capacidad de contagio.

Este comportamiento ha propiciado que cuando la pandemia ha mostrado su cara ya existía un enorme grupo de individuos portadores. Y este ha sido probablemente el origen de una cadena de acontecimientos de graves consecuencias sanitarias, económicas y sociales.

Los mecanismos de expansión y contención de la pandemia

Visto en retrospectiva, todo parece indicar que la aparente escasa incidencia de las primeras semanas hizo percibir que el riesgo de pandemia era reducido y poco virulento. Obviamente,  una observación distorsionada claramente por la ocultación del problema provocada por la naturaleza asintomática de la mayoría de los infectados.

Esto posiblemente condicionó también la respuesta para su contención. La inadecuada gestión de la amenaza por parte de gobiernos e instituciones, la falta de recursos de protección y el mensaje transmitido a la población acabó por materializar la pandemia.

En este contexto, hay un aspecto que llama profundamente la atención. Una enfermedad con una alta capacidad infecciosa requiere un medio de transmisión muy eficaz y puesto que los primeros síntomas eran de tipo pulmonar se debería haber concluido que la vía aérea era el medio de transmisión principal. Sin embargo, se puso mucho énfasis en el contacto físico directo y en la distancia social. Es sorprendente la minimización del efecto de los aerosoles, los cuales son muy activos en espacios cerrados, tal como se está reconociendo en la actualidad.

Hay que apuntar también otro matiz aparentemente insignificante relacionado con el comportamiento de la pandemia bajo medidas de protección. Éste está relacionado con el modelado de la pandemia. En el modelo SIR clásico se presupone que la tasa de infección (β) y de recuperación (γ) son exclusivamente proporcionales a los tamaños de las poblaciones en los diferentes estados. Sin embargo, esto es una aproximación que enmascara el proceso estadístico subyacente y que en el caso de la recuperación supone además un error conceptual. Este supuesto determina la estructura de las ecuaciones diferenciales del modelo, imponiendo una solución general de tipo exponencial que no es necesariamente la real.

Por cierto, las funciones exponenciales introducen un retardo de fase, lo que produce el efecto de que la recuperación de un individuo se produzca a trozos, por ejemplo, ¡primero la cabeza y luego las piernas!

Pero la realidad es que el proceso de infección es un proceso totalmente estocástico que es función de la probabilidad de contagio determinada por la capacidad del virus, de la susceptibilidad del individuo, la interacción entre individuos infectados y susceptibles, la distribución geográfica, la movilidad, etc. En definitiva, este proceso tiene una  naturaleza Gaussiana.

Como luego se justificará, este proceso Gaussiano aparece enmascarado por la superposición de la infección en diferentes áreas geográficas, por lo que son sólo visibles en brotes locales independientes, como consecuencia de una contención efectiva de los brotes. Un ejemplo de esto lo encontramos en el caso de Corea del Sur, representado en la figura siguiente.

En el caso de la recuperación el proceso corresponde a una línea de retardo estocástica y por tanto Gaussiana, ya que sólo depende de los parámetros temporales de recuperación impuestos por el virus, la respuesta del individuo y los tratamientos curativos. Por tanto, el proceso de recuperación es totalmente independiente para cada individuo.

El resultado es que la solución general del modelo SIR discreto son Gaussianas y por tanto responden a una función exponencial cuadrática, a diferencia de las funciones exponenciales de orden uno del modelo SIR clásico. Esto hace que las medidas de protección sean mucho más eficaces que las expuestas por los modelos convencionales, por lo que deben considerarse un elemento fundamental para determinar la estrategia de contención de la pandemia.

La cuestión es que una vez que la pandemia es un hecho evidente se debe proceder a establecer medidas de contención y confinamiento. Es en este punto donde la COVID-19 plantea un reto de gran complejidad, como consecuencia de la gran proporción de individuos asintomáticos, que son los principales contribuyentes a la expansión de la infección.

Una solución radical al problema requiere el confinamiento estricto de toda la población durante un periodo no inferior al periodo de latencia del virus en un infectado. Para ser efectiva, esta medida debe estar acompañada de las medidas de protección en el entorno familiar o cercano, así como de amplias campañas de rastreo. Esta estrategia ha mostrado su eficacia en algunos países de Asia. 

En realidad, la adopción de medidas tempranas de profilaxis y contención es la única medida para contener de forma eficaz la pandemia, tal como muestra el resultado del  modelo para diferentes fechas de confinamiento. Es interesante destacar que la dispersión de las curvas en las zonas de cebado del modelo es consecuencia de la naturaleza estocástica del modelo.

Pero la aplicación tardía de esta medida, cuando el número de infectados ocultos era ya muy elevada, unido a la falta de una cultura profiláctica frente a pandemias en los países occidentales ha hecho que estas medidas hayan sido poco efectivas y muy lesivas.

En este sentido, hay que destacar que la postura de los gobiernos ha sido tibia y en la mayor parte de los casos totalmente errática, lo que ha contribuido a que las medidas de confinamiento hayan tenido un seguimiento muy laxo por parte de la población.

En este punto es importante destacar que ante la falta de una acción eficaz, los gobiernos han basado su estrategia de distracción en la disponibilidad de una vacuna, algo que a todas luces no es una solución a corto plazo.

Como consecuencia de la ineficacia de la medida, el periodo de confinamiento se ha prolongado en exceso, levantándose las restricciones una vez que las estadísticas de morbilidad y mortalidad iban bajando. El resultado es que, como el virus está extendido en la población, se han producido inevitablemente nuevas olas de contagio.

Este es otro aspecto importante a la hora interpretar las cifras de expansión de la pandemia. De acuerdo al modelo SIR clásico todo parece indicar que en la progresión de las cifras hay que esperar un pico de contagios que debe disminuir exponencialmente. A lo largo de los primeros meses, los responsables del control de la pandemia han estado buscando este pico, así como el aplanamiento de la curva de integración de los casos totales. Algo esperado pero que nunca parecía llegar.

La explicación a este fenómeno es bastante sencilla. La expansión de la pandemia no está sujeta a la infección de un grupo cerrado de individuos, como supone el modelo SIR clásico. Por el contrario, La expansión del virus se produce una función de áreas geográficas con una densidad de población específica y de la movilidad de los individuos entre ellas. El resultado es que las curvas que describen la pandemia son una superposición compleja de los resultados de todo este conglomerado, tal como muestra la curva de fallecidos en España, en las fechas indicadas. 

El resultado es que el proceso puede prolongarse en el tiempo, de tal forma que la dinámica de las curvas es una superposición compleja de brotes que evolucionan de acuerdo a múltiples factores, como son la densidad y  la movilidad de la población, las medidas de protección, etc.  

 Esto indica que los conceptos que se manejan sobre expansión de una pandemia deben ser profundamente revisados. Lo cual no debe sorprendernos si se considera que a lo largo de la historia no han existido datos fiables que hayan permitido contrastar su comportamiento.

Evolución de la morbilidad y la mortalidad.

Otro aspecto interesante es el estudio de la evolución de la morbilidad y de la mortalidad del SARS-Cov-2. Para ello pueden utilizarse los históricos de la casuística, sobre todo ahora que se comienza a tener datos de una segunda oleada de infección, tal como se muestra en la figura siguiente.

A la vista de estos datos podría sacarse una conclusión precipitada, asegurando que el virus está afectando a la población con una mayor virulencia, aumentando la morbilidad, pero por otra parte también podría decirse que la mortalidad está disminuyendo de forma drástica.

Pero nada más lejos de la realidad si se considera el procedimiento de obtención de los datos de casos diagnosticados. Así, se puede observar que la magnitud de la curva de diagnosticados en segunda fase es mayor que en la primera fase, lo que indica una mayor morbilidad. Sin embargo, en la primera fase el diagnostico era mayoritariamente de tipo sintomático, dada la carencia de recursos para la realización de test. Por el contrario, en la segunda fase el diagnóstico ha sido realizado de forma sintomática y por medio de test, PCR y serológicos.

Esto no ha hecho más que aflorar la magnitud del grupo de infectados asintomáticos, que estaban ocultos en la primera fase. Por tanto, no se puede hablar de una mayor morbilidad. Al contrario, si se observa la pendiente de evolución de la curva, ésta es más suave, lo que indica que la probabilidad de infección está siendo mucho más baja que la mostrada en el mes de mes de marzo. Esto es un claro indicativo de que las medidas de protección son efectivas. Y lo serían más si la disciplina fuera mayor y los mensajes convergieran en esta medida, en lugar de crear confusión e incertidumbre.

Si se comparan las pendientes de las curvas de casos, queda patente que la expansión de la pandemia en la primera fase fue muy abrupta, como consecuencia de la existencia de multitud de vectores  asintomáticos y de la falta absoluta de medidas de prevención. En la segunda fase la pendiente es más suave, atribuible a las medidas de prevención. La comparación de estas pendientes es de un factor de 4, aproximadamente.

Sin embargo, es posible que sin medidas de prevención la segunda fase pudiera ser mucho más agresiva. Esto es así si se considera que es muy posible que el número de vectores contagio en la actualidad sea muy superior al existente en la primera fase, ya que la pandemia está mucho más extendida. Por tanto el factor de expansión pudiera haber sido mucho mayor en la segunda fase, como consecuencia de este parámetro.

En cuanto a la mortalidad, el cociente entre fallecidos y diagnosticados parece haber descendido drásticamente, lo que conduciría a decir que la letalidad del virus ha descendido. Así en el pico de la primera fase su valor era aproximadamente 0.1, mientras que en la segunda fase tiene un valor aproximado de 0.01, o sea un orden de magnitud inferior.

Pero considerando que en las cifras de diagnosticados de la primera fase los asintomáticos estaban ocultos, ambos cocientes no son comparables. Obviamente, el término correspondiente a los asintomáticos permitiría explicar esta aparente disminución, aunque también hay que considerar que la mortalidad real ha disminuido como consecuencia de la mejora de los protocolos de tratamiento.

En consecuencia, no es posible sacar consecuencias sobre la evolución de la letalidad del virus, pero lo que es cierto es que las magnitudes de mortalidad están descendiendo por dos razones. Una virtual, como es la disponibilidad de cifras de infectados más fiables, y, otra real, como consecuencia de la mejora de los protocolos de tratamiento.

Estrategia de futuro

En el momento actual, parece claro que la expansión del virus es un hecho consolidado, por lo que la única estrategia posible a corto y medio plazo es limitar su impacto. A largo plazo, la disponibilidad de una vacuna podría finalmente erradicar la enfermedad, aunque también habrá que considerar la posibilidad de que la enfermedad se convierta en endémica o recurrente.

Por esta razón, y considerando las implicaciones de la pandemia en la actividad humana de todo tipo, los planes de futuro deben basarse en una estrategia de optimización, de tal forma que se minimice el impacto en la salud general de la población y en la economía. Esto es así, ya que el aumento de la pobreza podrá llegar a tener un impacto superior a la propia pandemia.

Bajo este punto de vista y considerando los aspectos analizados con anterioridad, la estrategia debe basar en los siguientes puntos:

  • Medidas de protección y profilaxis estrictas: Mascarillas, limpieza, ventilación, distancia social en todos los ámbitos.
  • Protección de los segmentos de población de riesgo.
  • Mantener en la medida de lo posible las actividades económicas y cotidianas.
  • Conciencia social. Declaración y aislamiento voluntario en caso de infección y cumplimiento de las normas sin necesidad de medidas coercitivas. 
  • Implementar una estructura organizativa para la realización de test masivos, rastreo y aislamiento de infectados.

Es importante destacar que, tal como está demostrando la experiencia, las medidas agresivas de confinamiento no son adecuadas para evitar olas sucesivas de infección y en general son altamente ineficaces, ya que producen desconfianza y rechazo, lo cual es un freno para luchar contra la pandemia.

Otro aspecto interesante es que la implementación de los puntos anteriores no corresponde a proyectos estrictamente de tipo sanitario, sino que son proyectos de gestión y control de recursos. Por esta razón, las actividades orientadas a luchar contra la pandemia deben ser proyectos Ad hoc, ya que la pandemia es un hecho eventual, al cual hay que dedicar esfuerzos específicos.

Dirigir el esfuerzo a través de organizaciones tales como la propia sanidad no producirá más que una desestructuración de la propia organización y una dispersión de recursos, tarea para la cual no se ha creado ni tiene el perfil para ello.

Covid-19: Interpretación de datos

A la vista de la expansión del Covid-19 en diferentes países, y tomando como referencia el modelo de expansión expuesto en el post anterior, se puede hacer una interpretación de los datos, con objeto de resolver algunas dudas y contradicciones planteadas en diferentes foros.

Pero antes de comenzar este análisis, es importante destacar una característica sobresaliente de la expansión del Covid-19 puesta de manifiesto por el modelo. En general, la modelización de los procesos infecciosos se suele centrar en la tasa de infección de los individuos, dejando en un segundo plano los aspectos temporales como los periodos de incubación o de latencia de los patógenos. Esto se justifica como consecuencia de que su influencia pasa generalmente desapercibida, además de introducir dificultades en el estudio analítico de los modelos.  

Sin embargo, en el caso del Covid-19 su rápida expansión hace evidente el efecto de los parámetros temporales, poniendo a los sistemas sanitarios en situaciones críticas y dificultando la interpretación de los datos que van surgiendo a medida que la pandemia se extiende.  

En este sentido hay que destacar como características sobresalientes del Covid-19:

  • La elevada capacidad de infección.
  • La capacidad de infección de individuos en fase de incubación.
  • La capacidad de infección de individuos asintomáticos.

Esto hace que el número de posibles casos asintomáticos sea muy elevado, presentando una gran dificultad su diagnóstico, como consecuencia de la falta de medios provocada por la novedad y rápida expansión del virus.

Por esta razón, el modelo implementado ha tenido en cuenta los parámetros temporales de desarrollo de la infección, lo que requiere un modelo numérico, ya que la solución analítica es muy compleja y posiblemente sin solución estrictamente analítica.  

Como consecuencia el modelo presenta una característica distintiva frente a los modelos convencionales, la cual se pone de manifiesto en la figura siguiente.  

Esta consiste en que es necesario distinguir a los grupos de individuos asintomáticos y sintomáticos, ya que presentan una evolución temporal retardada  en el tiempo. Como consecuencia de esto ocurre lo mismo con la curvas de individuos hospitalizados y en UCI.

Esto permite aclarar algunos aspectos ligados a la evolución real del virus. Así por ejemplo, en relación con la declaración de las medidas excepcionales en Italia y España, se esperaba una mejora sustancial en la contención de la pandemia, algo que todavía parece lejana. La razón que justifica este comportamiento es que las medidas de contención han sido tomadas en base a la evolución de la curva de individuos sintomáticos, pasando por alto el hecho de que ya existía una población muy importante de individuos asintomáticos.

Tal como se aprecia en las gráficas, las medidas hubieran debido tomarse al menos con tres semanas de antelación, o sea de acuerdo a la curva de evolución de individuos asintomáticos. Pero para poder tomar esta decisión de forma acertada se debería haber dispuesto de estos datos, algo totalmente imposible, como consecuencia de la falta de una campaña de test sobre la población. 

Esta situación se corrobora con el ejemplo de China, que si bien no pudo contenerse la expansión del virus en una etapa temprana, las medidas de contención se tomaron, en una escala comparativa de tiempo, varias semanas antes.

Los datos de Alemania son también muy significativos, exhibiendo una tasa de mortalidad muy inferior a los de Italia y España. Aunque esto plantea una incógnita de cara a la capacidad de infección en este país, en realidad es fácil de explicar. En Italia y España se está comenzando a hacer  test de infección por Covid-19. Sin embargo, en Alemania estos test se están realizando desde hace varias semanas a un ritmo de varios cientos de miles por semana. Por el contrario, las cifras de individuos diagnosticados en Italia y España deberán ser revisadas en el futuro.

Esto explica que para un número elevado de individuos  infectados la tasa de mortalidad  sea más baja.  Esto tiene además una ventaja determinante, ya que el diagnóstico precoz permite aislar a los individuos infectados, reduciendo la posibilidad de infección a otros individuos, lo que finalmente va a resultar en una tasa de mortalidad inferior.

Por tanto, se puede hacer una rápida conclusión que puede resumirse en los siguientes puntos:  

  • Las medidas de aislamiento de la población son necesarias, pero poco efectivas cuando estas se toman en una fase avanzada de la pandemia.
  • La detección precoz de la infección es un aspecto totalmente determinante en la contención de la pandemia y sobre todo en la reducción de la tasa de mortalidad.

Un modelo de la difusión del Covid-19

La razón para abordar este tema es doble. Por una parte, el Covid-19 es el reto más importante para la humanidad en este momento, pero por otra parte el proceso de expansión del virus es un ejemplo de cómo la naturaleza establece modelos basados en el procesado de información.

El análisis de la dinámica de expansión del virus y sus consecuencias la basaremos en un modelo implementado en Python, que para aquellos que tengan interés puede ser descargado, pudiéndose realizar los cambios que se consideren oportunos para analizar diferentes escenarios.

El modelo

El modelo está basado en una estructura de 14 estados y 20 parámetros, los cuales determinan las probabilidades y la dinámica temporal de las transiciones entre estados. Es importante destacar que en el modelo se ha considerado que los únicos vectores de propagación del virus son los estados “sintomático” y “asintomático”.  El modelo también establece parámetros de movilidad de los individuos y la tasa de infección.

El modelo tiene algunas simplificaciones, así supone que la distribución geográfica de la población es homogénea, lo ha contribuido a reducir significativamente el esfuerzo computacional. En principio, esto puede parecer una limitación importante, sin embargo veremos que no supone un obstáculo para extraer conclusiones globales. La figura siguiente representa de forma simplificada el diagrama de estados del modelo. Las condiciones que establecen las transiciones pueden ser consultadas en el modelo.

Los parámetros se han ajustado de acuerdo a la experiencia obtenida de la progresión del virus, por lo que la información es limitada y deberá estar sujeta a revisión posterior. En cualquier caso, parece claro que el virus presenta una alta eficiencia a la hora de infiltrase en las células para realizar el proceso de copia, por lo que la carga viral necesaria para la infección es reducida. Esta presupone una alta tasa de infección, por lo que además se supone que una parte importante de la población será infectada.

Los escenarios de propagación del virus pueden ser catalogados en los siguientes apartados:

  • Medidas de acción temprana para confinar la expansión del virus.  
  • Propagación descontrolada del virus.
  • Medidas excepcionales para limitar la propagación de virus.

El primer escenario no va a ser analizado ya que no es el caso de la situación actual. Este escenario puede ser analizado modificando los parámetros del modelo.

Por tanto, los escenarios de interés son los de propagación descontrolada y el de toma de medidas excepcionales, ya que estos representan el estado de pandemia actual.

La evolución natural

La dinámica del modelo para el caso de propagación descontrolada se muestra en la figura siguiente. En esta se puede apreciar que los vectores más importantes en la propagación del virus son los individuos asintomáticos, por tres razones fundamentales. La primera es el amplio impacto del virus en la población. La segunda está determinada por el hecho de que sólo produce un cuadro sintomático en una fracción limitada de la población. La tercera está directamente relacionada con las limitaciones prácticas para diagnosticar individuos asintomáticos, como consecuencia de la novedad y rápida expansión del Covid-19.

Por esta razón parece claro que las medidas extraordinarias para contener el virus deben incidir en limitar de forma drástica el contacto entre humanos. Esto es lo que seguramente ha aconsejado la posible suspensión de las actividades académicas, que incluye a de la población infantil y juvenil, no por ser un grupo de riesgo sino por ser la población más activa en la propagación del virus.

La otra característica de la dinámica de propagación es el abrupto crecimiento temporal de afectados por el virus, hasta que este alcanza a la toda la población, iniciándose una rápida recuperación, pero condenando a los grupos de riesgo a su ingreso en la Unidad de Cuidados Intensivos (ICU) y probablemente a la muerte.

Esto planteará una problemática aguda en los sistemas sanitarios, pudiéndose prever un incremento de casos colaterales que fácilmente pueden superar a los casos directos producidos por el Covid-19. Esto aconseja la toma de medidas extraordinarias, pero al mismo tiempo surge la duda de la eficacia de estas medidas, ya que su rápida expansión puede reducir la eficacia de estas medidas, llegando tarde la toma de decisiones.

La situación actual

Este escenario se representa en las figuras siguientes en la que se decreta una cuarentena para gran parte de la población, restringiendo la capacidad de movimiento de los vectores de propagación. Para confirmar lo expuesto anteriormente se han modelado dos situaciones. La primera, en la que la decisión de medidas extraordinarias se ha tomado antes de que la curva de sintomáticos diagnosticados comience a crecer, lo que en la figura ocurre alrededor del día 40 desde el paciente cero. La segunda, en la que la decisión se ha tomado posteriormente, cuando la curva de sintomáticos diagnosticados está en claro crecimiento, alrededor del día 65 desde el paciente cero.

Estos dos escenarios indican claramente que es más que posible que las medidas se hayan tomado con retraso y que la pandemia sigue su curso natural, debido al retardo existente entre las gráficas de infectados y la de pacientes sintomáticos. En consecuencia, parece que las medidas de contención no van a ser todo lo efectivas que cabría esperar, y considerando que los factores económicos van posiblemente a tener consecuencias muy profundas a largo y medio en el bienestar de la sociedad, se debería pensar en soluciones alternativas.

Es interesante observar como la declaración de medidas especiales modifica el comportamiento temporal de la pandemia. Pero, una vez que estas no se han tomado en una fase inicial de la aparición del virus, las consecuencias son profundas.

Lo que se puede esperar

Obviamente, la solución más apropiada sería encontrar remedios para curar la enfermedad, en lo que se está trabajando activamente, pero que tiene un periodo de desarrollo que pueden superar los establecidos por la dinámica de la pandemia.

Sin embargo, como se conoce los grupos de riesgo, el impacto  y la magnitud de estos, una posible solución alternativa sería:

  • Someter a una cuarentena extrita a estos colectivos, manteniéndoles totalmente aislados del virus e implementando servicios de atención para poder hacer efectivo este aislamiento hasta que remita la pandemia, o se encuentre un tratamiento efectivo.
  • Implementar hospitales dedicados exclusivamente al tratamiento del Covid-19.
  • Para el resto de la población no incluida en los grupos de riesgo seguir con la actividad normal, dejando que la pandemia se extienda (Algo que parece ya ser una posibilidad inevitable). No obstante, se deberán tomar estrictas medidas profilácticas y de seguridad. 

Esta estrategia presenta ventajas innegables. En primer lugar, esto reduciría la presión sobre el sistema sanitario, evitando el colapso de la actividad normal del sistema y propiciando una recuperación más rápida.  En segundo lugar, reduciría los problemas de flujo de capital y tesorería en los estados, que pueden conducir a una crisis sin precedentes, cuyas consecuencias serán con toda seguridad más graves que la propia pandemia.

Por último, queda por analizar un aspecto importante del modelo  como es su limitación para modelar una distribución no homogénea de la población. Este apartado es fácil de resolver si se considera que funciona correctamente para el caso de las ciudades. Así, para modelas el caso de una extensión geográfica más amplia sólo hay que modelas los casos particulares de cada cuidad o comunidad con un desfase temporal tal como está mostrando la propia extensión de la pandemia.

Queda aún por determinar un aspecto como es la duración de las medidas extraordinarias. Si se considera que la carga viral para infectar a un individuo es pequeña, es posible que los repositorios remanentes al final del periodo de cuarentena puedan volver a activar la enfermedad, en aquellos individuos que todavía no hayan sido expuestos al virus o que no se hayan inmunizado. Esto es especialmente importante si se considera que las personas curadas pueden seguir infectadas 15 días más.

Percepción de la complejidad

En post anteriores, la naturaleza de la realidad y de su complejidad se ha enfocado desde el punto de vista de la Teoría de la Información. Sin embargo, es interesante hacer este análisis desde el punto de vista de la percepción humana y de esta manera obtener una visión más intuitiva.

Obviamente, hacer un análisis exhaustivo de la realidad desde esta perspectiva es complejo debido a diversidad de los órganos de percepción y a los aspectos fisiológicos y neurológicos que sobre ellos se desarrollan. En este sentido, se podría exponer como la información percibida es procesada, en función de cada uno de los órganos de percepción. Especialmente el sistema auditivo y el visual, ya que estos tienen una mayor trascendencia en los aspectos culturales. Así, en el post dedicado a la percepción del color se ha descrito como los parámetros físicos de la luz son codificados por las células fotorreceptoras de la retina.

Sin embargo, en este post el planteamiento va a consistir en analizar de forma abstracta como el conocimiento condiciona la interpretación de la información, de tal forma que la experiencia previa puede dirigir el análisis en una cierta dirección. Este comportamiento establece a priori supuestos o condicionantes que limitan el análisis de la información en toda su extensión y que como consecuencia impiden obtener ciertas respuestas o soluciones. La superación de estos obstáculos, a pesar del condicionamiento planteado por la experiencia previa, es lo que se conoce como pensamiento lateral.

Para comenzar, consideremos el caso de los acertijos matemáticos de series en los que se presenta una secuencia de números, caracteres o gráficos en las que se pide determinar cómo continua la secuencia. Por ejemplo, dada la secuencia “IIIIIIIVVV”, se pide determinar cuál es el carácter siguiente. Si la cultura romana no hubiera llegado a desarrollarse, podría decirse que el carácter siguiente es “V”, o también que la secuencia ha sido hecha por peques haciendo garabatos. Pero este no es el caso, por lo que el cerebro comienza a maquinar determinando que los caracteres pueden ser romanos y que la secuencia es la de los números “1,2,3,…”. En consecuencia el carácter siguiente debe ser “I”.

De esta forma, se puede apreciar como el conocimiento adquirido condiciona la interpretación de la información percibida por los sentidos. Pero de este ejemplo se puede extraer otra conclusión, consistente en la ordenación de la información como un signo de inteligencia. Para exponer esta idea de manera formal consideremos una secuencia numérica, por ejemplo la serie de Fibonacci “0,1,2,3,5,8,…”. Análogamente al caso anterior el número siguiente deberá ser 13, de tal forma que el término general puede expresarse como fn=fn-1+fn-2. No obstante podemos definir otra función matemática discreta que tome los valores “0,1,2,3,5,8” para n =0,1,2,3,4,5, pero difiera para el resto de valores de n pertenecientes a los números naturales, tal como muestra la figura siguiente. De hecho, con este criterio es posible definir infinitas funciones que cumplan este criterio.

Por tanto, la pregunta es: ¿Qué tiene de particular la serie de Fibonacci respecto del conjunto  funciones que cumplen la condición definida anteriormente?

Aquí se puede hacer el razonamiento ya utilizado en el caso de la serie de números romanos. De tal forma que la formación matemática conduce a identificar la serie de números como pertenecientes a la serie de Fibonacci. Pero esto plantea una contradicción, ya que podría haberse identificado cualquiera de las funciones que cumplen el mismo criterio. Para despejar esta contradicción se debe volver a hacer uso de la Teoría Algorítmica de la Información (AIT).

En primer lugar, hay que destacar que culturalmente el juego de las adivinanzas supone implícitamente seguir unas reglas lógicas y que, por tanto, la respuesta esté libre de arbitrariedad. Así, en el caso de las series numéricas el juego consiste en determinar una regla que justifique el resultado. Si ahora se trata de identificar una regla que determine la secuencia “0,1,2,3,5,8,…” veremos que la más sencilla es fn=fn-1+fn-2. De hecho, es posible que esta sea la más sencilla dentro de este tipo de expresiones. El resto son expresiones complejas, arbitrarias o siendo simples siguen reglas diferentes a las reglas implícitas del acertijo.

Desde el punto de vista de la AIT,  la solución que contiene menos información y que, como consecuencia, puede expresarse de la forma más simple será la respuesta más probable que dará el cerebro a la hora de identificar un patrón determinado por un estímulo. En el ejemplo expuesto, la descripción de la solución previsible será la compuesta por:

  • Una máquina de Turing.
  • La información para codificar las reglas de cálculo.
  • La información para codificar la expresión analítica de la solución más simple. En el ejemplo expuesto corresponde a la expresión de la serie de Fibonacci.

Obviamente existen soluciones de complejidad similar o incluso menor, como por ejemplo la realizada por una máquina de Turing que genere de forma periódica la secuencia “0,1,2,3,5,8”. Pero la mayoría de los casos las soluciones tendrán una descripción más compleja, de tal forma que, de acuerdo a la AIT, in la mayoría de los casos su descripción más compacta será la propia secuencia, la cual no podrá ser comprimida ni expresada de forma analítica.

Por ejemplo, se puede comprobar fácilmente que la función:

genera para valores enteros de n la secuencia “0,1,1,2,3,5,8,0,-62,-279,…”, por lo que podría decirse que las cantidades que siguen a la serie propuesta son “…,0,-62,-279,…”. Obviamente,  la complejidad de esta secuencia es ligeramente superior a la de la serie de Fibonacci, como consecuencia de la complejidad de la descripción de la función y de las operaciones a realizar. 

De forma análoga, podemos tratar de definir otros algoritmos que generen la secuencia propuesta, los cuales irán creciendo en complejidad. Esto pone de manifiesto la posibilidad de interpretación de la información desde diferentes puntos de vista que vayan más allá de las soluciones obvias, que están condicionadas por experiencias previas.

Si además de todo lo anterior se considera que, de acuerdo al principio de Landauer, la complejidad informativa tiene asociado un mayor consumo energético, la resolución de problemas complejos no sólo requiere un mayor esfuerzo computacional, sino también un mayor esfuerzo energético.

Esto puede explicar la sensación de satisfacción producida cuando se resuelve un determinado problema, y la tendencia a implicarse en actividades relajantes que se caracterizan por la sencillez o la monotonía. Por el contrario, la falta de respuesta a un problema produce frustración y desasosiego.

Esto contrasta con la idea que generalmente se tiene sobre la inteligencia. Así, la capacidad de resolver problemas como los expuestos se considera un signo de inteligencia. Pero por el contrario la búsqueda de interpretaciones más complejas parece no tener este estatus. Algo similar ocurre con el concepto de entropía, que generalmente se interpreta como desorden o caos y sin embargo desde el punto de vista de la información es una medida de la cantidad de información.

Otro aspecto que se debe destacar es el hecho de que el proceso cognitivo está sustentado por el procesado de información y, por tanto, sujeto a las reglas de la lógica matemática, cuya naturaleza es irrefutable. Es importante esta matización, ya que generalmente se pone énfasis en los mecanismos físicos y biológicos que soportan los procesos cognitivos, pudiendo llegar finalmente a asignarles una naturaleza espiritual o esotérica.

Por tanto, se puede concluir que el proceso cognitivo está sujeto a la naturaleza y estructura del procesado de información y que desde el punto de vista formal de la teoría de la computabilidad corresponde a una máquina de Turing. De tal forma que la naturaleza ha creado una estructura de procesado basada en la física de la realidad emergente –realidad clásica–, materializada en una red neuronal, la cual interpreta la información codificada por los sentidos de acuerdo a la algorítmica establecida por la experiencia previa. Como consecuencia de ello el sistema realiza dos funciones fundamentales:

  • Interactuar con el entorno, produciendo una respuesta a los estímulos recibidos.
  • Potenciar la capacidad de interpretación, adquiriendo nuevas capacidades –algorítmica– como consecuencia de la capacidad de aprendizaje proporcionada por la red neuronal, tal como muestra la figura.  

Pero lo cierto es que los estímulos de entrada están condicionados por los órganos sensoriales, los cuales constituyen un primer filtro de la información y que por tanto condicionan la percepción de la realidad. La pregunta que se puede realizar es: ¿Qué impacto tiene este filtrado en la percepción de la realidad?

La realidad como un proceso de información

La física tiene por objeto la descripción e interpretación de la realidad material a partir de la observación. Para ello, la matemática ha sido una herramienta fundamental para formalizar dicha realidad mediante modelos, que a su vez han permitido hacer predicciones que posteriormente han sido corroboradas experimentalmente. Esto crea un nexo sorprendente entre realidad y la lógica abstracta que hace sospechar la existencia de una profunda relación más allá de su definición conceptual. De hecho, la capacidad de la matemática de describir con precisión los procesos físicos nos puede llevar a pensar que la realidad no es más que una manifestación de un mundo matemático.

Pero quizá es necesario definir con mayor detalle lo que entendemos por esto. Habitualmente, cuando nos referimos a las matemáticas pensamos en conceptos tales como teoremas o ecuaciones. Sin embargo, podemos tener otra visión de la matemática como un sistema de procesado de información, en la que los conceptos anteriores pueden ser interpretados como una expresión compacta del comportamiento del sistema, tal como nos enseña la teoría de la información algorítmica [1].

De esta manera, las leyes físicas determinan como la información que describe el sistema es procesada, estableciendo una dinámica espacio-temporal del sistema. Como consecuencia, se establece un paralelismo entre el sistema físico y el sistema computacional que desde un punto de vista abstracto son equivalentes. Resultando esta equivalencia algo totalmente sorprendente, ya que en principio suponemos que ambos sistemas pertenecen a ámbitos del conocimiento totalmente diferentes.

Pero dejando aparte este hecho, podemos preguntar qué consecuencias podemos extraer de esta equivalencia. En particular, la teoría de la computabilidad [2] y la teoría de la información [3] [1] nos proporcionan criterios para determinar la reversibilidad computacional y la complejidad de un sistema [4]. En particular:

  • En un sistema computacional reversible (RCS) la cantidad de información permanece constante a lo largo de la dinámica del sistema.
  • En un sistema computacional no-reversible (NRCS) la cantidad de información nunca se incrementa a lo largo de la dinámica del sistema.
  • La complejidad del sistema corresponde a la expresión más compacta del sistema, denominada complejidad de Kolmogorov y es una medida absoluta.

Es importante destacar que en un sistema NRCS la información no se pierde, sino que es explícitamente descartada. Esto significa que no existe ninguna razón fundamental para que dicha información no sea mantenida, ya que la complejidad de un sistema RCS se mantiene constante. En la práctica, la implementación de sistemas computacionales es no-reversible con objeto de optimizar recursos, como consecuencia de las limitaciones tecnológicas para su implementación. De hecho, la energía actualmente necesaria para su implementación es muy superior a la establecida por el principio de Landauer [5].

Si nos centramos en el análisis de sistemas físicos reversibles, como es el caso de la mecánica cuántica, la relatividad, la mecánica newtoniana o el electromagnetismo, se pueden observar magnitudes físicas invariantes que son una consecuencia de la reversibilidad computacional. Estas están determinadas por procesos matemáticos unitarios, lo que significa que todo proceso tiene un proceso inverso [6]. Pero las dificultades para comprender la realidad desde un punto de vista de la lógica matemática parecen surgir de inmediato, siendo la termodinámica y la medida cuántica ejemplos paradigmáticos.

En el caso de la medida cuántica, el estado del sistema antes de realizarse la medida está en una superposición de estados, de tal forma que al realizarse la medida el estado colapsa en uno de los posibles estados en los que estaba el sistema [7]. Esto significa que el escenario de medida cuántica corresponde al de un sistema computacional no-reversible, en el que la información del sistema disminuye al desaparecer la superposición de estados, haciendo que el sistema sea no-reversible como consecuencia de la pérdida de información.

Esto implica que la realidad física pierde información de forma sistemática, lo cual plantea dos contradicciones fundamentales. La primera es el hecho de que la mecánica cuántica es una teoría reversible y que la realidad observable se sustenta sobre ella. La segunda es que esta pérdida de información se contradice con el aumento sistemático de entropía clásica, lo cual a su vez plantea una contradicción más profunda, puesto que en la realidad clásica se produce un incremento espontáneo de información, como consecuencia del incremento de entropía.

La solución a la primera contradicción es relativamente simple si eliminamos la visión antrópica de la realidad. En general, en el proceso de medida cuántica se introduce  el concepto de observador, lo que crea un cierto grado de subjetividad que es muy importante aclarar, ya que puede conducir a errores de interpretación. En este proceso hay dos capas de realidad claramente separadas, la capa cuántica y la capa clásica, de las cuales ya se ha tratado en posts anteriores. La realización de la medida cuántica involucra a dos sistemas cuánticos, uno que definimos como el sistema a medir y otro que corresponde al sistema de medida, que puede considerarse como observador cuántico, y ambos tienen una naturaleza cuántica. Como resultado de esta interacción emerge la información clásica, donde está situado el observador clásico que puede identificarse p.ej. con un físico en un laboratorio. 

Ahora consideremos que la medida está estructurada en dos bloques, uno el sistema cuántico bajo observación y otro el sistema de medida que incluye al observador cuántico y al observador clásico. En este caso se está interpretando que el sistema cuántico bajo medida es un sistema cuántico abierto que pierde información cuántica en el proceso de medida y que como resultado emerge una información clásica de menor cuantía. En definitiva, este escenario ofrece un balance negativo de información.

Pero, por el contrario, en la capa de realidad cuántica se produce la interacción de dos sistemas cuánticos que, se puede  decir,  se observan mutuamente de acuerdo a operadores unitarios, por lo que el sistema es cerrado produciéndose un intercambio de información con un balance nulo de información. Como resultado de esta interacción emerge la capa clásica. Pero entonces parece producirse un balance positivo de información, ya que de este proceso emerge información clásica. Pero realmente lo que ocurre es que la información emergente, que constituye la capa clásica, es simplemente una visión simplificada de la capa cuántica. Por esta razón podemos decir que la capa clásica es una realidad emergente.

Así, se puede decir que la capa cuántica está formada por subsistemas que interaccionan entre sí de forma unitaria, constituyendo un sistema cerrado en el que la información y, por tanto, la complejidad del sistema es un invariante. Como consecuencia de estas interacciones, la capa clásica emerge como una realidad irreductible de la capa cuántica.

En cuanto a la contradicción producida por el aumento de la entropía, las razones que justifican este comportamiento parecen más sutiles. Sin embargo, una primera pista puede estar en el hecho de que este aumento ocurre sólo en la capa clásica. También hay que tener en cuenta que, según la teoría algorítmica de la información, la complejidad de un sistema y, por tanto, la cantidad de información que describe el sistema, es el conjunto formado por la información procesada y la información necesaria para describir al propio procesador. 

Un escenario físico que puede ilustrar esta situación es el caso del big bang [8], en el que se considera que la entropía del sistema en su inicio era muy reducida o incluso nula. Esto es así ya que la radiación de fondo de microondas muestra un patrón bastante homogéneo, por lo que la cantidad de información para su descripción y, por tanto, su entropía es reducida. Pero si creamos un modelo computacional de este escenario, es evidente que la complejidad del sistema se ha incrementado de manera formidable, lo cual es incompatible desde el punto de vista lógico. Esto indica que en el modelo no sólo la información es incompleta, sino también la descripción de los procesos que lo gobiernan. ¿Pero qué indicios físicos tenemos que muestren que esto sea así?

Quizá la muestra más clara de esto es la inflación cósmica [9], de tal forma que la métrica del espacio-tiempo cambia con el tiempo, de tal forma que las dimensiones espaciales crecen con el tiempo. Para explicar este comportamiento se ha postulado la existencia de la energía oscura como motor de este proceso [10], lo que de una forma física reconoce las lagunas que pone de manifiesto la lógica matemática. Quizá un aspecto al que no se le suele prestar atención es la interacción entre el vacío y los fotones, lo que produce una pérdida de energía en los fotones a medida que el espacio-tiempo se expande. Esta pérdida supone una disminución de información que necesariamente debe ser transferida al espacio-tiempo.

Esta situación hace que el vacío, que en el contexto de la física clásica no es más que una métrica abstracta, se esté convirtiendo en una pieza física fundamental de enorme complejidad. Aspectos que contribuyen a esta concepción del vacío son el entrelazado de partículas cuánticas [11], la decoherencia y la energía de punto cero [12].

De todo lo anterior se puede plantear una hipótesis de cuál es la estructura de realidad desde un punto de vista computacional, como muestra la figura siguiente. Si partimos de la base de que la capa cuántica es una estructura unitaria y cerrada, su complejidad permanecerá constante. Pero la funcionalidad y complejidad de esta permanece oculta a la observación y sólo es posible modelarla a través de un proceso inductivo basado en la experimentación y que ha conducido a la definición de modelos físicos, de tal forma que estos modelos permiten describir la realidad clásica. Como consecuencia, la capa cuántica muestra una realidad que constituye la capa clásica y que es una visión parcial y, de acuerdo a los resultados teóricos y experimentales, extremadamente reducida de la realidad subyacente y que hace que la realidad clásica sea una realidad irreductible.

La cuestión fundamental que se puede plantear en este modelo es si la complejidad de la capa clásica es constante o si puede variar a lo largo del tiempo, ya que sólo está sujeta a las leyes de la capa subyacente y es una visión parcial e irreductible de dicha capa funcional. Pero para que la capa clásica sea invariante se requiere que esta sea cerrada y que por tanto lo sea su descripción computacional, lo cual no se verifica ya que está sujeta a la capa cuántica. En consecuencia, la complejidad de la capa clásica puede variar.

En consecuencia, surge la cuestión de si existe algún mecanismo en la capa cuántica que justifique la fluctuación de la complejidad de la capa clásica. Obviamente una de las causas es la decoherencia cuántica, la cual hace que la información sea observable en la capa clásica. De forma similar, la inflación cósmica produce un incremento de la complejidad, al hacer crecer el espacio-tiempo. Por el contrario, las fuerzas atractivas tienden a reducir la complejidad, por lo que la gravedad sería el factor más destacado.

De la observación de la realidad clásica se puede responder que actualmente su entropía tiende a crecer, como consecuencia de que la decoherencia y la inflación son causas  predominantes. Sin embargo, se pueden imaginar escenarios de recesión, como puede ser un escenario de big crunch en los que la entropía disminuyera. Por tanto, la tendencia de la entropía puede ser una consecuencia del estado dinámico del sistema.

En resumen, se puede decir que la cantidad de información en la capa cuántica permanece constante, como consecuencia de su naturaleza unitaria. Por el contrario, la cantidad de información en la capa clásica está determinada por la cantidad de información que emerge de la capa cuántica. Por tanto, el reto que se plantea es determinar con precisión los mecanismos que determinan la dinámica de este proceso. Adicionalmente, se pueden analizar escenarios específicos que en general corresponden al ámbito de la termodinámica. Otros escenarios de interés pueden ser de naturaleza cuántica como es el planteado por Hugh Everett sobre la interpretación de muchos mundos (IMM), mejor conocido como Many-Worlds Interpretation (MWI).

Bibliografía

[1] P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[2] M. Sipser, Introduction to the Theory of Computation, Course Technology, 2012.
[3] C. E. Shannon, “A Mathematical Theory of Communication,” vol. 27, pp. 379-423, 623-656, 1948.
[4] M. A. Nielsen and I. L. Chuang, Quantum computation and Quantum Information, Cambridge University Press, 2011.
[5] R. Landauer, «Irreversibility and Heat Generation in Computing Process,» IBM J. Res. Dev., vol. 5, pp. 183-191, 1961.
[6] J. Sakurai y J. Napolitano, Modern Quantum Mechanics, Cambridge University Press, 2017.
[7] G. Auletta, Foundations and Interpretation of Quantum Mechanics, World Scientific, 2001.
[8] A. H. Guth, The Inflationary Universe, Perseus, 1997.
[9] A. Liddle, An Introduction to Modern Cosmology, Wiley, 2003.
[10] P. J. E. Peebles and Bharat Ratra, “The cosmological constant and dark energy,” arXiv:astro-ph/0207347, 2003.
[11] A. Aspect, P. Grangier and G. Roger, “Experimental Tests of Realistic Local Theories via Bell’s Theorem,” Phys. Rev. Lett., vol. 47, pp. 460-463, 1981.
[12] H. B. G. Casimir and D. Polder, “The Influence of Retardation on the London-van der Waals Forces,” Phys. Rev., vol. 73, no. 4, pp. 360-372, 1948.

Sobre la complejidad del número PI (π)

Introducción

No hay duda de que desde los orígenes de la geometría los humanos han sido seducidos por el número π. Así, una de sus características fundamentales es que determina la relación entre la longitud de una circunferencia y su radio. Pero esto no queda aquí, ya que esta constante aparece de forma sistemática en los modelos matemáticos y científicos que describen el comportamiento de la naturaleza. De hecho, es tal su popularidad que es el único número que tiene su día conmemorativo. La gran fascinación alrededor de π ha planteado especulaciones sobre la información codificada en sus cifras y sobre todo ha desencadenado una inacabable carrera por su determinación, habiéndose calculado a fecha de hoy varias decenas de billones de cifras.

Formalmente, la clasificación de los números reales se realiza de acuerdo a las reglas del cálculo. De este modo, Cantor demostró que los números reales pueden clasificarse como contables infinitos e incontables infinitos, lo que comúnmente se denominan racionales e irracionales. Los números racionales son aquellos que pueden ser expresados como cociente de dos números enteros. Mientras que los números irracionales no pueden ser expresados de esta manera. Estos se clasifican a su vez como números algebraicos y números trascendentes. Los primeros corresponden a las raíces no racionales de las ecuaciones algebraicas, o sea, de raíces de polinomios. Por el contrario, los números trascendentes son soluciones de ecuaciones trascendentes, o sea no polinómicas, cono son las funciones exponenciales y trigonométricas.

Georg Cantor. Co-creador de la Teoría de Conjuntos.

Sin entrar en mayor detalle, lo que nos debe llamar la atención es que esta clasificación de los números se basa en reglas de cálculo posicional, en las que cada cifra tiene un valor jerarquizado. Pero qué ocurre si los números son tratados como secuencias ordenadas de bits, en las que la posición no es un atributo de valor.  En este caso, la Teoría Algorítmica de la Información (AIT) permite establecer una medida de la información contenida en una secuencia finita de bits, y en general de cualquier objeto matemático, y que por tanto esté definida en el dominio de los números naturales.

¿Qué nos enseña la AIT?

Esta medida se fundamento en el concepto de complejidad de Kolmogorov (KC), de tal forma que la complejidad de Kolmogorov K(x) de un objeto finito x se define como la longitud de la descripción binaria efectiva más corta de x. Donde el término “descripción efectiva” conecta la KC con la teoría de la computación, de tal forma que K(x) correspondería a la longitud del programa más corto que imprime x y entra en estado de halt. Para ser precisos, la definición formal de K(x) es:

K(x) = minp,i{ K(i) + l(p):Ti(p) = x } + O(1)

Donde Ti(p) es la máquina de Turing (TM) i que ejecuta p e imprime x, l(p) es la longitud de p, y K(i) es la complejidad de la Ti. Por consiguiente, el objeto p es una representación comprimida del objeto x relativa a Ti, ya que x puede recuperarse a partir de p mediante el proceso de decodificación definido por Ti, por lo que se define como información significativa de x (meaningful information). El resto es considerado como información carente de sentido,  redundante, accidental o ruido (meaningless information). El término O(1) indica que K(i) es una función recursiva y en general es no computable, aunque por su definición es independiente de la máquina en que se ejecute (machine independent) y cuyo resultado tiene un mismo orden de magnitud en cada una de las implementaciones. En este sentido, los teoremas de incompletitud de Gödel, la máquina de Turing  y la complejidad de Kolmogorov conducen a la misma conclusión sobre la indecidibilidad, poniendo de manifiesto la existencia de funciones no computables.

La KC muestra que la información puede ser comprimida, pero no establece ningún procedimiento general para su implementación, lo cual es sólo posible para ciertas secuencias. En efecto, a partir de la definición de la KC se demuestra que ésta es una propiedad intrínseca de las secuencias de bits, de tal forma que hay secuencias que no pueden ser comprimidas. Así, el número de secuencia de n bits que pueden ser codificadas mediante m bits es menor que 2m, por lo que la fracción de secuencias de n bits con K(x) ≥ n-k es menor que 2-k. Si se consideran las posibles secuencias de n bits, cada una de ellas tendrán una probabilidad de ocurrencia igual a 2-n, por lo que la probabilidad de que la complejidad de una secuencia sea K(x) ≥ n-k es igual o mayor que (1-2-k). En definitiva, la mayor parte de las secuencias de bits no pueden ser comprimidas más allá de su propio tamaño, mostrando una elevada complejidad al no presentar ningún tipo de patrón. Aplicado al campo de la física, este comportamiento de la información justifica la hipótesis ergódica. Como consecuencia, esto significa que la mayor parte de los problemas no pueden ser resueltos de forma analítica, ya que sólo pueden ser representados por ellos mismos y como consecuencia no pueden ser descritos de forma compacta mediante reglas formales.

Podría pensarse que la complejidad de una secuencia puede reducirse a voluntad aplicando un criterio de codificación que modifique la secuencia en otra con menos complejidad. En general, esto no hace más que aumentar la complejidad, ya que en el cálculo de la función K(x) habría que añadir la complejidad del algoritmo de codificación que hace que ésta crezca como n2. Finalmente, añadir que la KC es aplicable a cualquier objeto matemático, enteros, conjuntos, funciones, y se demuestra que, a medida que crece la complejidad del objeto matemático, K(x) es equivalente a la entropía H definida en el contexto de la Teoría de la Información. La ventaja de la AIT es que realiza un tratamiento semántico de la información, al ser un proceso axiomático, por lo que no requiere disponer a priori de ningún tipo de alfabeto para realizar la medida de la información.

¿Qué puede decirse sobre la complejidad de π?

De acuerdo a su definición, la KC no puede ser aplicada a los números irracionales, ya que en este caso la máquina de Turing no alcanza el estado de halt, ya que como sabemos estos números tienen un número infinito de cifras. Dicho de otro modo, y para ser formalmente correctos, la máquina de Turing sólo está definida en el campo de los números naturales (se debe recordar que su cardinalidad es la misma que la delos racionales), mientras que los números irracionales tienen una cardinalidad superior a la de los números naturales. Esto significa que la KC y la entropía equivalente H de los números irracionales son indecibles y por tanto no computables.

Para resolver esta dificultad podemos asimilar un número irracional X a la concatenación de una secuencia de bits compuesta por un número racional x y por un residuo δx, de tal forma que en términos numéricos X=x+δx, pero en términos de información X={x,δx}. Como consecuencia, δx es un número irracional δx→0. No obstante, δx es una secuencia de bits con una KC indecible y por tanto no computable. De esta manera, se puede expresar:

K(X) = K(x)+K(δx)

Pudiendo asimilarse la complejidad de X a la complejidad de x. A priori esta aproximación puede parecer sorprendente e inadmisible, puesto que el término K(δx) es despreciado, cuando en realidad tiene una complejidad indecible. Pero esta aproximación es similar a la realizada en el cálculo de la entropía de una variable continua o al proceso de renormalización utilizado en física, con objeto de obviar la complejidad de los procesos subyacentes que permanecen ocultos a la realidad observable.

En consecuencia, la secuencia p, que ejecuta la máquina de Turing i para obtener x, estará compuesta por la concatenación de:

  • La secuencia de bits que codifican las reglas del cálculo en la máquina de Turing i.
  • La secuencia de bits que codifica la expresión comprimida de x, por ejemplo la expresión de una determinada serie numérica de x.
  • La longitud de la secuencia x que se desea decodificar y que determina cuando la máquina de Turing debe alcanzar el estado de halt, por ejemplo un gúgol (10100).  

En definitiva, se puede concluir que la complejidad K(x) de los números irracionales conocidos, p. ej. √2, π, e,…, es reducida. Por esta razón, el reto debe ser la obtención de la expresión óptima de K(x) y no las cifras que codifican estos números, ya que de acuerdo a lo expuesto su expresión descomprimida, o sea el desarrollo de sus cifras, tiene un elevado grado de redundancia (meaningless information).

Esto que en teoría es sorprendente y cuestionable es en la práctica un hecho irrefutable, ya que la complejidad de δx permanecerá siempre oculta, ya que es indecible y por tanto no computable.

Otra conclusión importante es que proporciona un criterio de clasificación de los números irracionales en dos grupos: representables y no representables. Los primeros corresponden a los números irracionales que pueden ser representados por expresiones matemáticas, las cuales serían la expresión comprimida de los números. Mientras que los números no representables corresponderían a los números irracionales que sólo podrían ser expresados por ellos mismos y que por tanto son indecibles. En definitiva, la cardinalidad de los números irracionales representables es la de los números naturales. Se debe destacar que el criterio de clasificación anterior es aplicable a cualquier objeto matemático.

Por otra parte, es evidente que la matemática, y en particular el cálculo, acepta de facto los criterios establecidos para definir la complejidad K(x). Este hecho puede pasar desapercibido debido a que, tradicionalmente en este contexto, los números se analizan desde la óptica de la codificación posicional, de tal forma que el residuo no representable queda filtrado por medio del concepto de límite, de tal forma que δx→0. Sin embargo, cuando se trata de evaluar la complejidad informativa de un objeto matemático puede ser necesario aplicar un procedimiento de renormalización.

Una visión macroscópica del gato de Schrödinger

Del análisis realizado en el apartado anterior se puede concluir que en general no es posible asociar los estados macroscópicos de un sistema complejo a sus estados cuánticos. Así, los estados macroscópicos correspondientes al gato muerto (DC) o vivo (AC) no pueden considerarse estados cuánticos, ya que de acuerdo a la teoría cuántica el sistema podría expresarse como una superposición de estos. En consecuencia, tal como se ha justificado, para sistemas macroscópicos no es posible definir estados cuánticos tales como |DC〉 y |AC〉. Por otra parte, los estados (DC) y (AC) son una realidad observable, lo que indica que el sistema presenta dos realidades, una realidad cuántica y una realidad emergente que puede definirse como realidad clásica.

La realidad cuántica estará definida por su función de onda, formada por la superposición de los subsistemas cuánticos que forman el sistema y que evolucionará de acuerdo a la interacción existente entre todos los elementos cuánticos que forman el sistema y el entorno. Por simplicidad, si se considera el sistema CAT de forma aislada, la sucesión de su estado cuántico puede expresarse como:

|CAT[n]〉 = |SC1[n]〉⊗|SC2[n]〉⊗…⊗|SCi[n]〉⊗…⊗|SCk[n][n]〉.

Expresión en la que se ha tenido en cuenta que el número de subsistemas cuánticos no entrelazados k varía también con el tiempo, por lo que es función de la secuencia n, considerando el tiempo como una variable discreta.

La realidad clásica observable podrá describirse por el estado del sistema que, si para el objeto “gato” se define como (CAT[n]), del razonamiento anterior se concluye que (CAT[n]) ≢ |CAT[n]〉. En otras palabras, los estados cuánticos y clásicos de un objeto complejo no son equivalentes.

La cuestión que queda por justificar es la irreductibilidad del estado clásico observable (CAT) a partir de la realidad cuántica subyacente, representada por el estado cuántico |CAT〉. Esto se puede realizar si se considera que la relación funcional entre los estados |CAT〉 y (CAT) es extraordinariamente compleja, estando sujeta a los conceptos matemáticos en los que se fundamentan los 0 sistemas complejos, como son:

  • El comportamiento estadístico de la información observable que emerge de la realidad cuántica.
  • La no linealidad de las leyes de la física.
  • El enorme número de entidades cuánticas involucradas en un sistema macroscópico.

Esto hace que, de acuerdo a la teoría de la información algorítmica [1], no se pueda establecer una solución analítica que determine la evolución del objeto complejo a partir de su estado inicial. Esto significa que, en la práctica, el proceso de evolución de un objeto complejo sólo puede ser representado por sí mismo, tanto a nivel cuántico como clásico. De acuerdo a la teoría algorítmica de la información, este proceso es equivalente a un objeto matemático compuesto por un conjunto ordenado de bits procesado de acuerdo a reglas axiomáticas. De tal forma que la información del objeto está definida por la complejidad de Kolmogorov, de tal forma que esta no varía en el tiempo, siempre que el proceso sea un sistema aislado. Hay que señalar que la complejidad de Kolmogorov permite determinar la información contenida en un objeto, sin necesidad de disponer previamente de un alfabeto para la determinación de su entropía, tal como ocurre en la teoría de la información [2], si bien ambos conceptos coinciden en el límite.

Desde este punto de vista surgen dos cuestiones fundamentales. La primera es la evolución de la entropía del sistema y la segunda es la aparente pérdida de información en el proceso de observación, mediante el cual emerge la realidad clásica a partir de la realidad cuántica. Esto abre una posible línea de análisis que será abordada más adelante.

Pero volviendo al análisis de cuál es la relación entre los estados clásico y cuántico, es posible tener una visión intuitiva de como el estado (CAT) acaba estando desconectado del estado |CAT〉, analizando el sistema de forma cualitativa.

En primer lugar, se debe considerar que prácticamente el 100% de la información cuántica contenida en el estado |CAT〉 permanece oculta dentro de las partículas elementales que constituyen el sistema. Esto es una consecuencia de que la estructura físico-química [3] de sus moléculas está determinada exclusivamente por los electrones que sustentan sus enlaces covalentes. A continuación, se debe considerar que la interacción molecular, sobre la que se fundamenta la biología molecular, se realiza por medio de fuerzas de van der Waals y puentes de hidrógeno, lo que crea un nuevo nivel de desconexión funcional con la capa subyacente.

Sustentado por este nivel funcional aparece una nueva estructura funcional formada por la biología celular [4], a partir de la cual aparecen los organismos vivos, desde seres unicelulares hasta seres complejos formados por órganos multicelulares. En esta capa es donde emerge el concepto de ser vivo, que establece una nueva frontera entre lo estrictamente físico y el concepto de percepción. De esta forma emerge el tejido nervioso [5], que permite la interacción compleja entre individuos y sobre el cual se sustentan nuevas estructuras y conceptos, tales como conciencia, cultura, organización social, que no sólo están reservadas a los seres humanos, si bien es en estos últimos donde la funcionalidad es más compleja.

Pero a la complejidad de las capas funcionales hay que añadir la no-linealidad de las leyes a que están sujetas y que son condiciones necesarias y suficientes para un comportamiento de caos determinista [6]. Esto significa que cualquier variación en las condiciones iniciales producirá una dinámica diferente, por lo que cualquier emulación acabará divergiendo del original, siendo este comportamiento la justificación del libre albedrio. En este sentido, el principio de indeterminación de Heisenberg [7] impide conocer con exactitud las condiciones iniciales del sistema clásico, en cualquiera de las capas funcionales descritas anteriormente. En consecuencia, todas ellas tendrán una naturaleza irreductible y su dinámica imprevisible, sólo determinada por el propio sistema.

Llegado a este punto y a la vista de esta compleja estructura funcional debemos preguntar a que se refiere el estado (CAT), puesto que hasta ahora se ha supuesto implícitamente la existencia de un estado clásico. La compleja estructura funcional del objeto “gato” permite hacer una descripción de éste a diferentes niveles. Así, el objeto gato se  puede describir de diversas maneras:

  • Como átomos y moléculas sujetos a las leyes de la fisicoquímica.
  • Como moléculas que interaccionan de acuerdo a la biología molecular.
  • Como conjuntos complejos de moléculas que dan origen a la biología celular.
  • Como conjuntos de células para formar órganos y organismos vivos.
  • Como estructuras de proceso de información que dan origen a los mecanismos de percepción e interacción con el entorno y que permiten desarrollar comportamientos individuales y sociales.

Como resultado, cada uno de estos estratos funcionales puede ser expresado por medio de un determinado estado, por lo que hablar de un único estado macroscópico (CAT) no es correcto. Cada uno de estos estados describirá el objeto de acuerdo a unas reglas funcionales diferentes, por lo que cabe preguntar qué relación existe entre estas descripciones y cuál es su complejidad. De forma análoga a los argumentos utilizados para demostrar que los estados |CAT〉 y (CAT) no son equivalentes y estar incorrelados entre sí, los estados que describen el objeto “gato” a diferentes niveles funcionales no serán equivalentes y podrán en cierta medida estar desconectados entre sí.

Este comportamiento es una prueba de cómo la realidad se estructura en capa funcionales irreductibles, de tal forma que cada una de las capas puede ser modelada de forma independiente e irreductible, por medio de un conjunto ordenado de bits procesados de acuerdo a reglas axiomáticas.

Bibliografía

[1]  P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[2]  C. E. Shannon, «A Mathematical Theory of Communication,» The Bell System Technical Journal, vol. 27, pp. 379-423, 1948.
[3]  P. Atkins and J. de Paula, Physical Chemestry, Oxford University Press, 2006.
[4]  A. Bray, J. Hopkin, R. Lewis and W. Roberts, Essential Cell Biology, Garlan Science, 2014.
[5]  D. Purves and G. J. Augustine, Neuroscience, Oxford Univesisty press, 2018.
[6]  Gleick, Chaos: Making a New Science, Penguin Books, 1988.
[7]  W. Heisenberg, «The Actual Content of Quantum Theoretical Kinematics and Mechanics,» Zeit-schrift fur Physik.   Translation: NASA TM-77379., vol. 43, nº 3-4, pp. 172-198, 1927.

¿Por qué el arcoíris tiene 7 colores?

Publicado en OPENMIND, 8 Agosto, 2018.

El color como un concepto físico

Tanto la luz visible, el calor, las ondas de radio, así como otros tipos de radiación tienen la misma naturaleza física, estando constituidas por un flujo de partículas denominadas fotones. El fotón o “cuanto de luz” fue propuesto por Einstein, por lo que le fue concedido el premio nobel en 1921 y constituye una de las partículas elementales del modelo estándar, perteneciente a la familia de los bosones. La característica fundamental de un fotón es su capacidad de transferir energía de forma cuantizada, la cual está determinada por su frecuencia, de acuerdo a la expresión E=h∙ν , siendo h la constante de Planck y ν la frecuencia del fotón.

Espectro electromagnético

Así, podemos encontrar fotones de frecuencias muy bajas situados en la banda de las ondas de radio, hasta fotones de muy alta energía denominados rayos gamma, tal como muestra la figura siguiente, formando un banda continua de frecuencias que constituye el espectro electromagnético. Puesto que el fotón puede ser modelado como una sinusoide que viaja a la velocidad de la luz c, la longitud de un ciclo completo se denomina longitud de onda del fotón λ, por lo que el fotón puede ser caracterizado indistintamente por su frecuencia o por su longitud de onda, ya que λ=c/ν. Pero es común utilizar el término color como sinónimo de la frecuencia, ya que el color de la luz percibido por los humanos es función de la frecuencia. Sin embargo, como vamos a ver esto no es estrictamente algo físico sino una consecuencia del proceso de medida e interpretación de la información, que hace que el color sea una realidad emergente de otra realidad subyacente, sustentada por la realidad física de la radiación electromagnética.

Estructura de una onda electromagnética

Pero antes de abordar este tema, se debe considerar que para detectar de forma eficiente los fotones es necesario disponer de un detector denominado antena,  cuyo tamaño debe ser similar a longitud de onda de los fotones.

La percepción de color por los humanos

El ojo humano es sensible a longitudes de onda que van desde el rojo profundo (700nm, nanómetros=10-9 metros) hasta el violeta (400nm).  ¡Lo que requiere antenas receptoras con un tamaño del orden de los cientos de nanómetros! Pero para la naturaleza esto no es un gran problema, ya que las moléculas complejas pueden tener fácilmente este tamaño. De hecho, el ojo humano, para la visión cromática, está dotado de tres tipos de proteínas fotorreceptoras, las cuales producen una respuesta como la indicada en la figura siguiente.

Respuesta de las células fotorreceptoras de la retina humana

Cada uno de estos tipos configura en la retina un tipo de célula fotoreceptora, que por su morfología se denominan conos. Las proteínas fotorreceptoras están situadas en la membrana celular, de tal forma que cuando absorben un fotón cambian de forma, abriendo unos canales en la membrana celular que genera un flujo de iones. Después de un complejo proceso bioquímico se produce un flujo de impulsos nerviosos que es preprocesado por varias capas de neuronas de la retina y que finalmente alcanzan la corteza visual a través del nervio óptico, donde la información es finalmente procesada.

Pero en este contexto, la cuestión es que las células de la retina no mide la longitud de onda de los fotones del estímulo. Por el contrario, lo que hacen es convertir un estímulo de una determinada longitud de onda en tres parámetros denominados L,M,S, que son la respuesta al estímulo de cada uno de los tipos de células fotoreceptoras. Esto tiene implicaciones muy interesantes que deben ser analizadas. De esta forma, podemos explicar aspectos tales como:

  • La razón del porqué el arcoíris tiene 7 colores.
  • La posibilidad de sintetizar el color mediante mezcla aditiva y substractiva.
  • La existencia de colores no físicos, como el blanco y el magenta.
  • La existencia de diferentes modalidades de interpretación del color en función de la especie.

Para entender esto, imaginemos que nos proporcionan la respuesta de un sistema de medida que relaciona L,M,S con la longitud de onda y nos piden que establezcamos una correlación entre ellas. Lo primero que podemos ver es que existen 7 zonas diferenciadas en la longitud de onda, 3 crestas y 4 valles. ¡7 patrones! Esto explica porqué percibimos el arcoíris compuesto por 7 colores, una realidad emergente consecuencia del procesado de información que trasciende a la realidad física.

¿Pero qué respuesta nos dará un ave si le preguntamos por el número de colores del arcoíris? ¡Posiblemente, aunque poco probable, nos dirá 9! Esto es debido a que las aves disponen de un cuarto tipo de fotorreceptor posicionado en el ultravioleta, por lo que el sistema de percepción establecerá 9 regiones en la banda de percepción de la radiación. Y esto nos lleva a preguntarnos: ¿Cuál será la gama cromática percibida por nuestra hipotética ave, o por especies que sólo dispones de un único tipo de fotorreceptor? ¡El resultado es un simple caso de combinatoria!

Por otra parte, la existencia de tres tipos de fotorreceptores en la retina de los humanos hace posible sintetizar de forma relativamente precisa la gama cromática, mediante la combinación aditiva de tres colores, rojo, verde y azul, tal como se realiza en las pantallas de video. De esta forma, es posible producir una respuesta L,M,S en cada punto de la retina similar a la producida por un estímulo real, mediante la aplicación ponderada de una mezcla de fotones de longitudes de onda rojo, verde y azul.

De forma análoga, es posible sintetizar el color mediante mezcla substractiva o pigmentaria de tres colores, magenta, cian y amarillo, como ocurre en la pintura al oleo o en las impresoras. Y aquí es donde se pone claramente de manifiesto la virtualidad del color, al no existir fotones de color magenta, ya que este estímulo es una mezcla de fotones de color azul y rojo. Lo mismo ocurre con el color blanco, al no existir fotones individuales que produzcan dicho estímulo, ya que el blanco es la percepción de una mezcla de fotones distribuidos en la banda visible, y en particular por la mezcla de fotones de color rojo, verde y azul.

En definitiva, la percepción del color es un claro ejemplo de cómo emerge la realidad como consecuencia del procesado de información. Así, podemos ver  como una determinada interpretación de la información física del espectro electromagnético visible produce una realidad emergente, a partir de una realidad subyacente mucho más compleja.

En este sentido, podríamos preguntarnos qué opinaría un androide, dotado de un preciso sistema de medida de la longitud de onda, sobre las imágenes que sintetizamos en la pintura o en las pantallas de vídeo. Con seguridad nos respondería que no corresponden con las imágenes originales, algo que para nosotros es prácticamente imperceptible. Y esto conecta con un tema, que puede parecer no relacionado, como es el concepto de la belleza y la estética. Lo cierto es que cuando no somos capaces de establecer patrones o categorías en la información percibimos ésta como ruido o desorden.  ¡Algo desagradable o antiestético!

 

Información y conocimiento

¿Qué es la información?

Si nos ceñimos a su definición, la cual podemos encontrar en los diccionarios, veremos que siempre hace referencia a un conjunto de datos y con frecuencia añade también el hecho de que estos estén ordenados y procesados. Pero vamos a ver que estas definiciones son poco precisas e incluso erróneas al asimilarla al concepto de conocimiento.

Una de las cosas que nos ha enseñado la teoría de la información es que cualquier objeto (noticia, perfil, imagen, etc.) puede ser expresado de forma precisa por un conjunto de bits. Por tanto, la definición formal de información es el conjunto ordenado de símbolos que representan el objeto y que en su forma básica constituyen un conjunto ordenado de bits. Sin embargo, la propia teoría de la información nos descubre de forma sorprendente que la información no tiene significado, lo que técnicamente se conoce como information without meaning.

Esto parece ser totalmente contradictorio, sobre todo si tenemos en cuenta la idea convencional de lo que se considera como información. Sin embargo, esto es fácil entender. Imaginemos que encontramos un libro en el cual aparecen escritos símbolos que nos resultan totalmente desconocidos. Inmediatamente supondremos que es un texto escrito en un lenguaje desconocido por nosotros, ya que, en nuestra cultura, los objetos con forma de libro es lo que suelen contener. Así, comenzamos a investigar y concluimos que es un lenguaje desconocido sin referencia o piedra Rosetta con ningún lenguaje conocido. Por tanto, tenemos información pero no conocemos su mensaje y como consecuencia el conocimiento encerrado en el texto. Podemos incluso catalogar los símbolos que aparecen en el texto y asignarles un código binario, al igual que hacemos en los procesos de digitalización, convirtiendo el texto en un conjunto ordenado de bits.

Pero, para conocer el contenido del mensaje deberemos analizar la información mediante un proceso que deberá incluir las claves o pistas que permitan extraer el contenido del mensaje. Es exactamente lo mismo que si el mensaje estuviera encriptado, de manera que el mensaje permanecerá oculto si no se dispone de la clave de desencriptación, tal como muestra la técnica de encriptación de clave única.

Ray Solomonoff, cofundador de la Teoría Algorítmica de la Información junto con Andrey Kolmogorov.

 ¿Qué es el conocimiento?

Esto muestra con claridad la diferencia entre información y conocimiento. De tal forma que la información es el conjunto de datos (bits) que describen un objeto y el conocimiento es el resultado de un proceso aplicado sobre dicha información y que se materializa en una realidad. De hecho, la realidad siempre está sujeta a este esquema.

Por ejemplo, supongamos que nos están contando una determinada noticia. A partir de la presión sonora aplicada sobre nuestros tímpanos acabaremos extrayendo no sólo el contenido de la noticia, sino que también podremos experimentar sensaciones subjetivas, como placer o tristeza. No cabe duda de que el estímulo original se puede representar como un conjunto bits, si se considera que la información de audio puede provenir de un contenido digitalizado, p. ej. MP3.

Pero para que el conocimiento emerja se requiere que la información sea procesada. De hecho, en el caso anterior es necesaria la participación de varios procesos diferentes, entre los cuales hay que destacar:

  • Los procesos biológicos responsables de la transducción de la información en estímulos nerviosos.
  • Los procesos de extracción de información lingüística, establecidos por las reglas del lenguaje en nuestro cerebro mediante aprendizaje.
  • Los procesos de extracción de información subjetiva, establecidos por las reglas culturales en nuestro cerebro mediante aprendizaje

En definitiva, el conocimiento se establece mediante el procesado de información. Y aquí puede surgir el debate como consecuencia de la diversidad de procesos, de su estructuración, pero sobre todo por la naturaleza de la fuente última de donde emergen. Se pueden poner infinidad de ejemplos. ¡Pero, como seguro que pueden surgir dudas de que ésta sea la forma en que emerge la realidad, podemos tratar de buscar un solo contraejemplo!

Una cuestión fundamental es: ¿Podemos medir el conocimiento? La respuesta es afirmativa y nos la proporciona la teoría algorítmica de la información (AIT) que, basándose en la teoría de la información y de la teoría de la computación, permite establecer la complejidad de un objeto, mediante la complejidad de Kolmogorov K(x), que se define de la siguiente forma:

Para un objeto finito x se define K(x) como la longitud de la descripción binaria efectiva más corta de x.

Sin entrar en detalles teóricos complejos, es importante mencionar que K(x) es una propiedad intrínseca del objeto y no una propiedad del proceso de evaluación. ¡Pero que no cunda el pánico! Ya que en la práctica estamos familiarizados con esta idea.

Imaginemos un contenido de audio, video, o en general una secuencia de bits. Sabemos que estos pueden ser comprimidos, lo que reduce sensiblemente su tamaño. Esto significa que la complejidad de estos objetos no está determinada por el número de bits de la secuencia original, sino por el resultado de la compresión, ya que mediante un proceso inverso de descompresión podemos recuperar el contenido original. ¡Pero cuidado! La descripción efectiva del objeto debe incluir el resultado de la compresión y la descripción del proceso de descompresión, necesario para recuperar el mensaje.

Complejidad de un contenido digital, equivalente a un proceso de compresión

Un escenario similar es el modelado de la realidad, donde destacan los procesos físicos. Así, un modelo es una definición compacta de una realidad. Por ejemplo, el modelo de gravitación universal de Newton es la definición más compacta del comportamiento de un sistema gravitatorio en un contexto no relativista. De esta forma, el modelo junto con las reglas del cálculo matemático y con la información que define el escenario físico, será la descripción más compacta del sistema y constituye lo que denominamos algoritmo. Es interesante destacar que ésta es la definición formal de algoritmo y que hasta que estos conceptos matemáticos no fueron desarrollados a largo de la primera mitad del siglo XX por Klein, Chruch y Turing , este concepto no fue totalmente establecido.

Es importante considerar que la máquina física que sustenta el proceso forma también parte de la descripción del objeto, proporcionando las funciones básicas. Éstas  están definidas de forma axiomática y en el caso de la máquina de Turing corresponden a un número de reglas axiomáticas extraordinariamente reducido.

Estructura de los modelos, equivalente a un proceso de descompresión.

Como conclusión, podemos decir que el conocimiento es el resultado del procesado de información. Por lo tanto, el procesado de información es la fuente de la realidad. Pero esto plantea la pregunta: Puesto que existen problemas no computables ¿hasta dónde es posible indagar en la realidad?

¿Cuál es la naturaleza de la información?

Publicado en OPENMIND, 7 Mayo, 2018.

Una perspectiva histórica

Clásicamente, la información se considera como las transacciones realizadas entre humanos. Sin embargo, a lo largo de la historia este concepto se ha ampliado, no tanto por el desarrollo de la lógica matemática sino por el desarrollo tecnológico. Un cambio sustancial se produjo con la llegada del telégrafo a principios del siglo XIX. Así, “enviar” pasó de ser algo estrictamente material a un concepto más amplio, como lo ponen de manifiesto muchas anécdotas. Entre las más frecuentes destaca la intención de muchas personas de enviar cosas materiales por medio de telegramas, o el enfado de ciertos clientes argumentando que el telegrafista no había enviado el mensaje cuando éste les devolvía la nota del mensaje.

Actualmente, “información” es un concepto abstracto fundamentado en la teoría de la información, creada por Claude Shannon a mediados del siglo XX. No obstante, la tecnología de la computación es la que más ha contribuido a que el concepto de “bit” sea algo familiar. Más aun, conceptos como realidad virtual, basados en el procesado de información, se han convertido en términos cotidianos.

La cuestión es que la información es algo ubicuo en todos los procesos naturales, física, biología, economía, etc., de tal forma que estos procesos pueden ser descritos mediante modelos matemáticos y en definitiva por el procesado de información. Esto hace que podamos preguntarnos: ¿Cuál es la relación entre información y realidad? 

Información como una entidad física

Es evidente que la información emerge de la realidad física, tal como lo demuestra la tecnología de la computación. La pregunta es si la información es algo fundamental en la realidad física o si es simplemente un producto de ella. En este sentido, existen evidencias de la estricta relación entre información y energía.

Claude Elwood Shannon fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información»  Imagen: DobriZheglov

Así, el teorema de Shannon–Hartley de la teoría de la información establece la mínima cantidad de energía necesaria para transmitir un bit, valor que se conoce como límite de Bekenstein. Por un camino diferente, y con objeto de determinar la necesidad de energía en el proceso de computación, Rolf Landauer estableció la mínima cantidad de energía necesaria para el borrado de un bit, resultado que se denomina principio de Landauer y su valor  coincide exactamente con el límite de Bekenstein y es función de la temperatura absoluta del medio.

Estos resultados permiten determinar la máxima capacidad de un canal de comunicación y la mínima energía que debe consumir un ordenador para desempeñar una determinada tarea. En ambos casos se pone de manifiesto la ineficiencia de los sistemas actuales, cuyas prestaciones están enormemente alejadas de los límites teóricos. Pero en este contexto, lo verdaderamente importante es que el teorema de Shannon-Hartley es un desarrollo estrictamente matemático, en el que finalmente la información es codificada sobre variables físicas, lo que induce a pensar que la información es algo fundamental en lo que definimos como realidad.

Ambos casos ponen de manifiesto la relación entre energía e información, pero no son concluyentes a la hora de determinar la naturaleza de la información. Lo que si queda claro es que para que un bit pueda emerger y pueda ser observado en la escala de la física clásica se requiere una mínima cantidad de energía determinada por el límite de Bekenstein. Por lo que la observación de información es algo relativo a la temperatura absoluta del entorno.

Este comportamiento es fundamental en el proceso de observación, tal como se pone de manifiesto en la experimentación de fenómenos físicos. Un ejemplo representativo es la medida de la radiación de fondo de microondas producida por el big bang, que requiere que el detector situado en el satélite esté refrigerado por helio líquido. Lo mismo ocurre en los sensores de visión nocturna, que deben estar refrigerados por una célula Peltier. Por el contrario, esto no es necesario en una cámara de fotos convencional ya que la radiación emitida por la escena es muy superior al nivel de ruido térmico del sensor de imagen.

Radiación de fondo de microondas (CMB). Satélite WMAP de la NASA

Esto demuestra que la información emerge de la realidad física. Pero podemos ir más lejos ya que la información es la base de la descripción de los procesos naturales. Por tanto, algo que no puede ser observado no puede ser descrito. En definitiva, todo observable es algo fundamentado en la información, algo que se pone claramente de manifiesto en los mecanismos de percepción.

A partir de la información emergente es posible establecer modelos matemáticos que ocultan la realidad subyacente, lo que sugiere una estructura funcional en capas irreductibles. Un ejemplo paradigmático es la teoría del electromagnetismo que describe con precisión el electromagnetismo sin basarse en la existencia del fotón, no pudiendo deducirse su existencia a partir de ella. Algo que generalmente es extensible a la totalidad de modelos físicos.

Otro indicio de que la información es una entidad fundamental de lo que denominamos realidad es la imposibilidad de transferir información a mayor velocidad que la de la luz. Esto haría que la realidad fuera un sistema no causal e inconsistente. Por tanto, desde este punto de vista la información está sujeta a las mismas leyes físicas que la energía. Y considerando comportamientos como el entrelazado de partículas podemos preguntar: ¿Cómo fluye la información a nivel cuántico?

¿Es la información la esencia de la realidad?

En base a estos indicios podríamos plantear la hipótesis de que la información es la esencia de la realidad en cada una de las capas funcionales en la que esta se manifiesta. Así, por ejemplo, si pensamos en el espacio-tiempo, su observación es siempre indirecta a través de las propiedades de la materia-energía, por lo que podríamos considerar que no es más que la información emergente de una realidad subyacente más compleja. Esto da una idea de por qué el vacío sigue siendo uno de los grandes enigmas de la física. Este tipo de argumentos nos lleva a preguntar: ¿Qué es y qué entendemos por realidad?

Percepción del espacio-tiempo

Desde esta perspectiva, podemos preguntarnos a que conclusiones podríamos llegar si analizamos lo que definimos como realidad desde el punto de vista de la teoría de la información, en particular de la teoría algorítmica de la información y de la teoría de la computabilidad. Todo esto sin perder de vista el conocimiento aportado por las diferentes áreas que estudian la realidad, especialmente la física.