Sobre la complejidad del número PI (π)

Introducción

No hay duda de que desde los orígenes de la geometría los humanos han sido seducidos por el número π. Así, una de sus características fundamentales es que determina la relación entre la longitud de una circunferencia y su radio. Pero esto no queda aquí, ya que esta constante aparece de forma sistemática en los modelos matemáticos y científicos que describen el comportamiento de la naturaleza. De hecho, es tal su popularidad que es el único número que tiene su día conmemorativo. La gran fascinación alrededor de π ha planteado especulaciones sobre la información codificada en sus cifras y sobre todo ha desencadenado una inacabable carrera por su determinación, habiéndose calculado a fecha de hoy varias decenas de billones de cifras.

Formalmente, la clasificación de los números reales se realiza de acuerdo a las reglas del cálculo. De este modo, Cantor demostró que los números reales pueden clasificarse como contables infinitos e incontables infinitos, lo que comúnmente se denominan racionales e irracionales. Los números racionales son aquellos que pueden ser expresados como cociente de dos números enteros. Mientras que los números irracionales no pueden ser expresados de esta manera. Estos se clasifican a su vez como números algebraicos y números trascendentes. Los primeros corresponden a las raíces no racionales de las ecuaciones algebraicas, o sea, de raíces de polinomios. Por el contrario, los números trascendentes son soluciones de ecuaciones trascendentes, o sea no polinómicas, cono son las funciones exponenciales y trigonométricas.

Georg Cantor. Co-creador de la Teoría de Conjuntos.

Sin entrar en mayor detalle, lo que nos debe llamar la atención es que esta clasificación de los números se basa en reglas de cálculo posicional, en las que cada cifra tiene un valor jerarquizado. Pero qué ocurre si los números son tratados como secuencias ordenadas de bits, en las que la posición no es un atributo de valor.  En este caso, la Teoría Algorítmica de la Información (AIT) permite establecer una medida de la información contenida en una secuencia finita de bits, y en general de cualquier objeto matemático, y que por tanto esté definida en el dominio de los números naturales.

¿Qué nos enseña la AIT?

Esta medida se fundamento en el concepto de complejidad de Kolmogorov (KC), de tal forma que la complejidad de Kolmogorov K(x) de un objeto finito x se define como la longitud de la descripción binaria efectiva más corta de x. Donde el término “descripción efectiva” conecta la KC con la teoría de la computación, de tal forma que K(x) correspondería a la longitud del programa más corto que imprime x y entra en estado de halt. Para ser precisos, la definición formal de K(x) es:

K(x) = minp,i{ K(i) + l(p):Ti(p) = x } + O(1)

Donde Ti(p) es la máquina de Turing (TM) i que ejecuta p e imprime x, l(p) es la longitud de p, y K(i) es la complejidad de la Ti. Por consiguiente, el objeto p es una representación comprimida del objeto x relativa a Ti, ya que x puede recuperarse a partir de p mediante el proceso de decodificación definido por Ti, por lo que se define como información significativa de x (meaningful information). El resto es considerado como información carente de sentido,  redundante, accidental o ruido (meaningless information). El término O(1) indica que K(i) es una función recursiva y en general es no computable, aunque por su definición es independiente de la máquina en que se ejecute (machine independent) y cuyo resultado tiene un mismo orden de magnitud en cada una de las implementaciones. En este sentido, los teoremas de incompletitud de Gödel, la máquina de Turing  y la complejidad de Kolmogorov conducen a la misma conclusión sobre la indecidibilidad, poniendo de manifiesto la existencia de funciones no computables.

La KC muestra que la información puede ser comprimida, pero no establece ningún procedimiento general para su implementación, lo cual es sólo posible para ciertas secuencias. En efecto, a partir de la definición de la KC se demuestra que ésta es una propiedad intrínseca de las secuencias de bits, de tal forma que hay secuencias que no pueden ser comprimidas. Así, el número de secuencia de n bits que pueden ser codificadas mediante m bits es menor que 2m, por lo que la fracción de secuencias de n bits con K(x) ≥ n-k es menor que 2-k. Si se consideran las posibles secuencias de n bits, cada una de ellas tendrán una probabilidad de ocurrencia igual a 2-n, por lo que la probabilidad de que la complejidad de una secuencia sea K(x) ≥ n-k es igual o mayor que (1-2-k). En definitiva, la mayor parte de las secuencias de bits no pueden ser comprimidas más allá de su propio tamaño, mostrando una elevada complejidad al no presentar ningún tipo de patrón. Aplicado al campo de la física, este comportamiento de la información justifica la hipótesis ergódica. Como consecuencia, esto significa que la mayor parte de los problemas no pueden ser resueltos de forma analítica, ya que sólo pueden ser representados por ellos mismos y como consecuencia no pueden ser descritos de forma compacta mediante reglas formales.

Podría pensarse que la complejidad de una secuencia puede reducirse a voluntad aplicando un criterio de codificación que modifique la secuencia en otra con menos complejidad. En general, esto no hace más que aumentar la complejidad, ya que en el cálculo de la función K(x) habría que añadir la complejidad del algoritmo de codificación que hace que ésta crezca como n2. Finalmente, añadir que la KC es aplicable a cualquier objeto matemático, enteros, conjuntos, funciones, y se demuestra que, a medida que crece la complejidad del objeto matemático, K(x) es equivalente a la entropía H definida en el contexto de la Teoría de la Información. La ventaja de la AIT es que realiza un tratamiento semántico de la información, al ser un proceso axiomático, por lo que no requiere disponer a priori de ningún tipo de alfabeto para realizar la medida de la información.

¿Qué puede decirse sobre la complejidad de π?

De acuerdo a su definición, la KC no puede ser aplicada a los números irracionales, ya que en este caso la máquina de Turing no alcanza el estado de halt, ya que como sabemos estos números tienen un número infinito de cifras. Dicho de otro modo, y para ser formalmente correctos, la máquina de Turing sólo está definida en el campo de los números naturales (se debe recordar que su cardinalidad es la misma que la delos racionales), mientras que los números irracionales tienen una cardinalidad superior a la de los números naturales. Esto significa que la KC y la entropía equivalente H de los números irracionales son indecibles y por tanto no computables.

Para resolver esta dificultad podemos asimilar un número irracional X a la concatenación de una secuencia de bits compuesta por un número racional x y por un residuo δx, de tal forma que en términos numéricos X=x+δx, pero en términos de información X={x,δx}. Como consecuencia, δx es un número irracional δx→0. No obstante, δx es una secuencia de bits con una KC indecible y por tanto no computable. De esta manera, se puede expresar:

K(X) = K(x)+K(δx)

Pudiendo asimilarse la complejidad de X a la complejidad de x. A priori esta aproximación puede parecer sorprendente e inadmisible, puesto que el término K(δx) es despreciado, cuando en realidad tiene una complejidad indecible. Pero esta aproximación es similar a la realizada en el cálculo de la entropía de una variable continua o al proceso de renormalización utilizado en física, con objeto de obviar la complejidad de los procesos subyacentes que permanecen ocultos a la realidad observable.

En consecuencia, la secuencia p, que ejecuta la máquina de Turing i para obtener x, estará compuesta por la concatenación de:

  • La secuencia de bits que codifican las reglas del cálculo en la máquina de Turing i.
  • La secuencia de bits que codifica la expresión comprimida de x, por ejemplo la expresión de una determinada serie numérica de x.
  • La longitud de la secuencia x que se desea decodificar y que determina cuando la máquina de Turing debe alcanzar el estado de halt, por ejemplo un gúgol (10100).  

En definitiva, se puede concluir que la complejidad K(x) de los números irracionales conocidos, p. ej. √2, π, e,…, es reducida. Por esta razón, el reto debe ser la obtención de la expresión óptima de K(x) y no las cifras que codifican estos números, ya que de acuerdo a lo expuesto su expresión descomprimida, o sea el desarrollo de sus cifras, tiene un elevado grado de redundancia (meaningless information).

Esto que en teoría es sorprendente y cuestionable es en la práctica un hecho irrefutable, ya que la complejidad de δx permanecerá siempre oculta, ya que es indecible y por tanto no computable.

Otra conclusión importante es que proporciona un criterio de clasificación de los números irracionales en dos grupos: representables y no representables. Los primeros corresponden a los números irracionales que pueden ser representados por expresiones matemáticas, las cuales serían la expresión comprimida de los números. Mientras que los números no representables corresponderían a los números irracionales que sólo podrían ser expresados por ellos mismos y que por tanto son indecibles. En definitiva, la cardinalidad de los números irracionales representables es la de los números naturales. Se debe destacar que el criterio de clasificación anterior es aplicable a cualquier objeto matemático.

Por otra parte, es evidente que la matemática, y en particular el cálculo, acepta de facto los criterios establecidos para definir la complejidad K(x). Este hecho puede pasar desapercibido debido a que, tradicionalmente en este contexto, los números se analizan desde la óptica de la codificación posicional, de tal forma que el residuo no representable queda filtrado por medio del concepto de límite, de tal forma que δx→0. Sin embargo, cuando se trata de evaluar la complejidad informativa de un objeto matemático puede ser necesario aplicar un procedimiento de renormalización.

Advertisements

Una visión macroscópica del gato de Schrödinger

Del análisis realizado en el apartado anterior se puede concluir que en general no es posible asociar los estados macroscópicos de un sistema complejo a sus estados cuánticos. Así, los estados macroscópicos correspondientes al gato muerto (DC) o vivo (AC) no pueden considerarse estados cuánticos, ya que de acuerdo a la teoría cuántica el sistema podría expresarse como una superposición de estos. En consecuencia, tal como se ha justificado, para sistemas macroscópicos no es posible definir estados cuánticos tales como |DC〉 y |AC〉. Por otra parte, los estados (DC) y (AC) son una realidad observable, lo que indica que el sistema presenta dos realidades, una realidad cuántica y una realidad emergente que puede definirse como realidad clásica.

La realidad cuántica estará definida por su función de onda, formada por la superposición de los subsistemas cuánticos que forman el sistema y que evolucionará de acuerdo a la interacción existente entre todos los elementos cuánticos que forman el sistema y el entorno. Por simplicidad, si se considera el sistema CAT de forma aislada, la sucesión de su estado cuántico puede expresarse como:

|CAT[n]〉 = |SC1[n]〉⊗|SC2[n]〉⊗…⊗|SCi[n]〉⊗…⊗|SCk[n][n]〉.

Expresión en la que se ha tenido en cuenta que el número de subsistemas cuánticos no entrelazados k varía también con el tiempo, por lo que es función de la secuencia n, considerando el tiempo como una variable discreta.

La realidad clásica observable podrá describirse por el estado del sistema que, si para el objeto “gato” se define como (CAT[n]), del razonamiento anterior se concluye que (CAT[n]) ≢ |CAT[n]〉. En otras palabras, los estados cuánticos y clásicos de un objeto complejo no son equivalentes.

La cuestión que queda por justificar es la irreductibilidad del estado clásico observable (CAT) a partir de la realidad cuántica subyacente, representada por el estado cuántico |CAT〉. Esto se puede realizar si se considera que la relación funcional entre los estados |CAT〉 y (CAT) es extraordinariamente compleja, estando sujeta a los conceptos matemáticos en los que se fundamentan los 0 sistemas complejos, como son:

  • El comportamiento estadístico de la información observable que emerge de la realidad cuántica.
  • La no linealidad de las leyes de la física.
  • El enorme número de entidades cuánticas involucradas en un sistema macroscópico.

Esto hace que, de acuerdo a la teoría de la información algorítmica [1], no se pueda establecer una solución analítica que determine la evolución del objeto complejo a partir de su estado inicial. Esto significa que, en la práctica, el proceso de evolución de un objeto complejo sólo puede ser representado por sí mismo, tanto a nivel cuántico como clásico. De acuerdo a la teoría algorítmica de la información, este proceso es equivalente a un objeto matemático compuesto por un conjunto ordenado de bits procesado de acuerdo a reglas axiomáticas. De tal forma que la información del objeto está definida por la complejidad de Kolmogorov, de tal forma que esta no varía en el tiempo, siempre que el proceso sea un sistema aislado. Hay que señalar que la complejidad de Kolmogorov permite determinar la información contenida en un objeto, sin necesidad de disponer previamente de un alfabeto para la determinación de su entropía, tal como ocurre en la teoría de la información [2], si bien ambos conceptos coinciden en el límite.

Desde este punto de vista surgen dos cuestiones fundamentales. La primera es la evolución de la entropía del sistema y la segunda es la aparente pérdida de información en el proceso de observación, mediante el cual emerge la realidad clásica a partir de la realidad cuántica. Esto abre una posible línea de análisis que será abordada más adelante.

Pero volviendo al análisis de cuál es la relación entre los estados clásico y cuántico, es posible tener una visión intuitiva de como el estado (CAT) acaba estando desconectado del estado |CAT〉, analizando el sistema de forma cualitativa.

En primer lugar, se debe considerar que prácticamente el 100% de la información cuántica contenida en el estado |CAT〉 permanece oculta dentro de las partículas elementales que constituyen el sistema. Esto es una consecuencia de que la estructura físico-química [3] de sus moléculas está determinada exclusivamente por los electrones que sustentan sus enlaces covalentes. A continuación, se debe considerar que la interacción molecular, sobre la que se fundamenta la biología molecular, se realiza por medio de fuerzas de van der Waals y puentes de hidrógeno, lo que crea un nuevo nivel de desconexión funcional con la capa subyacente.

Sustentado por este nivel funcional aparece una nueva estructura funcional formada por la biología celular [4], a partir de la cual aparecen los organismos vivos, desde seres unicelulares hasta seres complejos formados por órganos multicelulares. En esta capa es donde emerge el concepto de ser vivo, que establece una nueva frontera entre lo estrictamente físico y el concepto de percepción. De esta forma emerge el tejido nervioso [5], que permite la interacción compleja entre individuos y sobre el cual se sustentan nuevas estructuras y conceptos, tales como conciencia, cultura, organización social, que no sólo están reservadas a los seres humanos, si bien es en estos últimos donde la funcionalidad es más compleja.

Pero a la complejidad de las capas funcionales hay que añadir la no-linealidad de las leyes a que están sujetas y que son condiciones necesarias y suficientes para un comportamiento de caos determinista [6]. Esto significa que cualquier variación en las condiciones iniciales producirá una dinámica diferente, por lo que cualquier emulación acabará divergiendo del original, siendo este comportamiento la justificación del libre albedrio. En este sentido, el principio de indeterminación de Heisenberg [7] impide conocer con exactitud las condiciones iniciales del sistema clásico, en cualquiera de las capas funcionales descritas anteriormente. En consecuencia, todas ellas tendrán una naturaleza irreductible y su dinámica imprevisible, sólo determinada por el propio sistema.

Llegado a este punto y a la vista de esta compleja estructura funcional debemos preguntar a que se refiere el estado (CAT), puesto que hasta ahora se ha supuesto implícitamente la existencia de un estado clásico. La compleja estructura funcional del objeto “gato” permite hacer una descripción de éste a diferentes niveles. Así, el objeto gato se  puede describir de diversas maneras:

  • Como átomos y moléculas sujetos a las leyes de la fisicoquímica.
  • Como moléculas que interaccionan de acuerdo a la biología molecular.
  • Como conjuntos complejos de moléculas que dan origen a la biología celular.
  • Como conjuntos de células para formar órganos y organismos vivos.
  • Como estructuras de proceso de información que dan origen a los mecanismos de percepción e interacción con el entorno y que permiten desarrollar comportamientos individuales y sociales.

Como resultado, cada uno de estos estratos funcionales puede ser expresado por medio de un determinado estado, por lo que hablar de un único estado macroscópico (CAT) no es correcto. Cada uno de estos estados describirá el objeto de acuerdo a unas reglas funcionales diferentes, por lo que cabe preguntar qué relación existe entre estas descripciones y cuál es su complejidad. De forma análoga a los argumentos utilizados para demostrar que los estados |CAT〉 y (CAT) no son equivalentes y estar incorrelados entre sí, los estados que describen el objeto “gato” a diferentes niveles funcionales no serán equivalentes y podrán en cierta medida estar desconectados entre sí.

Este comportamiento es una prueba de cómo la realidad se estructura en capa funcionales irreductibles, de tal forma que cada una de las capas puede ser modelada de forma independiente e irreductible, por medio de un conjunto ordenado de bits procesados de acuerdo a reglas axiomáticas.

Bibliografía

[1] P. Günwald and P. Vitányi, “Shannon Information and Kolmogorov Complexity,” arXiv:cs/0410002v1 [cs:IT], 2008.
[2] C. E. Shannon, «A Mathematical Theory of Communication,» The Bell System Technical Journal, vol. 27, pp. 379-423, 1948.
[3] P. Atkins and J. de Paula, Physical Chemestry, Oxford University Press, 2006.
[4] A. Bray, J. Hopkin, R. Lewis and W. Roberts, Essential Cell Biology, Garlan Science, 2014.
[5] D. Purves and G. J. Augustine, Neuroscience, Oxford Univesisty press, 2018.
[6] J. Gleick, Chaos: Making a New Science, Penguin Books, 1988.
[7] W. Heisenberg, «The Actual Content of Quantum Theoretical Kinematics and Mechanics,» Zeit-schrift fur Physik. Translation: NASA TM-77379., vol. 43, nº 3-4, pp. 172-198, 1927.

La realidad como una estructura de capas irreductible

Nota.- Este post es el primero de una serie en el que se analizarán los objetos macroscópicos desde el punto de vista cuántico y clásico, así como la naturaleza de la observación. Finalmente, todos ellos serán integrados en un único artículo.

Introducción

La teoría cuántica establece los fundamentos del comportamiento de las partículas y de su interacción entre ellas. En general, estos fundamentos se aplican a sistemas microscópicos formados por un número muy limitados de partículas. Sin embargo, nada indica que la aplicación de la teoría cuántica no pueda ser aplicada a objetos macroscópicos, ya que las propiedades emergentes de dichos objetos deberán estar fundamentadas en la realidad cuántica subyacente. Obviamente, existe una limitación práctica establecida por el incremento de complejidad, que crece de forma exponencial al aumentar el número de partículas elementales.

La referencia inicial a este planteamiento fue realizada por Schrödinger [1], indicando que la superposición cuántica de estados no representaba ninguna contradicción a nivel macroscópico. Para ello, utilizó lo que se conoce como la paradoja del gato de Schrödinger en la que el gato podía estar en una superposición de estados, una en la que el gato estaba vivo y otra en la que el gato estaba muerto. Originalmente, la motivación de Schrödinger fue plantear una discusión sobre la paradoja EPR [2], que ponía de manifiesto la incompletitud de la teoría cuántica. Esto ha sido finalmente resuelto mediante el denominado teorema de Bell [3] y su constatación experimental por Aspect [4], dejando claro que el entrelazado de partículas cuánticas es una realidad en la que se fundamenta la computación cuántica [5]. Un resumen de los aspectos relativos a la realización de un sistema cuántico que emule el gato de Schrödinger ha sido realizado por Auletta [6], aunque estos están restringidos a sistemas cuánticos no macroscópicos.

Pero la pregunta que sigue aún vigente es si la teoría cuántica puede ser utilizada para describir objetos macroscópicos y si el concepto del entrelazado cuántico aplica también a estos objetos. Contrariamente a la postura de Schrödinger, Wigner planteó, por medio de la paradoja del amigo, que la mecánica cuántica no podía tener una validez ilimitada [7]. Recientemente, Frauchiger y Renner [8] han planteado un experimento virtual (Gedankenexperiment) que muestra que la mecánica cuántica no es consistente cuando se aplica a objetos complejos.

Para analizar estos resultados se va a utilizar, sin pérdida de generalidad, el paradigma del gato de Schrödinger desde dos puntos de vista, uno como un objeto cuántico y el otro como un objeto macroscópico (en el siguiente post). Esto permitirá determinar su consistencia y su relación funcional, lo que conducirá al establecimiento de una estructura funcional irreductible. Como consecuencia de esto será también necesario analizar la naturaleza del observador dentro de esta estructura funcional (en un post posterior).

El gato de Schrödinger como una realidad cuántica

En el experimento del gato de Schrödinger existen varias entidades [1], la partícula radiactiva, el monitor de radiación, el matraz con veneno y el gato. Por simplicidad, el experimento puede reducirse a dos variables cuánticas: el gato CAT y el sistema formado por la partícula radioactiva, el monitor de radiación y el matraz con veneno, que definiremos como sistema veneno PS.

El Gato de Schrödinger. Fuente: Doug Hatfield https://commons.wikimedia.org/wiki/File:Schrodingers_cat.svg)

Estas variables cuánticas pueden ser expresadas como [9]:

|CAT〉 = α1|DC〉 + β1|LC〉. Estado cuántico del gato: gato muerto |DC〉, gato vivo |LC〉.

|PS〉 = α2|PD〉 + β2|PA〉: Estado cuántico del sistema de veneno: veneno desactivado |PD〉, veneno activado |PA〉.

El estado cuántico del experimento del gato de Schrödinger SCE en su conjunto podrá expresarse como:

|SCE〉 = |CAT〉⊗|PS〉=α1α2|DC〉|PD〉+α1β2|DC〉|PA〉+β1α2|LC〉|PD〉+β1β2|LC〉|PA〉.

Puesto que para un observador clásico el resultado final del experimento requiere que los |DC〉|PD〉 y |LC〉|PA〉 no son posibles, el experimento debe ser preparado de tal forma que los estados cuánticos |CAT〉 y |PS〉 estén entrelazados [10] [11], de tal forma que la función de onda del experimento sea:

|SCE〉 =α|DC〉|PA〉+β|LC〉|PD〉.

Como consecuencia, la observación del experimento [12] dará como resultado un estado:

|SCE〉 = |DC〉|PA〉, con probabilidad α2, (veneno activado, gato muerto).

o:

|SCE〉 = |LC〉|PD〉, con probabilidad β2, (veneno desactivado, gato vivo).

Aunque desde el punto de vista formal de la teoría cuántica el planteamiento del experimento es correcto, para un observador clásico el experimento presenta varias objeciones. Una de estas es relativa a que el experimento requiere establecer “a priori” el requisito de que los sistemas PS y CAT estén entrelazados. Algo contradictorio, ya que desde el punto de vista de la preparación del experimento cuántico no existe ninguna restricción, pudiendo existir resultados con estados cuánticos |DC〉|PD〉, o |LC〉|PA〉, algo totalmente imposible para un observador clásico, suponiendo en todo caso que el veneno sea efectivo y que se da por supuesto en el experimento. Por tanto, el experimento SCE es inconsistente, por lo que es necesario analizar la raíz de la incongruencia existente entre el sistema cuántico SCE y el resultado de la observación.

Otra objeción, que aparentemente puede parecer trivial, es que para que el experimento SCE colapse en uno de sus estados el observador OBS debe estar entrelazado con el experimento, ya que éste debe interaccionar con él. De lo contrario, la operación realizada por el observador no tendría ninguna consecuencia en el experimento. Por esta razón, este aspecto requerirá un análisis más detallado.

Volviendo a la primera objeción, desde la perspectiva de la teoría cuántica puede parecer posible preparar el sistema PS y CAT en una superposición de estados entrelazada. Sin embargo, se debe considerar que ambos sistema está compuesto por un enorme número de subsistemas cuánticos Si no entrelazados entre sí y sometidos a una continua decoherencia [13] [14]. Hay que destacar que los subsistemas Si tendrán internamente una estructura entrelazada. Así, los sistemas CAT y PS podrán expresarse como:

|CAT〉 = |SC1〉⊗|SC2〉⊗…⊗|SCi〉⊗…⊗|SCk〉,

|PS〉 = |SP1〉⊗|SP2〉⊗…⊗|SPi〉⊗…⊗|SPl〉,

de tal forma que la observación de un determinado subsistema hace que su estado colapse, no produciendo ninguna influencia en el resto de los subsistemas, los cuales desarrollarán una dinámica cuántica independiente. Esto hace inviable que los estados |LC〉 y |DC〉 puedan ser simultáneos y como consecuencia el sistema CAT no puede estar en esta superposición de estados. Un razonamiento análogo puede hacerse del sistema PS, aunque es obvio que funcionalmente éste es mucho más simple.

En definitiva, desde un punto de vista teórico es posible tener un sistema cuántico equivalente al SCE, para lo cual todos los subsistemas componentes deberán estar totalmente entrelazados entre sí, y además el sistema requerirá una preparación “a priori” de su estado. Sin embargo, la realidad emergente difiere radicalmente de este escenario, por lo que dicho experimento parece ser irrealizable en la práctica. Pero lo más llamativo es que, si se generaliza el experimento SCE, la realidad observable sería radicalmente diferente a la realidad observada.

Para entender mejor las consecuencias de que el estado cuántico del sistema SCE deba prepararse “a priori”, imaginemos que el proveedor del veneno ha cambiado su contenido por un líquido inocuo. Como resultado de esto, el experimento podrá matar al gato sin causa alguna.

A partir de estas conclusiones se puede plantear la pregunta de si la teoría cuántica puede explicar de forma general y consistente la realidad observable a nivel macroscópico. Pero quizá lo que hay que preguntar también es si los supuestos sobre los que se ha realizado el experimento SCE son correctos. Así, por ejemplo: ¿Es correcto utilizar en el dominio de la física cuántica los conceptos de gato vivo o gato muerto? Lo que a su vez plantea otro tipo de cuestiones, tal como: ¿Es correcto en general establecer un vínculo fuerte entre la realidad observable y la realidad cuántica subyacente?

La conclusión a la que se puede llegar, a partir de las contradicciones del experimento SCE, es que el escenario de un sistema cuántico complejo no puede ser tratado en los mismos términos que un sistema simple. En términos de la computación cuántica estos corresponden, respectivamente, a sistemas formados por un número enorme o por un número limitado de qubits [5]. Como consecuencia de esto, la realidad clásica será un hecho irreductible, que fundamentado en la realidad cuántica termina por estar desconectado de ésta. Esto conduce a definir la realidad en dos capas funcionales independientes e irreductibles, una capa de realidad cuántica y una capa de realidad clásica. Esto justificaría el criterio establecidos por la interpretación de Copenhague [15] y su naturaleza estadística, como medio para desconectar funcionalmente ambas realidades. De esta forma, la teoría cuántica no sería otra cosa que una descripción de la información que puede emerger de una realidad subyacente, pero no una descripción de dicha realidad. En este punto, es importante destacar que el comportamiento estadístico es el medio que permite reducir o eliminar [16] la correlación funcional entre procesos y que sería la causa de la irreductibilidad.

Bibliografía 

[1] E. Schrödinger, «Die gegenwärtige Situation in der Quantenmechanik,» Naturwissenschaften, vol. 23, pp. 844-849, 1935.
[2] A. Einstein, B. Podolsky and N. Rose, “Can Quantum-Mechanical Description of Physical Reality be Considered Complete?,” Physical Review, vol. 47, pp. 777-780, 1935.
[3] J. S. Bell, «On the Einstein Podolsky Rosen Paradox,» Physics, vol. 1, nº 3, pp. 195-290, 1964.
[4] A. Aspect, P. Grangier and G. Roger, “Experimental Tests of Realistic Local Theories via Bell’s Theorem,” Phys. Rev. Lett., vol. 47, pp. 460-463, 1981.
[5] M. A. Nielsen and I. L. Chuang, Quantum computation and Quantum Information, Cambridge University Press, 2011.
[6] G. Auletta, Foundations and Interpretation of Quantum Mechanics, World Scientific, 2001.
[7] E. P. Wigner, «Remarks on the mind–body question,» de Symmetries and Reflections, Indiana University Press, 1967, pp. 171-184.
[8] D. Frauchiger and R. Renner, “Quantum Theory Cannot Consistently Describe the Use of Itself,” Nature Commun., vol. 9, no. 3711, 2018.
[9] P. Dirac, The Principles of Quantum Mechanics, Oxford University Press, 1958.
[10] E. Schrödinger, «Discussion of Probability Relations between Separated Systems,» Mathematical Proceedings of the Cambridge Philosophical Society, vol. 31, nº 4, pp.  555-563, 1935.
[11] E. Schrödinger, «Probability Relations between Separated Systems,» Mathematical Proceedings of the Cambridge Philosophical Society, vol. 32, nº 3, pp. 446­-452, 1936.
[12] M. Born, «On the quantum mechanics of collision processes.,» Zeit. Phys.( D. H. Delphenich translation), vol. 37, pp. 863-867, 1926.
[13] H. D. Zeh, «On the Interpretation of Measurement in Quantum Theory,» Found. Phys., vol. 1, nº 1, pp. 69-76, 1970.
[14] W. H. Zurek, «Decoherence, einselection, and the quantum origins of the classical,» Rev. Mod. Phys., vol. 75, nº 3, pp. 715-775, 2003.
[15] W. Heisenberg, Physics and Philosophy. The revolution in Modern Science, Harper, 1958.
[16] E. W. Weisstein, «MathWorld,» [En línea]. Available: http://mathworld.wolfram.com/Covariance.html.

¿Por qué el arcoíris tiene 7 colores?

Publicado en OPENMIND, 8 Agosto, 2018.

El color como un concepto físico

Tanto la luz visible, el calor, las ondas de radio, así como otros tipos de radiación tienen la misma naturaleza física, estando constituidas por un flujo de partículas denominadas fotones. El fotón o “cuanto de luz” fue propuesto por Einstein, por lo que le fue concedido el premio nobel en 1921 y constituye una de las partículas elementales del modelo estándar, perteneciente a la familia de los bosones. La característica fundamental de un fotón es su capacidad de transferir energía de forma cuantizada, la cual está determinada por su frecuencia, de acuerdo a la expresión E=h∙ν , siendo h la constante de Planck y ν la frecuencia del fotón.

Espectro electromagnético

Así, podemos encontrar fotones de frecuencias muy bajas situados en la banda de las ondas de radio, hasta fotones de muy alta energía denominados rayos gamma, tal como muestra la figura siguiente, formando un banda continua de frecuencias que constituye el espectro electromagnético. Puesto que el fotón puede ser modelado como una sinusoide que viaja a la velocidad de la luz c, la longitud de un ciclo completo se denomina longitud de onda del fotón λ, por lo que el fotón puede ser caracterizado indistintamente por su frecuencia o por su longitud de onda, ya que λ=c/ν. Pero es común utilizar el término color como sinónimo de la frecuencia, ya que el color de la luz percibido por los humanos es función de la frecuencia. Sin embargo, como vamos a ver esto no es estrictamente algo físico sino una consecuencia del proceso de medida e interpretación de la información, que hace que el color sea una realidad emergente de otra realidad subyacente, sustentada por la realidad física de la radiación electromagnética.

Estructura de una onda electromagnética

Pero antes de abordar este tema, se debe considerar que para detectar de forma eficiente los fotones es necesario disponer de un detector denominado antena,  cuyo tamaño debe ser similar a longitud de onda de los fotones.

La percepción de color por los humanos

El ojo humano es sensible a longitudes de onda que van desde el rojo profundo (700nm, nanómetros=10-9 metros) hasta el violeta (400nm).  ¡Lo que requiere antenas receptoras con un tamaño del orden de los cientos de nanómetros! Pero para la naturaleza esto no es un gran problema, ya que las moléculas complejas pueden tener fácilmente este tamaño. De hecho, el ojo humano, para la visión cromática, está dotado de tres tipos de proteínas fotorreceptoras, las cuales producen una respuesta como la indicada en la figura siguiente.

Respuesta de las células fotorreceptoras de la retina humana

Cada uno de estos tipos configura en la retina un tipo de célula fotoreceptora, que por su morfología se denominan conos. Las proteínas fotorreceptoras están situadas en la membrana celular, de tal forma que cuando absorben un fotón cambian de forma, abriendo unos canales en la membrana celular que genera un flujo de iones. Después de un complejo proceso bioquímico se produce un flujo de impulsos nerviosos que es preprocesado por varias capas de neuronas de la retina y que finalmente alcanzan la corteza visual a través del nervio óptico, donde la información es finalmente procesada.

Pero en este contexto, la cuestión es que las células de la retina no mide la longitud de onda de los fotones del estímulo. Por el contrario, lo que hacen es convertir un estímulo de una determinada longitud de onda en tres parámetros denominados L,M,S, que son la respuesta al estímulo de cada uno de los tipos de células fotoreceptoras. Esto tiene implicaciones muy interesantes que deben ser analizadas. De esta forma, podemos explicar aspectos tales como:

  • La razón del porqué el arcoíris tiene 7 colores.
  • La posibilidad de sintetizar el color mediante mezcla aditiva y substractiva.
  • La existencia de colores no físicos, como el blanco y el magenta.
  • La existencia de diferentes modalidades de interpretación del color en función de la especie.

Para entender esto, imaginemos que nos proporcionan la respuesta de un sistema de medida que relaciona L,M,S con la longitud de onda y nos piden que establezcamos una correlación entre ellas. Lo primero que podemos ver es que existen 7 zonas diferenciadas en la longitud de onda, 3 crestas y 4 valles. ¡7 patrones! Esto explica porqué percibimos el arcoíris compuesto por 7 colores, una realidad emergente consecuencia del procesado de información que trasciende a la realidad física.

¿Pero qué respuesta nos dará un ave si le preguntamos por el número de colores del arcoíris? ¡Posiblemente, aunque poco probable, nos dirá 9! Esto es debido a que las aves disponen de un cuarto tipo de fotorreceptor posicionado en el ultravioleta, por lo que el sistema de percepción establecerá 9 regiones en la banda de percepción de la radiación. Y esto nos lleva a preguntarnos: ¿Cuál será la gama cromática percibida por nuestra hipotética ave, o por especies que sólo dispones de un único tipo de fotorreceptor? ¡El resultado es un simple caso de combinatoria!

Por otra parte, la existencia de tres tipos de fotorreceptores en la retina de los humanos hace posible sintetizar de forma relativamente precisa la gama cromática, mediante la combinación aditiva de tres colores, rojo, verde y azul, tal como se realiza en las pantallas de video. De esta forma, es posible producir una respuesta L,M,S en cada punto de la retina similar a la producida por un estímulo real, mediante la aplicación ponderada de una mezcla de fotones de longitudes de onda rojo, verde y azul.

De forma análoga, es posible sintetizar el color mediante mezcla substractiva o pigmentaria de tres colores, magenta, cian y amarillo, como ocurre en la pintura al oleo o en las impresoras. Y aquí es donde se pone claramente de manifiesto la virtualidad del color, al no existir fotones de color magenta, ya que este estímulo es una mezcla de fotones de color azul y rojo. Lo mismo ocurre con el color blanco, al no existir fotones individuales que produzcan dicho estímulo, ya que el blanco es la percepción de una mezcla de fotones distribuidos en la banda visible, y en particular por la mezcla de fotones de color rojo, verde y azul.

En definitiva, la percepción del color es un claro ejemplo de cómo emerge la realidad como consecuencia del procesado de información. Así, podemos ver  como una determinada interpretación de la información física del espectro electromagnético visible produce una realidad emergente, a partir de una realidad subyacente mucho más compleja.

En este sentido, podríamos preguntarnos qué opinaría un androide, dotado de un preciso sistema de medida de la longitud de onda, sobre las imágenes que sintetizamos en la pintura o en las pantallas de vídeo. Con seguridad nos respondería que no corresponden con las imágenes originales, algo que para nosotros es prácticamente imperceptible. Y esto conecta con un tema, que puede parecer no relacionado, como es el concepto de la belleza y la estética. Lo cierto es que cuando no somos capaces de establecer patrones o categorías en la información percibimos ésta como ruido o desorden.  ¡Algo desagradable o antiestético!

 

Información y conocimiento

¿Qué es la información?

Si nos ceñimos a su definición, la cual podemos encontrar en los diccionarios, veremos que siempre hace referencia a un conjunto de datos y con frecuencia añade también el hecho de que estos estén ordenados y procesados. Pero vamos a ver que estas definiciones son poco precisas e incluso erróneas al asimilarla al concepto de conocimiento.

Una de las cosas que nos ha enseñado la teoría de la información es que cualquier objeto (noticia, perfil, imagen, etc.) puede ser expresado de forma precisa por un conjunto de bits. Por tanto, la definición formal de información es el conjunto ordenado de símbolos que representan el objeto y que en su forma básica constituyen un conjunto ordenado de bits. Sin embargo, la propia teoría de la información nos descubre de forma sorprendente que la información no tiene significado, lo que técnicamente se conoce como information without meaning.

Esto parece ser totalmente contradictorio, sobre todo si tenemos en cuenta la idea convencional de lo que se considera como información. Sin embargo, esto es fácil entender. Imaginemos que encontramos un libro en el cual aparecen escritos símbolos que nos resultan totalmente desconocidos. Inmediatamente supondremos que es un texto escrito en un lenguaje desconocido por nosotros, ya que, en nuestra cultura, los objetos con forma de libro es lo que suelen contener. Así, comenzamos a investigar y concluimos que es un lenguaje desconocido sin referencia o piedra Rosetta con ningún lenguaje conocido. Por tanto, tenemos información pero no conocemos su mensaje y como consecuencia el conocimiento encerrado en el texto. Podemos incluso catalogar los símbolos que aparecen en el texto y asignarles un código binario, al igual que hacemos en los procesos de digitalización, convirtiendo el texto en un conjunto ordenado de bits.

Pero, para conocer el contenido del mensaje deberemos analizar la información mediante un proceso que deberá incluir las claves o pistas que permitan extraer el contenido del mensaje. Es exactamente lo mismo que si el mensaje estuviera encriptado, de manera que el mensaje permanecerá oculto si no se dispone de la clave de desencriptación, tal como muestra la técnica de encriptación de clave única.

Ray Solomonoff, cofundador de la Teoría Algorítmica de la Información junto con Andrey Kolmogorov.

 ¿Qué es el conocimiento?

Esto muestra con claridad la diferencia entre información y conocimiento. De tal forma que la información es el conjunto de datos (bits) que describen un objeto y el conocimiento es el resultado de un proceso aplicado sobre dicha información y que se materializa en una realidad. De hecho, la realidad siempre está sujeta a este esquema.

Por ejemplo, supongamos que nos están contando una determinada noticia. A partir de la presión sonora aplicada sobre nuestros tímpanos acabaremos extrayendo no sólo el contenido de la noticia, sino que también podremos experimentar sensaciones subjetivas, como placer o tristeza. No cabe duda de que el estímulo original se puede representar como un conjunto bits, si se considera que la información de audio puede provenir de un contenido digitalizado, p. ej. MP3.

Pero para que el conocimiento emerja se requiere que la información sea procesada. De hecho, en el caso anterior es necesaria la participación de varios procesos diferentes, entre los cuales hay que destacar:

  • Los procesos biológicos responsables de la transducción de la información en estímulos nerviosos.
  • Los procesos de extracción de información lingüística, establecidos por las reglas del lenguaje en nuestro cerebro mediante aprendizaje.
  • Los procesos de extracción de información subjetiva, establecidos por las reglas culturales en nuestro cerebro mediante aprendizaje

En definitiva, el conocimiento se establece mediante el procesado de información. Y aquí puede surgir el debate como consecuencia de la diversidad de procesos, de su estructuración, pero sobre todo por la naturaleza de la fuente última de donde emergen. Se pueden poner infinidad de ejemplos. ¡Pero, como seguro que pueden surgir dudas de que ésta sea la forma en que emerge la realidad, podemos tratar de buscar un solo contraejemplo!

Una cuestión fundamental es: ¿Podemos medir el conocimiento? La respuesta es afirmativa y nos la proporciona la teoría algorítmica de la información (AIT) que, basándose en la teoría de la información y de la teoría de la computación, permite establecer la complejidad de un objeto, mediante la complejidad de Kolmogorov K(x), que se define de la siguiente forma:

Para un objeto finito x se define K(x) como la longitud de la descripción binaria efectiva más corta de x.

Sin entrar en detalles teóricos complejos, es importante mencionar que K(x) es una propiedad intrínseca del objeto y no una propiedad del proceso de evaluación. ¡Pero que no cunda el pánico! Ya que en la práctica estamos familiarizados con esta idea.

Imaginemos un contenido de audio, video, o en general una secuencia de bits. Sabemos que estos pueden ser comprimidos, lo que reduce sensiblemente su tamaño. Esto significa que la complejidad de estos objetos no está determinada por el número de bits de la secuencia original, sino por el resultado de la compresión, ya que mediante un proceso inverso de descompresión podemos recuperar el contenido original. ¡Pero cuidado! La descripción efectiva del objeto debe incluir el resultado de la compresión y la descripción del proceso de descompresión, necesario para recuperar el mensaje.

Complejidad de un contenido digital, equivalente a un proceso de compresión

Un escenario similar es el modelado de la realidad, donde destacan los procesos físicos. Así, un modelo es una definición compacta de una realidad. Por ejemplo, el modelo de gravitación universal de Newton es la definición más compacta del comportamiento de un sistema gravitatorio en un contexto no relativista. De esta forma, el modelo junto con las reglas del cálculo matemático y con la información que define el escenario físico, será la descripción más compacta del sistema y constituye lo que denominamos algoritmo. Es interesante destacar que ésta es la definición formal de algoritmo y que hasta que estos conceptos matemáticos no fueron desarrollados a largo de la primera mitad del siglo XX por Klein, Chruch y Turing , este concepto no fue totalmente establecido.

Es importante considerar que la máquina física que sustenta el proceso forma también parte de la descripción del objeto, proporcionando las funciones básicas. Éstas  están definidas de forma axiomática y en el caso de la máquina de Turing corresponden a un número de reglas axiomáticas extraordinariamente reducido.

Estructura de los modelos, equivalente a un proceso de descompresión.

Como conclusión, podemos decir que el conocimiento es el resultado del procesado de información. Por lo tanto, el procesado de información es la fuente de la realidad. Pero esto plantea la pregunta: Puesto que existen problemas no computables ¿hasta dónde es posible indagar en la realidad?

¿Cuál es la naturaleza de la información?

Publicado en OPENMIND, 7 Mayo, 2018.

Una perspectiva histórica

Clásicamente, la información se considera como las transacciones realizadas entre humanos. Sin embargo, a lo largo de la historia este concepto se ha ampliado, no tanto por el desarrollo de la lógica matemática sino por el desarrollo tecnológico. Un cambio sustancial se produjo con la llegada del telégrafo a principios del siglo XIX. Así, “enviar” pasó de ser algo estrictamente material a un concepto más amplio, como lo ponen de manifiesto muchas anécdotas. Entre las más frecuentes destaca la intención de muchas personas de enviar cosas materiales por medio de telegramas, o el enfado de ciertos clientes argumentando que el telegrafista no había enviado el mensaje cuando éste les devolvía la nota del mensaje.

Actualmente, “información” es un concepto abstracto fundamentado en la teoría de la información, creada por Claude Shannon a mediados del siglo XX. No obstante, la tecnología de la computación es la que más ha contribuido a que el concepto de “bit” sea algo familiar. Más aun, conceptos como realidad virtual, basados en el procesado de información, se han convertido en términos cotidianos.

La cuestión es que la información es algo ubicuo en todos los procesos naturales, física, biología, economía, etc., de tal forma que estos procesos pueden ser descritos mediante modelos matemáticos y en definitiva por el procesado de información. Esto hace que podamos preguntarnos: ¿Cuál es la relación entre información y realidad? 

Información como una entidad física

Es evidente que la información emerge de la realidad física, tal como lo demuestra la tecnología de la computación. La pregunta es si la información es algo fundamental en la realidad física o si es simplemente un producto de ella. En este sentido, existen evidencias de la estricta relación entre información y energía.

Claude Elwood Shannon fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información»  Imagen: DobriZheglov

Así, el teorema de Shannon–Hartley de la teoría de la información establece la mínima cantidad de energía necesaria para transmitir un bit, valor que se conoce como límite de Bekenstein. Por un camino diferente, y con objeto de determinar la necesidad de energía en el proceso de computación, Rolf Landauer estableció la mínima cantidad de energía necesaria para el borrado de un bit, resultado que se denomina principio de Landauer y su valor  coincide exactamente con el límite de Bekenstein y es función de la temperatura absoluta del medio.

Estos resultados permiten determinar la máxima capacidad de un canal de comunicación y la mínima energía que debe consumir un ordenador para desempeñar una determinada tarea. En ambos casos se pone de manifiesto la ineficiencia de los sistemas actuales, cuyas prestaciones están enormemente alejadas de los límites teóricos. Pero en este contexto, lo verdaderamente importante es que el teorema de Shannon-Hartley es un desarrollo estrictamente matemático, en el que finalmente la información es codificada sobre variables físicas, lo que induce a pensar que la información es algo fundamental en lo que definimos como realidad.

Ambos casos ponen de manifiesto la relación entre energía e información, pero no son concluyentes a la hora de determinar la naturaleza de la información. Lo que si queda claro es que para que un bit pueda emerger y pueda ser observado en la escala de la física clásica se requiere una mínima cantidad de energía determinada por el límite de Bekenstein. Por lo que la observación de información es algo relativo a la temperatura absoluta del entorno.

Este comportamiento es fundamental en el proceso de observación, tal como se pone de manifiesto en la experimentación de fenómenos físicos. Un ejemplo representativo es la medida de la radiación de fondo de microondas producida por el big bang, que requiere que el detector situado en el satélite esté refrigerado por helio líquido. Lo mismo ocurre en los sensores de visión nocturna, que deben estar refrigerados por una célula Peltier. Por el contrario, esto no es necesario en una cámara de fotos convencional ya que la radiación emitida por la escena es muy superior al nivel de ruido térmico del sensor de imagen.

Radiación de fondo de microondas (CMB). Satélite WMAP de la NASA

Esto demuestra que la información emerge de la realidad física. Pero podemos ir más lejos ya que la información es la base de la descripción de los procesos naturales. Por tanto, algo que no puede ser observado no puede ser descrito. En definitiva, todo observable es algo fundamentado en la información, algo que se pone claramente de manifiesto en los mecanismos de percepción.

A partir de la información emergente es posible establecer modelos matemáticos que ocultan la realidad subyacente, lo que sugiere una estructura funcional en capas irreductibles. Un ejemplo paradigmático es la teoría del electromagnetismo que describe con precisión el electromagnetismo sin basarse en la existencia del fotón, no pudiendo deducirse su existencia a partir de ella. Algo que generalmente es extensible a la totalidad de modelos físicos.

Otro indicio de que la información es una entidad fundamental de lo que denominamos realidad es la imposibilidad de transferir información a mayor velocidad que la de la luz. Esto haría que la realidad fuera un sistema no causal e inconsistente. Por tanto, desde este punto de vista la información está sujeta a las mismas leyes físicas que la energía. Y considerando comportamientos como el entrelazado de partículas podemos preguntar: ¿Cómo fluye la información a nivel cuántico?

¿Es la información la esencia de la realidad?

En base a estos indicios podríamos plantear la hipótesis de que la información es la esencia de la realidad en cada una de las capas funcionales en la que esta se manifiesta. Así, por ejemplo, si pensamos en el espacio-tiempo, su observación es siempre indirecta a través de las propiedades de la materia-energía, por lo que podríamos considerar que no es más que la información emergente de una realidad subyacente más compleja. Esto da una idea de por qué el vacío sigue siendo uno de los grandes enigmas de la física. Este tipo de argumentos nos lleva a preguntar: ¿Qué es y qué entendemos por realidad?

Percepción del espacio-tiempo

Desde esta perspectiva, podemos preguntarnos a que conclusiones podríamos llegar si analizamos lo que definimos como realidad desde el punto de vista de la teoría de la información, en particular de la teoría algorítmica de la información y de la teoría de la computabilidad. Todo esto sin perder de vista el conocimiento aportado por las diferentes áreas que estudian la realidad, especialmente la física.

La realidad como información emergente

¿Qué es la realidad?

La idea de que la realidad puede no ser más que el resultado de la información emergente no es una idea en absoluto novedosa. Platón, en lo que se conoce como alegoría de la caverna, expone como la realidad es percibida por un grupo de humanos encadenados en una cueva  que desde su nacimiento observan la realidad a través de las sombras proyectadas sobre una pared.

Versión moderna de la alegoría de la caverna

Es interesante destacar que cuando nos referimos a la percepción la visión antrópica juega un papel importante, lo cual puede crear cierta confusión al asociar la percepción a la conciencia humana. Para aclarar este punto, imaginemos un autómata de visión artificial. En el caso más simple, éste estará dotado de sensores de imagen, de procesos para el tratamiento de imagen y de una base de datos de patrones a reconocer. Por tanto, el sistema se reduce a una información codificada como una secuencia de bits y a un conjunto de procesos, definidos axiomáticamente, que convierten la información en conocimiento.

Por tanto, la adquisición de información se produce siempre por procesos físicos, que en el caso del autómata se materializan por medio de un sensor de imagen basado en tecnología electrónica y en el caso de los seres vivos mediante fotorreceptores moleculares. Tal como nos enseña la teoría de la información algorítmica, esta información no tiene significado hasta que no es procesada, extrayendo patrones contenidos en dicha información.

Como consecuencia, podemos extraer conclusiones genéricas sobre el proceso de percepción. Así, la información puede ser obtenida y analizada con distinto grado de detalle, dando origen a diferentes capas de realidad. Esto es lo que hace que los humanos tengamos una visión limitada de la realidad y en ocasiones una visión distorsionada.

Pero en el caso de la física, el procedimiento científico tiene por objeto resolver este problema contrastando de forma rigurosa la teoría y la experimentación. Esto conduce a la definición de modelos físicos tales como la teoría del electromagnetismo o la teoría de la gravitación universal de Newton que condensan el comportamiento de la naturaleza a un cierto nivel funcional, ocultando una realidad subyacente más compleja, por lo que son modelos de realidad irreductibles. Así, la teoría de la gravitación de Newton modela el comportamiento gravitatorio de los cuerpos masivos sin dar una justificación para ello.

Hoy sabemos que la teoría de la relatividad general  da una explicación a este comportamiento, mediante la deformación del espacio-tiempo por efecto de la masa, que a su vez determina el movimiento de los cuerpos masivos. Sin embargo, el modelo vuelve a ser una descripción limitada a un cierto nivel de detalle, proponiendo una estructura espacio-temporal que puede ser estática, expansiva o recesiva, pero sin dar justificación para ello. Tampoco establece un nexo con el comportamiento cuántico de la materia, lo cual es uno de los objetivos de las teorías de unificación de las fuerzas. Lo que si podemos decir  es que todos estos modelos son una descripción de la realidad a un cierto nivel funcional.

Gravitación Universal vs. Mecánica Relativista

La realidad como procesado de información

Pero la pregunta es: ¿Qué tiene que ver esto con la percepción? Tal como hemos descrito, la percepción es el resultado del procesado de información, pero este es un término generalmente reservado al comportamiento humano, lo que conlleva un cierto grado de subjetividad o virtualidad. En definitiva, la percepción es un mecanismo para establecer la realidad como el resultado de un proceso  de interpretación de la información. Por esta razón manejamos conceptos como realidad virtual, algo que han potenciado los ordenadores, pero que no es nada nuevo y que podemos experimentar por medio de la ensoñación o simplemente por la lectura de un libro.

Dejando de lado un tema controvertido como es el concepto de conciencia: ¿Qué diferencia hay entre la interacción de dos átomos, dos moléculas complejas o dos individuos? Primero analicemos las similitudes. En todos estos casos, las dos entidades intercambian y procesan información, tomando una decisión en cada caso particular para forma un molécula, sintetizar una nueva molécula o decidir ir al cine. La diferencia es la información intercambiada y la funcionalidad de cada entidad. ¿Podemos establecer alguna otra diferencia? Nuestra visión antrópica nos dice que los humanos somos seres superiores, lo que establece una diferencia fundamental. Pero pensemos por ejemplo en la biología: ¡Esta no es más que una compleja interacción entre moléculas, a la que debemos nuestra existencia!

Podríamos argumentar que en el caso en el que intervine la inteligencia humana la situación es diferente. Sin embargo, la estructura de los tres casos es la misma, de tal forma la información transferida entre las entidades, que hasta donde sabemos tienen una naturaleza cuántica, es procesada con una determinada funcionalidad. La diferencia que se puede apreciar es que en el caso de la intervención humana decimos que la funcionalidad es inteligente. Pero debemos considerar que es muy fácil hacer trampas con el lenguaje natural, tal como se pone de manifiesto cuando se analiza su naturaleza.

En definitiva, se podría decir que la realidad es el resultado de la información emergente y su posterior interpretación por medio de procesos, cuya definición es siempre axiomática, por lo menos hasta donde alcanza el conocimiento.

Quizá, todo esto es muy abstracto por lo que un ejemplo sencillo, que encontramos en técnicas publicitarias, puede darnos una idea más intuitiva. Supongamos una imagen cuyos pixeles son en realidad imágenes que se manifiestan cuando aplicamos un zoom, tal como muestra la figura.

Percepción de una estructura en capas funcionales

Para un observador con una capacidad visual limitada sólo emergerá una realidad que muestra una escena concreta de una ciudad. Pero para un observador con una agudeza visual mucho mayor, o que dispone de un instrumento de medida apropiado, observará una realidad mucho más compleja. Este ejemplo pone de manifiesto que  el proceso de observación de un objeto matemático formado por una secuencia de bits puede estructurarse en capas  funcionales irreductibles, en función de los procesos utilizados para interpretar la información. Puesto que todo lo observable en nuestro Universo parece seguir esta pauta, podemos hacernos la pregunta: ¿Es esta estructura funcional el fundamento de nuestro Universo?