La entropía funcionaría en la información de forma contraria a como lo hace en la termodinámica
La hipótesis de que el mundo que percibimos (si no nuestra existencia misma) es una simulación digital es el punto de partida de las películas de la saga Matrix. No es de extrañar por tanto que uno de los libros en los que se defiende esta hipótesis lleve como título un aparente guiño a la saga, Reality Reloaded.
Su autor, el físico de la Universidad de Portsmouth Melvin M. Vopson, explicaba hace unos meses su defensa de esta hipótesis en un artículo en The Conversation. Vopson describe en este artículo esta hipótesis como “inherentemente especulativa”, a pesar de lo cual considera tener indicios de su veracidad.
Pero, ¿cómo encontrar pruebas de algo así? Si bien para muchos defensores de esta idea la clave está en la búsqueda de fallos que puedan revelarnos la naturaleza real del universo, para Vopson la clave está en las leyes de la física, así como en la materia y sus formas.
El autor defiende por ejemplo la información como forma de la materia. Es decir, igual que la materia no se crea ni se destruye pero puede transformarse entre distintas fases e incluso en energía, ésta podría, hipotéticamente, transformarse en algo aparentemente muy distinto: información.
Partiendo de esto y de disciplina conocida como teoría de la información, Vopson postula su segunda ley de la infodinámica. Esta trata de explicar la entropía de la información en paralelo a la entropía “física”, tal y como la comprendemos en la segunda ley de la termodinámica.
“En el corazón de la infodinámica está el concepto de entropía (una medida de desorden, que siempre crece en el tiempo en un sistema aislado).” La segunda ley postulada por Vopson habla de la entropía de la información. Esta, entendida como la cantidad promedio de información vinculada a un evento, “debe permanecer constante o decrecer a lo largo del tiempo”, al menos hasta alcanzar un valor de equilibrio.
Más que paralelas, las segundas leyes de la termodiámica e infodinámica podrían verse como simétricas: la energía y la materia tienden al desorden, la información, en cambio, tendería al orden.
Vopson pone la evolución como ejemplo de la disminución de la entropía informativa. Tras estudiar las mutaciones en el virus que causó la pandemia de Covid, el SARS-CoV-2, el físico llegó a la conclusión de que las mutaciones no ocurren, como indica el consenso científico, de forma aleatoria, sino que responderían a esta necesidad de ordenar.
Esto también explicaría una aparente incongruencia: que un universo en constante expansión en el que el calor ni aumenta ni desaparece, en ese sentido de entropía constante, pueda encajar como sistema aislado y por tanto de entropía creciente. Vopson explica esto añadiendo la información y su entropía decreciente a la ecuación, de forma que ambas se cancelan entre sí, dando lugar a la entropía universal constante.
Más allá de este modelo teórico, las pruebas son escasas. Inferir una entropía evolutiva negativa a partir de la evolución de organismos en la Tierra, un sistema abierto y no aislado plantea dudas evidentes, por ejemplo.
Por ahora lo cierto es que no tenemos pruebas concluyentes de que vivamos en una simulación. El trabajo de Vopston también incluye experimentos imaginarios que quizás algún día podamos llevar a cabo para poner a prueba sus ideas. Entretanto, la idea de la simulación sigue perteneciendo al campo de la ciencia ficción.
Desde la caverna de Platón hasta el presente, la idea de que el mundo que percibimos no es la esencia sino más bien un reflejo de la realidad ha ido mutando. Sin embargo la imposibilidad de demostrar que el mundo real es intangible para nosotros se mantiene.
En Xataka | No vivimos en Matrix: según la física teórica no estamos en una realidad simulada por ordenador
Imagen | ThisIsEngineering
Ver todos los comentarios en https://www.xataka.com
VER 14 Comentarios