Ao estudar o vírus SARS-CoV-2, causador da covid-19, um físico chegou a uma conclusão inusitada — a de que o nosso universo é uma enorme simulação. Melvin Vopson baseou a ideia em uma descoberta ainda não provada que ele chama de “Segunda Lei da Infodinâmica”. Parece algo muito maluco? Será que vivemos na “Matrix”? Calma, vamos tentar explicar.

  • Vivemos em uma simulação de computador? Estes estudos dizem que sim
  • Universo holográfico pode explicar como a gravidade se forma no mundo quântico

Segundo Vopson, tudo se baseia na Teoria da Informação, obra do matemático Claude Shannon. Ela trata da quantificação, armazenamento e comunicação de informação, como o nome indica, e de como tudo — da natureza aos computadores e aos elétrons — é baseado em dados.

Entropia e a infodinâmica

Para explicar a segunda lei da infodinâmica, é preciso entender a entropia. Esse conceito representa o fato que, em um sistema isolado como o nosso, tudo tende à desordem, equilibrando os elementos. Uma xícara de café quentinho em uma mesa, por exemplo, perde calor até ficar na temperatura ambiente, equilibrando o sistema. A entropia do sistema atinge o valor máximo, e a energia, o valor mínimo.


Entre no Canal do WhatsApp do e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

De acordo com a segunda lei da termodinâmica, tudo tende à desordem — tudo que é quente, como uma xícara de café, transfere calor até esfriar e equilibrar com o ambiente (Imagem: Clay Banks/Unsplash)
De acordo com a segunda lei da termodinâmica, tudo tende à desordem — tudo que é quente, como uma xícara de café, transfere calor até esfriar e equilibrar com o ambiente (Imagem: Clay Banks/Unsplash)

De acordo com a segunda lei da infodinâmica, então, a quantidade de informação expressa por um evento se mantém constante ou diminui ao longo do tempo, chegando ao seu valor mínimo quando o sistema se equilibra. É algo diametralmente oposto à segunda lei da termodinâmica. 

Voltemos ao exemplo do café: a entropia aumenta quando o calor flui, espontaneamente, do líquido quente para o ambiente frio. Quando isso ocorre, a propagação de probabilidades de localizar uma molécula no líquido diminui, já que o espalhamento de energia disponível diminui quando o equilíbrio termal é atingido.

  • A teoria de que a vida pode ter surgido por causa da entropia

A entropia da informação diminui, em outras palavras, enquanto a entropia “padrão”, ou física, aumenta. Segundo a ciência, o universo está em constante expansão, sem perda ou ganho de calor (nada se cria, nada se perde, lembram-se?), o que implica que a entropia total do universo seja constante.

Sabemos, no entanto, através da termodinâmica, que a entropia está sempre aumentando em sistemas fechados. Vopson acredita que, por conta disso, outra entropia — a entropia da informação — deve estar equilibrando esse aumento. A entropia da informação seria, então, uma necessidade cosmológica. Isso traria diversas implicações para a ciência, caso provado.

A quantidade de informação no universo diminui de forma inversamente proporcional à entropia, já que menos energia precisa ser dispendida para calcular as probabilidades de eventos ocorrendo — como um código de programação que diminui (Imagem: Kevin Ku/Unsplash)
A quantidade de informação no universo diminui de forma inversamente proporcional à entropia, já que menos energia precisa ser dispendida para calcular as probabilidades de eventos ocorrendo — como um código de programação que diminui (Imagem: Kevin Ku/Unsplash)

O universo é uma simulação?

Mas como, então, essa teoria leva à conclusão de que o nosso universo é uma simulação? Bem, a consequência principal da segunda lei da infodinâmica, segundo Vopson, é a minimização da informação contida em qualquer evento ou processo do universo. Isso quer dizer que há uma otimização da informação — em outras palavras, é a compressão de dados mais efetiva possível.

  • 5 teorias sobre como será o fim do universo

Como a lei seria uma necessidade cosmológica, e parece ser aplicada em todos os lugares de maneira igual, isso significa que o universo seria construído da mesma forma que um grande computador. Se o universo fosse uma simulação, certamente haveria um sistema de otimização e compressão de dados para diminuir o poder computacional necessário para isso, bem como para a quantidade de armazenamento.

Esticando um pouco esse raciocínio, seria possível pensar que, como os sistemas biológicos buscam otimizar o uso de energia ao máximo, estariam obedecendo à economia de energia da entropia da informação. Por que a simetria é tão presente na natureza? Simples — porque ela precisa de menos informação para ser gerada do que a assimetria, ficando com a menor entropia informacional possível.

Se nosso universo estiver sendo simulado por um supercomputador, faria sentido que ele economizasse energia para simular tudo que está acontecendo — e, aparentemente, isso está sendo feito (Imagem: Divulgação/Western Sydney University)
Se nosso universo estiver sendo simulado por um supercomputador, faria sentido que ele economizasse energia para simular tudo que está acontecendo — e, aparentemente, isso está sendo feito (Imagem: Divulgação/Western Sydney University)

Entropia e coronavírus

Vopson afirmou ter encontrado uma das provas ao estudar o vírus SARS-CoV-2, que teve suas mutações observadas de perto durante a pandemia de covid-19. Estudando todas as mudanças de RNA e DNA que o vírus apresentou ao longo do tempo, o cientista notou que a entropia da informação realmente diminuiu no genoma do patógeno.

Para o físico, isso significa que as mutações genéticas sofridas por seres vivos e vírus não são aleatórias, mas obedeceriam a segunda lei da infodinâmica, mantendo ou diminuindo sua entropia da informação.

Se isso pudesse ser usado para prever mutações antes que ocorram, as implicações para a biologia evolucionária, estudos pandêmicos, terapia genética e indústria farmacêutica seriam enormes e extremamente benéficas.

Ao estudar o vírus SARS-CoV-2, o físico Vopson descobriu que suas mutações de fato estavam diminuindo a entropia da informação do sistema (Imagem: Alan Camerer/Domínio Público)
Ao estudar o vírus SARS-CoV-2, o físico Vopson descobriu que suas mutações de fato estavam diminuindo a entropia da informação do sistema (Imagem: Alan Camerer/Domínio Público)

Hipótese ou verdade?

Embora toda a teoria seja bastante interessante, ela precisa de provas — afirmações extraordinárias precisam de provas extraordinárias. Então, até o momento, tudo não passa de mera hipótese. Caso Vopson esteja certo, informação bruta deve possuir massa, para que possa interagir com outros elementos do universo.

  • Cientista propõe um método para saber se humanos vivem na Matrix

Para mostrar isso, bastaria medir a massa de um disco rígido antes e depois de seus dados serem permanentemente apagados. O problema é que, como a quantidade de massa seria muito pequena, ainda não há como medir isso.

Outra possibilidade seria bombardear partículas com antipartículas (seu oposto, mas com carga oposta, algo que todas as partículas possuem) para que eliminem uma a outra e emitam fótons.

Vopson afirma ter calculado toda a gama de frequências que se pode esperar desses fótons com base em física da informação. Até que isso seja feito, tudo fica no campo teórico, sem muito peso para a ciência — ou sem muita massa, neste caso.

Leia mais matérias no ItechNews .