quinta-feira, 2 de fevereiro de 2012

A Teoria de Tudo


O mais incompreensível a respeito do universo
É que ele é compreensível.
Albert Einstein


O universo é compreensível porque é governado por leis científicas; ou seja, o seu comportamento pode ser descrito em um modelo. Mas o que são essas leis ou modelos? A primeira força descrita em linguagem matemática foi a gravidade. A lei da gravitação universal de Newton, publicada em 1687, diz que todo objeto no universo atrai qualquer outro objeto com uma força proporcional à sua massa. Essa lei teve um profundo impacto na vida intelectual da época, porque mostrou pela primeira vez que ao menos um aspecto do universo poderia ser descrito por um modelo de forma precisa, e criou o aparato matemático para isto. A ideia de que existem leis naturais suscita questões semelhantes àquelas pelas quais Galileu foi condenado por heresia cerca de cinqüenta anos antes. Por exemplo, a Bíblia conta a história de quando Josué rezou para que o Sol e a Lua parassem em seus trajetos de forma que a luz do dia se prolongasse, permitindo terminar a batalha contra os amoritas de Canaã. Segundo o livro de Josué, o Sol focou parado por um dia. Atualmente, sabemos que isso significa que a Terra deteve sua rotação. Se a Terra tivesse parado, de acordo com as leis de Newton, tudo que não estivesse preso continuaria a se mover na velocidade original da Terra (1.800 quilômetros por hora no equador), um preço muito elevado por um pôr do sol adiado. Nada disso incomodou Newton, pois, como já dissemos, Newton acreditava que Deus podia intervir – e intervinha – nas obras do universo.

Os próximos aspectos do universo para os quais se descobriram uma lei ou um modelo foram as forças elétrica e magnética. Estas se comportam de modo semelhante ao da gravidade, com a importante diferença de que duas cargas elétricas ou dois pólos magnéticos da mesma espécie se repelem, e de espécies diferentes, se atraem. As forças magnética e elétrica são muito mais fortes do que a gravidade, mas em geral não as notamos na vida diária porque um objeto macroscópico contém um número quase igual de cargas positivas e negativas. Isso implica que as forças magnéticas ou elétricas entre dois corpos macroscópicos se anulam quase inteiramente, ao contrário das forças gravitacionais, que sempre se somam.

Nossas ideias atuais sobre eletricidade e magnetismo foram desenvolvidas em um período de cerca de cem anos, da metade do século XVIII à metade do século XIX, quando físicos de vários países conduziram estudos experimentais detalhados das forças elétrica e magnética. Uma das descobertas mais importantes foi que forças elétricas e magnéticas estão relacionadas. Uma carga elétrica em movimento gera uma força sobre um ímã, e um ímã em movimento provoca uma força sobre cargas elétricas. O primeiro a perceber que havia uma conexão foi o físico dinamarquês Hans Christian Ørsted. Em 1820, enquanto se preparava para dar uma palestra na universidade, Ørsted notou que a corrente elétrica da bateria que ele estava usando fazia mover a agulha de uma bússola próxima. Logo percebeu que a eletricidade em movimento criou uma força magnética, e cunhou o termo “eletromagnetismo”. Uns poucos anos mais tarde, o cientista inglês Michael Faraday ponderou que – expresso em termos modernos -, se uma corrente elétrica pode gerar um campo magnético, um campo magnético poderia produzir uma corrente elétrica. Ele demonstrou esse efeito em 1831. Quatorze anos depois, Faraday também descobriu uma conexão entre eletromagnetismo e luz quando mostrou que magnetismo intenso pode afetar a natureza da luz polarizada.

Faraday tinha pouca educação formal. Nasceu na família de um ferreiro pobre, em uma cidade próxima de Londres, e largou a escola com treze anos para trabalhar como mensageiro e encadernador de livros numa livraria. Lá, por anos estudou ciência através da leitura dos livros dos quais deveria tomar conta, enquanto fazia experimentos simples e baratos durante seu tempo livre. Finalmente, conseguiu trabalho como assistente no laboratório do grande químico Sir Humphry Davy. Faraday permaneceu no laboratório pelos pelos 45 anos restantes de sua vida, e, após a morte de Davy, assumiu seu lugar. Faraday tinha dificuldades com matemática e nunca aprendeu muito dessa disciplina, por isso lhe era penoso conceber um quadro teórico dos estranhos fenômenos eletromagnéticos que observou em seu laboratório. Mas, apesar de tudo, ele conseguiu.

Campo de força. O campo de força de um ímã, como ilustrado pela reação da limalha de ferro.


Uma das grandes inovações intelectuais de Faraday foi a concepção de campos de força. Hoje em dia, graças a livros e a filmes com alienígenas com olhos de inseto e suas espaçonaves, a maior parte das pessoas está familiarizada com o termo, e assim talvez devêssemos lhe pagar royalties. Mas, nos séculos entre Newton e Faraday, um dos grandes mistérios da física era que as leis pareciam indicar que as forças agem através do espaço vazio que separa objetos interagentes. Faraday não gostava disso, pois acreditava que para mover um objeto algo devia estar em contato com ele. E assim ele imaginou que o espaço entre cargas elétricas e ímãs estava preenchido com tubos que realizariam fisicamente a tração ou o empurrão. Faraday chamou esses tubos de campos de força. Um bom modo de visualizar um campo de força é realizar aquela experiência, comum na escola, de colocar um vidro plano em cima de um ímã em barra e espalhar limalha de ferro no vidro. Com umas batidinhas para vencer o atrito, a limalha se move, como sob a ação de um poder invisível, e se arranja em um padrão de arcos estendendo-se de um polo do ímã ao outro. Esse padrão é um mapa da força magnética que permeia o espaço. Hoje acreditamos que todas as forças são transmitidas por campos, e portanto trata-se de um importante conceito na física moderna – assim como na ficção científica.

Por várias décadas, nossa compreensão do eletromagnetismo permaneceu estagnada, resumida a não mais do que o conhecimento de umas poucas leis empíricas: a sugestão de que eletricidade e magnetismo estavam íntima, embora misteriosamente, relacionados; a noção de que havia algum tipo de conexão com a luz; e o conceito embrionário de campos. Ao menos onze teorias do eletromagnetismo foram erigidas, e todas desmoronaram. Então, em apenas alguns anos, na década de 1860, o físico escocês James Clerk Maxwell providenciou um esquema matemático para as concepções de Faraday e explicou a íntima e misteriosa relação entre eletricidade, magnetismo e luz. O resultado foi um conjunto de equações descrevendo ambas as forças, a elétrica e a magnética, como manifestações da mesma entidade física, o campo eletromagnético. Maxwell tinha unificado eletricidade e magnetismo em apenas uma força. Além disso, Maxwell demonstrou que os campos eletromagnéticos podiam se movimentar no espaço como uma onda. A velocidade dessa onda é governada por um número que aparece em suas equações, que ele calculou a partir de dados experimentais medidos apenas uns poucos antes. Para sua surpresa, a velocidade que obteve era igual à velocidade da luz, até então conhecida experimentalmente com uma precisão de 1%. Maxwell descobriu que a própria luz é uma onda eletromagnética!

Atualmente, as equações descrevendo os campos elétricos e magnéticos são denominadas equações de Maxwell. Poucas pessoas ouviram falar delas, mas são provavelmente as equações com o maior valor comercial que conhecemos. Elas na só governam o funcionamento de tudo, desde eletrodomésticos até computadores, como também descrevem outras ondas além da luz, como micro-ondas, ondas de rádio, luz infravermelha e raios X. Todas essas ondas diferem da luz visível em apenas um aspecto – o do comprimento de onda. Ondas de rádio têm comprimentos de onda de um metro ou mais; a luz visível, de alguns décimos de milionésimos de metro; e raios X, de menos de um centésimo de milionésimo de metro. O Sol irradia em todos os comprimentos de onda, mas sua radiação é mais intensa nos comprimentos de ondas visíveis para nós. Provavelmente não é por acidente que o olho humano seja capaz de ver os comprimentos de onda nos quais o Sol emite raios com mais intensidade. É provável que os nossos olhos tenham desenvolvido a capacidade de detectar radiação eletromagnética exatamente nessa faixa porque nela havia mais radiação disponível. Se algum dia encontrarmos seres de outros planetas, eles provavelmente terão a capacidade de “ver” radiação naqueles comprimentos de onda em que o seu sol irradie mais intensamente, modulados por fatores como as propriedades de absorção de luz pelos gases e poeira da atmosfera. Assim, alienígenas que tiverem evoluído na presença de raios X terão um futuro promissor na segurança de aeroportos.

Comprimento de onda. Micro-ondas, ondas de rádio, luz infravermelha e raios X – e diferentes cores de luz – diferem apenas no seu comprimento de onda.


As equações de Maxwell impõem que ondas eletromagnéticas viajam a uma velocidade de cerca de trezentos mil quilômetros por segundo. Mas conferir um valor a uma velocidade não significa nada a não ser que se especifique o referencial em relação ao qual a velocidade é medida. Em geral não se pensa nisso no quotidiano. Quando uma placa de limite de velocidade estipula cem quilômetros por hora, subentende-se que a velocidade é em relação à estrada e não a um buraco negro no centro da Via Láctea. Mas, mesmo no dia a dia, há situações nas quais é preciso levar em conta os referenciais. Por exemplo, se você está levando uma xícara de chá no corredor de um avião, diria que sua velocidade seria de, digamos, três quilômetros por hora. Mas alguém no solo poderia dizer que você estava se movendo a 903 quilômetros por hora. Se acha que um desses observadores tem mais razão do que o outro, lembre-se de que, tal como a Terra orbita o Sol, alguém que observa da superfície solar discordará de ambos os observadores e dirá que você está se movendo a cerca de trinto quilômetros por segundo, e ainda por cima terá inveja do seu ar-condicionado. Devido a esses desacordos, quando Maxwell anunciou que tinha descoberto a “velocidade da luz” brotando das suas equações, a questão mais óbvia era saber qual o referencial para se medir a velocidade da luz nas equações de Maxwell.

Não há razão para se acreditar que o parâmetro de velocidade nas equações de Maxwell seja uma velocidade medida em relação à Terra. Afinal de contas, suas equações aplicam-se a todo o universo. Uma resposta alternativa que foi considerada por um tempo é a de que, em suas equações, a velocidade da luz era relativa a um meio não detectado anteriormente que permeava todo o espaço, chamado éter luminífero, ou, abreviando, simplesmente éter, que era o termo empregado por Aristóteles para designar a substância que ele acreditava preencher todo o universo além da esfera terrestre. Esse éter hipotético seria o maior por onde as ondas eletromagnéticas se propagam, do mesmo modo como o som se propaga no ar. Se o éter existisse, ele constituiria um padrão absoluto de se definir o movimento. O éter forneceria um referencial absoluto de repouso por todo o universo, contra o qual a velocidade de qualquer objeto poderia ser medida. Assim, postulou-se a existência do éter, com base em argumentos teóricos, o que estimulou alguns cientistas a empreenderem buscas para estudar suas propriedades ou, ao menos, confirmar sua existência. Um desses cientistas foi o próprio Maxwell.

Movendo-se através do éter. Se tivéssemos nos movendo através do éter, seríamos capazes de detectar esse movimento pela observação de variações sazonais na velocidade da luz.


Se corrermos através do ar na direção de uma onda sonora, a onda se aproximará mais rapidamente de nós, e, se corrermos para longe, ela se aproximará mais devagar. Do mesmo modo, se estivéssemos no éter, a velocidade da luz iria variar dependendo do nosso movimento relativo ao éter. De fato, se a luz funcionasse como o som, assim como aqueles que estão em um jato supersônico não ouvem nenhum som que emana de trás do jato, do mesmo modo viajantes deslocando-se rápido o suficiente através do éter seriam capazes de ultrapassar uma onda de luz. Partindo de tais considerações, Maxwell sugeriu um experimento. Se houver um éter, a Terra deve mover-se através dele enquanto descreve sua órbita em torno do Sol. E, como em janeiro a Terra está se movimento numa direção diferente daquela de, digamos, abril ou julho, seria possível observar uma pequena diferença na velocidade da luz em diferentes momentos do ano – veja a figura anterior.

Maxwell foi dissuadido de publicar essa ideia no Proceedings of Royal Society por seu editor, que não acreditava que o experimento fosse factível. Mas em 1879, um pouco antes de morrer, aos 48 anos de idade, vitimado por um doloroso câncer de estômago, Maxwell enviou uma carta sobre o assunto para um amigo. A carta foi publicada postumamente na revista Nature, onde foi lida por, entre outros, um físico americano, Albert Michelson. Inspirados por Maxwell, em 1887, Michelson e Edward Morley realizaram um experimento muito delicado, projetado para medir a velocidade com a qual a Terra atravessa o éter. A ideia era comparar a velocidade da luz em duas diferentes direções, perpendiculares entre si. Se a velocidade da luz fosse um número fixo em relação ao éter, as medidas teriam revelado velocidades que difeririam dependendo da direção do feixe. Mas Michelson e Morley não observaram tal diferença.

O resultado do experimento de Michelson-Morley está claramente em conflito com o modelo de ondas eletromagnéticas atravessando um éter, e poderia ter levado ao abandono desse modelo. Mas o objetivo de Michelson era medir a velocidade da Terra em relação ao éter, e não provar ou rejeitar a hipótese do éter, portanto o seu achado não o levou a concluir que o éter não existia. E ninguém mais chegou a tal conclusão. De fato, o famoso físico Sir William Thomson (Lord Kelvin) disse em 1884 que o éter era a “única substância em cuja dinâmica temos confiança. De uma coisa podemos estar certos: da realidade e substancialidade do éter luminífero”.

Mas como é possível acreditar no éter depois do experimento de Michelson-Morley? Como costuma acontecer, tentou-se salvar o modelo por acréscimos imaginosos e ad hoc. Alguns postularam que a Terra arrastava o éter consigo, e assim não estávamos realmente nos movendo em relação a ele. O físico holandês Hendrik Antoon Lorentz e o irlandês George Francis Fitzgerald sugeriram que, num referencial movendo-se em relação ao éter, provavelmente devido a algum efeito mecânico ainda desconhecido, os relógios atrasariam e as distâncias encolheriam, e assim se poderia medir a velocidade da luz com o mesmo valor. Tais esforços para salvar o conceito do éter continuaram por aproximadamente vinte anos, até um artigo notável de um físico desconhecido e funcionário do escritório de patentes em Berna, Albert Einstein.

Einstein tinha 26 anos em 1905, quando publicou seu artigo “Zur Elektrodynamik bewegter Körper” (“sobre a eletrodinâmica dos corpos em movimento”), no qual faz a suposição simples de que as leis da física e, em particular, a velocidade da luz, deveriam parecer as mesmas para todos os observadores em movimento uniforme. Essa ideia, por sua vez, exige uma revolução de nossa concepção de espaço e tempo. Para entender o porquê, imagine dois eventos que ocorrem no mesmo lugar, mas em instantes diferentes, em um avião a jato. Para um observador no avião, há uma distância zero entre os dois eventos. Mas, para um segundo observador, no solo, os eventos são separados pela distância que o avião percorreu durante o tempo entre os eventos. Isso mostra que dois observadores movendo-se um em relação ao outro não concordam sobre a distância entre os eventos.

A bordo do avião. Se você rebater uma bola dentro de um avião, um observador a bordo pode determinar que ela atinge o mesmo local a cada rebote, enquanto um observador no solo medirá uma grande diferença de distância entre os pontos de rebate.


Agora suponha que os dois observadores observem um pulso de luz propagando-se da traseira para a frente do avião. Assim como no exemplo acima, eles não vão concordar em relação à distância percorrida pela luz desde sua emissão na traseira do avião até sua chegada na frente. Uma vez que velocidade é a distância percorrida dividida pelo tempo transcorrido, isso significa que, se eles concordam com a velocidade com a qual o pulso se desloca – a velocidade da luz -, não concordarão quanto ao intervalo de tempo entre emissão e recepção.

O que torna isso estranho é que, embora os dois observadores meçam distâncias diferentes, eles estão observando o mesmo processo físico. Einstein não tentou construir uma explicação artificial para isso. Ele chegou à conclusão lógica, embora surpreendente, de que a medida do tempo transcorrido, assim como a da distância percorrida, depende do observador realizando a medida. Esse efeito é uma das chaves para a teoria do artigo de Einstein de 1905, que posteriormente foi denominada relatividade restrita.


Dilatação do tempo. Relógios em movimento parecem andar mais devagar. Como isso se aplica também a relógios biológicos, pessoas em movimento também devem envelhecer mais devagar, mas não deposite muitas esperanças nisso – nas velocidades do dia a dia, nenhum relógio comum poderia medir a diferença.


Podemos ver como essa análise poderia se aplicar a dispositivos cronométricos, se considerarmos dois observadores olhando um relógio. A relatividade restrita afirma que o relógio andará mais rápido segundo um observador que esteja em repouso em relação ao relógio. Para observadores que não estão em repouso em relação ao relógio, este andará mais devagar. O pulso de luz percorrendo desde a traseira até a frente do avião pode ser exemplificado por um tique de relógio. Nesse caso, para um observador no solo, o relógio andará mais devagar porque o feixe de luz tem que percorrer uma distância maior de acordo com o seu referencial. Mas o efeito não depende do mecanismo do relógio; é válido para todos os relógios, inclusive nossos relógios biológicos.

O trabalho de Einstein mostrou que, assim como o conceito de repouso, o tempo não pode ser absoluto, ao contrário do que pensava Newton. Em outras palavras, não é possível atribuir a cada evento uma duração com a qual todos os observadores concordem. Em vez disso, as durações, medidas por dois observadores em movimento um em relação ao outro, não concordam. As ideias de Einstein vão de encontra à nossa intuição porque suas implicações não são perceptíveis para as velocidades normalmente encontradas na vida diária. Mas foram repetidamente confirmadas por experimentos. Por exemplo, imagine um relógio de referência no centro da Terra, outro na superfície e um terceiro relógio a bordo de um avião, voando na mesma direção ou na direção contrária à rotação terrestre. Em relação ao relógio no centro da Terra, aquele a bordo do avião movendo-se para leste – na direção da rotação terrestre – move-se mais rapidamente do que aquele na superfície da Terra, e assim anda mais devagar. Do mesmo modo, em relação ao relógio no centro da Terra, o que estiver a bordo do avião movendo-se para oeste – contra a rotação terrestre – move-se mais lentamente do que aquele na superfície da Terra, e assim anda mais rápido. Foi exatamente isso que se observou quando, num experimento realizado em outubro de 1971, um relógio atômico muito preciso fez um vôo ao redor do mundo. Assim, você poderia estender sua vida voando constantemente para leste ao redor do mundo, embora possa se cansar de tanto assistir àqueles filmes a bordo. Todavia, esse efeito é muito pequeno, cerca de 180 bilionésimos de segundo por circuito (e isso também é algo reduzido pela diferença na gravidade, mas não entraremos nesse ponto agora).

Devido ao trabalho de Einstein, os físicos perceberam que, devido à exigência de que a velocidade da luz seja a mesma em relação a todos os referenciais, a teoria de Maxwell do eletromagnetismo imporia que o tempo não pode ser tratado separadamente das três dimensões do espaço. Seria necessário adicionar uma quarta dimensão de futuro/passado às habituais de esquerda/direita, na frente/atrás, e em cima/embaixo. Os físicos chamam esse casamento entre espaço e tempo de “espaço-tempo”, e como o espaço-tempo inclui uma quarta direção, eles a chamam de quarta dimensão. No espaço-tempo, o tempo não é mais uma dimensão separada das três dimensões do espaço, e, grosso modo, assim como a definição de esquerda/direta, na frente/atrás ou em cima/embaixo depende do observador, a direção do tempo também varia de acordo com a velocidade do observador. Observadores movendo-se a velocidades diferentes escolheriam diferentes direções para o tempo no espaço-tempo no espaço-tempo. A teoria da relatividade restrita de Einstein era, portanto, um novo modelo, que dispensava os conceitos de tempo e repouso absolutos (isto é, repouso em relação ao éter fixo).

Einstein logo percebeu que para tornar a gravidade compatível com a relatividade seria necessária outra mudança. Segundo a teoria da gravitação de Newton, em qualquer tempo os objetos são atraídos uns aos outros por uma força que depende da distância entre eles. Mas a teoria da relatividade aboliu o conceito de tempo absoluto, e assim não havia como definir quando a distância entre as massas deveria ser medida. A teoria da gravitação de Newton não era consistente com a relatividade restrita e deveria ser modificada. O conflito poderia soar como uma mera dificuldade técnica, talvez apenas um detalhe que poderia ser contornado sem grandes alterações na teoria. Mais tarde ficou claro que essa questão era bem mais que um detalhe.

Nos onze anos seguintes, Einstein desenvolveu uma nova teoria da gravitação, que ele chamou de relatividade geral. O conceito de gravidade na relatividade geral é inteiramente distinto do de Newton. Ele se baseia na proposta revolucionária de que o espaço-tempo não é plano, como antes se supunha, mas curvado e distorcido pela massa e pela energia contida nele.

Um modo de se visualizar essa curvatura é pensar na superfície da Terra. Embora a superfície terrestre seja apenas bidimensional (porque há somente duas direções sobre ela: norte/sul e leste/oeste), vamos usá-la como exemplo porque um espaço bidimensional curvado é mais simples de imaginar que um espaço-tempo quadrimensional. A geometria dos espaços curvos tais como a superfície terrestre não é a geometria euclidiana com a qual estamos familiarizados. Por exemplo, na Terra, a distância mais curta entre dois pontos – que seria uma reta na geometria euclidiana – é o traço conectando dois pontos ao longo do que denominamos círculo máximo. (Um círculo máximo é um círculo pela superfície da Terra, cujo centro coincide com o centro do planeta. O equador é um exemplo de círculo máximo, do mesmo modo que qualquer círculo obtido girando-se o equador segundo diferentes diâmetros.)

Imagine que você quer viajar de Nova York para Madri, duas cidades aproximadamente de mesma latitude. Se a Terra fosse plana, a rota mais curta seria uma reta diretamente para leste. Se você seguisse esse caminho, chegaria a Madri depois de 5.966 quilômetros. Mas, devido à curvatura da Terra, há um caminho que em um mapa plano parece curvo e, portanto, mais longo, mas que na realidade é mais curto. Você percorrerá 5.801 quilômetros se seguir a rota de um círculo máximo, segundo a qual você primeiro vai para nordeste, depois gradualmente vira para leste e finalmente para sudeste. A diferença de distância entre as duas rotas se dá por conta da curvatura terrestre, comprovando a geometria não euclidiana da superfície da Terra. As companhias aéreas utilizam esse método para planejar as rotas dos aviões ao longo de círculos máximos sempre que for mais prático.

De acordo com as leis de movimento de Newton, objetos como bolas de canhão, croissants e planetas movem-se em linha reta, exceto quando sob a ação de uma força, tal como a gravidade. Mas a gravidade, na teoria de Einstein, não é uma força igual às outras; PE antes uma consequência do fato de que a massa distorce o espaço-tempo, criando uma curvatura. Na teoria de Einstein, os objetos se movem em geodésicas, que são o que mais se aproxima de linhas retas em um espaço curvo. Em um plano, as geodésicas são as linhas retas e, superfície terrestre, os círculos máximos. Na ausência de matéria, as geodésicas no espaço-tempo quadrimensional correspondem a retas no espaço tridimensional. Mas, na presença de matéria, distorcendo o espaço-tempo, as trajetórias dos corpos no correspondente espaço tridimensional se curvam de um modo que na teoria newtoniana era explicado pela atração da gravidade. Quando o espaço-tempo não é plano, as trajetórias dos objetos parecem estar dobradas, dando a impressão de que uma força está agindo sobre eles.

Geodésicas. A distância mais curta entre dois pontos na superfície terrestre parece curva quando traçada num mapa plano – algo que devemos ter em mente em um teste de sobriedade.


A teoria da relatividade geral de Einstein reproduz a relatividade restrita quando não há gravidade, e faz quase as mesmas previsões da gravitação universal de Newton no ambiente de fraca gravidade do sistema solar – mas não exatamente as mesmas. De fato, se a relatividade geral não fosse levada em conta no sistema de navegação por satélite do GPS, os erros na posição global se acumulariam a uma taxa de dez quilômetros por dia! Contudo, a real importância da relatividade geral não é sua aplicação em aparelhos que nos guiam a novos restaurantes, mas antes é um modelo do universo inteiramente distinto, que prevê coisas como ondas gravitacionais e buracos negros. Assim, a relatividade geral transformou a física em geometria. A tecnologia moderna tem sensibilidade suficiente para realizarmos muitos testes acurados acerca da relatividade geral, por todos eles confirmada.

Embora ambas tenham revolucionado a física, a teoria do eletromagnetismo de Maxwell e a teoria da relatividade geral de Einstein são, como a própria física newtoniana, teorias clássicas, no sentido em que são modelos nos quais o universo tem uma única história. Como vimos no último artigo, nos níveis atômico e subatômico esses modelos não concordam com as observações. Seria melhor usarmos teorias quânticas nas quais o universo pode ter qualquer história possível, cada uma com sua própria intensidade ou amplitude de probabilidade. Para cálculos práticos, envolvendo a vida diária, podemos continuar a utilizar as teorias clássicas, mas, se desejamos compreender o comportamento de átomos e moléculas, necessitamos de uma versão quântica da teoria do eletromagnetismo de Maxwell; e se quisermos compreender o universo primordial, quando toda a matéria e energia do universo estavam comprimidas num pequeno volume, devemos ter uma versão quântica da teoria da relatividade geral. Também precisamos de tais teorias porque, se estivermos buscando uma compreensão fundamental da natureza, não seria consistente se algumas das leis fossem quânticas e outras, clássicas. Portanto, temos que encontrar versões quânticas de todas as leis naturais. Tais teorias são chamadas de teorias quânticas de campo.

As forças conhecida da natureza podem ser divididas em quatro classes:

1. Gravidade. É a mais fraca das quatro, mais é uma força de longo alcance e que age sobre tudo no universo como uma atração, o que implica que, para grandes corpos, as forças gravitacionais são cumulativas e podem dominar todas as outras.

2. Eletromagnetismo. Também é uma força de longo alcance e é muito mais forte do que a gravidade, mas age somente sobre partículas com carga elétrica, sendo repulsiva entre cargas de mesmo sinal, e atrativa entre as de sinal oposto. Isso significa que as forças eletromagnéticas entre grandes corpos anulam-se mutuamente, mas são predominantes na escala de átomos e moléculas. As forças eletromagnéticas são as responsáveis por toda a química e biologia.

3. Força nuclear fraca. É a responsável pela radioatividade e desempenha um papel fundamental na formação dos elementos nas estrelas e no universo primordial. Contudo, não entramos em contato com essa força em nosso quotidiano.

4. Força nuclear forte. É a força que mantém unidos os prótons e nêutrons no interior do núcleo de um átomo. Ela também mantém íntegros os próprios prótons e nêutrons, o que é necessário já que eles são compostos por partículas ainda menores, os quarks, mencionados no 3º artigo. A força forte é a fonte de energia do Sol e da energia nuclear, mas, assim como ocorre com a força fraca, não temos contato direto com ela.

A primeira força para a qual se criou uma versão quântica foi o eletromagnetismo. A teoria quântica do campo eletromagnético, denominada eletrodinâmica quântica, ou, abreviando, QED (do inglês “quantum elctrodynamics”), foi desenvolvida na década de 1940 por Richard Feynman e outros, e tornou-se um modelo para todas as teorias quânticas de campo. Como dissemos, segundo as teorias clássicas, as forças são transmitidas por campos. Mas, nas teorias quânticas de campo, os campos de força são representados como constituídos por várias partículas elementares, chamadas de bósons, que são partículas portadoras de forças voando num vaivém entre as partículas de matéria e transmitindo essas forças. As partículas de matéria são denominadas férmions. Elétrons e quarks são exemplos de férmions. Já o fóton, ou partícula de luz, é um bóson, aquele que transmite a força eletromagnética. O que acontece é que uma partícula material, tal como o elétron, emite um bóson, ou partícula de força, e sofre um recuo por isso, do mesmo modo que um canhão recua quando dispara uma bola de canhão. A partícula de força então colide com outra partícula material e é absorvida, mudando o movimento daquela partícula. De acordo com a QED, todas as interações entre partículas carregadas – partículas que sentem a força eletromagnética – são descritas em termos de troca de fótons.

As previsões da QED foram testadas, e se verificou que reproduzem os resultados experimentais com grande precisão. Mas realizar os cálculos matemáticos requeridos pela QED pode ser difícil. O problema é que, como veremos abaixo, quando se acrescenta ao quadro da troca de partículas a exigência quântica de se incluir todas as formas pelas quais a interação possa ocorrer – por exemplo, todos os modos pelos quais as partículas de força possam ser trocadas – a matemática torna-se complicada. Felizmente, junto com a invenção da noção de histórias alternativas – o modo de se pensar as teorias quânticas descrito no último artigo -, Feynman também desenvolveu um elegante método gráfico de incluir as diferentes histórias, um método que atualmente é aplicado não só à QED mas a todas as teorias quânticas de campo.

O método gráfico de Feynman fornece um meio de visualizar cada termo na soma sobre as histórias. Essas figuras, chamadas de diagramas de Feynman, constituem uma das mais importantes ferramentas da física moderna. Na QED, a soma sobre todas as histórias possíveis pode ser representada como uma soma sobre diagramas de Feynman, como aqueles abaixo, representando alguns dos modos possíveis pelos quais um elétron repele o outro através da força eletromagnética. Nesses diagramas, as linhas cheias representam os elétrons, e as onduladas, os fótons. O tempo deve ser entendido como avançando de cima para baixo, e os locais onde as linhas se encontram correspondem a fótons sendo emitidos ou absorvidos por elétrons. O diagrama (A) representa dois elétrons aproximando-se um do outro, trocando um fóton e então seguindo seu caminho. Esse é o modo mais simples pelo qual dois elétrons podem interagir eletromagneticamente, mas devemos considerar todas as histórias possíveis. Assim, vemos incluir diagramas como (B), no qual dois elétrons se aproximam – as duas linhas retas que se encontram – e são repelidos – as duas linhas que se afastam -, só que dessa vez os elétrons trocam dois fótons antes de serem repelidos. Esses diagramas ilustram apenas umas poucas possibilidades; de fato, há um número infinito de diagramas, que devem ser tratados matematicamente.

Diagramas de Feynman. Esses diagramas descrevem um processo no qual dois elétrons repelem um ao outro.


Os diagramas de Feynman não são apenas um modo elegante de se representar e categorizar as possibilidades de interação. Eles vêm com regras que permitem extrair das linhas e dos vértices em cada diagrama uma expressão matemática. A probabilidade, digamos, de que o elétron incidente, com um dado momento inicial, termine, uma vez repelido, com um momento final específico, pode ser obtida somando-se as contribuições de cada diagrama de Feynman. Isso pode ser trabalhoso, pois, como dissemos, há um número infinito deles. Além do mais, embora se atribua uma energia e um momento definidos aos elétrons incidentes e aos espalhados, as partículas nos laços fechados no interior dos diagramas podem ter qualquer energia e momento. Isso é importante porque, ao se formar a soma de Feynman, ela deve ser realizada não somente sobre todos os diagramas, ma também sobre todos os valores de energia e momento.

Os diagramas de Feynman forneceram aos físicos um enorme auxílio para visualizar e calcular as probabilidades dos processos descritos pela QED. Mas eles não curaram uma importante enfermidade que aflige a teoria: Quando se adicionam as contribuições de um número infinito de histórias distintas, obtém-se um resultado infinito (se os termos sucessivos numa soma infinita decrescerem rápido o suficiente isso não ocorre aqui). Em particular, quando se somam os diagramas de Feynman, a solução parece implicar que o elétron tenha uma carga ou massa infinitas, o que é um absurdo porque conseguimos medir um valor finito para a carga e massa do elétron. Para lidar com esses infinitos, criou-se o procedimento de renormalização.

Diagramas de Feynman. Richard Feynman dirigia uma famosa van com seus diagramas pintados. Essa representação artística foi feita para exibir os diagramas discutidos acima. Embora Feynman tenha morrido em 1988, a van ainda existe – num depósito perto do Caltech, no sul da Califórnia.


O processo de renormalização envolve subtrair quantidades definidas como infinitas e negativas de um modo que, com uma cuidadosa contabilidade matemática, a soma dos valores infinitos negativos e positivos que surgem na teoria praticamente se anulam, deixando um pequeno resto, os valores finitos observados de carga e massa. Essas manipulações dão a impressão de serem do tipo que faria você ser reprovado em uma prova de matemática na escola, e a renormalização é de fato, como parece, matematicamente dúbia. Uma consequência é que os valores obtidos por essa técnica para a carga e a massa do elétron podem ser qualquer número finito. Ela tem a vantagem de que os físicos podem escolher os infinitos negativos de modo a dar a resposta correta, mas a desvantagem é que a massa e carga do elétron não podem ser previstas através dessa teoria. Mas, uma vez fixada a carga e a massa do elétron dessa maneia, a QED pode ser empregada para fazer várias outras previsões muito precisas, todas concordando extremamente bem com as observações, e assim a renormalização é um dos ingredientes essenciais da QED. Um dos primeiros triunfos da QED foi a previsão correta do assim chamado deslocamento de Lamb, uma pequena alteração na energia de um dos níveis do átomo de hidrogênio, descoberto em 1947.

O êxito da renormalização na QED encorajou tentativas de se procurar teorias quânticas de campo para as outros três forças da natureza. Mas a divisão das forças em quatro classes provavelmente é artificial e conseqüente da nossa falta de compreensão. Os cientistas, portanto, têm buscado uma teoria de tudo, que unificaria as quatro forças em uma lei única que seja compatível com a teoria quântica. Seria o santo graal da física.

Uma indicação de que a unificação é a abordagem correta vem da teoria da força fraca. A teoria quântica de campos descrevendo a força em si não pode ser renormalizada; isto é, ela tem infinitos que não podem ser anulados pela subtração de um número finito de valores como massa e carga. Contudo, em 1967, Abdus Salam Steven Weinberg propuseram, independentemente, uma teoria na qual o eletromagnetismo era unificado com a força fraca, e perceberam que a unificação cura a praga dos infinitos. A força unificada é denominada força eletrofraca. Essa teoria pode ser renormalizada e prevê três novas partículas chamadas de W+, W- e Z0. A evidência do Z0 foi descoberta no CERN, em Genebra, em 1973. Salam e Weinberg foram agraciados com o Prêmio Nobel de física em 1979, embora as partículas Z e W não tivessem sido observadas diretamente até 1983.

Bárion e mésons. Acredita-se que bários e mésons são compostos de quarks unidos pela força forte. Quando tais partículas colidem, elas podem trocar quarks, mas os quarks individuais não podem ser observados.


A força forte em si pode ser renormalizada por uma teoria chamada cromodinâmica quântica, ou QCD (do inglês quantum chromodynamics). De acordo com a QCD, o próton, o nêutron e muitas outras partículas elementares da matéria são constituídas por quarks, que têm uma propriedade notável, que os físicos acabaram por chamar de “cor” (daí o termo “cromodinâmica”, embora as cores dos quarks sejam apenas rótulos úteis, sem nenhuma conexão com as cores visíveis). Os quarks possuem três “cores”: vermelha, verde e azul. Além disso, cada quark tem uma antipartícula associada, e as cores dessas partículas são denominadas antivermelha, antiverde e antiazul. A ideia é que somente combinações sem cor líquida possam existir como partículas livres. Há dois modos de conseguir tais combinações neutras de quarks: uma cor e uma anticor se anulam, assim um quark e um antiquark formam um par sem cor, uma partícula instável denominada méson; ou ainda, quando três cores (ou anticores) são misturadas, o resultado não possui cor. Três quarks, cada um de uma cor, formam as partículas estáveis chamadas bários, das quais os prótons e nêutrons são exemplos (e três antiquarks formam as antipartículas dos vários). Prótons e nêutrons são os bárions que constituem os núcleos dos átomos e são a base de toda matéria normal do universo.

A QCD tem uma propriedade denominada liberdade assintótica, à qual me referi, sem nomeá-la, no 3º artigo. A liberdade assintótica implica que as forças fortes entre quarks são pequenas quando eles estão próximos, mas crescem se eles se afastam, como se estivessem ligados por elásticos. Essa propriedade explica por que não vemos quarks isolados na natureza e não fomos capazes de produzi-los em laboratório. Ainda assim, mesmo não podendo observar quarks individualizados, aceitamos o modelo por ele explicar muito bem o comportamento de prótons, nêutrons e outras partículas materiais.

Após unificar as forças fraca e eletromagnética, os físicos, na década de 1970, procuraram um meio de incorporar a força forte nessa teoria. Há algumas das assim chamadas teorias da grande unificação, ou GUTs (do inglês Grand Unified Theory), que unificam as forças fortes com as forças fracas e eletromagnética, mas a maioria delas prevê que os prótons, a substância de que somos feitos, deverá decair, em média, em 10³² anos. Trata-se de um tempo muito distante, visto que o universo tem cerca de apenas 10¹0 anos. Mas em física quântica, quando dizemos que a vida média de uma partícula é de 10³² anos, isso não significa que a maioria das partículas vive aproximadamente 10³² anos, algumas um pouco mais, outras um pouco menos. Em vez disso, o que se quer dizer é que, a cada ano, a partícula tem uma chance em cada 10³² de decair. Assim, se observamos um tanque contendo 10³² prótons por alguns anos, deveríamos ver o decaimento de alguns prótons. Um tanque assim não é muito difícil de construir, pois 10³² prótons estão contidos em apenas mil toneladas de água. Os cientistas têm realizado esses experimentos. Porém, ao é uma tarefa fácil detectar os decaimentos e diferenciá-los de outros eventos causados por raios cósmicos que, continuamente incidem sobre nós do espaço. Para minimizar o ruído, os experimentos são conduzidos nas profundezas, em locais como a mina da Kamioka Mining and Smelting Company, localizada cerca de um quilômetro abaixo de uma montanha no Japão, fornecendo uma blindagem contra os raios cósmicos. A partir do resultado de observações em 2009, os pesquisadores concluíram que, se os prótons decaem, a vida média de um próton é maior do que cerca de 10³² anos, o que é uma má notícia para as teorias da grande unificação.

“Temo que desenhar um quadrado em torno não faz disso uma teoria unificada.”


Como as primeiras evidências observacionais também não deram suporte às GUTs, a maior parte dos físicos adotou uma teoria ad hoc chamada “modelo padrão”, que incluía a teoria unificada da força eletrofraca e a QCD como uma teoria da força forte. Mas, no modelo padrão, as forças eletrofraca e forte agem separadamente e não são de fato unificadas. O modelo padrão é muito bem-sucedido e concorda com todas as evidências observacionais disponíveis, mas é, em última instância, insatisfatório, porque, além de não unificar realmente as forças eletrofraca e forte, não inclui a gravidade.

Pode ser bastante difícil amalgamar a força forte com as forças eletromagnética e fraca, mas esses problemas não são nada em comparação com aquele de fundir a gravidade com essas forças, e mesmo com o de criar uma teoria quântica da gravidade por si só. A razão pela qual tem sido tão difícil criar uma teoria quântica da gravidade tem a ver com o princípio da incerteza de Heisenberg, discutido no 4º artigo. Não é óbvio, mas ocorre que, de acordo com esse princípio, o valor de um campo e de sua taxa de variação desempenha o mesmo papel que a posição e a velocidade de uma partícula. Isto é, quanto mais precisamente determinamos um, mais incerteza há na determinação do outro. Uma importante consequência é que não há espaço vazio. Isto porque o espaço vazio implicaria que o valor do campo e de sua taxa de variação seria exatamente zero (Se a taxa de variação do campo não fosse zero, o espaço não permaneceria vazio). Uma vez que o princípio da incerteza não permite que os valores do campo e de sua taxa de variação sejam exatos, o espaço jamais é vazio. Ele pode ter um estado de energia mínima, o chamado vácuo, mas esse estado é sujeito ao que se chama de agitação quântica, ou flutuações quânticas do vácuo – partículas e campos tremulando para dentro e para fora da existência.

Pode-se pensar as flutuações do vácuo como pares de partículas que aparecem juntas em algum momento, separam-se e então se aproximam e se aniquilam mutuamente. Nos diagramas de Feynman, elas correspondem a laços fechados. Tais partículas são denominadas partículas virtuais. Ao contrário das partículas reais, as partículas virtuais não podem ser observadas diretamente com um detector de partículas. Todavia, seus efeitos indiretos, como pequenas alterações na energia das órbitas dos elétrons, podem ser medidos e concordam com as previsões teóricas com um nível de precisão notável. O problema é que partículas virtuais têm energia, e, como há um número infinito de pares virtuais, eles teriam uma quantidade infinita de energia. Segundo a relatividade geral, isso implica que deveriam curvar o universo a um tamanho infinitamente pequeno, o que obviamente não acontece!

Essa praga dos infinitos é semelhante ao problema que afeta as teorias das forças forte, fraca e eletromagnética, exceto que, nesses casos, a renormalização remove os infinitos. Mas os laços fechados dos diagramas de Feynman para a gravidade produzem infinitos que não podem ser absorvidos pela renormalização porque, em relatividade geral, não há parâmetros renormalizáveis suficientes (tais como os valores de massa e da carga) para remover todos os infinitos quânticos da teoria. Portanto, somos deixados com uma teoria da gravitação que prevê que certas quantidades, tais como a curvatura do espaço-tempo, são infinitas, o que de modo algum é compatível com um universo habitável. Isso implica que o único modo de se obter uma teoria razoável seria se todos os infinitos se anulassem de algum modo, sem recorrer à renormalização.

Em 1976, encontrou-se uma possível solução para o problema. É a denominada supergravidade. O prefixo “super” foi acrescido não porque os físicos achavam que era “super” que essa teoria quântica da gravidade pudesse de fato funcionar. Na verdade, “super” refere-se a um tipo de simetria presente n teoria, a chamada supersimetria.

Em física, dize-se que um sistema tem uma simetria se suas propriedades não são afetadas por certas transformações, como rotação e reflexão num espelho. Por exemplo, se virarmos uma rosquinha para baixo, ela tem exatamente a mesma aparência (a menos que tenha cobertura de chocolate, e, nesse caso, é melhor simplesmente comê-la). Supersimetria é um tipo de simetria mais sutil, que não pode ser associada com uma transformação no espaço comum. Uma das implicações importantes da supersimeria é que partículas materiais e partículas de força, e, dessa forma, força e matéria, são na realidade apenas duas facetas de uma mesma coisa. Falando de modo mais prático, isso significa que cada partícula de matéria, como um quark, deve ter uma partícula de força associada a ela, e que cada partícula de força, como o fóton, deve ter uma partícula de matéria associada. Esse quadro tem potencial para resolver o problema dos infinitos, porque ocorre que os infinitos dos laços fechados das partículas de matéria são negativos – e assim, nada teoria, os infinitos resultantes das partículas de força e de suas partículas de matéria associadas tendem a se anular. Infelizmente, na supergravidade, os cálculos exigidos para verificar se há quaisquer infinitos que não foram anulados são tão longos e difíceis e tinham tanto potencial para erro que ninguém estava preparado para realizá-los. A maioria dos físicos, contudo, acreditava que a supergravidade fosse provavelmente a resposta certa ao problema de unificar a gravidade com as outras forças.

Você poderia pensar que a validade da supergravidade fosse uma coisa simples de ser checada – bastaria examinar as propriedades das partículas existentes e ver se elas emparelham. Mas nenhuma partícula associada foi observada. Os vários cálculos realizados pelos físicos indicam que as partículas associadas às partículas que observamos deveriam ter massa cerca de mil vezes superiores à do próton, ou ainda mais. São massas muito grandes para serem vistas em qualquer experimento até agora, mas há esperanças de que tais partículas possam ser criadas no Grande Colisor de Hádrons (LHC), em Genebra.

A ideia da supersimetria foi a chave para a criação da supergravidade, mas o conceito já havia surgido anos antes, com teóricos estudando uma teoria incipiente, a denominada teoria das cordas. Segundo a teoria das cordas, as partículas não são pontos mas padrões de vibração, que têm comprimento mas não altura e largura – como cordões infinitamente finos. As teorias das cordas também levam a infinitos, mas acredita-se que eles se anularão na versão adequada. Elas têm uma outra característica incomum: são consistentes somente se o espaço-tempo tiver dez dimensões em vez de quatro habituais. Dez dimensões pode soar excitante, mas causariam grandes problemas se você esquecer onde estacionou seu carro. Se elas estão presentes, por que não notamos essas dimensões extras? Segundo a teoria das cordas, elas estão enroladas em um espaço com um tamanho muito pequeno. Para representar essa situação, imagine um plano bidimensional. É chamado de bidimensional porque bastam dois números (por exemplo, coordenadas vertical e horizontal) para localizar qualquer ponto nesse plano. Outro espaço bidimensional é a superfície de um canudo. Para localizar um ponto nesse espaço, é preciso saber onde está o ponto ao longo do comprimento do canudo e também segundo sua dimensão circular. Mas, se o canudo é muito fino, pode-se obter uma representação aproximada muito boa da posição empregando somente a coordenada ao longo do comprimento do canudo e ignorando a dimensão circular. E se o canudo tivesse um diâmetro de um milionésimo de milionésimo de milionésimo de milionésimo de milionésimo de centímetro, não se perceberia a dimensão circular de modo algum. Esse é o quadro que os teóricos que defendem a teoria das cordas formam das dimensões extras – eles são extremamente curvadas, ou enroladas, numa escala tão pequena que não as vemos. Mas na teoria das cordas, as dimensões extras são enroladas em algo chamado espaço interno, em oposição ao espaço tridimensional da vida diária. Como veremos, esses estados internos não são apenas dimensões ocultas varridas para debaixo do tapete – eles têm importante significado físico.

Além da questão das dimensões extras, a teoria das cordas padece de um outro mal: parece haver ao menos cinco diferentes teorias e milhões de modos de se enrolar as dimensões extras. O que representa uma situação embaraçosa para aqueles que advogam a teoria das cordas como a única teoria de tudo. Mas, por volta de 1994, os cientistas começaram a descobrir dualidades – que diferentes teorias das cordas, e distintos modos de se enrolar as dimensões extras, eram simplesmente modos diferentes de se descrever o mesmo fenômeno em quatro dimensões. Além do mais, descobriu-s que a supergravidade também é relacionada às outras teorias desse modo. Atualmente, teóricos das cordas estão convencidos de que as cinco teorias das cordas e a supergravidade são apenas aproximações diversas de uma teoria mais fundamental, cada qual válida em situações distintas.

Essa teoria mais fundamental é denominada teoria-M, como mencionado antes. Ninguém parece saber o que representa o “M”, mas poderia ser “mestre”, “milagre” ou “mistério”. Parece que se trata dos três. Os pesquisadores ainda estão tentando decifrar a natureza da teoria-M, mas isso pode não ser possível. Pode ser que a expectativa do físico tradicional de uma teoria única seja inviável, e que não haja uma formulação única. Pode ser que, para descrever o universo, tenhamos que empregar diferentes teorias em diferentes situações. Cada teoria pode ter sua própria versão da realidade, mas, de acordo com o realismo dependente do modelo, isso é aceitável desde que os teórico concordem em suas previsões quando elas se superpuserem, ou seja, sempre que ambas possam ser aplicadas.


Canudos e linhas. Um canudo é bidimensional, mas, se seu diâmetro for pequeno o suficiente, ou, se for visto à distância, parecerá uma linha unidimensional.


Quer a teoria-M exista como uma formulação única, quer somente como uma rede, algumas de suas propriedades são bem-estabelecidas. Em primeiro lugar, a teoria-M tem onze dimensões de espaço-tempo, e não dez. Os teóricos das cordas já suspeitavam há tempos que a previsão de dez dimensões poderia precisar de ajustes, e trabalhos recentes demonstraram que de fato uma dimensão havia passado despercebida. Outro ponto é que a teoria-M contém não apenas cordas vibrantes, mas também partículas pontuais, membranas bidimensionais, bolhas tridimensionais e outros objetos mais difíceis de representar e que ocupam ainda mais dimensões de espaço, até nove delas. Tais objetos são a p-branas (onde p varia entre zero e nove).

E quanto ao enorme número de possibilidades de se enrolar as minúsculas dimensões? Na teoria-M, essas dimensões espaciais extras não podem ser enroladas de qualquer modo. A matemática da teoria restringe as maneiras pelas quais dimensões do espaço interno podem ser enroladas. A forma exata do espaço interno determina tanto os valores das constantes físicas, tais como a carga do elétron, quanto a natureza das interações entre partículas elementares. Em outras palavras, determina as leis aparentes da natureza. Dizemos leis “aparentes” porque nos referimos a leis que observamos em nosso universo – as leis das quatro forças e parâmetros, como a massa e a carga que caracterizam as partículas elementares. Mas as leis mais fundamentais são aquelas da teoria-M.

As leis da teoria-M, portanto, abrem a possibilidade de diferentes universos com diferentes leis aparentes, dependendo de como o espaço interno é enrolado. A teoria-M tem soluções compatíveis com muitos espaços internos, talvez tantos quanto 10500, o que significa que ela permite 10500 diferentes universos, cada qual com suas próprias leis. Para ter uma ideia do quanto é isso, imagine o seguinte: se algum ser tivesse começado a analisar as leis previstas para cada um desses universos gastando um milésimo de segundo com cada um e trabalhando desde o tempo do big bang, atualmente teria estudado apenas 10²0 universos. E isso sem contar as pausas para o café.

Séculos atrás, Newton mostrou que equações matemáticas podiam fornecer uma descrição surpreendentemente acurada do modo como os objetos interagiam, tanto na terra como nos céus. Os cientistas passaram a acreditar que o futuro do universo todo poderia ser desvendado se tivéssemos simplesmente o conhecimento adequado da teoria e suficiente poder de computação. Então surgiram a incerteza quântica, espaços curvos, quarks, cordas, e o resultado final da sua labuta foram 10500 universos, cada um com diferentes leis naturais, com somente um deles correspondendo ao universo tal como nós o conhecemos. A esperança original dos físicos de produzir uma teoria única, explicando as leis aparentes do nosso universo como a única consequência possível de umas poucas suposições simples, pode precisar ser abandonada. E aonde isso nos leva? Se a teoria-M permite 10500 conjuntos de leis aparentes, como acabamos nesse universo, com as leis que são aparentes para nós? E todos aqueles outros mundos possíveis?



1º Artigo: O Mistério do Ser
2º Artigo: O Domínio da Lei
3º Artigo: O Que é a Realidade?
4º Artigo: Histórias Alternativas




Referência: Readaptação de The Grand Design de Leonard Mlodinow e Stephen Hawking

2 comentários:

  1. Readaptação? Está é uma cópia do capítulo do livro... Deveria dar os devidos créditos.

    ResponderExcluir
  2. Gostei da clareza da exposição. E da valorização de uma teoria do tudo. Creio que gostariam de ler a teoria do tudo existente no endereço: www.unifoton.blogspot.com

    ResponderExcluir