quarta-feira, 25 de janeiro de 2012

Histórias Alternativas

Em 1999, uma equipe de físicos da Áustria disparou várias moléculas em forma de bola de futebol contra uma barreira. Essas moléculas, cada uma formada por sessenta átomos de carbono, são chamadas de buckminsterfulerenos ou fulerenos em homenagem ao arquiteto Buckminster Fuller, famoso por suas construções nesse formato. Os domos geodésicos de Fuller são provavelmente os maiores objetos em forma de bolas de futebol que existem. Os fulerenos são os menores. A barreira usada pelos cientistas como alvo tinha duas fendas através das quais os fulerenos poderiam passar. Por trás da parede, os físicos colocaram o equivalente de uma tela para detectar e contar os fulerenos.

Fulerenos. Os fulerenos são como microscópicas bolas de futebol feitas de átomos de carbono.

Se fôssemos montar um experimento análogo com bolas de futebol de verdade, precisaríamos de um jogador com uma mira meio ruim, mas que chutasse as bolas com uma velocidade constante à nossa escolha. Posicionaríamos esse jogador diante de uma parede com dois vãos. Do outro lado da parede estaria uma rede bem larga. A maior parte das bolas chutadas bateria na parede e voltaria, mas algumas atravessariam um dos vão e cairiam na rede. Se os vãos fossem apenas ligeiramente maiores do que as bolas, dois grupos altamente colimados emergiriam do outro lado. Se os vãos fossem um pouco mais largos, cada feixe se abriria um pouco, como mostra a figura abaixo.

Jogador de duas fendas. Um jogador de futebol chutando bolas contra fendas numa parede deveria produzir um padrão óbvio.

Note que, se fecharmos um dos vãos, o grupo correspondente de bolas não mais passará pela barreira, mas isso não comprometeria o outro grupo. Se reabrirmos o segundo vão, apenas aumentaremos o número de bolas que atingem um dado ponto do outro lado, pois teríamos todas as bolas que passaram pelo vão que permaneceu aberto, mais as bolas procedentes do segundo vão. Em outras palavras, o que observamos com ambos os vãos desimpedidos é a soma do que observamos individualmente em cada vão da parede aberto. Essa é a qual estamos acostumado no dia a dia, mas não o que os pesquisadores austríacos encontraram quando dispararam os fulerenos.

No experimento austríaco, ao abrir a segunda fenda, a quantidade de fulerenos a bater na rede realmente aumentou em alguns pontos, porém decresceu em outros, como mostra a figura abaixo. De fato, havia locais que não foram atingidos por nenhum fulereno quando ambas as fendas foram abertas, mas que haviam sido atingidos quando somente uma das fendas estava aberta. Tudo isto parece muito inusitado. Como pode a abertura de uma segunda fenda resultar em menos moléculas chegando em certos pontos?

Jogador de fulerenos. Quando bolas de futebol moleculares são disparadas contra fendas em um anteparo, o padrão resultante reflete leis quânticas incomuns.

Podemos conseguir uma pista para a resposta ao examinar os detalhes do experimento. Um grande número de bolas moleculares atinge o ponto médio entre os dois locais onde esperaríamos que elas chegassem se as bolas passassem por uma fenda ou pela outra. Um pouco mais afastadas da posição central, chegavam muito poucas moléculas, mas, ainda um pouco mais afastadas, havia novamente um aumento no número de moléculas. Este padrão não é a soma dos padrões formados quando cada fenda é aberta separadamente, mas pode-se reconhecer o padrão de interferência característico de ondas, como visto no 3º artigo. As áreas onde não chegam moléculas correspondem a regiões nas quais as ondas emitidas pelas duas fendas estão fora de fase e geram interferência destrutiva; as áreas onde chegam muitas moléculas correspondem a regiões onde as ondas chegam em fase, e portanto, à interferência construtiva.

Nos primeiros dois mil anos do pensamento científico, a experiência quotidiana e a intuição eram as bases das explicações teóricas. O desenvolvimento da tecnologia expandiu o domínio de fenômenos que podemos observar, e então encontramos comportamentos da natureza cada vez mais díspares em relação ao senso comum e à nossa intuição, como ficou evidente com o experimento dos fulerenos. Esse experimento é típico dos fenômenos que não podem ser abarcados pela ciência clássica, mas descritos pela chamada física quântica. De fato, Feynman escreveu que o experimento da dupla fenda, como acima descrito, “contém todo o mistério da mecânica quântica”.

Os princípios da física quântica foram elaborados nas primeiras décadas do século XX, após a teoria newtoniana mostrar-se inadequada para descrever a natureza nos níveis atômicos ou subatômicos. As teorias fundamentais da física descrevem as forças da natureza e como os objetos reagem a elas. Teorias clássicas, como a de Newton, são construídas dentro de um quadro derivado da experiência diária, no qual objetos materiais têm uma existência independente, podem ser localizados em posições definidas, seguem cursos definidos e assim por diante. A física quântica fornece um quadro para compreender como a natureza opera em escalas atômicas e subatômicas, mas, como veremos mais tarde, impõe um esquema conceitual inteiramente diferente, no qual um objeto não tem uma posição, trajetória e mesmo passado e futuro precisamente determinados. As teorias quânticas de forças como a gravidade e a força eletromagnética são construídas dentro deste corpo conceitual.

Mas poderiam teorias construídas dentro de um quadro tão alheio à experiência diária também explicar esses eventos da experiência comum, reproduzidos tão precisamente pelos modelos da física clássica? Sim, elas podem, pois nós e tudo o que nos cerca é composto de um número inimaginavelmente grande de átomos, em número maior do que o das estrelas do universo observável. E, embora os átomos obedeçam aos princípios da física quântica, pode-se mostrar que os grandes conjuntos que eles formam – bolas de futebol, nabos, aviões a jato e nós mesmos – conseguem, de fato, evitar a difração através de fendas. Assim, mesmo que os componentes dos objetos comuns obedeçam à física quântica, as leis de Newton constituem uma teoria efetiva que descreve de um modo muito acurado o comportamento dessas estruturas compostas que formam nosso mundo quotidiano.

Isso pode parecer estranho, mas há situações na ciência onde um grande conjunto parece comportar-se de um modo distinto daquele que seus componentes individuais. As respostas de um único neurônio dificilmente são iguais às do cérebro humano, assim como as propriedades de uma molécula de água não preveem o comportamento de um lago. No caso da física quântica, os físicos ainda estão tentando entender os detalhes de como as leis de Newton emergem do domínio quântico. O que sabemos é que os componentes de todos os objetos obedecem às leis da física quântica, e que as leis newtonianas são uma boa aproximação para descrever o comportamento dos objetos macroscópicos compostos por esses componentes quânticos.

As previsões da teoria newtoniana, portanto, casam-se bem com a visão da realidade que desenvolvemos a partir da experiência com o mundo à nossa volta. Mas átomos e moléculas individuais operam de um modo totalmente distinto da nossa experiência quotidiana. A física quântica é um novo modelo da realidade, que fornece uma imagem do universo na qual muitos conceitos fundamentais para nossa apreensão intuitiva da realidade não têm mais significado.

Em 1927, Clinton Davisson e Lester Germer, físicos experimentais da Bell Laboratories, realizaram o experimento da dupla fenda pela primeira vez, mas com elétrons – objetos muitos mais simples que buckminsterfulerenos – interagindo com um cristal de níquel. O fato de que partículas de matéria como elétrons comportam-se como ondas na água foi o tipo de experimento espantoso que inspirou a física quântica. Visto que esse comportamento não é observado em uma escala macroscópica, os cientistas por muito tempo se perguntaram quão grande e complexo pode ser um objeto e ainda exibir propriedades ondulatórias. Seria realmente sensacional se este efeito pudesse ser demonstrado em pessoas ou hipopótamos, mas, como dissemos, em geral quanto maior o objeto, menos aparentes e robustos são os efeitos quânticos. Assim, é improvável que os animais de um zoológico possam passar como ondas por entre as barras de suas jaulas. Apesar disso, os físicos experimentais têm observado o fenômeno ondulatório em partículas com tamanho cada vez maior. Os cientistas esperam, um dia, duplicar o experimento dos fulerenos com um vírus, que não só é muito maior, mas também é considerado por alguns como um ser vivo.

Somente são necessários uns poucos aspectos da física quântica para compreender os argumentos que empregaremos nos artigos a seguir. Um dos elementos-chave é a dualidade onda-partícula. Que partículas materiais comportam-se como ondas surpreendeu a todos. Que a luz se comporta como onda não surpreende mais ninguém. O comportamento ondulatório da luz parece natural e foi considerado um fato concreto por quase dois séculos. Se incidirmos um feixe de luz nas duas fendas do experimento anterior, duas ondas emergirão e se encontrarão na tela. Em alguns pontos, suas cristas ou vales coincidirão formarão áreas brilhantes; em outros, a crista de uma onda encontrará o vale de outra, anulando-se entre si e resultando em áreas escuras. O físico inglês Thomas Young realizou esse experimento no início do século XIX, convencendo as pessoas de que a luz é uma onda e não, como Newton acreditava, composta por partículas.

Experimento de Young. O padrão dos fulerenos era familiar dentro da teoria ondulatória da luz.

Embora se possa concluir que Newton estava errado ao dizer que a luz não é uma onda, ele estava correto quando dizia que a luz pode agir como se fosse composta por partículas, atualmente chamadas de fótons. Assim, como somos compostos por um grande número de átomos, a luz que vemos no dia a dia é composta por um número enorme de fótons – mesmo uma luz noturna de um watt emite bilhões de bilhões de fótons por segundo. Fótons individuais em geral não são evidentes, mas em laboratório podemos produzir um feixe de luz tão fraco que consiste de uma corrente de fótons separados, que podem ser detectados como indivíduos do mesmo modo que detectamos elétrons e fulerenos individuais. E podemos repetir o experimento de Young utilizando um feixe tão esparso que os fótons atingem a barreira um de cada vez, com alguns segundos entre cada chegada. Se fizermos isso, e somarmos todos os impactos registrados na tela do outro lado da barreira, perceberemos que juntos eles formam o mesmo padrão de interferência que surgiria se realizássemos o experimento de Davisson-Germer, disparando os elétrons (ou os fulerenos) um a um contra a tela. Para os físicos, esta é uma revelação espantosa: se partículas individuais interferem umas nas outras, então a natureza ondulatória da luz não é apenas uma propriedade de um feixe ou de uma grande coleção de fótons, mas das partículas individuais.

“Se isso está correto, então tudo o que pensávamos ser uma onda é na verdade uma partícula, e tudo o que pensávamos ser uma partícula é na verdade uma onda.”

Outro fundamento central da física quântica é o princípio da incerteza, formulada por Werner Heisenberg em 1926. O princípio da incerteza diz que há limites à nossa capacidade de medir simultaneamente certos dados, tais como a posição e a velocidade de uma partícula. De acordo com o princípio da incerteza, por exemplo, ao se multiplicar a incerteza na posição de uma partícula pela incerteza do seu momento (que é o produto da massa pela velocidade), o resultado nunca poderá ser menor do que uma certa quantidade fixa, chamada constante de Planck. Essa definição parece um trava-língua, mas sua essência pode ser expressa de um mondo simples: quanto mais precisamente se mede a velocidade, menos precisamente se mede a posição, e vice-versa. Por exemplo, se a incerteza da posição for reduzida pela metade, a incerteza da velocidade será dobrada. É importante notar que, comparada às unidades de medida do quotidiano (metros, segundos e quilogramas), a constante de Planck tem um valor extremamente pequeno: 6/10.000.000.000.000.000.000.000.000.000.000.000. Em consequência, se localizarmos muito bem um objeto macroscópico, como uma bola de futebol, com uma massa de um terço de um quilograma, dentro de um milímetro em qualquer direção, ainda assim podemos medir sua velocidade com uma precisão muito maior que um bilionésimo de um bilionésimo de um bilionésimo de quilômetro por hora. Isso porque, medida nessas unidades, a bola de futebol tem uma massa de um terço, e a incerteza na sua posição é de um milésimo. Nenhum desses números dá conta de todos os zeros na constante de Planck, e assim o seu valor diminuto recai na incerteza da velocidade. Mas, nas mesmas unidades, um elétron tem uma massa de cerca de 1/1.000.000.000.000.000.000.000.000.000.000, e assim a situação se torna inteiramente diferente. Se medirmos a posição de um elétron com uma precisão próxima ao diâmetro de um átomo, o princípio da incerteza diz que não podemos saber a velocidade do elétron mais acuradamente do que cerca de mais ou menos mil quilômetros por segundo, o que não é lá muito preciso.

De acordo com a física quântica, não importa quanta informação possamos obter ou quão poderosas sejam nossas capacidade computacionais, os resultados de processos físicos não podem ser previstos com certeza porque não podem ser determinados com certeza. Em vez disso, dado o estado inicial de um sistema, a natureza determina seu estado futuro através de um processo que é fundamentalmente incerto. Em outras palavras, a natureza não impõe o resultado de qualquer processo ou experimento, mesmo nas situações mais simples. Mias precisamente, ela permite um número de diferentes eventualidades, cada uma com uma certa probabilidade de ser realizada. Tudo se passa, parafraseando Einstein, como se Deus jogasse dados antes de decidir o resultado de todos os processos físicos. Essa ideia incomodava Einstein, e assim, mesmo tendo sido um dos pai da física quântica, mais tarde tornou-se um crítico dela.

A física quântica poderia abalar a ideia de que a natureza é governada por leis, mas não é esse o caso. Antes, ela nos leva a aceitar uma nova forma de determinismo: dado o estado de um sistema em um certo instante, as leis naturais determinam as probabilidades de vários futuros e passados possíveis em vez de determinar o futuro e o passado com certeza. Embora isso não seja muito agradável para alguns, os cientistas devem aceitar teorias que concordem com os experimentos e não com suas próprias noções pré-concebidas.

O que a ciência exige de uma teoria é que ela seja testável. Se a natureza probabilística das previsões da física quântica implica a impossibilidade de confirmar essas previsões, então as teorias não se qualificariam como válidas. Mas, apesar da natureza probabilística de suas previsões, ainda assim podemos testar as teorias quânticas. Por exemplo, podemos repetir um experimento muitas vezes e confirmar se a frequência dos vários resultados está em conformidade com as probabilidades previstas. Considere o experimento dos fulerenos. A física quântica diz que nada jamais é localizado em um ponto definido porque, se o fosse, a incerteza quanto ao momento seria infinita. De fato, segundo a física quântica, cada partícula tem alguma probabilidade de ser encontrada em qualquer local do universo. Assim, mesmo se as chances de ser achar um dado elétron dentro do aparato da fenda dupla fossem muito altas, há sempre alguma chance de que ele possa ser encontrado do outro lado da estrela Alfa do Centauro, ou na torta da lanchonete do seu trabalho. Consequentemente, se você chutar para longe um fulereno quântico, nem toda a capacidade do conhecimento do mundo permitirá a você dizer de antemão exatamente onde ele vai cair. Mas, se você repetir esse experimento muitas vezes, os dados obtidos refletirão a probabilidade de se encontrar a bola em várias localizações, e os experimentadores têm confirmado que os resultados de tais experimentos concordam com as previsões da teoria.

É importante perceber que probabilidades em física quântica não são como aquelas da física newtoniana e do quotidiano. Esse ponto pode ser compreendido comparando-se o padrão produzido por um feixe contínuo de fulerenos disparados contra uma tela ao padrão dos furos produzido por jogadores atirando dardos mirando no alvo. A não ser que os jogadores tenham tomado cerveja demais, as chances de um dardo cair próximo do centro são as maiores, diminuindo à medida que o jogador se afaste. Assim, como com os fulerenos, qualquer dardo pode cair em qualquer lugar, e com o tempo surgirá um padrão de furos que reflete as probabilidades subjacentes. Na vida diária, poderíamos descrever essa situação dizendo que um dardo tem uma certa probabilidade de cair em vários pontos, mas se dissermos isso, diferentemente dos fulerenos, é somente porque nosso conhecimento das condições do arremesso é incompleto. Poderíamos aperfeiçoar nossa descrição se soubéssemos exatamente o modo como o jogador lança o dardo, seu ângulo, seu giro, velocidade etc. Então, a princípio poderíamos prever onde o dardo cairia com uma precisão tão grande quanto desejássemos. Nosso uso de termos probabilísticos para descrever o produto de eventos do quotidiano reflete, portanto, não a natureza intrínseca do processo, mas apenas nossa ignorância sobre certos aspectos dele.

As probabilidades nas teorias quânticas são diferentes. Elas refletem uma aleatoriedade fundamental na natureza. O modelo quântico da natureza incorpora princípios que contradizem não só nossa experiência diária, mas também nossa concepção intuitiva da realidade. Aqueles que acham esses princípios bizarros ou difíceis de se acreditar estão em boa companhia, junto com grandes físicos como Einstein e mesmo Feynman, cuja descrição da teoria quântica apresentaremos em breve. De fato, Feynman escreveu certa vez: “Creio que posso dizer com segurança que ninguém entende a mecânica quântica.” Mas a física quântica concorda com a observação. Ela nunca falhou em um teste, e foi a mais testada do que qualquer outra teoria da ciência.

Na década de 1940, Richard Feynman teve um assombroso insight sobre a diferença entre o mundo quântico e o newtoniano. Feynman estava intrigado pela questão de como surgia o padrão de interferência no experimento de dupla fenda. Lembre-se que o padrão encontrado quando se lançam moléculas com ambas as fendas abertas não é a soma dos padrões encontrados quando se realiza o experimento duas vezes, uma com apenas uma fenda aberta, e outra com apenas a outra aberta. Em vez disso, quando ambas as fendas estão abertas, surge uma série de faixas claras e escuras, as últimas correspondendo a regiões onde não caíram partículas. Isso quer dizer que as partículas que teriam atingido a área escura, se a fenda número um, digamos, estivesse aberta, não o fizeram quando a fenda número dois também estava aberta. É como se, durante seus trajetos da fonte à tela, as partículas adquirissem informação sobre ambas as fendas. Esse tipo de comportamento é drasticamente distinto daquele que as coisas parecem ter no quotidiano, no qual uma bola teria uma trajetória ao passar por uma das fendas e não seria afetada pela situação da outra.

De acordo com a física newtoniana – e com o modo como o experimento funcionaria se o fizéssemos com bolas de futebol em vez de com moléculas -, cada partícula segue uma rota bem-definida de sua fonte à tela. Não há lugar nesse cenário para um desvio no qual a partícula visitaria a vizinhança de cada fenda ao longo do caminho. O modelo quântico, contudo, diz que a partícula não tem uma posição definida durante o tempo que se encontra entre o ponto inicial e o final. Feynman percebeu que isso não significa dizer que as partículas não têm trajetórias durante sua jornada entre a fonte e a tela. Antes, isso pode significar que as partículas percorrem todas as trajetórias possíveis conectando esses dois pontos. É isso, afirma Feynman, que torna a física quântica distinta da física newtoniana. A situação das duas fendas realmente importa porque, em vez de seguir uma única trajetória definida, as partículas percorrem todas as trajetórias, e o fazem simultaneamente! Isso soa como ficção científica, mas não é. Feynman formulou uma expressão matemática, a soma sobre as histórias de Feynman, que reflete essa ideia e reproduz todas as leis da física quântica. Na teoria de Feynman, a matemática e o quadro físico são diferentes da formulação original da física quântica, mas as previsões são as mesmas.

No experimento de dupla fenda, as ideias de Feynman implicam que as partículas percorrem trajetórias que passam por apenas uma fenda ou apenas pela outra; trajetórias que se enfiam pela primeira fenda, voltam pela segunda e passam de novo pela primeira; trajetórias que vão ao restaurante que serve um magnífico camarão ao Cury e depois dão a volta em Júpiter algumas vezes antes de voltar para casa; e mesmo trajetórias que cruzam o universo e voltam. É desse modo, na visão de Feynman, que a partícula adquire a informação sobre quais fendas estão abertas – se uma fenda está aberta, a partícula segue as trajetórias através dela. Quando ambas as fendas estão abertas, as trajetórias nas quais a partícula passa por uma fenda colidem com aquelas nas quais ela passa pela outra, causando a interferência. Isso pode parecer loucura, mas, para os propósitos da maior parte da física fundamental feita hoje – e para os propósitos desta temporada do blog - a formulação de Feynman revelou-se mais útil do que a original.

Trajetórias de partículas. A formulação de Feynman da teoria quântica fornece um quadro que explica por que partículas como fulerenos e elétrons formam padrões de interferência quando são lançadas através de fendas em um anteparo.

Como a visão de Feynman da realidade quântica é crucial para se compreender as teorias que apresentarei em breve, vale a pena nos determos um pouco para nos familiarizarmos com seu funcionamento. Imagine um processo simples no qual uma partícula move-se livremente partindo de uma posição A. No modelo newtoniano, essa partícula seguirá uma linha reta. Depois de um intervalo de tempo específico, encontraremos a partícula em uma posição precisa B. No modelo de Feynman uma partícula quântica percorre todas as trajetórias conectando A e B, coletando um número, denominado fase, para cada trajetória. Essa fase representa a localização no ciclo de uma onda, ou seja, se a onda está em uma crista, em um vale ou em um ponto intermediário. A receita matemática de Feynman para calcular essa fase mostrou que, quando se somam as ondas de todas as trajetórias, obtém-se a “amplitude de probabilidade” de que a partícula, partindo de A, chegue em B. O quadrado da amplitude de probabilidade dá então a probabilidade correta de que a partícula atinja B.

Somando trajetórias de Feynman. Os efeitos devidos a diferentes trajetórias de Feynman podem se intensificar ou se atenuar do mesmo modo como acontece com as ondas. As flechas amarelas representam as fases a serem somadas. As linhas azuis representam sua soma, uma linha do começo da primeira flecha à ponta da última. Na imagem de baixo, as flechas apontam em diferentes direções, e assim sua soma, a linha azul, é bem curta.

A fase que cada partícula individual contribui à soma de Feynman (e assim à probabilidade de ir de A para B) pode ser visualizada como uma flecha de comprimento fixo, mas que pode apontar para qualquer direção. Para se adicionar duas fases, posiciona-se a flecha representando uma fase no final daquela representando a outra; a nova flecha resultante representa a soma. Para se adicionar mais fases, basta repetir o processo. Note que, quando as fases se alinham, a flecha representando o total pode ser bastante longa. Mas se elas apontam em diferentes direções, tendem a se anular na soma, e a flecha resultante será curta. A ideia é ilustrada nas figuras acima.

Para completar a prescrição de Feynman para o cálculo da amplitude de probabilidade de que uma partícula, partindo da localização A, termine na localização B, adicionam-se as fases, ou flechas, associadas com todas as trajetórias conectando A e B. Há um número infinito de trajetórias, o que torna a matemática um tanto complicada, mas isso funciona. Algumas das trajetórias são ilustradas abaixo.

As trajetórias de A para B. A trajetória “clássica” entre dois pontos é uma linha reta. As fases das trajetórias próximas da trajetória clássica tendem a se intensificar, enquanto as fases das trajetórias distantes tendem a se anular.

A teoria de Feynman ilustra com especial clareza como um cenário de mundo newtoniano pode emergir da física quântica. Segundo a teoria de Feynman, as fases associadas a cada trajetória dependem da constante de Planck. Porque a constante de Planck é tão pequena, a teoria impõe que, quando se adiciona a contribuição de trajetórias próximas entre si, as fases normalmente exibem uma extrema variabilidade, e, como na figura acima, tendem a produzir zero como soma. Mas a teoria também mostra que há certas trajetórias para as quais as fases têm uma tendência se alinhar, e assim essas trajetórias são favorecidas; isto é, elas contribuem mais para o comportamento observado da partícula. Ocorre que, para grandes objetos, trajetórias muito semelhantes àquelas previstas por Newton têm fases similares e se acrescentam para dar, sem dúvidas, a maior contribuição à soma. Assim, o único destino com uma probabilidade efetivamente maior do que zero é o previsto pela teoria newtoniana, e esse destino tem uma probabilidade de aproximadamente um. Desta forma, grandes objetos movem-se exatamente como previsto pela teoria newtoniana.

Até agora discutimos as ideias de Feynman no contexto do experimento da dupla fenda, no qual partículas são lançadas contra uma parede com fendas e medimos a localização, numa tela atrás da parede, onde as partículas caíram. De um modo mais geral, em vez de apenas uma única partícula, a teoria de Feynman permite prever os resultados prováveis de um “sistema”, que poderia ser uma partícula, um conjunto de partículas ou mesmo todo o universo. Entre o estado inicial do sistema e a posterior mensuração de suas propriedades, estas evoluem de um certo modo, que os físicos chamam de história do sistema. No experimento de dupla fenda, por exemplo, a história da partícula é simplesmente sua trajetória. Do mesmo modo que, para esse experimento, a chance de se observar a partícula cair em um dado ponto depende de todas as trajetórias que poderiam levá-la até lá, Feynman demonstrou que, para um sistema geral, a probabilidade de qualquer observação é construída a partir de todas as histórias que poderiam ter levado àquela observação. Devido a isso, esse método é denominado de “soma sobre as histórias” ou de “histórias alternativas” da física quântica.

Agora que temos alguma familiaridade com a abordagem de Feynman à física quântica, podemos examinar outro princípio quântico central, que utilizaremos posteriormente – o princípio de que a observação de um sistema deve alterar o seu curso. Será que não podemos, como quando nosso orientador tem uma mancha de mostarda no queixo, olhar discretamente e não interferir? Negativo. Conforme a física quântica, não podemos “apenas” observar algo. Isto é, a física quântica reconhece que para fazer uma observação devemos interagir com o objeto que estamos observando. Por exemplo, para observar um objeto no sentido tradicional, devemos iluminá-lo com uma luz. Iluminar uma abóbora com uma luz terá pouco efeito sobre ela. Porém, iluminar uma diminuta partícula quântica com uma luz – isto é, disparar fótons contra ela -, por mais fraca que seja, tem efeitos apreciáveis, e os experimentos mostram que isso altera os resultados experimentais exatamente do como descrito pela física quântica.

Suponha que, como anteriormente, lançamos um feixe de partículas contra a barreira do experimento da dupla fenda e coletamos os dados do primeiro milhão de partículas que passar. Quando fizermos um gráfico do número de partículas atingindo vários pontos de detecção, os dados formarão o padrão de interferência exibido anteriormente, e quando somarmos as fases associadas com todas as trajetórias possíveis para uma partícula indo do ponto A ao seu ponto de detecção B, encontraremos que a probabilidade que calculamos de cair em vários pontos concorda com esses dados.

Agora, suponha que repitamos o experimento, desta vez iluminando as fendas de modo que conheçamos um ponto intermediário C, pelo qual a partícula passou. (C é a posição ou de uma fenda, ou da outra) Esta é a denominada informação “qual-trajetória”, porque ela nos diz se cada partícula foi de A para a fenda 1 e depois para B, ou de A para a fenda 2 e depois para B. Como agora sabemos através de qual fenda cada partícula passou, as trajetórias da nossa soma para essa partícula só incluem as trajetórias que atravessaram a fenda 1, ou só trajetórias que atravessaram a fenda 2. A soma não mais incluirá tanto as trajetórias que passam pela fenda 1 como as que passam pela fenda 2. Já que Feynman explicou o padrão de interferência dizendo que as trajetórias que passam por uma fenda interferem naquelas que passam por outra, se ligarmos uma luz para determinar por que fenda as partículas passam, assim eliminando a outra opção, faremos desaparecer o padrão de interferência. De fato, quando o experimento é realizado, ligar uma luz muda os resultados do padrão de interferência, mostrado anteriormente na imagem jogador de fulerenos, para um padrão semelhante ao da imagem do jogador de duas fendas! Ademais, podemos variar o experimento empregando uma luz muito fraca de modo que nem todas as partículas interajam com ela. Nesse caso, seremos capazes de obter a informação qual-trajetória apenas para um subconjunto das partículas. Se então separarmos os dados sobre as detecções de partículas de acordo com o sucesso ou o insucesso no alcance de informação qual-trajetória, encontraremos que os dados pertencentes ao subconjunto de partículas para as quais não temos tal informação formarão um padrão de interferência, e os dados do subconjunto de partículas com essa informação não exibirão interferência.

Essa ideia possui implicações importantes para o nosso conceito de “passado”. Na teoria newtoniana, o passado existe como uma série definida de eventos. Se você vir aquele vaso que você comprou na Itália ano passado estilhaçado no chão e seu bebê ao lado dele com ar de inocente, pode reconstruir os eventos que culminaram na tragédia: os dedinhos deixaram escorregar o vaso, que caiu no chão e se espatifou em milhares de pedaços. De fato, dispondo de dados completos sobre o presente, as leis de Newton permitem calcular um quadro completo do passado. Isso é consistente com nossa compreensão intuitiva de que o mundo tem um passado definido, seja ele doloroso ou feliz. Pode não haver ninguém observando, mas podemos afirmar que o passado existe com a mesma certeza que teríamos se tivéssemos tirado uma série de fotografias dele. Mas não se pode dizer que um fulereno tenha um passado definido da fonte à tela. Podemos captar exatamente a localização de um fulereno, observando-o, mas, entre nossas observações, ele percorre todas as trajetórias. A física quântica nos diz que não importa quão detalhada seja nossa observação do presente, o passado (não observado), assim como o futuro, é indefinido e existe somente como um espectro de possibilidades. O universo, de acordo com a física quântica, não tem nem um passado, nem uma história única.

O fato de que o passado não tem uma forma definida implica que observações que fizermos de um sistema no presente afetam o seu passado. Isto é assinalado de um modo bastante dramático por um tipo de experimento concebido pelo físico John Wheeler, chamado experimento de escolha retardada. Esquematicamente, um experimento de escolha retardada é semelhante ao experimento da dupla fenda que acabamos de descrever, no qual temos a opção de observar a trajetória que a partícula percorre, exceto que, no experimento de escolha retardada, adia-se a decisão de observar ou não a trajetória até imediatamente antes de a partícula atingir a tela de detecção.

Experimentos de escolha retardada resultam em dados idênticos aos obtidos quando se decide coletar (ou não) a informação qual-trajetória pela observação das próprias fendas. Mas nesse caso a trajetória percorrida por cada partícula – isto é, o seu passado – é determinada bem depois de ela ter passado pelas fendas e presumivelmente “decidir” se passaria apenas por uma fenda, o que não produziria interferência, ou por ambas, o que a produziria.

Wheeler chegou a considerar uma versão cósmica do experimento, na qual as partículas envolvidas são fótons emitidos por poderosos quasares a bilhões de anos-luz de distância de nós. Tal luz poderia ser dividida em dois feixes e depois focalizada na Terra por uma lente gravitacional produzida por uma galáxia no meio do caminho. Embora o experimento esteja além da atual tecnologia, se pudéssemos coletar um número suficiente de fótons dessa luz, eles deveriam formar um padrão de interferência. Ainda assim, se colocássemos um dispositivo para medir a informação qual-trajetória um pouco antes do ponto de detecção, o padrão desapareceria. Nesse caso, a escolha de qual trajetória percorrer foi tomada bilhões de anos atrás, antes de a Terra ou mesmo o Sol terem sido formados. Mas, mesmo assim, com nossa observação no laboratório, estaremos afetando esta escolha.

Neste artigo, ilustramos a física quântica empregando o experimento da dupla fenda. No próximo, aplicaremos a formulação da mecânica quântica de Feynman ao universo como um todo. Veremos que o universo, como uma partícula, não tem apenas uma única história, mas todas as histórias possíveis, cada qual com a sua probabilidade; e que nossas observações do seu estado presente afetam seu passado e determinam suas diferentes histórias, do mesmo modo que as observações das partículas no experimento de dupla fenda afetam o passado dessas partículas. Essa análise mostrará como as leis naturais do nosso universo surgiram do big bang. Mas, antes de examinar como emergem essas leis, falarei no próximo artigo um pouco sobre o que elas são e sobre alguns dos mistérios que encerram.


1º Artigo: O Mistério do Ser
2º Artigo: O Domínio da Lei
3º Artigo: O Que é a Realidade?




Referência: Readaptação de The Grand Design de Leonard Mlodinow e Stephen Hawking

quinta-feira, 19 de janeiro de 2012

O Que é a Realidade?

Alguns anos atrás, a câmara municipal de Monza, na Itália, proibiu os donos de animais de estimação de manter peixinhos dourados em globos de vidro. O proponente da medida justificou-a em parte argumentando que seria cruel manter um peixe dentro de um aquário com paredes curvas porque, ao olhar para fora, o animal teria uma visão distorcida da realidade. Mas como sabemos que nós temos a imagem verdadeira da realidade, sem distorções? Não poderíamos viver em um vasto globo de vidro e ter uma visão inteiramente deformada por uma imensa lente? A visão de mundo do peixinho dourado é diferente da nossa, mas como podemos ter certeza de que ela é menos real?

A visão do peixinho dourado não é a mesma que a nossa, mas ele poderia formular leis científicas que governassem o movimento dos objetos que observa fora do seu aquário. Por exemplo, devido à distorção, um objeto movendo-se livremente, que vemos deslocara-se em linha reta, seria observado pelo peixe descrevendo uma trajetória curva. Apesar disso, o peixe poderia formular, a partir do seu referencial distorcido, leis científicas que sempre seriam válidas e que lhe permitiriam fazer previsões sobre o movimento futuro de objetos fora do aquário. Suas leis seriam mais complicadas do que aqueles em nosso referencial, mas simplicidade é uma questão subjetiva. Se um eixinho dourado formulasse tal teoria, seríamos obrigados a admitir que a visão de mundo de um peixinho dourado é uma imagem válida da realidade.

Um exemplo famoso de diferentes quadros da realidade é o modelo introduzido por Ptolomeu (c.85-c.165) por volta de 150 d.C. para descrever o movimento dos corpos celestes. Ptolomeu publicou seu trabalho em um tratado d treze livros comumente conhecido por seu título em árabe, Almagesto. O Almagesto começa explicando as razões para se acreditar que a Terra é esférica, imóvel, posicionada no centro do universo, e de tamanho desprezível quando comparada às distâncias dos céus. Apesar do modelo heliocêntrico de Aristarco, tais crenças eram sustentadas pela maioria dos gregos cultos ao menos desde a época de Aristóteles, que propunha razões místicas para que a Terra ocupasse o centro do universo. No modelo de Ptolomeu, a Terra permanecia no centro e os planetas e estrelas moviam-se ao seu redor em órbitas complicadas envolvendo epiciclos, como rodas dentro de rodas.

O universo Ptolomaico. Na visão de Ptolomeu, vivemos no centro do universo.

Esse modelo parece natural porque não sentimos a terra se mover debaixo de nossos pés (exceto durante terremotos ou momentos de paixão). A erudição européia posterior baseava-se nas fontes gregas transmitidas, e assim as idéias de Aristóteles e Ptolomeu tornaram-se a base de boa parte do pensamento ocidental. O modelo ptolomaico do cosmos foi adotado pela Igreja Católica, que fez dele sua doutrina oficial por quase 1.400 anos. Foi somente em 1543 que um modelo alternativo foi apresentado por Copérnico em seu livro De revolutionibus orbium coelestium (“Da revolução das esferas celestes”), publicado somente no ano de sua morte (embora ele tenha trabalhado nesta teoria por várias décadas).

Copérnico, do mesmo modo que Aristarco dezessete séculos antes, descrevia um mundo no qual o Sol encontrava-se em repouso no centro e os planetas revolviam ao seu redor em órbitas circulares. Embora a idéia não fosse nova, seu resgate enfrentou uma resistência exaltada. Afirmou-se que o modelo copernicano contradizia a Bíblia, interpretada como se afirmasse que os planetas moviam-se ao redor da Terra, muito embora jamais faça essa asserção explicitamente. De fato, na época em que ela foi escrita, acreditava-se que a Terra era plana. O modelo copernicano resultou em um furioso debate em torno da hipótese de a Terra encontrar-se em repouso, culminando, em 1633, no julgamento por heresia de Galileu, por advogar a favor desse modelo e por acreditar “que se pode sustentar e defender como provável uma opinião que foi declarada e definida como contrária às Sagradas Escrituras”. Ele foi considerado culpado, confinado em prisão domiciliar pelo resto de sua vida, e forçado a se retratar. Conta-se que ele murmurou entre os dentes: “Eppur si muove” (“Mas ela se move”). Em 1992, a Igreja Católica Romana finalmente reconheceu seu erro ao ter condenado Galileu.

Então, qual deles é real, o sistema ptolomaico ou o copernicano? Embora muitas vezes se diga que Copérnico provou que Ptolomeu estava errado, isso não é verdade. Como no caso dos dois pontos de vista, o nosso e o do peixinho dourado, ambos os cenários podem ser usados como um modelo do universo, pois nossas observações podem ser explicadas tanto supondo que a Terra esteja em repouso quanto o Sol. Apesar do seu papel em debates filosóficos sobre a natureza do universo, a vantagem real do sistema copernicano é que as equações de movimento são muito mais simples com um referencial no qual o Sol esteja em repouso.

Um tipo distinto de realidade alternativa aparece no filme de ficção científica Matrix, no qual os humanos vivem sem saber, dentro de uma realidade virtual simulada criada por computadores inteligentes, que os mantêm calmos e contentes enquanto sugam sua energia bioelétrica (seja lá o que isso signifique). Talvez esse quadro não seja absurdo, porque tem muita gente que prefere passar o tempo na realidade simulada de jogos como o Second Life. Como saber se não passamos de personagens de uma novela criada por um computador? Se vivêssemos em um mundo imaginário sintético, os eventos não teriam necessariamente uma lógica ou consistência, ou obedeceriam a quaisquer leis. Os alienígenas no controle poderiam achar mais interessante ou divertido ver nossas reações, por exemplo, se a lua cheia fosse partida ao meio, ou se todo mundo seguindo dieta desenvolver um desejo incontrolável por torta de banana. Mas, se os alienígenas impusessem leis consistentes, não teríamos como saber se há outra realidade por detrás da simulada. Seria fácil chamar o mundo no qual vivem os alienígenas de “real” e o mundo sintético de “falso”. Mas se – como nós – os seres no mundo simulado não pudessem observar seu universo pelo lado de fora, não haveria razão para duvidarem de seu próprio quadro da realidade. Essa é uma versão moderna da idéia de que somos fragmentos do sonho de outro alguém.

Esses exemplos conduzem-nos a uma conclusão importante neste livro: Não há conceito da realidade independente de um quadro ou de uma teoria. Em vez disso, adotamos uma abordagem que denominaremos realismo dependente do modelo: a idéia de que uma teoria física ou uma imagem de mundo é um modelo (geralmente de natureza matemática) e um conjunto de regras que conectam elementos do modelo às observações. Isso fornece um quadro com o qual interpretar a ciência moderna.

Os filósofos desde Platão têm discutido sobre a natureza da realidade. A ciência clássica baseia-se no pressuposto de que há um mundo real exterior, cujas propriedades são definidas e independentes do observador que as percebe. Segundo a ciência clássica, certos objetos existem e têm propriedades físicas, tais como velocidade e massa, com valores bem-definidos. Dentro dessa visão, nossas teorias são tentativas de descrever esses objetos e suas propriedades, e nossas medidas e percepções correspondem a elas. Tanto o observador como o observado são partes de um mundo que tem existência objetiva, e qualquer distinção entre eles não possui importância significativa. Em outras palavras, se vemos um bando de zebras brigando por uma vaga no estacionamento, é porque há realmente um bando de zebras brigando por uma vaga no estacionamento. Todos os outros observadores medirão as mesmas propriedades, e o bando terá aquelas propriedades quer alguém as observe ou não. Em filosofia, essa crença é denominada realismo.


Embora o realismo possa ser um ponto de vista tentador, como veremos mais tarde, o que conhecemos sobre física moderna torna-o dificilmente defensável. Por exemplo, de acordo com os princípios da física quântica, que é uma descrição precisa da natureza, uma partícula não tem nem uma posição, nem uma velocidade definida, a não ser e até que essas quantidades sejam medidas por um observador. Portanto, não é correto dizer que uma medida fornece um certo resultado porque a quantidade mensurada tinha aquele valor no momento da medida. De fato, em alguns casos, objetos individuais nem sequer têm uma existência independente, existindo apenas como parte de um conjunto de muitos objetos. E, se uma teoria denominada princípio holográfico estiver correta, nós e nosso mundo quadrimensional somos sombras na fronteira de um espaço-tempo maior, de cinco dimensões.

Os realistas mais rígidos frequentemente argumentam que a prova de que as teorias científicas representam a realidade está no seu êxito. Mas diferentes teorias podem descrever com sucesso os mesmos fenômenos, embora dentro quadros conceituais díspares. De fato, muitas teorias científicas que se mostraram bem-sucedidas foram posteriormente substituídas por outras, igualmente exitosas, mas baseadas em conceitos da realidade inteiramente novos.

Tradicionalmente, aqueles que não aceitavam o realismo foram chamados de antirrealistas. Os antirrealistas propõem uma distinção entre conhecimento empírico e conhecimento teórico. Em geral, argumentam que a observação e o experimento são importantes, mas que as teorias não são mais do que instrumentos úteis que não incorporam qualquer verdade profunda subjacente ao fenômeno observado. Alguns antirrealistas propuseram mesmo restringir a ciência somente a coisas que podiam ser observadas. Por esse motivo, no século XIX, muitos cientistas rejeitaram a idéia de átomos, com base no fato de que jamais poderiam ser vistos. George Berkeley (1685-1733) chegou ao ponto de afirmar que não existia nada senão a mente e suas idéias. Reza a lenda que, quando um amigo assinalou ao autor e lexicógrafo Samuel Johnson (1709-1784) que a proposição de Berkeley não poderia ser refuta, a resposta de Johnson foi dirigir-se a uma grande pedra, chutá-la e proclamar: “Eu acabei de refutá-la.” É claro que a dor que Johnson sentiu em seu pé também foi produzida em sua mente, e desse modo não conseguiu refutar com sucesso as idéias de Berkeley. Mas esse ato ilustrou o ponto de vista do filósofo David Hume (1711-1776), que assinalou que, mesmo que não haja bases racionais para acreditar em uma realidade objetiva, também não temos outra escolha senão agir como se ela existisse.

“Vocês dois têm algo em comum. O dr. Davis descobriu uma partícula que ninguém vê, e o prof. Hidge, uma galáxia que ninguém enxerga.”

O realismo dependente do modelo faz um curto-circuito entre esse argumento e a discussão entre as escolas de pensamento realista e antirrealista. Segundo o realismo dependente do modelo, é inútil indagar se um modelo é real, apenas se ele concorda com as observações. Se há dois modelos, ambos de acordo com as observações, como o do peixinho dourado e o nosso, então não se pode dizer que um seja mais real que o outro. Pode-se utilizar o modelo que resultar mais conveniente ns situação considerada. Por exemplo, dentro do aquário, o modelo do peixinho dourado pode ser útil, mas se estivermos situados do lado de fora, seria muito estranho descrever eventos em uma galáxia distante no referencial de um aquário na Terra, em especial porque o aquário estaria em movimento acompanhando a Terra na sua translação ao redor do Sol e na rotação em torno do seu eixo.

Fazemos modelos não só em ciência mas também na vida quotidiana. O realismo dependente do modelo aplica-se tanto ao conhecimento científico quanto aos modelos conscientes e subconscientes que criamos para interpretar e compreender o mundo do dia a dia. Não há como remover o observador – nós – da nossa percepção do mundo, que é criada pelo nosso processamento sensorial e pelo modo como pensamos e raciocinamos. Nossa percepção – e, portanto, as observações nas quais se baseiam nossas teorias – não é direta, mas antes moldada por uma espécie de lente, a estrutura interpretativa do cérebro humano.

O realismo dependente do modelo corresponde ao modo como percebemos os objetos. Na visão, o cérebro recebe uma série de sinais através do nervo ótico. Tais sinais não constituem o tipo de imagem que você aceitaria na sua tevê. Há um ponto cego onde o nervo ótico se junta à retina, e a única parte do nosso campo de visão com um bom foco é um estreito grau visual com cerca de um grau de ângulo visual ao redor do centro da retina, uma área do tamanho do nosso polegar quando visto à distância de um braço estendido. Assim, os dados brutos enviados ao cérebro são como uma imagem em baixa resolução e com um buraco no meio. Felizmente, o cérebro humano processa estes dados, combinando as informações que entra por ambos os olhos, preenchendo as lacunas e interpolando, sob a suposição de que as propriedades visuais de localizações vizinhas são similares. Ele vai mais além: lê um arranjo bidimensional de dados da retina e constrói a impressão de um espaço tridimensional. Em outras palavras, o cérebro cria um quadro ou modelo mental.

O cérebro tem uma capacidade tão grande de criar modelos que, se as pessoas usarem óculos que invertam as imagens, seus cérebros, após algum tempo, alterarão o modelo de modo que elas possam voltar a ver as coisas de cabeça para cima. Se os óculos forem removidos, elas passarão a ver o mundo de cabeça para baixo, mas logo se adaptarão novamente. Assim, quando dizemos “Eu vejo uma cadeira”, estamos usando a luz refletida pela cadeira para construir uma imagem ou modelo mental da cadeira. Se o modelo for virado de cabeça para baixo, com sorte o cérebro o corrigirá antes que a pessoa se sente nela.

Outro problema que o realismo dependente do modelo resolve, ou ao menos evita, é o significado da existência. Como posso saber se uma mesa ainda existe se saio da sala e não a vejo mais? O que significa dizer que coisas que não vemos, como elétrons ou quarks – partículas que constituem o próton e o nêutron – existem? Podíamos dispor de um modelo no qual a mesa desaparece quando saio da sala, reaparecendo na mesma posição quando volto. Mas este modelo seria estranho. E se algo acontecesse quando eu saísse da sala, como o teto desabar? Como, segundo o modelo mesa-que-desaparece-quando-saio-da-sala, eu poderia explicar o fato de que, na próxima vez que entrasse na sala, a mesa reapareceria quebrado debaixo dos escombros do teto? O modelo no qual a mesa permanece no mesmo lugar é muito mais simples e vai de encontro às observações. Isso é tudo que podemos exigir dele.

No caso de partículas subatômicas que não podemos ver, os elétrons são um modelo útil para explicar observações tais como traços numa câmara de nuvem ou os pontos de luz numa tela de tevê, assim como outros fenômenos. Conta-se que o elétron foi descoberto em 1897 pelo físico britânico J.J. Thomson no Laboratório Cavendish, da Universidade de Cambridge. Ele fazia experimentos com correntes elétricas dentro de tubos de vidro vazios, um fenômeno conhecido como raios catódicos. Seus experimentos levaram-no à ousada conclusão de que os misteriosos raios eram compostos por minúsculos “corpúsculos” que seriam os constituintes materiais dos átomos, que então eram considerados as unidades fundamentais, indivisíveis, da matéria. Thomson não “viu” um elétron, e tampouco suas especulações foram demonstradas diretamente e sem ambigüidade por seus experimentos. Mas esse modelo acabou sendo crucial em aplicações que vão da ciência fundamental à engenharia, e atualmente todos os físicos acreditam na existência dos elétrons, embora não possa vê-los.

Raios catódicos. Não podemos ver os elétrons individualmente, mas podemos ver os efeitos que eles produzem.

Os quarks, que também não vemos, são um modelo para explicar as propriedades dos prótons e nêutrons dentro do núcleo atômico. Embora se diga que prótons e nêutrons são constituídos por quarks, nunca veremos um individualmente porque a força de ligação entre os quarks aumenta com a separação, e, portanto, quarks isolados não podem existir na natureza. Em vez disso, eles sempre aparecem em grupo de três, como nos prótons e nêutrons, ou em pares de quark e antiquark (por exemplo, no méson pi), e se comportam como se estivessem unidos por elásticos.

Dizer que quarks realmente existem ainda que não se possa isolá-los foi uma questão que gerou grande controvérsia no período seguinte à proposição do modelo dos quarks. A idéia de que certas partículas eram constituídas por diferentes combinações de partículas subsubnucleares forneceu o princípio organizador para uma explicação simples e atraente de suas propriedades. Mas, embora os físicos estejam acostumados a aceitar partículas cuja existência é inferida apenas de uns mínimos desvios estatísticos de dados originários do espalhamento de outras partículas, a idéia de uma partícula a princípio inobservável foi demais para vários deles. À medida que os anos foram passando, contudo, o modelo do quark levou a previsões cada vez mais acuradas, e a oposição cedeu. Certamente é possível que seres de outros planetas, com dezessete braços, olhos de infravermelho e o hábito de derramarem creme azedo em suas orelhas, fizessem as mesmas observações experimentais que nós, mas as descrevessem sem quarks. Todavia, conforme o realismo dependente do modelo, os quarks existem em um modelo que concorda com nossas previsões de como as partículas subnucleares se comportam.


Quaks. O conceito do quark é um elemento vital de nossas teorias da física fundamental, mesmo que quarks individuais não possam ser observados.


O realismo dependente do modelo fornece um arcabouço para discutir questões como: se o mundo foi criado um tempo finito atrás, o que acontecia antes disso? Um dos primeiros filósofos cristãos, Santo Agostinho (354-430) dizia que a resposta não era que Deus estava preparando o inferno para aqueles que faziam tais perguntas, mas que o tempo era uma característica do mundo que Deus criou e que esse tempo não existia antes da criação, que ele acreditava não ter acontecido há muito tempo. Esse é um modelo possível, preferido por aqueles que sustentam que o relato dado no Gênesis é literalmente verdadeiro, embora o mundo contenha fósseis e outras evidências que o tornam muito mais velho. (Será que foram plantadas para nos enganar?) Há um outro modelo, no qual o tempo retrocede até o big bang, 13,7 bilhões de anos atrás. O modelo que melhor explica nossas atuais observações, incluindo as evidências geológicas e históricas, é a melhor representação que temos do passado.Como o segundo modelo pode explicar os registros fósseis e radioativos e o fato de que recebemos luz de galáxias a milhões de anos-luz de nós, tal modelo – a teoria do big bang – é mais útil do que o primeiro. Mesmo assim, não se pode dizer que um dos dois modelos seja mais real do que o outro.

Alguns cientistas defendem um modelo no qual o tempo remonta para antes do big bang. Ainda não está claro se um modelo assim explicaria melhor as observações atuais, porque as leis da evolução do universo podem sofrer uma ruptura no big bang. Se ocorrer esta quebra, não teria sentido criar um modelo englobando o tempo antes do big bang, porque o que existiu antes não teria conseqüências observáveis para o presente, e assim podemos continuar a adotar a idéia de que o big bang foi a criação do mundo.

Um modelo é um bom modelo, se:

1.For elegante
2. Contiver poucos elementos arbitrários ou ajustáveis
3. Concordar com e explicar todas as observações existentes
4. Fizer previsões detalhadas sobre observações futuras que podem descartar ou falsificar o modelo se não se realizarem.

Por exemplo, a teoria de Aristóteles de que o mundo era constituído de quatro elementos – terra, ar, fogo e água – era elegante e não continha elementos ajustáveis. Mas, em muitos casos, não fazia previsões definidas, e, quando as fazia, estas nem sempre estavam em acordo com as observações. Uma dessas previsões é que objetos mais pesados caiam mais rapidamente porque o seu propósito é cair. Ninguém parece ter tido a idéia de testar essa teoria até Galileu. Conta-se que ele fez o teste deixando cair objetos da Torre Inclinada de Pisa. Provavelmente essa história é apócrifa, mas sabemos que deixava rolar diferentes pesos em um plano inclinado e observou que todos eles adquiriam velocidade na mesma taxa, contrariamente à previsão de Aristóteles.

Os critérios acima para um bom modelo são obviamente subjetivos. Elegância, por exemplo, não é algo facilmente mensurável, mas goza da alta estima entre cientistas porque as leis naturais deveriam condensar economicamente uma variedade de casos particulares numa única formula simples. Elegância refere-se à forma de uma teoria, mas é intimamente relacionada à ausência de elementos ajustáveis, visto que uma teoria entupida com fatores ajustados ad hoc (“fudge factors”) não é muito elegante. Parafraseando Einstein, uma teoria deve ser a mais simples possível, mas não mais simples do que isso. Ptolomeu adicionava epiciclos a órbitas circulares para que seu modelo pudesse descrever precisamente o movimento dos corpos celestes. O modelo poderia tornar-se cada vez mais preciso adicionando-se epiciclos a epiciclos, mesmo epiciclos a estes últimos. Embora a maior complexidade possa torná-lo mais preciso, um modelo que ganhas novos elementos apenas para se ajusta a um conjunto de exigências é insatisfatório, mais semelhante a um catálogo de dados do que a uma teoria capaz de encerrar um princípio fundamental.

Veremos no 5º artigo que muitos consideram o “modelo padrão”, que descreve as interações das partículas elementares da natureza, como deselegante. Esse modelo é muito mais bem-sucedido do que os epiciclos de Ptolomeu. Ele previu a existência de várias novas partículas antes de terem sido observadas, e descreveu por décadas os resultados de numerosos experimentos com grande precisão. Mas ele contém dúzias de parâmetros ajustáveis, cujos valores devem ser fixados de acordo com as observações, e não determinados pela própria teoria.

Em relação ao quarto critério, os cientistas sempre ficam impressionados quando novas e extraordinárias previsões revelam-se corretas. Por outro lado, quando a teoria entra em desacordo com alguma observação, uma reação comum é dizer que o experimento estava errado. Se se percebe que não houve erros, muitas vezes as pessoas não abandonam o modelo, mas tentam mantê-lo com algumas modificações. Embora os físicos sejam muito tenazes em suas tentativas de salvar as teorias que eles admiram, a tendência a modificar uma teoria debilita-se até o ponto em que as alterações tornem-se artificiais e incômodas, e portanto “deselegantes”.

Refração. O modelo newtoniano da luz pode explicar por que um feixe de luz se dobra quando passa de um meio para outro, mas não consegue explicar um outro fenômeno, que agora chamamos dos anéis de Newton.


Se as modificações necessárias para acomodar as novas observações tornam-se muito barrocas, isso inda que é hora de um novo modelo. Um exemplo de modelo antigo que desmoronou sob o peso de novas observações foi a idéia de um universo estático. Na década de 1920, a maior parte dos físicos acreditava que o universo era estático, ou com tamanho constante. Então, em 1929, Edwin Hubble publicou suas observações mostrando que o universo estava em expansão. Mas Hubble não observou diretamente a expansão do universo. Ele observou a luz emitida por galáxias; essa luz traz uma assinatura característica, ou espectro, baseado na composição química da galáxia e que se altera de um modo conhecido se a galáxia se move em relação a nós. Assim, analisando o espectro de galáxias distantes, Hubble determinou suas velocidades. Ele esperava encontrar tantas galáxias afastando-se de nós quanto se aproximando. Em vez disso, descobriu que quase todas as galáxias afastavam-se de nós. E mais, as suas velocidades aumentavam com a distância. Hubble concluiu que o universo se expandia. Outros, todavia, tentaram salvar o antigo modelo e procuraram explicar suas observações dentro do contexto do universo estático. Por exemplo, um físico do Instituto de Tecnologia da Califórnia (Caltech) chamado Fritz Zwicky sugeriu que, por alguma razão desconhecida, a luz poderia perder gradualmente energia à medida que percorresse grandes distâncias. Tal redução na energia corresponderia a uma mudança no espectro da luz que imitaria o efeito das velocidades de afastamento registrado por Hubble. Décadas após essas descobertas, vários cientistas continuaram apegados à teoria do estado estacionário. Mas o modelo mais natural foi o de Hubble, o de um universo em expansão, que veio a ser o modelo aceito.

Em nossa busca pelas leis que governam o universo, formulamos diversas teorias ou modelos, tais como a teoria dos quatro elementos, o modelo Ptolomaico, a teoria do flogístico, a teoria do big bang e assim por diante. Com cada teoria ou modelo, nossas concepções da realidade e dos constituintes fundamentais do universo mudaram. Por exemplo, consideremos a teoria da luz. Newton acreditava que a luz era constituída por diminutas partículas ou corpúsculos. Essa teoria explicava por que a luz viaja em linha reta, e Newton também a usou para explicar por que um feixe de luz é dobrado ou refratado quando passa de um meio para outro, tal como do ar para o vidro ou do ar para a água.

A teoria corpuscular, contudo, não explica um outro fenômeno que o próprio Newton observou, e que agora é conhecido como anéis de Newton. Coloquemos uma lente sobre uma placa refletora plana e iluminemos essa lente com uma luz de uma única cor, tal como uma luz de sódio. Olhando de cima, veremos uma série de anéis claros e escuros centrados no ponto onde a lente toca a superfície. A teoria de partículas da luz não dá conta desse fenômeno, mas ele pode ser explicado pela teoria ondulatória.

De acordo com essa teoria, os anéis claros e escuros podem ser explicados pelo fenômeno de interferência. Uma onda, como, por exemplo, uma onde de água, consiste de uma série de cristas e vales. Quando as ondas se cruzam, se as cristas e vales de uma e da outra coincidem, elas são reforçadas, aumentando a amplitude da onda. Isso é a interferência construtiva. Nesse caso, as ondas estão “em fase”. O extremo oposto é quando as ondas se encontram, e as cristas de uma coincidem com os vales da outra e vice-versa. Em conseqüência anulam-se mutuamente e diz-se que estão “fora de fase”. Essa situação denomina-se interferência destrutiva.

Nos anéis de Newton, os anéis brilhantes estão situados a distâncias do centro onde a separação entre a lente e a placa refletora é tal que a onda refletida pela lente difere da onda refletida pela placa por um número inteiro (1, 2, 3...) de comprimentos de onda, criando uma interferência construtiva. (Um comprimento de onda é a distância entre uma crista ou um vale de uma onda e a próxima.) Os anéis escuros, por outro lado, estão localizados a distâncias do centro, onde a separação entre as duas ondas refletidas corresponde a um número semi-inteiro (0,5, 1,5, 2,5...) de comprimentos de onda, causando uma interferência destrutiva – a onda refletida pela lente anula a onda refletida pelo plano.


Interferência. Assim como as pessoas, as ondas, quando se encontram, tendem a elevar ou a diminuir uma à outra.

No século XIX, considerava-se que este fenômeno confirmava a teoria ondulatória da luz e comprovava que a teoria corpuscular estava errada. Todavia, no início do século XX, Einstein demonstrou que o efeito fotoelétrico (atualmente utilizado na televisão e em câmeras digitais) poderia ser explicado por uma partícula ou quantum de luz incidindo em um átomo e ejetando um elétron. Assim, a luz tem o comportamento tanto de uma onda como de uma partícula.

O conceito de ondas provavelmente surgiu na mente humana a partir da observação do oceano ou de um espelho d’água após uma pedra cair nele. De fato, se você alguma vez jogou duas pedras numa lagoa, provavelmente viu a interferência em ação, como na imagem abaixo. Outros líquidos exibem um comportamento semelhante, exceto talvez o vinho, se você tomar demais. Estamos familiarizados com a idéia de partículas pela nossa convivência com pedras, cascalho e areia. Mas a dualidade onda-partícula – a idéia de que um objeto possa ser descrito como uma onda ou partícula – é tão insólita para a experiência diária como a de que possamos beber um pedaço de arenito.

Interferência no espelho d’água. O conceito da interferência apresenta-se no dia a dia em corpos de água, de espelhos d’água a oceanos.

Dualidades como essa – situações nas quais teorias radicalmente distintas descrevem com precisão o mesmo fenômeno – são consistentes com o realismo dependente do modelo. Cada teoria pode descrever e explicar certas propriedades, mas nenhuma delas pode ser considerada melhor ou mais real do que a outra. A respeito das leis que governam o universo, apenas podemos afirmar que não há um modelo matemático ou uma teoria única que descreve todos os seus aspectos. Em vez disso, parece haver uma rede de teorias chamada teoria-M. Cada teoria nessa rede descreve muito bem fenômenos dentro de um determinado domínio. Onde os domínios se superpõem, as várias teorias da rede concordam entre si, e assim pode-se dizer que são partes da mesma teoria. Mas nenhuma teoria isoladamente dentro da rede pode descrever todos os aspectos do universo – todas as forças da natureza, as partículas regidas por tais forças e o referencial de espaço-tempo dentro do qual tudo se desenrola. Embora essa situação não realize o sonho dos físicos de uma teoria unificada, ela é aceitável dentro do quadro do realismo dependente do modelo.

Discutiremos a dualidade e a teoria-M mais detalhadamente no 5º artigo, mas, antes disso, devemos nos voltar para um princípio fundamental sobre o qual se baseia a visão moderna da realidade: a teoria quântica e em, particular, a abordagem da teoria quântica denominada histórias alternativas. Nesse quadro, o universo não tem apenas uma única existência ou história, mas todas as versões possíveis do universo coexistem simultaneamente no que chamamos de superposição quântica. Isso pode soar tão absurdo quanto a teoria na qual a mesa desaparece sempre que saímos da sala, mas no caso das histórias alternativas, a teoria passou em todos os testes experimentais a que foi submetida.



1º artigo: O Mistério do Ser
2º artigo: O Domínio da Lei




Referência: Readaptação de The Grand Design de Leonard Mlodinow e Stephen Hawking

sexta-feira, 13 de janeiro de 2012

O Domínio da Lei


Skoll, o lobo que assusta a lua
Até voar à Floresta da Desolação
Hati, o lobo, filho de Hridvitnir,
Que persegue o sol.
- “GRIMNISMAL”, Edda em verso

Na mitologia viking, Skoll e Hati perseguem o sol e a lua. Quando os lobos alcançam um deles, ocorre um eclipse. Então, aqui na Terra, as pessoas apressam-se em socorrer o sol ou a lua, fazendo o máximo de barulho possível com o intuito de afugentar os lobos. Há mitos semelhantes em outras culturas. Mas, após algum tempo, percebeu-se que o sol e a lua emergiam do eclipse independentemente de as pessoas correrem de um lado a outro gritando e batendo as coisas. Transcorrido mais algum tempo, notou-se que os eclipses não ocorrem ao acaso, mas segundo padrões regulares que se repetem. Tais padrões são mais evidentes para os eclipses lunares, o que permitiu que os antigos babilônios previssem eclipses lunares com razoável precisão, mesmo sem que eles percebessem que eram causados pela Terra bloqueando a luz do sol. Eclipses solares são mais difíceis de se prever porque são visíveis somente numa faixa estreita da Terra, com algumas dezenas de quilômetros de largura. Assim, uma vez apreendidos os padrões, tornou-se claro que os eclipses não dependiam dos caprichos arbitrários de seres sobrenaturais, mas governados por leis naturais.

Eclipse. Os antigos não sabiam qual a causa dos eclipses, mas descobriram padrões para sua ocorrência.

Apesar de algumas antigas previsões bem-sucedidas de movimentos de corpos celestes, para nossos ancestrais a maioria dos eventos naturais parecia impossível de prever. Vulcões, terremotos, tempestades, pestes e unhas encravadas, tudo isso parecia ocorrer sem padrões ou causas óbvias. Nas eras passadas, nada seria mais natural do que atribuir os atos violentos da natureza a um panteão de deidades travessas ou maléficas. Frequentemente considerava-se que calamidades seriam um sinal de que, de algum modo, ofendêramos os deuses. Por exemplo, em cerca de 5600 a.C., o vulcão do monte Mazama, no Oregon, entrou em erupção, arremessando rochas e cinza ardentes por anos. Seguiram-se chuvas que perduraram por muitos anos, acabando por preencher a cratera vulcânica, atualmente chamada lago da Cratera. Os índios klamath do Oregon têm uma lenda que casa fielmente com cada detalhe geológico do evento, mas com nuances dramáticas ao atribuir a um humano a causa da catástrofe. A capacidade humana de se culpar é tal que sempre encontramos maneiras de nos acusarmos. Segundo a lenda, Llao, o chefe do Mundo Inferior, apaixona-se pela bela filha humana do chefe klamath. Ela o rejeita e, como vingança, Llao tenta destruir os klamath com fogo. Felizmente, segundo a lenda, Skell, o chefe do Mundo Superior, tem piedade dos humanos e se lança em batalha contra a sua contraparte do submundo. No final, Llao, ferido, cai dentro do monte Mazama, produzindo um grande buraco, que acaba sendo preenchido por água.

A ignorância sobre as formas de agir da natureza levou os povos antigos a inventar deuses que regiam todos os aspectos da vida humana. Havia deuses do amor e da guerra; do sol, da terra e do céu, dos oceanos e dos rios, da chuva e das tempestades, e mesmo dos terremotos e vulcões. Quando os deuses estavam satisfeitos, recompensavam a humanidade com bom tempo, paz e ausência de desastres naturais e doenças. Por outro lado, o seu descontentamento trazia seca, guerra e epidemias. Visto que a conexão de causa e efeito dentro da natureza era invisível aos olhos dos seres humanos, esses deuses pareciam inescrutáveis e estávamos à sua mercê. Mas há 2.600 anos, com Tales de Mileto (c.624-c.546 a.C.), esta situação começou a mudar. Surgiu a idéia de que a natureza segue princípios consistentes que podem ser decifrados. Assim começou o longo processo de substituir a noção do reino dos deuses pelo conceito de um universo governado pelas leis naturais, e criado conforme um projeto que, algum dia, poderíamos aprender a ler.

Dentro da linha de tempo da história humana, a investigação científica é um empreendimento extremamente recente. Nossa espécie, Homo sapiens, originou-se na África subsaariana cerca de duzentos mil anos atrás. A linguagem escrita data somente de aproximadamente 7000 a.C., sendo o produto de sociedades centradas no cultivo de grãos. (Algumas das mais antigas inscrições se referem à ração diária de cerveja cabível a cada cidadão.) Os mais antigos registros da grande civilização da Grécia antiga remontam ao século IX a.C., mas o apogeu dessa civilização, o “período clássico”, ocorreu centenas de anos mais tarde, iniciando-se um pouco antes de 500 a.C. Segundo Aristóteles (384-322 a.C.), foi por volta dessa época que Tales primeiramente desenvolveu a ideia de que o mundo pode ser compreendido, de que os acontecimentos complexos que acontecem à nossa volta poderiam ser reduzidos a princípios mais simples e explicados sem o recurso a argumentos míticos ou teológicos.

Tales recebeu crédito por fazer a primeira previsão de um eclipse solar em 585 a.C., embora sua grande precisão tenha sido provavelmente um palpite de sorte. Era um personagem enigmático, que não nos legou nenhum escrito de seu próprio cunho. Sua casa era um dos centros intelectuais da Jônia, uma colônia grega com uma enorme influência, estendendo-se desde a atual Turquia em direção ao oeste, até a Itália. A ciência jônica foi um empreendimento caracterizado por um forte interesse em desvelar as leis fundamentais por detrás dos fenômenos naturais, um imenso marco na história das idéias da humanidade. Sua abordagem era racional e, em muitos casos, conduziu a conclusões surpreendentemente semelhantes àquelas que nossos métodos mais sofisticados levaram-nos a acatar hoje em dia. Ela representou um grandioso início, mas ao longo dos séculos uma boa parte da ciência jônica seria esquecida – apenas para ser redescoberta ou reinventada, com freqüência mais de uma vez.

Jônia. Os estudiosos da antiga Jônia foram os primeiros a explicar os fenômenos da natureza por leis naturais em vez de recorrerem a mitos ou teologia.

Diz a lenda que a primeira formulação matemática do que denominaríamos hoje uma lei da natureza foi devida ao jônico Pitágoras (c.580-c.490 a.C.), famoso pelo teorema que recebe o seu nome: em um triângulo retângulo, o quadrado da hipotenusa (o lado maior) é igual à soma dos quadrados dos catetos (os lados menores). Atribui-se a Pitágoras a descoberta da relação numérica entre o comprimento das cordas dos instrumentos musicais e as combinações harmônicas dos sons. Em linguagem contemporânea, descreveríamos esta relação dizendo que a freqüência – número de vibrações por segundo – de uma corda vibrante sob tensão fixa é inversamente proporcional ao comprimento da corda. Do ponto de vista prático, isso explica por que um baixo deve ter cordas mais longas do que uma guitarra comum. Pitágoras provavelmente não descobriu a lei das cordas vibrantes – ele também não descobriu o teorema que leva o seu nome -, mas há evidência de que se conhecia alguma relação entre o comprimento da corda e a altura do som na sua época. Nesse caso, poderíamos dizer que essa fórmula matemática simples é o primeiro exemplo do que conhecemos hoje em dia como física teórica.

Além da lei das cordas de Pitágoras, as únicas leis físicas formuladas corretamente na Antiguidade foram as três leis de Arquimedes (c.287-c.212 a.C.), de longe o maior físico da Antiguidade. Em terminologia atual, a lei da alavanca explica que pequenas forças podem levantar grandes pesos porque a alavanca amplifica uma força de acordo com a razão das distâncias ao seu ponto de apoio. A lei do empuxo afirma que qualquer objeto imerso experimenta uma força para cima igual ao peso do líquido deslocado. E a lei da reflexão estabelece que o ângulo entre um feixe de luz e um espelho é igual ao ângulo entre o espelho e o feixe refletido. Mas Arquimedes não chamava essas asserções de leis, nem as explicava com base na observação e na mensuração. Em vez disso, tratava-as como teoremas puramente matemáticos, dentro de um sistema axiomático muito semelhante ao de Euclides para a geometria.

Com a difusão da influência jônica, surgiram outras visões de um universo possuidor de uma ordem interna, que poderia ser apreendida através da observação e da razão. Anaximandro (c.160-c.546 a.C.), amigo e possivelmente aluno de Tales, argumentava que, como os bebês são indefesos ao nascerem, se os primeiros humanos tivessem aparecido na terra como bebês, não teriam sobrevivido. Naquilo que pode ser, na história humana, a primeira alusão à evolução, Anaximandro deduziu que deveríamos ter evoluído de outros animais, cujos filhotes fossem mais resistentes. Na Sicília, Empédocles (c.490-c.430 a.C.) observou o uso de um instrumento chamado clepsidra. Algumas vezes utilizado como uma concha, consistia em uma esfera com um gargalo aberto e pequenos furos no fundo. Ao ser imersa na água, a clepsidra se preenchia, e se o gargalo fosse tampado, era possível retirá-la sem que a água em seu interior escoasse pelos furos. Empédocles notou que, se o gargalo fosse coberto antes de a clepsidra ser imersa, ela não se encheria de água. Ele concluiu que algo invisível devia evitar que a água entrasse na esfera pelos furos – ele havia descoberto a substância material que conhecemos como ar.

Mais ou menos na mesma época, numa colônia jônica no norte da Grécia, Demócrito (c.460-c.370 a.C.) indagava-se sobre o que aconteceria se um objeto fosse partido ou cortado em pedaços cada vez menores. Ele concluiu que este processo não poderia ser levado a cabo indefinidamente. Em vez disso, postulou que tudo, incluindo os seres vivos, é constituído por partículas fundamentais que não podem ser cortadas ou divididas em partes. Demócrito denominou essas partículas últimas de átomos, segundo o adjetivo grego significando “o que não pode ser cortado”. Ele acreditava que todo fenômeno material é o produto da colisão de átomos. Nessa visão, intitulada atomismo, todos os átomos movem-se no espaço, e, se não forem perturbados, prosseguirão em sua trajetória indefinidamente. Hoje em dia, essa idéia é denominada lei da inércia.

A idéia revolucionária de que somos apenas habitantes comuns do universo, e não seres privilegiados pelo fato de estarmos no seu centro, foi primeiro advogada por Aristarco (c.310-c.230 a.C.), um dos últimos cientistas jônicos. Apenas um de seus cálculos sobrevive, uma análise geométrica complexa de observações cuidadosas que ele realizou da sombra da Terra projetada sobre a Lua durante um eclipse lunar. A partir de seus dados, concluiu que o Sol é muito maior do que a Terra. Talvez inspirado pela idéia de que objetos minúsculos deveriam orbitar objetos colossais e não o contrário, tornou-se o primeiro a sustentar que a Terra não é o centro do sistema planetário, mas que ela e os outros planetas orbitam o Sol, que é muito maior. Uma vez que se perceba que a Terra é apenas mais um planeta, basta um pequeno passo para a conclusão de que o nosso sol também não tem nada de especial. Aristarco suspeitava de que fosse esse o caso, e acreditava que as estrelas que vemos no céu à noite na realidade nada mais são que sóis distantes.

Os jônicos representavam apenas uma das muitas escolas de filosofia grega antiga, cada uma com tradições distintas e frequentemente contraditórias. Infelizmente, a visão jônica da natureza – segundo a qual ela poderia ser explicada por leis gerais e reduzida a um conjunto simples de princípios – exerceu uma poderosa influência por apenas uns poucos séculos. Uma razão é que as teorias jônicas muitas vezes pareciam não comportar a noção de livre-arbítrio ou propósito, ou o conceito de que os deuses intervissem nas obras da natureza. Essas omissões eram chocantes e causavam um profundo mal-estar para muitos pensadores gregos, do mesmo modo que para tantas pessoas hoje em dia. O filósofo Epicuro (341-270 a.C.), por exemplo, opunha-se ao atomismo, pois seria “melhor seguir os mitos sobre os deuses do que se tornar um escravo do destino dos filósofos naturais”. Aristóteles também rejeitava o conceito de átomos porque não podia aceitar que seres humanos fossem compostos por objetos inanimados, desprovidos de alma. A idéia jônica de que o universo não é centrado no homem foi um marco para o nosso entendimento do cosmos, mas foi descartada e não mais adotada ou aceita até Galileu, quase vinte séculos depois.

Apesar do magnífico insight de algumas de suas especulações sobre a natureza, a maioria das idéias dos antigos gregos não poderia ter o status de ciência válida nos tempos modernos. Primeiramente, como os gregos não haviam inventado o método científico, suas teorias não foram elaboradas visando a verificação experimental. Assim, se um estudioso afirmasse que um átomo se moveria em linha reta até colidir com um segundo átomo e outro pensador sustentasse que o átomo se moveria em linha reta até se chocar com um ciclope, não haveria um meio objetivo de se determinar quem estava com a razão. Além disso, não havia uma distinção clara entre leis naturais e humanas. No século V a.C., por exemplo, Anaximandro escreveu que todas as coisas procedem de uma substância primária e retornam a ela, ou “pagarão penitência e serão julgadas por sua iniqüidade”. E, de acordo com o filósofo jônico Heráclito (c.535-c.475 a.C.), o Sol comporta-se como tal pois, em caso contrário, os deuses o abateriam. Séculos mais tarde, os estóicos, uma escola filosófica grega que surgiu no século III a.C., estabeleceram uma distinção entre leis naturais e estatutos humanos, mas incluíram regras de conduta humana que consideravam universais – como veneração a Deus e obediência aos pais – na categoria de leis naturais. Por outro lado, descreviam processos físicos em termos legais e acreditavam na necessidade da obrigatoriedade, mesmo que os objetos que “obedecessem” às leis fossem inanimados. Se você acha difícil um ser humano respeitar as leis do trânsito, imagine convencer um asteróide a descrever uma elipse.

Essa tradição continuou a influenciar os pensadores por vários séculos após os gregos. No século XIII, o filósofo cristão Tomás de Aquino (c.1225-1274) adotou essa postura para provar a existência de Deus: “É claro que [os corpos inanimados] atingem seus fins não pelo acaso, mas pela intenção... Há, portanto, um ser inteligente pessoal pelo qual tudo é ordenado conforme o seu fim.” Mesmo muito mais tarde, no século XVI, o grande astrônomo alemão Johannes Kepler (1571-1630) acreditava que os planetas tinham percepção sensorial e seguiam leis de movimento apreendidas por suas “mentes”.

A noção de que as leis da natureza devem ser obedecidas intencionalmente reflete a ênfase dos pensadores mais antigos na razão pela qual a natureza se comporta assim, em vez de na maneira como ela se comporta. Aristóteles foi um dos principais proponentes dessa abordagem, rejeitando a idéia de que a ciência baseava-se principalmente na observação. De qualquer modo, observações precisas e cálculos matemáticos elaborados eram difíceis nos tempos antigos. A notação decimal, que achamos tão conveniente para a aritmética, data de apenas 700 d.C., quando os indianos deram os primeiros grandes passos para torná-la uma poderosa ferramenta. As abreviaturas para adições e subtrações surgiram somente no século XV. E nem o sinal de igual, nem relógios que pudessem medir o tempo em escalas de segundos existiam antes do século XVI.

Aristóteles, contudo, não tinha nenhum problema em enxergar a mensuração e o cálculo como empecilhos para o desenvolvimento de uma física que pudesse produzir previsões quantitativas. Na verdade, ele não via nenhuma necessidade delas. Ao contrário, Aristóteles construiu sua física sob princípios atraentes para ele do ponto de vista intelectual. Suprimiu fatos que lhe pareciam desinteressantes e focou seus esforços nas razões pelas quais as coisas ocorrem, com relativamente pouco investimento em detalhar exatamente o que estava acontecendo. Na realidade, Aristóteles ajustava suas conclusões quando o flagrante desacordo destas com as observações não mais podia ser ignorado. Mas esses ajustes em geral eram explicações ad hoc, que apenas tentavam acobertar as contradições. Desse modo, não importava qual fosse a gravidade dos desvios de sua teoria em relação aos fatos, ele sempre poderia alterá-la apenas o suficiente para remover os conflitos. Por exemplo, sua teoria do movimento especificava que os corpos pesados caem com uma velocidade proporcional ao seu peso. Para explicar o fato de que os objetos claramente ganham velocidade à medida que caem, inventou um novo princípio – o de que os corpos deslocam-se com mais entusiasmo e, portanto, aceleram à medida que se aproximam de seu local natural de repouso, uma proposição que atualmente seria mais adequada pare descrever alguns indivíduos do que objetos inanimados. Embora as teorias de Aristóteles tivessem pouco poder preditivo, sua abordagem científica dominou o pensamento do Ocidente por quase dois mil anos.

Os sucessos cristãos dos gregos rejeitaram a idéia de que o universo fosse governado por leis naturais indiferentes. Também rejeitaram a idéia de que os seres humanos não ocupassem um lugar privilegiado dentro desse universo. Embora durante todo o período medieval não houvesse um sistema filosófico coerente e único, um tema comum era de que o universo era a casa de bonecas de Deus, e que o estudo da religião era muito mais nobre do que o dos fenômenos naturais. De fato, em 1277, o bispo Tempier de Paris, seguindo as instruções do papa João XXI, publicou uma lista de 219 erros ou heresias que deveriam ser condenadas. Entre as heresias consta aquela de que a natureza segue leis, porque isso entra em conflito com a onipotência de Deus. Curiosamente, o papa João XXI foi morto pelos efeitos da lei da gravidade poucos meses depois, quando o teto do seu palácio desmoronou sobre ele.

O conceito moderno de leis naturais emergiu no século XVII. Kepler parece ter sido o primeiro a compreender o termo no sentido da ciência moderna, embora, como vimos acima, retivesse uma visão animista dos objetos físicos. Galileu (1564-1642) não usa o termo “lei” em seus escritos de teor mais científico (embora ela apareça em algumas traduções de suas obras). Todavia, quer empregue ou não a palavra, Galileu realmente descobriu muitas grandes leis, defendendo os importantes princípios de que a observação é a base da ciência e de que o propósito da ciência é investigar as relações quantitativas existentes entre os fenômenos físicos. Mas quem primeiramente formulou explícita e rigorosamente o conceito de leis naturais como agora as entendemos foi René Descartes (1596-1650).

“Se eu aprendi alguma coisa durante meu longo reinado, é que o calor sobe.”

Descartes acreditava que todos os fenômenos físicos podiam ser explicados em termos de colisões de massas em movimento, que era governadas por três leis – as precursoras das famosas leis do movimento de Newton. Sustentava que essas leis naturais eram válidas em qualquer tempo e local, e assinalava explicitamente que a obediência a estas leis não implica que os corpos em movimento tivessem mentes. Descartes também compreendeu a importância do que chamamos hoje de “condições iniciais”. Estas descrevem o estado de um sistema no início de um intervalo de tempo especificado ao longo do qual buscamos fazer previsões. Dado um conjunto de condições iniciais, as leis da natureza determinam como um sistema irá evoluir no tempo, mas sem esse conjunto a evolução do sistema não pode ser especificada. Se, por exemplo, num instante zero, um pombo exatamente acima de nós solta alguma coisa, a trajetória do objeto em queda é determinada pelas leis de Newton. Mas o resultado será muito diferente se, no instante zero, o pombo estiver empoleirado em um cabo elétrico ou voando a trinta quilômetros por hora. Para aplicar as leis da física, deve-se saber como o sistema começou, ou ao menos seu estado em algum instante definido. (Pode-se também utilizar essas leis para retroceder um sistema no tempo.)

Com a crença renovada na existência das leis naturais, surgiram novas tentativas de reconciliar essas leis com o conceito divino. Segundo Descartes, Deus poderia alterar à vontade a verdade ou falsidade de proposições éticas ou teoremas matemáticos, mas não a natureza. Ele acreditava que Deus ordenou as leis na natureza mas que não tinha escolha em relação a elas; antes, selecionou-as porque as lei que experimentamos são as únicas leis possíveis. Isto parece uma imposição sobre a autoridade divina, mas Descartes contornava essa dificuldade argumentando que as leis são inalteráveis porque são um reflexo da própria natureza intrínseca de Deus. Se isso fosse verdadeiro, poderíamos conjeturar que Deus teria a escolha de criar uma variedade de mundos distintos, cada um correspondendo a um diferente conjunto de condições iniciais, mas Descartes negava essa hipótese. Não importa qual fosse o arranjo da matéria no começo do universo, argumentava ele, após um tempo ela evoluiria para um mundo idêntico ao nosso. Ademais, acreditava Descartes, uma vez que Deus colocasse o mundo em funcionamento, ele o deixaria por contra própria.

Uma posição similar (com algumas exceções) foi adotada por Newton (1643-1727). Foi Newton quem conquistou a ampla aceitação do conceito moderno de lei científica com suas três leis do movimento e sua lei da gravitação universal, que reproduzia as órbitas da Terra, da Lua e dos planetas e explicava fenômenos como as marés. O punhado de equações que ele criou e o elaborado instrumental matemático delas derivado são ensinado ainda hoje e empregados quando um arquiteto desenha um edifício, um engenheiro projeta um carro, ou um físico calcula como fazer com que uma espaçonave pouse em Marte. Como disse o poeta Alexander Pope:

A Natureza e as leis da Natureza ocultavam-se nas trevas;
Deus disse “Haja Newton!” e tudo se fez luz.

Atualmente, a maioria dos cientistas diria que uma lei natural é uma regra com base em alguma regularidade observada e que fornece previsões que vão além das situações imediatas das quais ela deriva. Por exemplo, podemos perceber que o Sol nasce no leste todas as manhãs da nossa vida, e postular a lei “O Sol sempre nasce no leste”. Trata-se de uma generalização que vai além de nossas observações limitadas do sol nascente e faz previsões testáveis sobre o futuro. Por outro lado, uma afirmação como “Os computadores deste escritório são pretos” não é uma lei natural porque ela se refere apenas aos computadores dentro do escritório e não faz previsões como “se meu escritório comprar um novo computador, ele será preto”.

A compreensão moderna do tempo “lei natural” é tópico amplamente debatido pelos filósofos, e é muito mais sutil do que parece à primeira vista. Por exemplo, o filósofo John W. Carroll comparou a afirmação “Todas as esferas de ouro têm menos de uma milha de diâmetro” com a afirmação “Todas as esferas de urânio-235 têm menos de uma milha de diâmetro”. Nossas observações do mundo nos dizem que não há esferas de ouro maiores que uma milha de diâmetro, e podemos crer, com razoável confiança, que nunca haverá. Contudo, não há uma razão fundamental para acreditar que elas não poderiam ser maiores, e assim essa afirmação não pode ser considerada uma lei. Por outro lado, a afirmação “Todas as esferas de urânio-235 têm menos de uma milha de diâmetro” pode ser aceita como uma lei natural porque, de acordo com o que conhecemos de física nuclear, se uma esfera de urânio-235 ultrapassar um diâmetro de cerca de quinze centímetros, ela é detonada numa explosão nuclear. Assim podemos ter certeza de que tais esferas não existem. (Nem seria uma boa idéia tentar fazer uma!) Essa distinção é essencial porque ilustra que nem todas as generalizações que fazemos a partir das observações podem ser consideradas leis naturais, e que a maior parte das leis naturais existe como parte de um sistema interconectado de leis mais abrangente.

Na ciência moderna, as leis naturais são em geral expressas matematicamente. Elas podem ser exatas ou aproximadas, mas devem ser válidas sem exceção – se não universalmente, ao menos sob um conjunto de condições estipulado. Por exemplo, agora sabemos que as leis de Newton precisam ser modificadas quando os objetos se movem com velocidades próximas à da luz. Porém, ainda consideramos que as leis de Newton sejam leis porque são válidas, ao menos para uma aproximação muito boa, nas condições do mundo quotidiano, no qual encontramos velocidades muito abaixo da velocidade da luz.

Se a natureza é governada por leis, surgem três questões:

1. Qual a origem das leis?
2. Há quaisquer exceções às leis, isto é, milagres?
3. Há somente um único conjunto possível de leis?

Essas questões de suma importância foram abordadas de maneiras diversas por cientistas, filósofos e teólogos. A resposta tradicional para a primeira delas – a resposta de Kepler, Galileu, Descartes e Newton – era que as leis são a obra de Deus. Contudo, nesse caso, trata-se apenas de uma definição de Deus como a encarnação das leis naturais. A não ser que se admita que Deus tenha outros atributos, por exemplo, como sendo o Deus do Antigo Testamento, empregar Deus como à primeira questão simplesmente substitui um mistério por outro. Assim, se incluirmos Deus na resposta à primeira questão, a segunda questão torna-se decisiva: há milagres, exceções às leis?

As opiniões se dividem dramaticamente em relação à resposta da segunda questão. Platão e Aristóteles, os pensadores mais influentes da Grécia antiga, sustentavam que não pode haver exceções às leis. Mas, segundo o relato bíblico, Deus não somente criou as leis como também está aberto a apelos pela oração para abrir exceções – curar doentes terminais, acabar prematuramente com secas ou elevar o críquete à categoria de esporte olímpico. Em oposição ao ponto de vista de Descartes, quase todos os pensadores cristãos defendiam que Deus é capaz de suspender as leis naturais para operar milagres. Mesmo Newton acreditava em milagres de alguma espécie. Ele pensava que as órbitas dos planetas seriam instáveis porque a atração gravitacional entre eles causaria perturbações orbitais que cresceriam com o tempo, resultando ou na queda do planeta no Sol ou em sua ejeção para fora do sistema solar. Deus deveria reajustar as órbitas continuamente, ou “dar corda no relógio cósmico, senão ele pararia”. Contudo, Pierre-Simon, o marquês de Laplace (1749-1827) ou simplesmente Laplace, argumentava que as perturbações seriam periódicas, ou seja, caracterizadas por ciclos, em lugar de serem acumulativas. O seu sistema solar se reajustaria por contra própria, sem a necessidade de intervenção divina para explicar por que ele sobreviveu até hoje.

Em geral, atribui-se a Laplace a primeira formulação clara do determinismo científico: considerando-se o estado do universo em um dado momento, um conjunto completo de leis determina totalmente tanto o futuro como o passado. Assim se exclui a possibilidade de milagres ou de um papel ativo de Deus. O determinismo científico postulado por Laplace constitui a resposta do cientista moderno á questão número dois. Ela é, de fato, a base de toda a ciência moderna, e um princípio fundamental ao longo deste blog. Uma lei científica não é uma lei científica se só é válida quando um ser sobrenatural decide não intervir. Reconhecendo isso, Napoleão teria perguntado a Laplace como Deus se encaixava em seu esquema. Laplace respondeu: “Senhor, não precisei dessa hipótese.”

“Acho que você poderia ser mais explícito aqui na etapa número dois.”

Visto que as pessoas vivem no universo e interagem com objetos dentro dele, o determinismo científico deve valer igualmente para pessoa. Muitos, contudo, mesmo aceitando que o determinismo científico governe processos físicos, abrem uma exceção para o comportamento humano porque acreditam que tenhamos o livre-arbítrio. Descartes, por exemplo, a fim de preservar a idéia do livre-arbítrio, afirmava que a mente humana possuía uma natureza distinta daquela do mundo físico e que não seguia suas leis. Na sua visão, uma pessoa é composta por dois ingredientes – alma e corpo. Os corpos não passam de simples máquinas, mas a alma não é sujeita a leis científicas. Descartes tinha um grande interesse em anatomia e fisiologia e considerava a glândula pineal, um minúsculo órgão localizado no centro do cérebro, como a principal sede de alma. Ele acreditava que essa glândula era o local onde se formavam os pensamentos e era a fonte do livre-arbítrio.

Os seres humanos possuem livre-arbítrio? Se assim for, onde ele se desenvolveu na árvore evolutiva? As cianobactérias e outros microrganismos têm livre-arbítrio ou seu comportamento é automático e confinado ao reino das leis científicas? Apenas organismos multicelulares podem ter livre-arbítrio ou seria ele exclusivo dos mamíferos? Podemos achar que um chimpanzé está exercitando livre-arbítrio quando escolhe descascar uma banana, ou um gato quando rasga nosso sofá, mas e o nematódeo Caenorhadbitis elegans – uma criatura simples constituída por apenas 959 células? Ele provavelmente não pensa: “Essa aí é uma bactéria deliciosa e vou jantá-la agora mesmo.” Porém, ele tem preferência por determinados alimentos, e aceitará uma refeição insípida ou partirá em busca de algo mais palatável, dependendo de sua experiência recente. Trata-se de um exercício do livre-arbítrio?

Embora sintamos que podemos escolher o que fazer, nossa compreensão da base molecular da biologia mostra que os processos biológicos são governados pelas leis da física e da química, e que, portanto, são tão determinísticos quanto as órbitas dos planetas. Experimentos recentes da neurociência dão apoio à visão de que é o nosso cérebro físico, seguindo as leis científicas conhecidas, que determina nossas ações, e não algum agente que exista além dessas leis. Por exemplo, um estudo em pacientes submetidos à cirurgia cerebral enquanto estavam despertos descobriu que, ao estimular eletricamente determinas regiões do cérebro, podia-se criar no paciente o desejo de mover a mão, o braço, o pé, ou mesmo os lábios e falar. É difícil imaginar como o livre-arbítrio poderia operar se nosso comportamento é determinado por leis físicas. Assim parece que somos apenas máquinas biológicas e que o livre-arbítrio não passa de uma ilusão.

Mesmo reconhecendo que o comportamento humano é determina por leis naturais, também parece razoável concluir que o resultado é produzido com tal complexidade e com tantas variáveis que, na prática, é impossível de ser previsto. Para uma previsão correta, seria necessário o conhecimento do estado inicial dos quatrilhões de trilhões de moléculas do corpo humano e resolver-se um número semelhante de equações. Tudo isso levaria alguns bilhões de anos, e então seria um pouco tarde demais para nos desviarmos de um soco.

Como não é pratico utilizar as leis físicas subjacentes para prever o comportamento humano, adotamos o que é chamo de teoria efetiva. Em física, uma teoria efetiva é um quadro criado para fazer modelos de certos fenômenos observados sem descrever em detalhe todos os processos subjacentes. Por exemplo, não podemos resolver exatamente as equações que regem as interações gravitacionais de todos os átomos do corpo de uma pessoa com todos os átomos da Terra. Mas, para todos os fins práticos, a força gravitacional entre uma pessoa e a Terra pode ser descrita em termos de apenas uns poucos números, como a massa total da pessoa. Do mesmo modo, não podemos resolver as equações que regem o comportamento de átomos e moléculas complexas, mas desenvolvemos uma teoria efetiva chamada química, que fornece uma explicação adequada para a maneira como cada átomo e molécula se comporta em reações químicas sem ter que levar em conto cada detalhe das interações. No caso de pessoas, como não podemos resolver as equações que determinam nosso comportamento, adotamos a teoria efetiva de que temos livre-arbítrio. O estudo da nossa vontade e do comportamento que dela decorre constitui a ciência da psicologia. Economia é outra ciência efetiva, fundamentada na noção do livre-arbítrio em conjunto com a suposição de que as pessoas avaliam os possíveis cursos de ação e escolhem o melhor. Esta teoria efetiva tem apenas um êxito moderado na previsão do comportamento porque, como todos nós sabemos, as decisões muitas vezes não são racionais ou são baseadas em análises errôneas das conseqüências dessa escolha. É por isso que o mundo está tão bagunçado.

A terceira questão investiga se as leis que determinam tanto o universo como o comportamento humano são únicas. Se a nossa resposta à primeira questão é que Deus criou as leis, então a terceira questão poderia ser algo como: Deus teve alguma flexibilidade ao criar as leis? Tanto Platão e Aristóteles, como Descartes e, mais tarde, Einstein, acreditavam que os princípios da natureza existiam por “necessidade”, porque eram as únicas regras que faziam sentido logicamente. Devido a essa crença na origem das leis naturais da lógica, Aristóteles e seus seguidores pensavam que seria possível “derivar” essas leis sem dedicar muita atenção ao modo como a natureza de fato se comportava. Assim, a ênfase no porquê de os objetos seguirem regras e não nos detalhes das regras conduziu a muitas leis qualitativas que, com freqüência, estavam erradas e que, de qualquer modo, não eram muitos úteis, muito embora tenham dominado o pensamento científico por vários séculos. Foi apenas bem mais tarde que pensadores como Galileu ousaram desafiar a autoridade de Aristóteles e observar o que a natureza fazia de fato, e não o que a “razão” pura dizia que ela deveria fazer.

Este período do blog é fundamentado no conceito de determinismo científico, o que implica que nossa resposta à segunda questão é que não há milagres ou exceções às leis naturais. Contudo, voltarei a considerar em profundidade as questões um e três, ou seja, como essas leis surgiram e se elas as únicas leis possíveis. Mas primeiramente, no próximo artigo, discutiremos o que as leis naturais descrevem. A maioria dos cientistas diria que elas são o reflexo matemático de uma realidade externa que existe independentemente de seu observador. Mas, ao refletirmos sobre o modo como observamos e formamos conceitos sobre o que nos cerca, deparamo-nos com uma questão: temos realmente razões para acreditar que existe uma realidade objetiva?


1º artigo: O Mistério do Ser




Referência: Readaptação de The Grand Design de Leonard Mlodinow e Stephen Hawking