1.- PROBABILIDADES NA FISICA
Teoria dos Erros Experimentais
A partir do sec XVIII, o desenvolvimento e barateamento dos instrumentos de
medida em muito multiplicou as observações quantitativas em laboratório e em
campo. Logo os físicos deixaram-se de se contentar em ter conseguido medir, eles
passaram a buscar a melhor medida possível. Em termos mais precisos,
queriam a resposta do Problema Fundamental da Teoria dos Erros:
se em condições idênticas foram obtidas medidas
x 1, x 2 . . .
x n para uma grandeza
de valor exato x desconhecido, determinar a probabilidade de que o
valor de x seja uma quantidade expressa em termos dos
x k, como e' o caso da média dessas medidas.
|
Esse problema foi exaustivamente estudado por Legendre, Laplace e Gauss, no
final do sec XVIII e início de sec XX. O resultado mais fundamental foi estabelecido por
Gauss, ao provar que se os erros das medidas tem uma distribuição
gaussiana ( ou da curva normal )
então o valor mais provável de x é a média das medidas x k.
Probabilidades na Física Estatística
Até a metade do sec XIX, os físicos viam a Teoria dos Erros como a única
utilidade das probabilidades. Para isso era usado o seguinte
argumento: é perfeitamente concebível que usemos probabilidades e estatística
no estudo de fenômenos biológicos e sociais, afinal as pessoas de uma população
tem altura, peso, inteligência diferentes; contudo, não há possibilidade
de esse tipo de variações no mundo físico: as propriedades de duas gotas de água
ou dois litros de ar são absolutamente as mesmas.
Foi preciso um gênio do calibre de Maxwell para derrubar esse preconceito.
Maxwell implicara com o Princípio de Carnot, que diz que o calor não pode
fluir espontâneamente ( = sem gasto de energia ) de um corpo frio para um
quente. Usando que a temperatura é um efeito médio das moléculas dos corpos,
Maxwell acabou mostrando que era perfeitamente
possível que uma inteligência, a qual hoje
chamamos de demônio de Maxwell, conseguisse fazer
o calor passar de um corpo frio para um quente, sem gasto de energia. Como um
segundo estágio de suas idéias, passou a defender que as leis termodinâmicas
deveriam ter uma formulação probabilística. Em c. 1860 deu ao mundo a primeira
lei física de natureza probabilística: a lei de Maxwell para a distribuição
do percentual p de moléculas de um gás em equilíbrio que estão com
velocidade ( a rigor: rapidêz ) v. Sendo a e b parâmetros do gás:
p=p(v)=a v 2 e - b v 2
As idéias de Maxwell foram tornadas ao mesmo tempo práticas e mais gerais
( pois que aplicáveis a fenômenos físicos outros que os de calor ) com
Josiah Wilard Gibbs, com seu Principles of Statistical Mechanics, 1902,
uma das obras mais importantes já escritas em toda a história da Humanidade
e que verdadeiramente deu
maturidade à abordagem probabilística dos fenômenos físicos.
Probabilidades na Física Quântica
O formalismo da Mecânica Estatística
mostrou o quão útil podia ser a Teoria das Probabilidades para estender o
poder da Ciência clássica e equipá-la com instrumentos capazes de uma análise
muito mais ampla do comportamento da matéria e da energia: o estudo das reações
químicas, dos processos termodinâmicos, da radiação eletromagnética, etc.
Contudo, no final do século XIX, começaram a surgir inconsistências nesta
vasta paisagem. Por exemplo, o equilíbrio das radiações não podia conviver
logicamente com a idéia natural de distribuição contínua dos níveis energéticos.
Logo se viu que a evidência experimental levava à uma estrutura discreta
dos níveis energéticos. A descoberta do elétron e a concepção atômica de
Rutherford apontavam grandes discrepâncias entre a teoria clássica do eletromagnetismo
e o calor específico dos metais. A teoria ondulatória da luz tinha sido
adotada para se poder explicar os fenómenos de interferência luminosa, mas o
efeito fotoelétrico parecia preferir uma interpretação corpuscular. Pior do que
isso, para esses mesmos elétrons observou-se fenômenos de interferência, o que
sugeria que eles também podiam comportar-se como ondas.
A resolução dessas dificuldades foi iniciada com Max Planck, no início do
século XX, e acabou produzindo outra das maiores obras da Humanidade: a Mecânica
Quântica. Essa nova disciplina, ao
explicar os fenômenos de
radiação em termos de probabilidades, destruiu
o ponto de vista clássico que pregava que todos os fenômenos eram
deterministas. Sob um ponto de vista mais prático,
permitiu uma muito fértil aproximação entre o ponto de vista
dos físicos e o dos químicos no estudo da matéria, disso resultando uma enorme
massa de resultados fundamenatis tanto nso estudos teóricos ( como uma adequada
descrição molecular da química, e a interpretação e previsão de fenómenos
de radiação em uma enorme faixa de energias ) como na criação
de importantes tecnologias ( como a eletrónica e a engenharia nuclear ).
O objetivo inicial da Mecânica Quântica era explicar as interações entre matéria
e energia mas acabou tendo o papel de retificar e completar a Física e Química
clássicas. No que toca aos fenômenos macroscópicos, passou-se a pensar em
termos de efeitos macroscópicos consequência do comportamento de uma enorme
quantidade de micro-sistemas cujas leis são probabilistas. Esses micro-sistemas
não são totalmente independentes ( por exemplo, os átomos de um sólido obedecem
relações espaciais ), mas não podem ser individualizados e os cálculos
probabilistícos envolvidos precisam levar isso em conta. Assim que foi necessário
um ponto de vista revolucionário para descrever o comportamento dos micro-sistemas:
as grandezas observáveis tem natureza verdadeiramente probabilista.
|