Física 1

220

Click here to load reader

Transcript of Física 1

Page 1: Física 1

Wolfgang PauliOrigem: Wikipédia, a enciclopédia livre.

Wolfgang Pauli 

Física

Nacionalidade  Austríaco

Nascimento 25 de Abril de 1900

Local Viena

Falecimento 15 de Dezembro de 1958 (58 anos)

Local Zurique

Actividade

Campo(s) Física

Instituições Universidade de Göttingen,Universidade de

Copenhague,Universidade de

Hamburgo,Instituto Federal de Tecnologia de

Zurique,Instituto de Estudos Avançados de

Princeton

Alma mater Universidade de Munique

Page 2: Física 1

Tese 1921: Über das Modell des Wasserstoff-

Molekülions

Orientador(es) Arnold Sommerfeld

Orientado(s) Nicholas Kemmer, Felix Villars

Conhecido(a) por Princípio de exclusão de Pauli,regularização

de Pauli–Villars,matrizes de Pauli, equação

de Pauli

Prêmio(s) Medalha Lorentz (1931),   Nobel de Física

(1945),Medalha Franklin (1952),Medalha

Matteucci (1956),Medalha Max Planck (1958)

ver

Wolfgang Ernst Pauli (Viena, 25 de Abril de 1900 — Zurique, 15 de Dezembro de 1958) foi um físico austríaco conhecido por seu trabalho na teoria do spin do elétron.

Índice

  [esconder] 

1   Biografia

2   Carreira científica

3   Personalidade e Reputação

4   Ver também

5   Ligações externas

[editar]Biografia

Pauli nasceu em Viena filho de Wolfgang Joseph Pauli e Berta Camilla Schütz. Seu nome do

meio é uma homenagem ao seu padrinho, o físicoErnst Mach.

Pauli estudou no Döblinger Gymnasium em Viena, graduando-se com honra em 1918. Apenas

dois meses após a graduação, ele publicou seu primeiro ensaio científico, sobre a Teoria da

Relatividade Geral de Albert Einstein. Freqüentou então a Universidade Ludwig-Maximilian de

Munich, trabalhando com Arnold Sommerfeld, onde recebeu seu doutorado em julho de 1921

por sua tese sobre a teoria quântica da molécula de hidrogênio ionizada.

Sommerfeld propôs a Pauli a revisão da parte de relatividade numa enciclopédia alemã,

a Encyklopaedie der mathematischen Wissenschaften. Dois meses depois de receber seu

doutorado, Pauli completou o artigo, apresentado com 237 páginas. Ele foi elogiado

por Einstein, publicado como monografia, e continua até hoje uma referência sobre o tema.

Esteve um ano na Universidade de Göttingen como assistente de Max Born, e no ano seguinte

em que esta se tornou o Instituto Niels Bohr de Física Teórica em Copenhague. Ficou

entre 1923 e 1928 como conferencista na Universidade de Hamburgo. Durante este período,

Page 3: Física 1

teve à disposição material para o desenvolvimento da mecânica quântica moderna. A

formulação doprincípio de exclusão e a teoria do spin não relativístico são desta época. (veja

adiante uma lista de suas contribuições à ciência).

Em maio de 1929, Pauli deixou de ser católico; em dezembro, deste ano, casou-se com Käthe

Margarethe Deppner. O casamento não deu certo e eles se divorciaram em 1930, menos de

um ano depois.

No começo de 1931, logo após seu divórcio e a proposição do neutrino, Pauli teve um grave

colapso. Ele consultou o psiquiatra e psicoterapeuta Carl Jung, que vivia, como ele, próximo

de Zurique. Pauli começou logo a interpretar seus sonhos e tornou-se um dos melhores

estudantes de psiquiatria. Cedo, ele começa a criticar cientificamente a epistemologia da teoria

de Jung e contribuir com seu desenvolvimento, especialmente no conceito de sincronicidade.

Grande parte destas discussões estão nas cartas que eles trocavam, publicadas atualmente

como "Atom and Archetype".

Em 1928, foi indicado Professor de física teórica no Instituto de Tecnologia de Zurique, Suíça.

Ele manteve contato com o corpo docente da Universidade de Michigan em 1931 e com o

Instituto de Estudos avançados em Princeton em 1935.

Em 1934, casou com Franciska Bertram. Este casamento durou até o fim de sua vida, e não

tiveram filhos.

A ocupação nazista da Áustria em 1938 tornou-o cidadão alemão, o que se tornou uma

dificuldade com a eclosão da Segunda Guerra Mundial em 1939. Pauli migrou para os Estados

Unidos em 1940, onde se tornou professor de física teórica em Princeton. Após o término da

guerra em 1945, retornou para Zurique, onde permaneceu a maior parte do tempo até sua

morte.

Também em 1945, ele recebeu o Nobel de Física por sua "contribuição decisiva na descoberta

em 1925 de uma nova lei da natureza, o Princípio de exclusão de Pauli". Ele foi nomeado para

o prêmio por Einstein.

Em 1958, Pauli foi condecorado com a medalha Max Planck. No mesmo ano, foi acometido

de câncer no pâncreas. Quando seu último assistente, Charles Enz, foi visitá-lo no

hospital Rotkreuz, em Zurique, Pauli perguntou: "viu o número do meu quarto?". Era 137. Pela

sua vida, Pauli mostrou preocupação do por que a constante da estrutura fina, uma constante

adimensional, com valor próximo a 1/137. Pauli morreu naquele quarto em 15 de dezembro de

1958.

[editar]Carreira científica

Page 4: Física 1

Wolfgang Pauli

Pauli fez muitas contribuições importantes em sua carreira como Físico, principalmente

namecânica quântica. Ele publicou artigos, mas preferia longas cartas a seus colegas,

comoNiels Bohr e Heisenberg, com quem mantinha grande amizade. Muitas de suas idéias e

resultados nunca foram publicas, e aparecem apenas nestas cartas, que são copiadas e

distribuídas por quem as possui. Pauli não parecia preocupado que muito de seu trabalho,

assim, fosse desacreditado. O que descreve-se agora são os mais importantes resultados

pelos quais ele foi creditado:

Em 1924, Pauli propôs um novo grau de liberdade quântico, para explicar inconsistências entre

o espectro molecular observado e o desenvolvimento da mecânica quântica. Ele formulou

o Princípio de exclusão, talvez seu mais importante trabalho, que estabelece que nenhuma

partícula (por exemplo elétrons) pode existir no mesmo estado

quântico.Uhlenbeck e Goudsmit posteriormente identificaram este grau de liberdade como

o spin.

Em 1926, logo depois que Werner Heisenberg publicou a teoria matricial da modernamecânica

quântica, Pauli a usou para derivar o espetro do átomo de hidrogênio. Este resultado foi

importante para credibilizar a teoria de Heisenberg.

Em 1927, ele apresentou as , como base dos operadores de spin. Seu trabalho

influenciouDirac na descoberta da equação de Dirac para o eletron relativístico

Em 1931, ele propôs a existência de uma partícula neutra, não-observada e sem massa, para

explicar o espectro contínuo nodecaimento beta. Em 1934, Fermi introduziu a partícula em sua

teoria de decaimento radioativo, chamando-a neutrino. O neutrino foi observado directamente

em 1959.

Em 1940, ele provou o teorema estatístico de spin, um resultado crítico da mecânica

quântica que estabelece quais estados partículas com spin 1/2 são férmions, e partículas

com spin 1 são bósons.

Participou da 5ª, 6ª 7ª, 8ª, 10ª e 11ª Conferência de Solvay.

[editar]Personalidade e Reputação

Page 5: Física 1

O "efeito Pauli" era conhecido comicamente como a suposta capacidade bizarra de quebrar

equipamentos científicos apenas com sua presença. O próprio Pauli reconhecia esta

reputação, gostando, onde quer que o "efeito Pauli" se manifestasse.

Além da Física, Pauli era um reconhecido perfeccionista. E isto não se limitava ao seu trabalho,

mas ao trabalho de seus colegas. Como resultado, tornou-se conhecido como "a consciência

da Física", dadas as críticas aos seus colegas. Era "cruel" se encontrasse qualquer falha nas

outras teorias, chamando-as ganz falsch (algo como "completamente errado"). Famosíssima foi

uma de suas declarações: "Não apenas não está certo, como nem ao menos está errado!" -

querendo dizer que uma certa ideia estava tão mal formulada que nem havia elementos

suficientes nela para prová-la como errada.

De acordo com uma anedota bem conhecida na comunidade física, após sua morte, em 1958,

Pauli teve um encontro com Deus. Pauli perguntou por que a constante da estrutura fina tem o

valor de 1/137,036.... Deus então foi para o quadro negro, onde começou a descrever

equações num ritmo alucinante. Pauli observava-o com um grande sorriso, mas logo começou

a balançar a cabeça negativamente para um lado e para o outro quase freneticamente...

[editar]Ver também

Princípio de exclusão de Pauli

[editar]Ligações externas

Biografia em MacTutor (em inglês)

Wolfgang Pauli em Mathematics Genealogy Project

Perfil no sítio oficial do Nobel de Física 1945 (em inglês)

Biografia (em inglês)

Precedido por

Max Planck

Medalha Lorentz

1931

Sucedido por

Peter Debye

Precedido por

Isidor Isaac Rabi

Nobel de Física

1945

Sucedido por

Percy Williams Bridgman

Precedido por

James Chadwick

Medalha Franklin

1952

Sucedido por

William Francis Gibbs

Precedido por

Frédéric Joliot-Curie e Irène

Joliot-Curie

Medalha Matteucci

1956

Sucedido por

Bruno Touschek

Precedido por

Carl Friedrich von Weizsäcker

Medalha Max Planck

1958

Sucedido por

Oskar Klein

Princípio de exclusão de PauliOrigem: Wikipédia, a enciclopédia livre.

Page 6: Física 1

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Esconder]Conceitos fundamentais

Estado quântico · Função de onda

Superposição · Emaranhamento

Medição · Incerteza

Exclusão · Dualidade

Decoerência · Teorema de

Ehrenfest ·Tunelamento

[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:Portal de Física

O princípio de exclusão de Pauli é um princípio da mecânica quântica formulado porWolfgang

Pauli em 1925. Ele afirma que dois férmions idênticos não podem ocupar o mesmoestado

quântico simultaneamente. Uma forma mais rigorosa de enunciar este princípio é dizer que a função

de onda total de um sistema composto por dois fermions idênticos deve serantissimétrica, com

respeito ao cambiamento de duas partículas. Para eletrons de um mesmo átomo, ele implica que

dois elétrons não podem ter os mesmos quatro números quânticos. Por exemplo, se os números

quânticos n, l, e ml são iguais nos dois elétrons, estes deverão necessariamente ter os

números ms diferentes, e portanto os dois elétrons têm spins opostos.

O princípio de exclusão de Pauli é uma consequência matemática das restrições impostas por

razões de simetria ao resultado da aplicação do operador de rotação a duas partículas idênticas

de spin semi-inteiro.

Índice

Page 7: Física 1

  [esconder] 

1   Sumário

2   História

3   Conexão com a simetria do estado quântico

4   Consequências

5   Ver também

6   Referências

7   Ligações externas

Sumário [editar]

O princípio de exclusão de Pauli é um dos mais importantes princípios da física, basicamente

porque os três tipos de partículas que formam a matéria ordinária - eletrons, protons e neutrons- têm

que satisfazê-lo. O princípio de exclusão de Pauli é a razão fundamental para muitas das

propriedades características da matéria, desde sua estabilidade até a existência das regularidades

expressas pela tabela periódica dos elementos.

O princípio de exclusão de Pauli é uma consequência matemática das propriedades dooperador

momento angular, que é o gerador das operações de rotação, em mecânica quântica. A permutação

de partículas num sistema de duas partículas idênticas (que é matematicamente equivalente à

rotação de cada partícula de um ângulo de 180 graus) deve resultar em uma configuração descrita

pela mesma função de onda da configuração original (quando as partículas têm spin inteiro) ou

numa mudança de sinal desta função de onda (para partículas de spin semi-inteiro). Por isso, duas

partículas de spin semi-inteiro não podem estar em um mesmo estado quântico, já que a função de

onda do sistema composto pelas duas teria que ser igual a sua simétrica, e a única função que

atende a esta condição é a função identicamente nula.

Partículas com função de onda anti-simétrica são chamadas férmions, e obedecem ao princípio de

exclusão de Pauli. Além das mais familiares já citadas - elétron, próton e nêutron - são também

fermions o neutrino e o quark (que são os constituintes elementares dos prótons e nêutrons), além

de alguns átomos, como o hélio-3. Todos os férmions possuem spin "semi-inteiro", o que quer dizer

que seumomento angular intrínseco tem valor   (a constante de Planck dividida por 2π)

multiplicada por um semi-inteiro (1/2, 3/2, 5/2, etc.). Na teoria da mecânica quântica, fermions são

descritos por "estados anti-simétricos", que são explicados em mais detalhes no artigo

sobre partículas idênticas.

Um sistema formado por partículas idênticas com spin inteiro é descrito por uma função de onda

simétrica; estas partículas são chamadas bósons. Ao contrário dos fermions, elas podem partilhar

um mesmo estado quântico. São exemplos de bósons o fóton e osbósons W e Z.

História [editar]

Page 8: Física 1

No início do século XX tornou-se evidente que átomos e moléculas com elétrons emparelhados ou

um número par de eletrons são mais estáveis que aqueles com um número ímpar de eletrons. Num

artigo famoso The Atom and the Molecule publicado em 1916 por Gilbert N. Lewis, por exemplo, a

regra três dos seis postulados propostos pelo autor para explicar o comportamento químico das

substâncias estabelece que um átomo tende a ter um número par de elétrons em sua camada de

valência, sendo esse número, de preferência oito, que estão normalmente dispostos simetricamente

nos oito vértices de um cubo (ver: átomo cúbico). Em 1922 Niels Bohr mostrou que a tabela

periódica pode ser explicada pela hipótese de que certos números de elétrons (por exemplo, 2, 8 e

18) correspondem a "camadas fechadas" estáveis.

Pauli procurou uma explicação para estes números, que eram a esta altura apenas empíricos. Ao

mesmo tempo, ele estava tentando explicar certos resultados experimentais envolvendo o Efeito

Zeeman em espectroscopia atômica e no ferromagnetismo. Ele encontrou uma pista essencial em

um artigo de 1924 escrito por E.C.Stoner, que estabelecia que, para um dado valor do número

quântico principal (n), o número de níveis de energia de um eletron no espectro de um átomo

de metal alcalino posto sob a ação de um campo magnético externo, situação na qual todos

os níveis de energia degenerados são separados, é igual ao número de elétrons na camada

fechada de um gás nobre correspondente ao mesmo valor de n. Este fato levou Pauli a perceber

que os números aparentemente complicados de elétrons em camadas fechadas podem ser

reduzidos a uma regra muito simples, a de que só pode haver um elétron em cada estado atômico,

definido por um conjunto de quatro números quânticos. Para esta finalidade ele introduziu um novo

número quântico com apenas dois valores possíveis, identificado por Samuel Goudsmit e George

Uhlenbeck como o spin do eletron.

Conexão com a simetria do estado quântico [editar]

O princípio de exclusão de Pauli pode ser deduzido a partir da hipótese de que um sistema de

partículas só pode ocupar estados quânticos anti-simétricos. De acordo com o teorema spin-

estatística, sistemas de partículas idênticas de spin inteiro ocupam estados simétricos, enquanto

sistemas de partículas de spin semi-inteiro ocupam estados anti-simétricos; além disso, apenas

valores de spin inteiros ou semi-inteiros são permitidos pelos princípio da mecânica quântica.

Como discutido no artigo sobre partículas idênticas, um estado anti-simétrico no qual uma das

partículas está no estado   (nota) enquanto a outra está no estado   é

No entanto, se   e   são exatamente o mesmo estado, a expressão acima é

identicamente nula:

Page 9: Física 1

Isto não representa um estado quântico válido, porque vetores de estado que representem

estados quânticos têm obrigatoriamente que ser normalizáveis, isto é devem ter norma

finita. Em outras palavras, nunca poderemos encontrar as partículas que formam o sistema

ocupando um mesmo estado quântico.

Consequências [editar]

O princípio de exclusão de Pauli ajuda a explicar uma grande variedade de fenômenos

físicos. Um destes fenômenos é a "rigidez" ou "resiliência" da matéria ordinária (fermions):

o princípio proíbe que fermions idênticos sejam espremidos uns contra os outros (cf.módulo

de Young e módulo de rigidez de sólidos), e por isso nossas observações quotidianas do

mundo macroscópico mostram que objetos materiais colidem, ao invés de atravessar uns

aos outros, e de que somos capazes de nos apoiar de pé sobre o solo sem nele afundar.

Outra consequência deste princípio é a elaborada estrutura das camadas

eletrônicas dos átomos e a maneira como átomos partilham eletrons na formação da

variedade de moléculas ou substância químicas e a gama de suas combinações (química).

Um átomo eletricamente neutro contém eletrons ligados em número igual ao de protons de

seu núcleo. Como os eletrons são fermions, o princípio de exclusão de Pauli os proíbe de

ocupar o mesmo estado quântico, e por isso os eletrons tem que se "empilhar" em estados

quânticos diversos no interior de um átomo.

Considere, por exemplo, um átomo de hélio neutro, que tem dois eletrons ligados. Ambos

podem ocupar o estado de mais baixa energia (1s) mas para isso têm que ter spins

opostos. Isto não viola o princípio de Pauli porque o spin é parte da caracterização do

estado quântico do eletron, e por isso os dois eletrons ocupam estados quânticos

diferentes. No entanto, o spin só pode ter dois valores diferentes (ou autovalores). Num

átomo de lítio, que contém três eletrons ligados, o terceiro eletron não pode ocupar um

estado1s, já que resultaria com o spin, e portanto o estado quântico, igual a algum dos dois

primeiros, e tem que ocupar um dos estados 2sde energia mais alta. De forma análoga, os

elementos sucessivos vão requerer que os eletrons adicionais vão ocupando estados de

energia cada vez mais alta, a cada vez que um número par de eletrons esgota os estados

disponíveis no estado anterior. As propriedades químicas de uma substância depende

fortemente do número de eletrons em sua camada mais externa, o que dá origem à tabela

periódica dos elementos.

Em condutores e semi-condutores, elétrons livres têm que partilhar o espaço total

disponível no interior do material - e por isso seus níveis de energia se empilham criando

uma estrutura de bandas a partir de cada nível de energia atômico. Em bons condutores

(metais) os eletrons estão tão fortemente degenerados que eles acabam por não contribuir

de forma significativa para a capacidade térmica do metal. Muitas propriedades mecânicas,

Page 10: Física 1

elétricas, magnéticas, ópticas e químicas dos sólidos são consequências diretas da

repulsão de Pauli entre eletrons livres ou semi-livres.

A Astronomia mostra outra demonstração espetacular deste efeito, na forma de estrelas

anãs brancas e estrelas de nêutron. Em ambos os tipos de objetos, a estrutura atômica

usual da matéria ordinária é quebrada por forças gravitacionais enormes, fazendo com que

a estabilidade seja suportada apenas pela "pressão de degenerescência". Esta forma

exótica de matéria é chamada de matéria degenerada. Nas anãs brancas, os átomos são

impedidos de colapsar uns sobre os outros pela pressão de degenerescência de seus

eletrons. Nas estrelas de neutrons, que exibem forças gravitacionais ainda mais intensas,

os eletrons e os protons colapsam formando neutrons, que são capazes de produzir

pressões de degenerescência maiores. Os neutrons são os objetos mais "rígidos"

conhecidos - seu módulo de Young, ou mais apropriadamente módulo de rigidez é 20

ordens de grandeza maior que o do diamente.

De acordo com a relatividade geral, as forças gravitacionais no centro de um buraco

negro se tornam tão intensas que toda a matéria se quebra em seus constituintes

fundamentais, que são supostamente puntiformes e sem estrutura interna. Todas estas

partículas poderiam se empilhar em um ponto zero dimensional porque as forças

gravitacionais seriam maiores que a pressão de degenerescência. Isto parece violar o

princípio de exclusão de Pauli, mas já que o interior de um buraco negro está além

do horizonte de eventos, ele é inacessível a verificação experimental e esta hipótese

permanece sem comprovação possível.

Ver também [editar]

Forças de troca

Interação de troca

Simetria de troca

Regra de Hund

Referências

Dill, Dan. Notes on General Chemistry. 2ª ed. [S.l.]: W. H. Freeman, 2006. Capítulo:

3.5, Many-electron atoms: Fermi holes and Fermi heaps, ISBN 1-4292-0068-5

Griffiths, David J.. Introduction to Quantum Mechanics. 2ª ed. [S.l.]: Prentice Hall,

2004. ISBN 0-13-805326-X

Liboff, Richard L.. Introductory Quantum Mechanics. [S.l.]: Addison-Wesley, 2002. ISBN

0-8053-8714-5

Massimi, Michela. Pauli's Exclusion Principle (em inglês). [S.l.]: Cambridge University

Press, 2005. ISBN 0-521-83911-4

Page 11: Física 1

Tipler, Paul; Llewellyn, Ralph. Modern Physics. 4ª ed. [S.l.]: W. H. Freeman, 2002. ISBN

0-7167-4345-0

As formulações matemáticas da mecânica quântica são os formalismos matemáticos que

permitam uma descrição rigorosa da mecânica quântica. Estas, por sua vez, se distinguem do

formalismo matemático da mecânica clássica, (antes do início de 1900) pelo uso de estruturas

matemáticas abstratas, tais como espaços de Hilbert de dimensão infinita e operadores sobre

estes espaços. Muitas destas estruturas são retiradas da análise funcional, uma área de

pesquisa dentro matemática que foi influenciada, em parte, pelas necessidades da mecânica

quântica. Em resumo, os valores de observáveis físicos, tais como energia e momento já não

eram considerados como valores de funções em espaço de fase, mas como autovalores, mais

precisamente: como valores espectrais deoperadores lineares no espaço de Hilbert.[1]

Estas formulações da mecânica quântica, continuem a ser utilizados hoje. No coração da

descrição são as idéias de estado quântico e quantum observáveis que são radicalmente

diferentes daqueles usados em anos anteriores modelos da realidade física. Enquanto a

matemática permite o cálculo das quantidades de muitos que podem ser medidos

experimentalmente, há um limite teórico definido para valores que podem ser medidos em

simultâneo. Essa limitação foi elucidada por Heisenberg através de um experimento mental, E

é representado matematicamente no formalismo de novo pelo comutatividade não dos

observáveis quânticos.

Antes do surgimento da mecânica quântica como unidade teoria, a matemática utilizada na

física consistiu principalmente em geometria diferencial e equações diferenciais parciais; teoria

das probabilidades foi utilizado em mecânica estatística. intuição geométrica claramente

desempenhou um papel importante nos dois primeiros e, consequentemente, teorias da

relatividade foram formuladas inteiramente em termos de conceitos geométricos. A

fenomenologia da física quântica surgiu aproximadamente entre 1895 e 1915, e de 10 a 15

anos antes do surgimento da teoria quântica (cerca de 1925) os físicos continuam a pensar da

teoria quântica dentro dos limites do que é agora chamado física clássicaE, em particular

dentro das mesmas estruturas matemáticas. O exemplo mais sofisticado deste é o quantização

de Sommerfeld-Wilson-Ishiwara regra, que foi formulada inteiramente no espaço de fase

clássico.

[editar]Postulados da mecânica quântica

Na Mecânica Clássica a descrição de um sistema físico é resumida da seguinte forma:

O estado físico do sistema em um dado tempo t0 é descrito por especificando-se as   

coordenadas generalizadas   e seus momentos conjugados 

O valor dessas grandezas físicas em um dado tempo é completamente determinado se

o estado desse sistema neste tempo é conhecido. Ou seja, se o estado do sistema é

conhecido podemos determinar com exatidão o estado posterior do sistema após a medida

feita em 

A evolução no estado do sistema é dado pelas leis de Newton ou por formulações

equivalentes (mecânica lagrangiana ou hamiltoniana). O estado do sistema fica

completamente determinado se conhecemos suas condições iniciais

Page 12: Física 1

A mecânica quântica pode ser formulada a partir de diversos conjuntos de postulados e de

diversos formalismos matemáticos. Seguem os postulados que fazem uso da análise

funcional e que são adotados por considerável parte de textos básicos de mecânica quântica[2].

Todo sistema físico está associado a um espaço de Hilbert H complexo e separável,

sendo o produto interno de H definido por  . A todo estado físico associa-se um

conjunto de vetores unitários de H que diferem apenas por uma fase complexa.

Toda grandeza física, também chamada de observável, está associada a um operador

auto-adjunto densamente definido em H.

Os resultados possíveis em uma medida de um observável correspondem

ao espectro do observável correspondente.

Seja A um observável físico com espectro discreto  . Quando é

realizada uma medida em A, a probabilidade   de encontrar o autovalor   é dada

por

,

onde   é o grau de degenerescência de   e   correspondem aos autovetores de A

com autovalor  .

Se em uma medida de uma grandeza física   no estado   encontramos um

autovalor   de  , imediatamente após a medida o estado do sistema será a

projeção normalizada de   no auto-espaço associado a  . Dessa forma, toda

medida imediatamente após a primeira medida terá o mesmo resultado.

A evolução no tempo   do vetor de estado de um sistema físico é governada

pela Equação de Schrödinger, desde que o sistema físico mantenha coêrencia

onde H é o Hamiltoniano do sistema e   é a constante reduzida de Planck.

O Postulado da simetrização nos diz que quando um sistema possui várias

partículas idênticas somente alguns kets do espaço dos estados podem descrever

um sistema físico. Estes kets são, dependendo da natureza das partículas,

completamente simétricos ou completamente assimétricos com respeito à

permutação das partículas. Particulas que possuem vetores de estado simétricos

são chamadas de bósons enquanto que as que possuem vetores de estado

assimétrico são chamadas de férmions.

Referências

Page 13: Física 1

1. ↑  Frederick W. Byron, Robert W. Fuller; Mathematics of classical and quantum physics;

Courier Dover Publications, 1992.

2. ↑  Cohen-Tannoudji, C.; Diu, B.; Laloë, F. Quantum Mechanics. Quantum Mechanics.

[S.l.]: Wiley, 1997. vol. 1.

[editar]Bibliografia

Mathematical formulations , "Mathematical Formulations of Quantum

Mechanics",http://www.iue.tuwien.ac.at/phd/kosik/node67.html

T.S. Kuhn , Black-Body Theory and the Quantum Discontinuity, 1894–1912,

Clarendon Press, Oxford and Oxford University Press, New York, 1978.

S. Auyang, How is Quantum Field Theory Possible?, Oxford University Press,

1995.

D. Edwards, The Mathematical Foundations of Quantum Mechanics, Synthese, 42

(1979),pp. 1–70.

G. Emch, Algebraic Methods in Statistical Mechanics and Quantum Field Theory,

Wiley-Interscience, 1972.

J.M. Jauch, Foundations of quantum mechanics, Addison-Wesley Publ. Cy.,

Reading, Mass., 1968.

R. Jost, The General Theory of Quantized Fields, American Mathematical Society,

1965.

A. Gleason , Measures on the Closed Subspaces of a Hilbert Space, Journal of

Mathematics and Mechanics, 1957.

G. Mackey , Mathematical Foundations of Quantum Mechanics, W. A. Benjamin,

1963 (paperback reprint by Dover 2004).

J. von Neumann , Mathematical Foundations of Quantum Mechanics, Princeton

University Press, 1955. Reprinted in paperback form.

R. F. Streater  and A. S. Wightman, PCT, Spin and Statistics and All That,

Benjamin 1964 (Reprinted by Princeton University Press)

M. Reed  and B. Simon, Methods of Mathematical Physics, vols I–IV, Academic

Press 1972.

G. Teschl , Mathematical Methods in Quantum Mechanics with Applications to

Schrödinger Operators,http://www.mat.univie.ac.at/~gerald/ftp/book-schroe/,

American Mathematical Society, 2009.

N. Weaver, "Mathematical Quantization", Chapman & Hall/CRC 2001.

H. Weyl , The Theory of Groups and Quantum Mechanics, Dover Publications,

1950.

Princípio da incerteza de HeisenbergOrigem: Wikipédia, a enciclopédia livre.

Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde Maio de 2011).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.

Page 14: Física 1

Werner Heisenberg

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Esconder]Conceitos fundamentais

Estado quântico · Função de onda

Superposição · Emaranhamento

Medição · Incerteza

Exclusão · Dualidade

Decoerência · Teorema de

Ehrenfest ·Tunelamento

[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

Page 15: Física 1

A Wikipédia possui o portal:Portal de Física

O princípio da incerteza de Heisenberg consiste num enunciado da mecânica quântica, formulado

inicialmente em 1927 por Werner Heisenberg, impondo restrições à precisão com que se podem

efetuar medidas simultâneas de uma classe de pares de observáveis em nível subatômico.

Índice

  [esconder] 

1   Expressão

2   Natureza da medida em mecânica quântica

3   Observáveis e operadores

4   O papel do princípio da incerteza nas formulações modernas da mecânica quântica

5   Referências

6   Bibliografia

Expressão [editar]

Pode-se exprimir o princípio da incerteza nos seguintes termos:

O produto da incerteza associada ao valor de uma coordenada xi e a incerteza associada ao seu

correspondente momento linear pi não pode ser inferior, em grandeza, à constante de Planck

normalizada.1 Em termos matemáticos, exprime-se assim:

onde   é a Constante de Planck (h) dividida por 2π.

A explicação disso é fácil de se entender, e fala mesmo em favor da intuição, embora o raciocínio

clássico e os aspectos formais da análise matemática tenham levado os cientistas a pensarem

diferentemente por muito tempo. Quando se quer encontrar a posição de um elétron, por exemplo, é

necessário fazê-lo interagir com algum instrumento de medida, direta ou indiretamente. Por

exemplo, faz-se incidir sobre ele algum tipo de radiação. Tanto faz aqui que se considere a radiação

do modo clássico - constituída por ondas eletromagnéticas - ou do modo quântico - constituída

por fótons. Se se quer determinar a posição do elétron, é necessário que a radiação tenha

comprimento de onda da ordem da incerteza com que se quer determinar a posição.

Neste caso, quanto menor for o comprimento de onda (maior freqüência) maior é a precisão.

Contudo, maior será a energia cedida pela radiação (onda ou fóton) em virtude da relação

dePlanck entre energia e freqüência da radiação

Page 16: Física 1

e o elétron sofrerá um recuo tanto maior quanto maior for essa energia, em virtude do efeito

Compton. Como conseqüência, a velocidade sofrerá uma alteração não de todo previsível, ao

contrário do que afirmaria a mecânica clássica.

Argumentos análogos poderiam ser usados para se demonstrar que ao se medir a velocidade com

precisão, alterar-se-ia a posição de modo não totalmente previsível.

Resumidamente, pode-se dizer que tudo se passa de forma que quanto mais precisamente se medir

uma grandeza, forçosamente mais será imprecisa a medida da grandeza correspondente, chamada

de canonicamente conjugada

Algumas pessoas consideram mais fácil o entendimento através da analogia. Para se descobrir a

posição de uma bola de plástico dentro de um quarto escuro, podemos emitir algum tipo de radiação

e deduzir a posição da bola através das ondas que "batem" na bola e voltam. Se quisermos calcular

a velocidade de um automóvel, podemos fazer com que ele atravesse doisfeixes de luz, e calcular o

tempo que ele levou entre um feixe e outro. Nem radiação nem a luz conseguem interferir de modo

significativo na posição da bola, nem alterar a velocidade do automóvel. Mas podem interferir muito

tanto na posição quanto na velocidade de um elétron, pois aí a diferença de tamanho entre o fóton

de luz e o elétron é pequena. Seria, mais ou menos, como fazer o automóvel ter de atravessar dois

troncos de árvores (o que certamente alteraria sua velocidade), ou jogar água dentro do quarto

escuro, para deduzir a localização da bola através das pequenas ondas que baterão no objeto e

voltarão; mas a água pode empurrar a bola mais para a frente, alterando sua posição. Desta forma

torna-se impossivel determinar a localização real desta bola pois a própria determinação mudará a

sua posição. Apesar disto, a sua nova posição pode ser ainda deduzida, calculando o quanto a bola

seria empurrada sabendo a força das ondas obtendo-se uma posição provável da bola e sendo

provável que a bola esteja localizada dentro daquela área.

Natureza da medida em mecânica quântica [editar]

Como se pode depreender da argumentação acima exposta, a natureza de uma medida sofre sérias

reformulações no contexto da mecânica quântica. De fato, na mecânica quântica uma propriedade

leva o nome de observável, pois não existem propriedades inobserváveis nesse contexto. Para a

determinação de um observável, é necessário que se tenha uma preparação conveniente do

aparato de medida, a fim de que se possa obter uma coleção de valores do ensemble de entes do

sistema. Se não puder montar, ao menos teoricamente (em um Gedankenexperiment) uma

preparação que possa medir tal grandeza (observável), então é impossível determiná-la naquelas

condições do experimento.

Uma comparação tornará mais clara essa noção. No experimento de difração da dupla fenda, um

feixe de elétrons atravessando uma fenda colimadora atinge mais adiante duas outras fendas

paralelas traçadas numa parede opaca.

Page 17: Física 1

Do lado oposto da parede opaca, a luz, atravessando as fendas simultaneamente, atinge um

anteparo. Se se puser sobre este um filme fotográfico, obtém-se pela revelação do filme um padrão

de interferência de zonas claras e escuras. Esse resultado indica umanatureza

ondulatória dos elétrons, resultado esse que motivou o desenvolvimento da mecânica quântica.

Entretanto, pode-se objetar e afirmar-se que a natureza dos elétrons seja corpuscular, ou seja,

composta de fótons. Pode-se então perguntar por qual fenda o elétron atravessou para alcançar o

anteparo. Para determinar isso, pode-se pôr, junto de cada fenda, uma pequena fonte luminosa que,

ao menos em princípio, pode indicar a passagem dos elétrons por tal ou qual fenda. Entretanto, ao

fazê-lo, o resultado do experimento é radicalmente mudado. A figura de interferência, antes

presente, agora dá lugar a uma distribuição gaussiana bimodal de somente duas zonas claras em

meio a uma zona escura, e cujos máximos se situam em frente às fendas.

Isso acontece porque as naturezas ondulatória e corpuscular do elétron não podem

ser simultaneamente determinadas. A tentativa de determinar uma inviabiliza a determinação da

outra. Essa constatação da dupla natureza da matéria (e da luz) leva o nome de princípio da

complementaridade.

Essa analogia serve para mostrar como o mundo microfísico tem aspectos que diferem

significativamente do que indica o senso comum.

Para se entender perfeitamente o alcance e o real significado do princípio da incerteza, é necessário

que se distingam três tipos reconhecidos de propriedades dinâmicas em mecânica quântica:

1. Propriedades compatíveis: são aquelas para as quais a

medida simultânea e arbitrariamente precisa de seus valores não sofre nenhum tipo de

restrição básica. Exemplo: a medição simultânea das coordenadas x, y e z de uma

partícula. A medição simultânea dos momentos px,py e pz de uma partícula.

2. Propriedades mutuamente excludentes: são aquelas para as quais a medida simultânea é

simplesmente impossível. Exemplo: se um elétron está numa posição xi, não pode estar

simultaneamente na posição diferente xj.

3. Propriedades incompatíveis: são aquelas correspondentes a grandezas canonicamente

conjugadas, ou seja, aquelas cujas medidas não podem ser simultaneamente medidas

com precisão arbitrária. Em outras palavras, são grandezas cujas medidas simultâneas não

podem ser levadas a cabo em um conjunto de subsistemas identicamente preparados

(ensemble) para este fim, porque tal preparo não pode ser realizado. Exemplos: as

coordenadas x,y e z e seus correspondentes momentos px,py e pz, respectivamente. As

coordenadas angulares θi e os correspondentes momentos angulares Ji.

Observáveis e operadores [editar]

Page 18: Física 1

No formalismo matemático da mecânica quântica, os observáveis são representados por operadores

matemáticos sobre um espaço de Hilbert.

Esses operadores podem ser construídos a partir de seus equivalentes clássicos.

Na formulação de Heisenberg, as relações da incerteza podem ser dados na forma de um

operador comutador, que opera sobre dois outros operadores quaisquer:

onde A e B são operadores quaisquer.

No caso das relações de incerteza:

Dirac notou a semelhança formal entre o comutador e os parênteses de Poisson. Sabedor da

equivalência usada por Schrödingerquando este postulou a forma da equação de onda, Dirac

postulou as seguintes equivalências, que valem como receita para se acharem os operadores

quânticos correspondentes a grandezas clássicas:

A descrição ondulatória dos objetos microscópicos tem consequências teóricas importantes, como o

principio da incerteza de Heisenberg. O fato de os objetos microscópicos, em muitas situações,

terem uma localização no espaço mesmo que aproximada, implica que não podem ser descritos por

uma onda com um só comprimento de onda (onda plana), pois esta ocuparia todo o espaço. É

necessária uma superposição de comprimentos de ondas diferentes para se obter um "pacote" de

ondas mais bem localizado e que represente o objeto microscópico.

O papel do princípio da incerteza nas formulações modernas da mecânica quântica [editar]

Hoje em dia, o princípio da incerteza é importante principalmente por dois motivos: um histórico e

outro didático. Ambos são análogos: o princípio da incerteza mostra de maneira clara que

concepções clássicas a respeito da medida devem ser abandonadas.

No entanto, o princípio da incerteza *não* é um bom princípio (ou postulado) da mecânica quântica,

já que é inexato e pouco geral. A mecânica quântica não-relativística é totalmente descrita com

alguns postulados, dos quais as relações de incerteza de Heisenberg surgem de forma pouco

natural. Mas o espírito do princípio da incerteza é mantido: não se pode ter um sistema que, ao ser

medido, tenha a probabilidade 1 de se encontrar tanto uma ou outra grandeza, se essas grandezas

corresponderem a operadores que não comutam. Iremos explicar isto melhor adiante:

Page 19: Física 1

Todas as grandezas que podem ser medidas correspondem aos chamados "autovalores" de certos

objetos matemáticos chamados de operadores (na verdade, a natureza requer que esses

operadores sejam de uma classe especial, a dos "observáveis"). Chamemos um operador qualquer

de A, e chamemos seus autovalores de a_n (a_1 é um autovalor, a_2 é outro e assim por diante).

Existem estados quânticos, chamados "autoestados" (que representaremos por  ) do

operador A, nos quais uma medida tem 100% de chance de encontrar o valor a_n. Esses

autoestados e esses autovalores são definidos pela seguinte equação:

Um operador é dito um observável se esses autoestados   formarem uma "base". Diz-se que

um grupo qualquer de estados quânticos formam uma base se qualquer outro estado quântico puder

ser escrito como uma superposição deles. Ou seja, para qualquer estado quântico  ,

Onde os coeficientes  , em geral complexos, indicam o quanto os autoestados

correspondentes   influenciam no estado resultante,  . Um dos postulados da mecânica

quântica diz que a probabilidade de uma medida da grandeza A revelar o valor a_n é:

Quando o sistema está no autoestado  , o postulado acima mostra que a probabilidade de se

encontrar o valor a_n correspondente é 100%. Assim, pode-se dizer que o sistema *possui a

grandeza A bem definida*.

Agora consideremos dois operadores A e B, como o operador da posição e o operador do momento.

Em geral, os autoestados de um operador não são os mesmos autoestados do outro operador.

Consequentemente, se o sistema está em um estado quântico onde a grandeza A é bem definida, a

grandeza B não será bem definida. Ou seja, haverá uma "incerteza" na grandeza B.

Mas, e se o sistema estiver num estado onde a grandeza A é bem definida, e efetuarmos uma

medida na grandeza B? Pode-se pensar que, então, saberemos exatamente o valor de ambas as

grandezas. Mas isso está errado, devido a outro dos postulados da mecânica quântica: se uma

medida de uma grandeza qualquer B revela o valor b_n, então o sistema *é perturbado pela

medida*, e passa para o autoestado   correspondente à grandeza B_n.

Então, suponha que dois operadores A e B não possuem os mesmos autoestados. Se efetuarmos

em um sistema qualquer a medida da grandeza A, e encontrarmos um certo valor, o sistema se

torna um autoestado de A, com um valor bem definido de A e uma incerteza no valor de B. Se, após

isso, efetuarmos uma medida no valor de B, então lançamos o sistema num autoestado de B, com

um valor bem definido de B e uma incerteza no valor de A. Com isso, dizemos que é impossível

saber simultaneamente o valor da grandeza A e da grandeza B.

Page 20: Física 1

A incerteza entre a posição e o momento proposta por Heisenberg é, então, uma consequência dos

postulados da mecânica quântica, e não um postulado por si só.

Referências

1. ↑ Georgia State University, Department of Physics and Astronomy, Hyperphysics, The

Uncertainty Principle [em linha]

Bibliografia [editar]

A estrutura quântica da matéria - do átomo pré-socrático às partículas elementares.José

Leite Lopes - UFRJ Editora/Academia Brasileira de Ciências/ERCA-Editora e Gráfica limitada -

Rio de Janeiro

Química Quântica - Fundamentos e Métodos. José J.C.Teixeira Dias- Fundação Calouste

Gulbenkian – Lisboa

Werner HeisenbergOrigem: Wikipédia, a enciclopédia livre.

Werner Heisenberg 

Física

Heisenberg em 1933

Dados gerais

Page 21: Física 1

Nome de nascimento Werner Karl Heisenberg

Nacionalidade  Alemão

Nascimento 5 de Dezembro de 1901

Local Würzburg

 Império Alemão

Falecimento 1 de Fevereiro de 1976 (74 anos)

Local Munique

 Alemanha Ocidental

Cônjuge Elisabeth Shumacher 1

Tiveram sete filhos.

Actividade

Campo(s) Física

Instituições Universidade de Göttingen,Universidade de

Copenhague,Universidade de

Leipzig,Universidade Humboldt de

Berlim,Universidade de Munique

Alma mater Universidade de Munique

Orientador(es) Arnold Sommerfeld

Orientado(s) Erich Bagge, Felix Bloch,Hans Heinrich

Euler,Hermann Arthur Jahn,Rudolf

Peierls, Reinhard Oehme,Raziuddin Siddiqui, Ivan

Supek,Edward Teller, Șerban Țițeica,Friedwardt

Winterberg

Prêmio(s) Medalha Matteucci (1929),   Nobel de Física

(1932),Medalha Max Planck (1933)

ver

Werner Karl Heisenberg (Würzburg, 5 de Dezembro de 1901 — Munique, 1 de Fevereiro de 1976)

foi um físico teórico alemão que recebeu o Prêmio Nobel de Físicaem 1932 "pela criação

Page 22: Física 1

da mecânica quântica, cujas aplicações levaram à descoberta, entre outras, das

formas alotrópicas do hidrogênio".

Juntamente com Max Born e Pascual Jordan, Heisenberg estabeleceu as bases daformulação

matricial da mecânica quântica em 1925. Em 1927, publicou o artigo Über den anschaulichen Inhalt

der quantentheoretischen Kinematik und Mechanik, em que apresenta o Princípio da incerteza.

Também fez importantes contribuições teóricas nos campos da hidrodinâmica de escoamentos

turbulentos, no estudo do núcleo atômico, do ferromagnetismo, dos raios cósmicos e das partículas

subatômicas. Teve ainda uma contribuição fundamental no planejamento do primeiro reator

nuclearalemão em Karlsruhe e de um reator de pesquisa em Munique, em 1957. Muitas

controvérsias envolvem o seu trabalho na pesquisa nuclear durante a Segunda Guerra Mundial.

Após a guerra, foi nomeado diretor do Instituto Kaiser Wilhelm de Física, que mais tarde passou a

ser denominado Instituto Max Planck de Física. Ele dirigiu o instituto até sua transferência para

Munique em 1958, quando foi ampliado e renomeadoInstituto Max Planck de Física e Astrofísica.

Heisenberg foi ainda presidente doConselho de Pesquisa Alemão, presidente da Comissão de

Física Atômica, presidente do Grupo de Física Nuclear de Trabalho, e presidente da Fundação

Alexander von Humboldt.

Índice

  [esconder] 

1   Carreira científica

2   A polêmica

3   Publicações

4   Referências

5   Ver também

6   Bibliografia

7   Ligações externas

Carreira científica [editar]

Em 1924 Heisenberg tornou-se assistente de Max Born no centro universitário deGöttingen,

transferiu-se para Copenhague, onde trabalhou com Niels Bohr.

Em 1925 desenvolveu a Mecânica matricial, o que constituiu o primeiro desenvolvimento

da Mecânica Quântica.

Page 23: Física 1

Conferência de Solvay de 1927. Na fila superior, Heisenberg é o terceiro a partir da direita.

Em 1927 passou a ensinar física na Universidade de Leipzig, onde enunciou o Princípio da

Incerteza ou Princípio de Heisenberg, segundo o qual é impossível medir simultaneamente e

com precisão absoluta a posição e avelocidade de uma partícula, isto é, a determinação

conjunta do momento e posição de uma partícula, necessariamente, contém erros não menores

que a constante de Planck. Esses erros são desprezíveis em âmbito macroscópico, porém se

tornam importantes para o estudo de partículas atômicas; as duas grandezas podem ser

determinadas exatamente de forma separada, quanto mais exata for uma delas, mais incerta se

torna a outra.

Em 1932, Heisenberg recebeu o Nobel de Física pela "criação da mecânica quântica, cuja

aplicação possibilitou, entre outras, a descoberta das formas alotrópicas do hidrogênio".

De 1942 a 1945, dirigiu o Instituto Max Planck, Berlim. Durante a Segunda Guerra

Mundial trabalhou com Otto Hahn, um dos descobridores da fissão nuclear, no projeto de

um reator nuclear. Sendo o lider do programa de construção de bomba atômica dos alemães, o

que motivou inclusive Niels Bohr a pôr fim na amizade entre eles.

Heisenberg organizou e dirigiu o Instituto de Física e Astrofísica de Göttingen.

Em 1958, o Instituto de Física e Astrofísica foi mudado para Munique, onde o cientista se

concentrou na pesquisa sobre a teoria das partículas elementares, fez descobertas sobre a

estrutura do núcleo atômico, da hidrodinâmica das turbulências, dos raios cósmicos e

do ferromagnetismo.

Participou da 5ª, 6ª e 7ª Conferência de Solvay.

A polêmica [editar]

Albert Einstein e outros cientistas rejeitaram as idéias do físico, pois estas romperam em grande

parte os princípios imóveis da física newtoniana. O "Princípio da incerteza de Heisenberg", utilizando

Page 24: Física 1

fartamente o cálculo estatístico, além de mecanismos desenvolvidos para a comprovação de suas

teorias, abriu um novo campo não só para a Física, mas para a teoria do conhecimento.

Publicações [editar]

Werner Heisenberg em 1927, na conferência de Solvay.

Publicou vários ensaios e livros, destacando-se:

Die physikalischen Prinzipien der Quantentheorie, 1930 (Os princípios físicos da teoria

dosquanta)

Die Physik der Atomkerne, 1943 (A física dos núcleos atômicos)

Physik und Philosophie, 1959 (Física e filosofia).

Der Ganz und das Teil, 1971 (A parte e o todo)

O filme Copenhagen 2 de 2002 com Daniel Craig, Stephen Rea e Francesca Annis (de O

Libertino(2004) e Duna (1985) narra a vida de Werner Karl Heisenberg.

Referências

1. ↑ (em português) Pucrs

2. ↑ (em inglês) PBS

Ver também [editar]

O Commons possui multimídias sobre Werner Heisenberg

Mecânica Quântica

Princípio de Heisenberg

Page 25: Física 1

Microcosmo

Vídeo - Tudo Sobre Incerteza - Mecânica Quântica

Primeira Parte no Google

Segunda Parte no Google

Terceira Parte no Google

Quarta Parte no Google

Quinta Parte no Google

Sexta Parte no Google

Bibliografia [editar]

(em alemão) David C. Cassidy: Werner Heisenberg. Leben und Werk. Spektrum

Akademischer Verlag, Heidelberg 1995, ISBN 3-86025-315-8

(em alemão) Ernst Peter Fischer: Werner Heisenberg : das selbstvergessene Genie : mit

einem Nachtrag zur Taschenbuchausgabe - Ungekürzte Taschenbuchausg. - Munique : Piper,

2002. ISBN 3-492-23701-0

(em alemão) Michael Schaaf: Heisenberg, Hitler und die Bombe. Gespräche mit Zeitzeugen.

GNT-Verlag, Berlim 2001, ISBN 3-928186-60-4

(em alemão) Gregor Schiemann: Werner Heisenberg (Beck'sche Reihe Denker). München:

C.H. Beck, 2008. ISBN 978-3-406-56840-4

(em inglês) Paul Lawrence Rose: Heisenberg and the Nazi Atomic Bomb Project, 1939–

1945: A Study in German Culture University of California Press, 1998, ISBN 0-520-21077-8

Ligações externas [editar]

Werner Heisenberg em Mathematics Genealogy Project

Perfil no sítio oficial do Nobel de Física 1932 (em inglês)

Precedido porChandrasekhara Venkata Raman

Medalha Matteucci1929

Sucedido porArthur Holly Compton

Precedido porChandrasekhara Venkata Raman

Nobel de Física1932

Sucedido porErwin Schrödinger e Paul Dirac

Precedido porMax von Laue

Medalha Max Planck1933

Sucedido porErwin Schrödinger

Mecânica quânticaOrigem: Wikipédia, a enciclopédia livre.

(Redirecionado de Mecânica Quântica)

Page 26: Física 1

Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde fevereiro de 2010).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:Portal de Física

A mecânica quântica é a teoria física que obtém sucesso no estudo dos sistemas físicos cujas

dimensões são próximas ou abaixo da escala atômica, tais

como moléculas, átomos,elétrons, prótons e de outras partículas subatômicas, muito embora

também possa descrever fenômenos macroscópicos em diversos casos. A Mecânica Quântica é um

ramo fundamental da física com vasta aplicação. A teoria quântica fornece descrições precisas para

muitos fenômenos previamente inexplicados tais como a radiação de corpo negro e as órbitas

estáveis do elétron. Apesar de na maioria dos casos a Mecânica Quântica ser relevante para

descrever sistemas microscópicos, os seus efeitos específicos não são somente perceptíveis em tal

escala. Por exemplo, a explicação de fenômenos macroscópicos como a super fluidez e

asupercondutividade só é possível se considerarmos que o comportamento microscópico da matéria

é quântico. A quantidade característica da teoria, que determina quando ela é necessária para a

descrição de um fenômeno, é a chamada constante de Planck, que tem dimensão de momento

angular ou, equivalentemente, de ação.

A mecânica quântica recebe esse nome por prever um fenômeno bastante conhecido dos físicos:

a quantização. No caso dos estados ligados (por exemplo, um elétron orbitando em torno de um

Page 27: Física 1

núcleo positivo) a Mecânica Quântica prevê que a energia (do elétron) deve ser quantizada. Este

fenômeno é completamente alheio ao que prevê a teoria clássica.

Índice

  [esconder] 

1   Um panorama

2   O conceito de estado na mecânica quântica

o 2.1   A representação do estado

3   Formulação matemática

o 3.1   Vetores e espaços vetoriais

o 3.2   Os operadores na mecânica quântica

o 3.3   O problema de autovalor e autovetor

o 3.4   O significado físico dos operadores, seus autovetores e autovalores

4   Aspectos históricos

5   Princípios

6   Conclusões

7   Formalismos

8   Referências

9   Bibliografia

10   Ver também

[editar]Um panorama

A palavra “quântica” (do Latim, quantum) quer dizer quantidade. Na mecânica quântica, esta palavra

refere-se a uma unidade discreta que a teoria quântica atribui a certas quantidades físicas, como

a energia de um elétron contido num átomo em repouso. A descoberta de que as ondas

eletromagnéticas podem ser explicadas como uma emissão de pacotes de energia (chamados

quanta) conduziu ao ramo da ciência que lida com sistemas moleculares,atômicos e subatômicos.

Este ramo da ciência é atualmente conhecido como mecânica quântica.

A mecânica quântica é a base teórica e experimental de vários campos da Física e da Química,

incluindo a física da matéria condensada, física do estado sólido, física atômica, física

molecular, química computacional, química quântica, física de partículas, efísica nuclear. Os

alicerces da mecânica quântica foram estabelecidos durante a primeira metade do século XX

por Albert Einstein,Werner Heisenberg, Max Planck, Louis de Broglie, Niels Bohr, Erwin

Schrödinger, Max Born, John von Neumann, Paul Dirac,Wolfgang Pauli, Richard Feynman e outros.

Alguns aspectos fundamentais da contribuição desses autores ainda são alvo de investigação.

Normalmente é necessário utilizar a mecânica quântica para compreender o comportamento de

sistemas em escala atômica ou molecular. Por exemplo, se a mecânica clássica governasse o

Page 28: Física 1

funcionamento de um átomo, o modelo planetário do átomo – proposto pela primeira vez

por Rutherford – seria um modelo completamente instável. Segundo a teoria eletromagnética

clássica, toda a carga elétrica acelerada emite radiação. Por outro lado, o processo de emissão de

radiação consome a energia da partícula. Dessa forma, o elétron, enquanto caminha na sua órbita,

perderia energia continuamente até colapsar contra o núcleo positivo!

[editar]O conceito de estado na mecânica quântica

Em física, chama-se "sistema" um fragmento concreto da realidade que foi separado para estudo.

Dependendo do caso, a palavra sistema refere-se a um elétron ou um próton, um pequeno átomo

de hidrogênio ou um grande átomo de urânio, uma molécula isolada ou um conjunto de moléculas

interagentes formando um sólido ou um vapor. Em todos os casos, sistema é um fragmento da

realidade concreta para o qual deseja-se chamar atenção.

Dependendo da partícula pode-se inverter polarizações subsequentes de aspecto neutro.

A especificação de um sistema físico não determina unicamente os valores que experimentos

fornecem para as suas propriedades (ou as probabilidades de se medirem tais valores, em se

tratando de teorias probabilísticas). Além disso, os sistemas físicos não são estáticos,

eles evoluem com o tempo, de modo que o mesmo sistema, preparado da mesma forma, pode dar

origem a resultados experimentais diferentes dependendo do tempo em que se realiza a medida (ou

a histogramas diferentes, no caso de teorias probabilísticas). Essa ideia conduz a outro conceito-

chave: o conceito de "estado". Um estado é uma quantidade matemática (que varia de acordo com a

teoria) que determina completamente os valores das propriedades físicas do sistema associadas a

ele num dado instante de tempo (ou as probabilidades de cada um de seus valores possíveis serem

medidos, quando se trata de uma teoria probabilística). Em outras palavras, todas as informações

possíveis de se conhecer em um dado sistema constituem seu estado

Cada sistema ocupa um estado num instante no tempo e as leis da física devem ser capazes de

descrever como um dado sistema parte de um estado e chega a outro. Em outras palavras, as leis

da física devem dizer como o sistema evolui (de estado em estado).

Muitas variáveis que ficam bem determinadas na mecânica clássica são substituídas por

distribuições de probabilidades na mecânica quântica, que é uma teoria intrinsicamente

probabilística (isto é, dispõe-se apenas de probabilidades não por uma simplificação ou ignorância,

mas porque isso é tudo que a teoria é capaz de fornecer).

[editar]A representação do estado

No formalismo da mecânica quântica, o estado de um sistema num dado instante de tempo pode

ser representado de duas formas principais:

1. O estado é representado por uma função complexa das posições ou dos momenta de cada

partícula que compõe o sistema. Essa representação é chamada função de onda.

Page 29: Física 1

2. Também é possível representar o estado por um vetor num espaço vetorial complexo.1 Esta

representação do estado quântico é chamada vetor de estado. Devido à notação

introduzida por Paul Dirac, tais vetores são usualmente chamados kets (sing.: ket).

Em suma, tanto as "funções de onda" quanto os "vetores de estado" (ou kets) representam os

estados de um dado sistema físico de forma completa e equivalente e as leis da mecânica quântica

descrevem como vetores de estado e funções de onda evoluem no tempo.

Estes objetos matemáticos abstratos (kets e funções de onda) permitem o cálculo

da probabilidade de se obter resultados específicos em um experimento concreto. Por exemplo, o

formalismo da mecânica quântica permite que se calcule a probabilidade de encontrar um elétron

em uma região particular em torno do núcleo.

Para compreender seriamente o cálculo das probabilidades a partir da informação representada nos

vetores de estado e funções de onda é preciso dominar alguns fundamentos de álgebra linear.

[editar]Formulação matemática

Ver artigo principal: Formulação matemática da mecânica quântica

Muitos fenômenos quânticos difíceis de se imaginar concretamente podem compreendidos com um

pouco de abstração matemática. Há três conceitos fundamentais da matemática - mais

especificamente da álgebra linear - que são empregados constantemente pela mecânica quântica.

São estes: (1) o conceito de operador; (2) de autovetor; e (3) de autovalor.

[editar]Vetores e espaços vetoriais

Ver artigo principal: Espaço vetorial

Na álgebra linear, um espaço vetorial (ou o espaço linear) é uma coleção dos objetos abstratos

(chamados vetores) que possuem algumas propriedades que não serão completamente detalhadas

aqui.

Por agora, importa saber que tais objetos (vetores) podem ser adicionados uns aos outros e

multiplicados por um número escalar. O resultado dessas operações é sempre um vetor pertencente

ao mesmo espaço. Os espaços vetoriais são os objetos básicos do estudo na álgebra linear, e têm

várias aplicações na matemática, na ciência, e na engenharia.

O espaço vetorial mais simples e familiar é o espaço Euclidiano bidimensinal. Os vetores neste

espaço são pares ordenados e são representados graficamente como "setas" dotadas de módulo,

direção e sentido. No caso do espaço euclidiano bidimensional, a soma de dois vetores quaisquer

pode ser realizada utilizando a regra do paralelogramo.

Todos os vetores também podem ser multiplicados por um escalar - que no espaço Euclidiano é

sempre um número real. Esta multiplicação por escalar poderá alterar o módulo do vetor e seu

sentido, mas preservará sua direção. O comportamento de vetores geométricos sob estas

Page 30: Física 1

operações fornece um bom modelo intuitivo para o comportamento dos vetores em espaços mais

abstratos, que não precisam de ter a mesma interpretação geométrica. Como exemplo, é possível

citar o espaço de Hilbert (onde "habitam" os vetores da mecânica quântica). Sendo ele também um

espaço vetorial, é certo que possui propriedades análogas àquelas do espaço Euclidiano.

[editar]Os operadores na mecânica quântica

Ver artigo principal: Transformação linear

Um operador é um ente matemático que estabelece uma relação funcional entre dois espaços

vetoriais. A relação funcional que um operador estabelece pode ser chamada transformação

linear. Os detalhes mais formais não serão apontados aqui. Interessa, por enquanto, desenvolver

uma ideia mais intuitiva do que são esses operadores.

Por exemplo, considere o Espaço Euclidiano. Para cada vetor nesse espaço é possível executar

uma rotação (de um certo ângulo) e encontrar outro vetor no mesmo espaço. Como essa rotação é

uma relação funcional entre os vetores de um espaço, podemos definir um operador que realize

essa transformação. Assim, dois exemplos bastante concretos de operadores são os de rotação e

translação.

Do ponto de vista teórico, a semente da ruptura entre as física quântica e clássica está no emprego

dos operadores. Na mecânica clássica, é usual descrever o movimento de uma partícula com uma

função escalar do tempo. Por exemplo, imagine que vemos um vaso de flor caindo de uma janela.

Em cada instante de tempo podemos calcular a que altura se encontra o vaso. Em outras palavras,

descrevemos a grandeza posição com um número (escalar) que varia em função do tempo.

Uma característica distintiva na mecânica quântica é o uso de operadores para representar

grandezas físicas. Ou seja, não são somente as rotações e translações que podem ser

representadas por operadores. Na mecânica quântica grandezas como posição, momento linear,

momento angular e energia também são representados por operadores.

Até este ponto já é possível perceber que a mecânica quântica descreve a natureza de forma

bastante abstrata. Em suma, os estados que um sistema físico pode ocupar são representados por

vetores de estado (kets) ou funções de onda (que também são vetores, só que no espaço das

funções). As grandezas físicas não são representadas diretamente por escalares (como 10 m, por

exemplo), mas por operadores.

Para compreender como essa forma abstrata de representar a natureza fornece informações sobre

experimentos reais é preciso discutir um último tópico da álgebra linear: o problema de autovalor e

autovetor.

O problema de autovalor e autovetor

O problema de autovalor e autovetor é um problema matemático abstrato sem o qual não é

possível compreender seriamente o significado da mecânica quântica.

Page 31: Física 1

Em primeiro lugar, considere o operador Â de uma transformação linear arbitrária que relacione

vetores de um espaço E com vetores do mesmo espaço E. Neste caso, escreve-se [eq.01]:

Observe que qualquer matriz quadrada satisfaz a condição imposta acima desde que os

vetores no espaço E possam ser representados como matrizes-coluna e que a atuação

de Â sobre os vetores de E ocorra conforme o produto de matrizes a seguir:

Como foi dito, a equação acima ilustra muito bem a atuação de um operador do tipo

definido em [eq.01]. Porém, é possível representar a mesma ideia de forma mais

compacta e geral sem fazer referência à representação matricial dos operadores

lineares [eq.02]:

Para cada operador Â existe um conjunto   tal que cada vetor

do conjunto satisfaz [eq.03]:

A equação acima é chamada equação de autovalor e autovetor. Os

vetores do conjunto   são

chamadosautovetores. Os escalares do

conjunto   são chamados autovalores. O

conjunto dos autovalores   também é chamado espectro do

operador Â.

Para cada autovalor corresponde um autovetor e o número de pares

autovalor-autovetor é igual à dimensão do espaço E onde o

operador Â está definido. Em geral, o espectro de um

operador Â qualquer não é contínuo, mas discreto. Encontrar os

autovetores e autovalores para um dado operador Â é o

chamado problema de autovalor e autovetor.

De antemão o problema de autovalor e autovetor possui duas

características:

(1)   satisfaz o problema para qualquer operador Â. Por isso,

o vetor nulo   não é considerado uma resposta do problema.

(2) Se   satisfaz a equação de autovalor e autovetor, então seu

múltiplo   também é uma resposta ao problema para

qualquer 

Page 32: Física 1

Enfim, a solução geral do problema de autovalor e autovetor é

bastante simples. A saber:

Onde:

Como   não pode ser considerado uma

solução do problema, é necessário que:

A equação acima é um polinômio de grau n.

Portanto, para qualquer

operador   há n quantidades

escalares  distintas ou não tais que a

equação de autovetor e autovalor é satisfeita.

Os autovetores correspondentes aos

autovalores   de um

operador Â podem ser obtidos facilmente

substituindo os autovalores um a um na [eq.03].

[editar]O significado físico dos operadores, seus autovetores e autovalores

Para compreender o significado físico de toda

essa representação matemática abstrata,

considere o exemplo do operador de Spin na

direção z: 

Na mecânica quântica, cada partícula tem

associada a si uma quantidade sem análogo

clássico chamada spin ou momento

angularintrínseco. O spin de uma partícula é

representado como um vetor com projeções

nos eixos x, y e z. A cada projeção do vetor

spin : corresponde um operador:

O operador   é geralmente representado da

seguinte forma:

Page 33: Física 1

É possível resolver o problema de autovetor e

autovalor para o operador   Nesse caso

obtém-se:

ou seja

Portanto, os autovalores são   e 

[editar]Aspectos históricos

Ver artigo principal: História da mecânica

quântica

A história da mecânica quântica começou

essencialmente em 1838 com a descoberta

dos raios catódicos por Michael Faraday, a

enunciação em 1859 do problema da radiação

de corpo negro por Gustavo Kirchhoff, a

sugestão 1877 por Ludwig Boltzmann que os

estados de energia de um sistema físico

poderiam ser discretos, e a hipótese por Planck

em 1900 de que toda a energia é irradiada e

absorvida na forma de elementos discretos

chamados quanta. Segundo Planck, cada um

desses quanta tem energia proporcional à

frequência ν da radiação eletromagnética

emitida ou absorvida.

Planck insistiu que este foi apenas um aspecto

dos processos de absorção e emissão de

radiação e não tinha nada a ver com a

realidade física da radiação em si.2 No entanto,

naquele tempo isso parecia não explicar

o efeito fotoelétrico (1839), ou seja, que a luz

brilhante em certos materiais pode ejetar

elétrons do material. Em 1905, baseando seu

trabalho na hipótese quântica de Planck,Albert

Einstein postulou que a própria luz é formada

por quanta individuais.3

Page 34: Física 1

Em meados da década de 1920, a evolução da

mecânica quântica rapidamente fez com que

ela se tornasse a formulação padrão para a

física atômica. No verão de 1925, Bohr e

Heisenberg publicaram resultados que

fechavam a "Antiga teoria quântica". Quanta de

luz vieram a ser chamados fótons (1926). Da

simples postulação de Einstein nasceu uma

enxurrada de debates, teorias e testes e, então,

todo o campo da física quântica, levando à sua

maior aceitação na quinta Conferência de

Solvay em 1927.

[editar]Princípios

Primeiro princípio: Princípio da

superposição

Na mecânica quântica, o estado de um

sistema físico é definido pelo conjunto de

todas as informações que podem ser extraídas

desse sistema ao se efetuar alguma medida.

Na mecânica quântica, todos os estados são

representados por vetores em um espaço

vetorial complexo: o Espaço de Hilbert H.

Assim, cada vetor no espaço H representa um

estado que poderia ser ocupado pelo sistema.

Portanto, dados dois estados quaisquer, a

soma algébrica (superposição) deles também é

um estado.

Como a norma dos vetores de estado não

possui significado físico, todos os vetores de

estado são preferencialmente normalizados. Na

notação de Dirac, os vetores de estado são

chamados "Kets" e são representados como

aparece a seguir:

Usualmente, na matemática, são

chamados funcionais todas as funções

lineares que associam vetores de um

espaço vetorial qualquer a um escalar. É

sabido que os funcionais dos vetores de

um espaço também formam um espaço,

que é chamado espaço dual. Na notação

de Dirac, os funcionais - elementos do

Espaço Dual - são chamados "Bras" e são

representados como aparece a seguir:

Page 35: Física 1

Segundo princípio: Medida de

grandezas físicas

a) Para toda grandeza física A é associado um operador linear auto-

adjunto Â pertencente a A: Â é o observável (autovalor do operador) representando a

grandeza A.

b) Seja   o estado no qual o sistema se encontra no momento onde efetuamos a

medida de A. Qualquer que seja   os únicos resultados possíveis são os

autovalores de   do observável Â.

c) Sendo   o projetor sobre o subespaço associado ao valor próprio   a

probablidade de encontrar o valor   em uma medida de A é:

 onde 

d) Imediatamente após uma medida de A, que resultou no valor   o novo

estado   do sistema é

Terceiro princípio: Evolução

do sistema

Seja   o estado de um

sistema ao instante t. Se o sistema

não é submetido a nenhuma

observação, sua evolução, ao

longo do tempo, é regida pela

equação de Schrödinger:

onde   é o hamiltoniano do

sistema.

[editar]Conclusões

As conclusões mais

importantes são:

Em estados ligados, como

o elétron girando ao redor

do núcleo de um átomo,

a energia não se troca de

modo contínuo, mas sim

de modo discreto

Page 36: Física 1

(descontínuo), em

transições cujas energias

podem ou não ser iguais

umas às outras. A ideia

de que estados ligados

têm níveis de energias

discretas é devida a Max

Planck.

O fato de ser impossível

atribuir ao mesmo

tempo uma posição e um

momento exatas a uma

partícula, renunciando-se

assim ao conceito

de trajetória, vital

em Mecânica Clássica.

Em vez de trajetória, o

movimento de partículas

em Mecânica Quântica é

descrito por meio de

uma função de onda, que

é uma função da posição

da partícula e do tempo. A

função de onda é

interpretada por Max

Born como uma medida

da probabilidade de se

encontrar a partícula em

determinada posição e em

determinado tempo. Esta

interpretação é a mais

aceita pelos físicos hoje,

no conjunto de atribuições

da Mecânica Quântica

regulamentados pela

Escola de Copenhagen.

Para descrever a

dinâmica de um sistema

quântico deve-se,

portanto, achar sua

função de onda, e para

este efeito usam-se as

equações de movimento,

propostas por Werner

Heisenberg e Erwin

Schrödinger independente

mente.

Page 37: Física 1

Apesar de ter sua estrutura

formal basicamente pronta

desde a década de 1930, a

interpretação da Mecânica

Quântica foi objeto de estudos

por várias décadas. O

principal é o problema da

medição em Mecânica

Quântica e sua relação com

a não-localidade 

ecausalidade. Já

em 1935, Einstein, Podolski e 

Rosen publicaram

seu Gedankenexperiment,

mostrando uma aparente

contradição entre localidade e

o processo de Medida em

Mecânica Quântica. Nos anos

60 J. S. Bell publicou uma

série de relações que seriam

respeitadas caso a localidade

— ou pelo menos como a

entendemos classicamente —

ainda persistisse em sistemas

quânticos. Tais condições são

chamadas desigualdades de

Bell e foram testadas

experimentalmente por Alain

Aspect, P. Grangier, Jean

Dalibard em favor da

Mecânica Quântica. Como

seria de se esperar, tal

interpretação ainda causa

desconforto entre vários

físicos, mas a grande parte da

comunidade aceita que

estados correlacionados

podem violar causalidade

desta forma.

Tal revisão radical do nosso

conceito de realidade foi

fundamentada em explicações

teóricas brilhantes para

resultados experimentais que

não podiam ser descritos pela

teoria clássica, e que incluem:

Page 38: Física 1

Espectro de Radiação

do Corpo negro, resolvido

por Max Planck com a

proposição da

quantização da energia.

Explicação

do experimento da dupla

fenda, no qual eléctrons

produzem um padrão

de interferência condizent

e com o comportamento

ondular.

Explicação por Albert

Einstein do efeito

fotoelétrico descoberto

por Heinrich Hertz, onde

propõe que a luz também

se propaga

emquanta (pacotes de

energia definida), os

chamados fótons.

O Efeito Compton, no qual

se propõe que os fótons

podem se comportar

como partículas, quando

sua energia for grande o

bastante.

A questão do calor

específico de sólidos sob

baixas temperaturas, cuja

discrepância foi explicada

pelas teorias de Einstein e

deDebye, baseadas

na equipartição de

energia segundo a

interpretação quantizada

de Planck.

A absorção ressonante e

discreta de energia por

gases, provada

no experimento de

Franck-Hertz quando

submetidos a certos

valores de diferença de

potencial elétrico.

A explicação da

estabilidade atômica e da

natureza discreta

Page 39: Física 1

das raias espectrais,

graças ao modelo

do átomo de Bohr, que

postulava a quantização

dos níveis de energia do

átomo.

O desenvolvimento formal da

teoria foi obra de esforços

conjuntos de muitos físicos e

matemáticos da época

como Erwin

Schrödinger,Werner

Heisenberg, Einstein, P.A.M.

Dirac, Niels Bohr e John von

Neumann, entre outros (de

uma longa lista).

[editar]Formalismos

Mais tarde, foi introduzido o

formalismo hamiltoniano,

baseado matematicamente no

uso do lagrangiano, mas cuja

elaboração matemática é

muitas vezes mais fácil.

Referências

↑  Greiner, Walter;

Müller, Berndt

(1994), Quantum

Mechanics Symmetries,

Second Edition, cap. 2,,

Springer-Verlag,

p. 52, ISBN 3-540-

58080-8

↑  T.S. Kuhn, Black-body

theory and the quantum

discontinuity 1894-1912,

Clarendon Press,

Oxford, 1978.

↑  A. Einstein, Über

einen die Erzeugung

und Verwandlung des

Page 40: Física 1

Lichtes betreffenden

heuristischen

Gesichtspunkt (Um

ponto de vista heurístico

a respeito da produção

e transformação da

luz), Annalen der

Physik 17 (1905) 132-

148 (reimpresso em The

collected papers of

Albert Einstein, John

Stachel, editor,

Princeton University

Press, 1989, Vol. 2, pp.

149-166, em alemão;

ver também Einstein's

early work on the

quantum

hypothesis, ibid. pp.

134-148).

[editar]Bibliografia

Mehra, J.; Rechenberg,

H.. The historical

development of quantum

theory (em inglês).

[S.l.]: Springer-Verlag,

1982.

Kuhn, T.S.. Black-body

theory and the quantum

discontinuity 1894-

1912 (em inglês). Oxford: 

Clarendon Press,

1978. Nota: O "Princípio

da Incerteza" de

Heisenberg é parte central

dessa teoria e daí nasceu

a famosa equação de

densidade de probalidade

de Schrödinger.

Page 41: Física 1

Introdução à mecânica quânticaOrigem: Wikipédia, a enciclopédia livre.

Este artigo pretende ser uma introdução geral e acessível ao conceito, para mais informações veja o artigo Mecânica quântica.

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:

Portal de Física

Werner Heisenberg e Erwin Schrödinger, criadores da mecânica quântica.

Page 42: Física 1

Mecânica quântica (ou teoria quântica) é um ramo da física que lida com o comportamento

damatéria e da energia na escala de átomos e partículas subatômicas. A mecânica quântica é

fundamental ao nosso entendimento de todas as forças fundamentais da natureza, exceto

agravidade.

A mecânica quântica é a base de diversos ramos da física, incluindo eletromagnetismo, física

de partículas, física da matéria condensada, e até mesmo partes da cosmologia. A mecânica

quântica também é essencial para a teoria das ligações químicas (e portanto de

toda química),biologia estrutural, e tecnologias como a eletrônica, tecnologia da informação,

e nanotecnologia. Um século de experimentos e trabalho na física aplicada provou que a

mecânica quântica está correta e tem utilidades práticas.

A mecânica quântica começou no início do século 20, com o trabalho pioneiro de Max

Planck eNiels Bohr. Max Born criou o termo "mecânica quântica" em 1924. A comunidade de

física logo aceitou a mecânica quântica devido a sua grande precisão nas previsões empíricas,

especialmente em sistemas onde a mecânica clássica falha. Um grande sucesso da mecânica

quântica em seu princípio foi a explicação da dualidade onda-partícula, ou seja, como em

níveis subatômicos o que os humanos vieram a chamar de partículas subatômicas têm

propriedades de ondas e o que era considerado onda tem propriedade corpuscular. A

mecânica quântica também pode ser aplicada a uma gama muito maior de situações do que

a relatividade geral, como por exemplo sistemas nos quais a escala é atômica ou menor, e

aqueles que têm energias muito baixas ou muito altas ou sujeitos às menores temperaturas.

Índice

  [esconder] 

1   Um exemplo elegante

2   Visão geral

2.1   O inesperado

2.2   Como o inesperado veio à luz

2.3   Espectroscopia e além

3   Ver também

Um exemplo elegante [editar]

A luz não segue uma trajetória retlínea entre a fonte e a tela de detecção.

(Perceba as três franjas à direita.)

Page 43: Física 1

O personagem mais elegante do palco quântico é o experimento da dupla fenda. Ele

demonstra a dualidade onda-partícula, e ressalta diversas características da mecânica

quântica. Fótons emitidos de alguma fonte como um laser se comportarão diferentemente

dependendo da quantidade de fendas que estão em seu caminho. Quando apenas uma fenda

está presente, a luz observada na tela aparecerá como um padrão de difração estreito.

Entretanto, as coisas começam a ficar estranhas se duas fendas forem introduzidas no

experimento. Com duas fendas presentes, o que chegará em uma tela de detecção remota

será uma superposição quântica de duas ondas. Como a ilustração mostra, uma onda da fenda

do topo e outra da de baixo terão sobreposição na tela de detecção, e então elas são

superpostas. O mesmo experimento básico pode ser feito atirando um elétron em uma fenda

dupla. A natureza ondulatória da luz faz com que as ondas luminosas passando por ambas

fendas se interfiram, criando um padrão de interferência de faixas claras e escuras na tela.

Porém, na tela, a luz é sempre absorvida em partículas discretas, chamadas fótons.

O que é ainda mais estranho é o que ocorre quando a fonte de luz é reduzida ao ponto de

somente um fóton ser emitido por vez. A intuição normal diz que o fóton ira atravessar ou uma

ou outra fenda como uma partícula, e atingir a tela como partícula. Entretanto, qualquer fóton

solitário atravessa ambas fendas como onda, e cria um padrão de onda que interfere consigo

mesmo. E ainda mais um nível de estranheza - o fóton é então detectado como partícula na

tela.

Onde um fóton ou elétron aparecerá na tela de detecção dependerá das probabilidades

calculadas ao se adicionar as amplitudes das duas ondas em cada ponto, e elevando essa

soma ao quadrado. Conquanto, a localização de onde um fóton, ou um elétron, irá atingir a tela,

dependerá de um processo completamente aleatório. O resultado final estará de acordo com as

probabilidades que podem ser calculadas. Como a natureza consegue realizar essa proeza é

um mistério.

Os fótons funcionam como se fossem ondas enquanto eles atravessam as fendas. Quando

duas fendas estão presentes, a "função de onda" pertencente a cada fóton atravessa cada

fenda. As funções de onda são superpostas ao longo de toda tela de detecção, ainda assim na

tela, apenas uma partícula, um fóton, aparece e sua posição está de acordo com regras de

probabilidade estritas. Então o que os homens interpretam como natureza ondulatória dos

fótons e como natureza corpuscular dos fótons deve aparecer nos resultados finais.

Visão geral [editar]

O inesperado [editar]

No final do século 19, a física clássica parecia quase completa para alguns, mas essa

percepção foi desafiada por achados experimentais que tal física não era capaz de explicar.

Teorias físicas que funcionavam bem para situações na escala humana de espaço e tempo

falhavam para explicar situações que eram muito pequenas, muito massivas, ou que se

moviam a velocidades muito elevadas. Uma visão do universo que havia sido imposta por

observações comuns estava sendo desafiada por observações e teorias que previam

corretamente onde a mecânica clássica havia dado resultados impossíveis. Mas a figura que

emergia era a de um universo que se recusava a comportar-se de acordo com o senso comum

humano.

Nas grandes escalas a teoria da relatividade dizia que o tempo não passa à mesma proporção

para todos observadores, que a matéria poderia se converter em energia e vice-versa, que dois

Page 44: Física 1

objetos, se movendo a velocidades maiores que a metade da velocidade da luz, não poderiam

se aproximar a uma velocidade que excedesse aquela da luz, que o tempo progride a taxas

menores próximo a corpos massivos, etc. As coisas não funcionavam da maneira que as

experiências com réguas e relógios aqui na terra haviam levado os humanos a esperar.

Nas pequenas, as maravilhas eram ainda mais abundantes. Um fóton ou elétron não têm nem

uma posição nem uma trajetória entre os pontos onde são emitidos e onde são detectados. Os

pontos onde tais partículas podem ser detectadas não são onde alguém esperaria que fosse

baseado nas experiências cotidianas. Com uma pequena probabilidade, o ponto de detecção

pode até mesmo ser do outro lado de uma barreira sólida. A probabilidade é um fator saliente

nas interações nessa escala. A trajetória de qualquer objeto de escala atômica é imprecisa no

sentido de que qualquer medida que faça a posição de um objeto tornar-se mais precisa reduz

a precisão com a qual nós podemos observar sua velocidade e vice-versa.

Na era da física clássica, Isaac Newton e seus seguidores acreditavam que a luz era

constituída por um feixe de partículas, e outros acreditavam que a luz consistia de ondas se

propagando em algum meio. Ao invés de encontrar um experimento que provasse que um dos

lados estava certo, os físicos descobriram que um experimento designado a mostrar a

frequência da luz ou outras "características de ondas" demonstrarará a natureza ondulatória da

luz, enquanto que um experimento designado a mostrar seu momentum linear ou outra

"característica corpuscular" revelará a natureza corpuscular da luz. Ainda mais, objetos do

tamanho de átomos, e até mesmo algumas moléculas, revelaram sua natureza ondulatória

quando observados de maneira apropriada.

Os mais eminentes físicos avisaram que se uma explicação sobre a física quântica faz sentido

no senso comum, então ela muito provavelmente tem falhas. Em 1927 Niels Bohr escreveu:

"Qualquer um que não se chocar com a teoria quântica não a compreende."

Como o inesperado veio à luz [editar]

10 físicos que fizeram diferença para a teoria quântica.

As fundações da mecânica quântica tiveram seu início com os primeiros trabalhos sobre as

propriedades da luz, no século 17, e a descoberta das propriedades da eletricidade e

do magnetismo, no início do século 19. Em 1690,Christiaan Huygens empregou a teoria

Page 45: Física 1

ondulatória para explicar a reflexão e a refração da luz. Isaac Newtonacreditava que a luz

consistia de partículas infinitesimalmente pequenas que ele chamou de "corpúsculos". Em

1827, Thomas Young e Augustin Fresnel conduziram experimentos sobre a interferência da luz

que encontrou resultados que eram inconsistentes com a teoria corpuscular da luz. Todos

resultados teóricos e empíricos ao longo do século 19 pareciam inconsistentes com a teoria

corpuscular da luz de Newton.

Experimentos posteriores identificaram fenômenos, como o efeito fotoelétrico, que eram

consistentes apenas com um modelo de pacotes, ou quântico, da luz. Quando a luz incide

sobre um condutor elétrico, elétrons parecem se mover para longe de suas posições originais.

Em um material fotoelétrico, como o medidor de luz em uma câmera, a luz incidindo sobre o

detector metálico faz com que os elétrons se movam. Aumentar a intensidade de uma luz que

tenha apenas uma frequência fará com que mais elétrons se movam. Mas fazer com que os

elétrons se movam mais rápido requer um aumento da frequência da luz. Portanto, a

intensidade da luz controla a corrente elétrica através do circuito, enquanto que sua frequência

controla sua voltagem. Essas observações contrariaram a teoria ondulatória da luz derivada do

estudo das ondas sonoras e ondas do mar, onde a intensidade do impulso inicial era o

suficiente para prever a energia da onda resultante. No caso da luz, a energia era função

somente da frequência, um fato que precisava de uma explicação. Era também necessário

reconciliar experimentos que mostravam a natureza corpuscular da luz com outros

experimentos que revelavam sua natureza ondulatória.

Em 1874, George Johnstone Stoney foi o primeiro a propor que uma quantidade física, a carga

elétrica, não poderia variar menos que um valor irredutível. Portanto a carga elétrica foi a

primeira quantidade física a ser quantizada teoricamente. Em 1873, James Clerk

Maxwell demonstrou teoricamente que um circuito elétrico oscilando deveria produzir ondas

eletromagnéticas. Devido às equações de Maxwell foi possível calcular a velocidade da

radiação eletromagnética puramente através de medidas elétricas e magnéticas, e o valor

calculado correspondia muito proximamente à velocidade da luz medida. Em 1888, Heinrich

Hertz fez um aparelho elétrico que produzia radiação cuja frequência era mais baixa do que a

da luz visível, radiação que nós atualmente chamamos microondas. Pesquisadores iniciais

diferiam na maneira de explicar a natureza fundamental do que é chamado de radiação

eletromagnética, alguns afirmando que ela era composta por partículas, enquanto outros diziam

que era um fenômeno ondulatório. Na física clássica essas ideias são mutualmente exclusivas.

A mecância quântica teve início com o artigo pioneiro de Max Planck em 1900 sobre a radiação

de corpo negro, marcando a primeira aparição da hipótese quântica. O trabalho de Planck

deixou claro que nem o modelo ondulatório nem o corpuscular conseguem explicar a radiação

eletromagnética. Em 1905, Albert Einstein estendeu a teoria de Planck para o efeito

fotoelétrico. Em 1913, Niels Bohr lançou seu modelo atômico, incorporando a teoria quântica

de Planck de uma maneira essencial. Esses e outros tabalhos do início do século 20 formam

a antiga teoria quântica.

Em 1924, Louis de Broglie criou a hipótese da dualidade onda-corpúsculo. Essa hipótese

provou ser um ponto de virada, e rapidamente levou a uma variante mais sofisticada e

completa da mecânica quântica. Contribuidores importantes em meados dos anos 20 para o

que veio a ser chamado de "nova mecânica quântica" ou "nova física" foram Max Born, Paul

Dirac, Werner Heisenberg,Wolfgang Pauli e Erwin Schrödinger. No final da década de 1940 e

começo da de 1950, Julian Schwinger, Sin-Itiro Tomonaga, Richard Feynman e Freeman

Dyson descobriram a eletrodinâmica quântica, que avançou significativamente nossa

Page 46: Física 1

compreensão da teoria quântica do eletromagnetismo e do elétron. Mais tarde, Murray Gell-

Mann desenvolveu uma teoria relacionada da força nuclear forte, chamada de cromodinâmica

quântica.

Espectroscopia e além [editar]

Foto da NASA da faixas brilhantes do espectro do hidrogênio

Foto da faixas brilhantes do nitrogênio

Quando a luz branca atravessa um prisma, ou a borda de um espelho ou um pedaço de vidro,

ou então as gotas da chuva para formar um arco-íris, a luz branca é decomposta em

um espectro. Esse espectro revela que a luz branca é composta de luz de todas as cores e

portanto de todas as frequências.

Quando uma amostra composta de um elemento químico puro emite luz por aquecimento ou

outros agentes, o espectro da luz emitida, chamado de espectro de emissão, é característico

àquele elemento e à temperatura a que ela é aquecida. Diferentemente do espectro da luz

branca, um espectro de emissão não é uma faixa larga composta de todas as cores do

vermelho ao violeta, mas consiste de faixas estreitas, de uma cor cada e separadas das outras

por faixas de escuridão. Tal figura é chamada de espectro de linha. Um espectro de emissão

também pode conter linhas fora do intervalo da luz visível, detectáveis apenas por filmes

fotográficos especiais ou equipamentos eletrônicos.

Foi sugerida a hipótese de que um átomo emite radiação eletromagnética da mesma forma que

a corda de um violino "irradia" som - não apenas com frequência fundamental, mas também

com harmônicos maiores. Uma descrição matemática do espectro de linha só foi criada em

1885, quando Johann Jakob Balmer propôs a seguinte fórmula para descrever o espectro de

linha do hidrogênio atômico:

onde   é o comprimento de onda, R é a constante de Rydberg, e n é um inteiro > 2. Essa

fórmula pode ser generalizada para servir a átomos que não o hidrogênio, um fato que não

nos deterá, exceto a percepção de que essa é a razão pela qual o denominador na

primeira fração é expresso como um quadrado.

O próximo desenvolvimento foi a descoberta por Pieter Zeeman do efeito Zeeman, que

teve a explicação física foi trabalhada porHendrik Antoon Lorentz. Lorentz hipotetizou que

o espectro de linha do hidrogênio resultava de elétrons vibrando. É possível obter

informações a respeito do que ocorre dentro do átomo porque os elétrons em movimento

geram um campo magnético. Por isso um elétron pode ser influenciado por um campo

magnético externo, similar à maneira que um imã metálico irá atrair ou repelir outro.

Page 47: Física 1

O efeito Zeeman poderia ser interpretado para significar que o espectro de linha resulta de

elétrons vibrando em suas órbitas, mas afísica clássica não conseguia explicar por que um

elétron não cai em espiral no núcleo, nem por que as órbitas dos elétrons têm as

propriedades requeridas para produzir o espectro de linha observado, descritível pela

fórmula de Balmer. Mais precisamente, por qual razão os elétrons se comportam de tal

maneira que o espectro de emissão não é contínuo, mas em linhas?

Efeito túnel, em mecânica quântica, consiste no evento de uma partícula atravessar uma

região em que a energia potencial é maior do que a sua energia total - esta barreira é

intransponível na mecânica clássica, pois a energia cinética da partícula seria negativa na

região1 2

Índice

  [esconder] 

1   Efeito túnel, tunelamento ou penetração de barreira

2   História

3   Ver também

4   Referências

Efeito túnel, tunelamento ou penetração de barreira [editar]

O tunelamento quântico ou efeito túnel ocorre quando uma onda encontra no seu percurso

um obstáculo, a intensidade ou amplitude desta não termina imediatamente no obstáculo, mas

decresce exponencialmente após o contato.

De acordo com a mecânica clássica, quando um elétron com uma certa energia E incide sobre

uma barreira de potencial com energia P (sendo P>E), ele é totalmente refletido. A mesma

situação, agora abordada pela mecânica quântica, mostra que há uma probabilidade de que

oElétron "atravesse" barreira, aparecendo do outro lado. Este efeito pode ser observado

experimentalmente e é o princípio de técnologias tais como os diodos túnel, os transístores de

efeito de campo e os microscópios de varredura por sonda, onde os elétrons "tunelam" da

superfície até a ponta microscópica do equipamento, sem que estas se toquem. A razão para

que este efeito ocorra é que o Elétron, do ponto de vista quântico, pode manifestar o

comportamento tanto de partícula como de onda. Nesta abordagem o elétron é descrito como

uma onda de matéria. Comportando-se como uma onda, podemos atribuir ao elétron uma

probabilidade de reflexão e uma probabilidade de transmissão: que o elétron seja refletido ou

transmitido pela barreira de potencial. A probabilidade de transmissão é extremamente sensível

à amplitude do potencial e à largura da barreira. Assim, mesmo sem conter energia suficiente

para atravessar a barreira, o elétron a atravessa por "tunelamento", comportando-se como

onda.

Uma experiência simples deste princípio envolve um LASER e dois prismas de vidro. Este

prisma pode ser usado como refletor no ar ou no vácuo, já que o ângulo de reflexão total

(ângulo mínimo em relação a normal onde a luz é completamente refletida) é menor que 45

graus. Assim, quando a luz incide por uma das faces perpendiculares do prisma, esta é

completamente refletida e sai pela outra face.

Page 48: Física 1

Quando utilizamos o LASER, e um pouco de fumaça numa sala escura, é fácil verificar isso,

assim como o fato de nenhuma luz escapar pela face inclinada do prisma. No entanto,

aproximando-se a face inclinada de outro prisma, nota-se que, bem próximo, antes de se

tocarem, uma parte do LASER emerge do outro prisma, comprovando o efeito túnel.

História [editar]

O físico japonês Leo Esaki descobriu o tunelamento de elétrons, o que lhe rendeu o Premio

Nobel de Física do ano de 1973.

Filosofia da físicaOrigem: Wikipédia, a enciclopédia livre.

Física

As Equações de Maxwell

Física

História da Física

Filosofia da Física

[Expandir]Divisões elementares[Expandir]Grandezas Físicas[Expandir]Campos de pesquisa[Expandir]Cientistas[Expandir]Experimentos[Expandir]Experimentos atuais

ver • editar

Considerando-se que a Física sempre esteve associada à Filosofia Natural desde a antiguidadeaté

tempos mais recentes, pode-se considerar que a filosofia da Física seja a mais antiga

disciplina filosófica da história.1 A reflexão humana sobre o mundo físico precedeu historicamente a

reflexão sobre a natureza de nossos próprios pensamentos e de nossas interações sociais com

outros seres humanos.2 No entanto, Filosofia da Física, como disciplina, surge durante

o Renascimento e começa a ser aprofundada durante o Iluminismo, tendo um caráter

mais epistemológico com o avançar dos séculos.3

Page 49: Física 1

À parte o fato de, na visão de vários cientistas atuais, as considerações filosóficas sobre a ciência e

a física não impliquem influências diretas em suas atividades ou métodos de trabalho

como cientistas no dia-a-dia, a Filosofia da Física envolve uma combinação de

assuntosconceituais, metodológicos, epistemológicos e até mesmo metafísicos.2 4 Um dos primeiros

estudos da Filosofia da Física foi refletir que a Física lida com os componentes mais fundamentais

do Universo.1 Surge daí um pensamento onde possivelmente tudo deva ser reduzido a isso; surge

então o determinismo científico, onde tudo que existe não passa de simples partículas e que os

movimentos destas são para sempre determinados quando se mensuram as posições e as

velocidades de todas as partículas no momento atual. Em outras palavras, conhecendo-se as

posições de todas as partículas do Universo e as suas respectivas velocidades em um dado

instante, poder-se-ia conhecer com exatidão todo o passado e o futuro, fosse qual fosse o instante

desejado.5 Esta forma de pensar liga-se diretamente aoreducionismo. Segundo essa linha de

pensamento, é possível estabelecer leis básicas que descrevam completamente o comportamento

do Universo. Nestes termos, todo o conhecimento pode ser reduzido a estas leis básicas. Por

exemplo, todos os fenômenos químicos podem ser deduzidos da Mecânica Quântica se o número

de cálculos envolvidos for viável.

O principal objetivo da Física seria então encontrar estas leis básicas que regem o Universo. O

reducionismo coloca a Física na posição de ciência a mais básica de todas - pois, a partir dela, seria

possível, em princípio, chegar-se ao mesmo conhecimento produzido em todas as outras - embora

não implique no descarte das demais, pois essas tratariam com as suas próprias metodologias os

fenômenos naturais mais complexos, consolidando-se em áreas que, por questões práticas,

estariam fora do alcance da Física.6

Índice

  [esconder] 

1   Noções

2   Método científico e Epistemologia

3   Física estatística

4   Tempo e espaço

o 4.1   Absolutismo e Relacionalismo

o 4.2   Princípio de Mach

o 4.3   Convencionalismo

o 4.4   Invariância e covariância

o 4.5   Relatividade

o 4.6   Direção do tempo

o 4.7   Termodinâmica

5   Mecânica Quântica

o 5.1   Determinismo e indeterminismo

Page 50: Física 1

5.1.1   Probabilidade

5.1.2   Incompletude e variáveis ocultas

5.1.3   Paradoxo Einstein-Podolsky-Rosen (EPR)

5.1.4   Desigualdades de Bell

o 5.2   Incerteza e complementaridade

5.2.1   Relações de incerteza de Heisenberg

5.2.2   Dualidade onda-partícula

5.2.3   Principio da complementaridade de Bohr

o 5.3   O problema da medida

5.3.1   Gato de Schrödinger

5.3.2   Postulado de projeção

5.3.3   Amigo de Wigner

5.3.4   Colapso instantâneo

5.3.5   Muitos mundos

6   Física experimental

7   Ver também

8   Referências

[editar]Noções

Com a Física em posição de ciência mais fundamental, segundo o determinismo e o reducionismo,

certas questões metafísicas, como especulações sobre o tempo, a existência e as origens do

Universo, e outras, deveriam ser enviadas à Física para obterem-se respostas segundo seus

moldes. Nestes termos, seja qual for a resposta que a Física apresente para conceitos como

tempo, causa eação, ou mesmo identidade, estas deveriam ser consideradas em princípio

corretas.7 Entretanto, se as noções tradicionais metafísicas entrarem em confronto com uma Física

bem enraizada, então essas noções metafísicas deixariam de ter significado ou dever-se-ia

questionar a validade dos conhecimentos sobre o mundo físico providos pela Física. Como ponto

relevante, filósofos da Física têm se esforçado para investigar qualquer confronto possível entre a

Metafísica e a Física.2

A Física tem sido considerada historicamente o modelo de ciência para todas as outras

ciências, naturais ou humanas, tanto por filósofos quanto por cientistas.8 A Sociologia, ainda nos

seus primórdios com Auguste Comte, na primeira metade do século XIX, era chamada de "Física

Social".9 10 Além do mais, dentro da construção do senso comum, a Física detém os melhores

métodos que a ciência pode conceber.2 Mas também é argumentável que a Física tem os seus

próprios métodos, diferentes daqueles de outras ciências, e particularmente aplicáveis à própria

disciplina e incomensuráveis a outras. Mesmo dentro da Física, os métodos podem variar e serem

incomensuráveis.11

Page 51: Física 1

Os filósofos da Física colaboram juntamente com os físicos para entender os conceitos que eles

empregam em suas pesquisas.12 A Física ocupa uma posição privilegiada dentre as ciências, já que

lida com os mais arraigados conceitos cotidianos. O próprio conceito de cotidiano já foi várias vezes

abalado com as mudanças de pontos de vista da Física. Por exemplo, a revolução copernicana,

trazendo o heliocentrismo ao primeiro plano, quebrando o paradigma geocentrista defendido

pela Igreja Católica na Idade Média; a unificação da Física dos Céus e da Terra com a gravitação

universal de Newton; a unificação dos conhecimentos de eletricidade emagnetismo por Maxwell.

As viagens no tempo e os buracos negros começaram a ganhar espaço dentro do imaginário

popular a partir da Relatividade Geral de Albert Einstein.2 13 O advento da Mecânica Quântica trouxe

um baque às ontologias reducionistas edeterministas ligadas à mecânica newtoniana, sendo que a

própria Física indiretamente os criara.14

[editar]Método científico e Epistemologia

Os cientistas em Física usam o método científico para validar uma teoria, usando uma aproximação

metodológica para comparar as implicações da teoria com as conclusões obtidas

de experimentos e observações especialmente conduzidos para testar a teoria. Os experimentos e

observações são feitos com propósito pré-definido, para se coletar e comparar os dados obtidos por

estes com asprevisões e teses feitas por um físico teórico, assim ajudando na validade ou não de

uma teoria 15 .

As hipóteses integrantes de uma teoria que são suportadas por dados confiáveis geralmente de

natureza abrangente e que nunca falharam frente a qualquer tentativa de "falsificação", nas palavras

de Karl Popper,16 são chamadas de leis científicas ou leis naturais. Naturalmente, todas as teorias,

inclusive aquelas integradas por leis naturais, bem como estas mesmas, podem ser modificadas ou

substituídas por outras mais precisas, quando uma anomalia que "falsifica" a teoria for

encontrada.17 Entretanto, isto não é linear. Uma teoria ou um conjunto de teorias podem ser

mantidos mesmo que haja anomalias que os invalidem.

Segundo Imre Lakatos, um conjunto de teorias, que é chamado por ele de "programas de pesquisa",

é mantido mesmo com várias anomalias.18 Para que o "programa de pesquisa" se mantenha, tais

anomalias são "encaixadas" em um "cinturão protetor" de hipóteses e teses, que podem ser

modificados conforme o advento das anomalias encontradas pela Física Experimental, embora o

"núcleo central", ou seja, a tese básica do programa de pesquisa, deve ser mantida

integralmente.18 Um "programa de pesquisa" é superado apenas quando o "cinturão protetor" já não

é capaz de suportar novas anomalias. Para Lakatos, a substituição de programas de pesquisa

coincide com revoluções na história da ciência. Os "programas de pesquisa" vencedores podem

englobar ou não programas de pesquisa superados.18 A evolução dos "programas de pesquisa" de

Lakatos é semelhante à tese de mudanças deparadigma defendida por Thomas Kuhn como base do

desenvolvimento da Ciência.19 As Leis de Newton, por exemplo, estão embebidas dentro

da Relatividade, assim como toda a Mecânica Newtoniana,20 e, mesmo que suas aplicabilidades não

Page 52: Física 1

sejam mais universais, os três princípios de Newton ainda são chamados de "leis" e a mecânica

newtoniana ainda é ensinada nas escolas de ensino médio de todo o mundo.21

Embora para um cientista moderno o método de trabalho que emprega geralmente apresente-se, ao

menos para ele, bem definido e claro, a natureza do método científico também é motivo para vários

debates filosóficos. Vários filósofos apoiam a ideia da inexistência de um único método científico

"inscrito em pedra",22 e até mesmo a sua inexistência.23 Entretanto, se opõem a qualquer tentativa

de estruturação do método científico, que inclui a enumeração dos passos, visto frequentemente na

educação de ciências.24 Alguns filósofos, como Karl Popper, negam a existência do método

científico; embora incluso no método científico segundo seus defensores, para Popper existe apenas

um método universal, a tentativa e erro.23

[editar]Física estatística

Gráfico representando o movimento browniano em três dimensões

A física estatística tem por objetivo de estudo os sistemas constituídos por "incontáveis" partículas,

tantas que se torna impraticável a sua descrição através da descrição de cada uma das suas

partículas. Tais sistemas não são raros, e uma simples amostra de gás confinado em uma garrafa

seria um exemplo. A ferramentas para solução da questão residem nos conceitos de probabilidade e

de estatística.

Surge de forma inerente um problema filosófico em relação ao questionamento sobre a exata

definição de probabilidade. Alguns filósofos sugerem que a probabilidade seja a medida da

"ignorância" sobre um número real.25 Entretanto, esta definição é bastante subjetiva e não explica o

sentido de probabilidade usada pela Física Estatística ou pelaMecânica Quântica. Em termos

físicos, a probabilidade ganha um sentido mais concreto. A probabilidade é uma propriedade

intrínseca a alguns processos físicos e não depende do "nível de conhecimento" do físico

experimental. Um átomo pode decair radioativamente sob certa probabilidade entre 0 e 1 e isso não

depende da quantidade de "ignorância" do observador. Isso é fundamental para a própria existência

da Física Estatística, que é a teoria dos processos físicos probabilísticos.26

Page 53: Física 1

Dentro dos processos probabilísticos está arraigada a noção de entropia, conceito fundamental

também em termodinâmica. Ludwig Boltzmann propôs que a "direção" do tempo é determinada pela

entropia.27 Desde então, os filósofos debatem contra e a favor da tese de Boltzmann. Para alguns, a

entropia, em termodinâmica, não pode ser generalizada para eventos universais.28 É necessário que

haja determinismo estrito e pontual, inconcebível dentro da Mecânica Quântica; a direção do tempo

determinado pela entropia não passaria de um ponto de vista metafísico.29 Entretanto, outros

afirmam que é absolutamente possível conciliar as duas teorias e que a direção do tempo é

realmente determinada pela entropia.29 A segunda corrente de ideias está grandemente relacionada

ao relacionalismo de Leibniz, onde o tempo existiria apenas se existissem objetos e eventos em

constante complexidade, que pode ser traduzida como a própria entropia.2

[editar]Tempo e espaço

Veja: Filosofia do tempo

[editar]Absolutismo e Relacionalismo

Veja: Experiência do balde de Newton

Dois líquidos imiscíveis em rotação em relação a um eixo vertical, como proposto naexperiência do balde de

Newton: nota-se a concavidade (paraboloide) do líquido superior

O debate que discute a natureza do tempo e espaço, que podem ser vistos como objetos reais,

absolutos, ou simplesmente ordenações relacionais de objetos reais, começou com um debate

entre Isaac Newton, por meio de seu porta-voz Samuel Clarke, e o alemãoGottfried

Leibniz.30 Argumentando contra a posição absolutista, Leibniz mostra váriosexperimentos

mentais para comprovar que, assumindo a existência de fatos como local evelocidade absolutos,

isso levará a uma contradição.30 Estes argumentos se baseiam em dois princípios centrais de

Leibniz, o princípio da razão suficiente e a identidade dos indiscerníveis.30 31 Segundo o princípio da

razão suficiente de Leibniz, nada será sem que haja uma razão para sua existência ou sem que haja

uma explicação para sua existência.32 Segundo o princípio da identidade dos indiscerníveis, dois

objetos são iguais, indiscerníveis, se compartilham das mesmas propriedades.33

Por exemplo, em um de seus experimentos mentais, Leibniz imaginou dois universos situados em

um espaço absoluto.34 A única diferença entre eles é que o segundo universo está situado a cinco

metros a esquerda do primeiro, uma possibilidade realista se o espaço absoluto existir.34 Entretanto,

tal situação não existe porque, se o universo foi posicionado em um espaço absoluto, estaria em

Page 54: Física 1

qualquer local do espaço. Não foi dado anteriormente nenhuma coordenada de posição para o

segundo universo dentro do primeiro, e este segundo universo estaria a cinco metros a esquerda

de qualquer posição do primeiro universo. Em outras palavras, o segundo universo poderia estar

em qualquer lugar dentro do primeiro e, portanto, não haveria razão da existência de dois universos

simultâneos, assim ferindo o princípio da razão suficiente. Além disso, admitindo a existência de

dois universos simultâneos, não poderiam ser identificados separadamente, pois exibem as mesmas

propriedades, considerando-se o princípio da identidade dos indiscerníveis.31

Respondendo a Leibniz, Newton, por meio de Clarke, mostrou o experimento mental do balde com

água.35 Se um balde com água estiver pendurado por uma corda, sem movimentos, suas superfície

será plana. Entretanto, se o balde for posto para girar, a superfície da água será côncava

(paraboloide) e permanecerá côncava se o balde parar de girar até a própria água parar de girar em

seu interior.35 Clarke e Newton defendem a necessidade da existência do espaço absoluto para

explicar fenômenos como a rotação e aaceleração que não podem ser contabilizados em um

pensamento relacionalista puro. Clarke afirma que se a concavidade da superfície da água ocorre

no balde giratório assim como em um balde parado contendo água em rotação, então isso só pode

ser explicado afirmando que a água está girando em relação a uma terceira coisa, chamada de

espaço absoluto.35

Leibniz descreve um espaço que existe somente como a relação entre objetos e que, portanto, não

tem existência a parte da existência dos objetos; o movimento existe apenas como uma relação

entre objetos.31 O espaço newtoniano, o absolutismo, provê umreferencial absoluto, onde os objetos

podem ser mover.36 No sistema de Newton, o referencial existe independente dos objetos que estão

contidos neste. Objetos podem ser descritos em um referencial absoluto tendo como pano de fundo

o próprio espaço. Por dois séculos, a evidência empírica da superfície da água côncava ficou em

voga. Entretanto, a Relatividade Geral de Albert Einstein trouxe novo fôlego ao Relacionalismo.36

[editar]Princípio de Mach

Ernst Mach proveu uma diferente resposta ao experimento mental de Clarke e Newton e defendeu o

Relacionalismo de Leibniz. Sua resposta à concavidade da superfície da água estava baseada

nas estrelas fixas.37 Mach sugeriu que experimentos mentais como o balde giratório são

problemáticos por mérito próprio. Se o balde estiver girando em relação a um espaço absoluto,

observa-se a concavidade da superfície da água. Entretanto, se o universo for o balde giratório; o

balde estaria girando em relação a quê? É igualmente possível, nestas condições, que a superfície

da água mantenha-se plana.37

Mach argumentou que a água em um balde em um universo vazio poderia manter sua superfície

plana.38 Entretanto, introduzindo outros objetos ao universo, como estrelas fixas, a rotação do balde

seria observada em relação a outros objetos, e a superfície da água se tornaria

côncava.37 Aumentando-se o número de objetos a este universo, a superfície da água cada vez se

tornaria mais côncava, até em um ponto que se tornaria semelhante ao nosso universo.37 Em

Page 55: Física 1

resumo, Mach argumentou que o momento (linear ouangular) de um objeto existe como o resultado

da soma de efeitos de outros objetos do Universo. Isto ficou conhecido como o princípio de Mach.38

[editar]Convencionalismo

Henri Poincaré reagindo negativamente à geometria não-euclidiana proposta por Einstein em

sua Relatividade, propôs que não existe relação entre a matéria e a geometria

do espaçotempo.39 Poincaré foi além, argumentou que a geometria aplicada a um espaço era

decidida por convenção, pois diferentes geometrias poderão descrever um sistema de objetos

igualmente bem.40 Este ponto de vista foi desenvolvido e atualizado por Hans Reichenbach para

incluir considerações sobre Relatividade Geral.41 O convencionalismo de Reichenbach foca em torno

da definição de coordenada, que tem duas grandes características. A primeira está relacionada com

ocomprimento. Isto é motivado pelo fato de que nunca podemos realizar uma medição literalmente

direta do comprimento, necessitamos de um objeto físico, um padrão, para realizá-lo. A segunda

está relacionada com a separação de objetos. Embora consigamos, presumivelmente, constatar o

comprimento de duas barras quanto estão próximas uma da outra, não podemos realizar o mesmo

experimento quando estão distantes.42 Mesmo supondo que as duas barras, mesmo que trazidas

perto uma das outra, parecem ter comprimentos iguais, não podemos nos justificar ao dizer que são

exatamente iguais em comprimento. Esta impossibilidade limita nossa habilidade de decidir a

igualdade de comprimento de dois objetos distantes. Em resumo, a igualdade de comprimento, ou o

próprio comprimento, deve ser definido por convenção.41

Dentro da Relatividade Geral, a convenção está situada no fato de que a luz percorre sempre

percorre uma distância igual para intervalos de tempo iguais. Estruturado nisso está construído a

noção de espaçotempo.43 Assim como o debate entre o relacionalismo e o absolutismo continua, o

debate sobre o convencionalismo ainda ocorre na filosofia moderna. O convencionalismo ainda tem

vários filósofos como defensores, mas as criticas sobre a coerência dos princípios de Reichenbach

sobre a definição de coordenadas levou muitos a verem o convencionalismo de forma negativa.30 44

[editar]Invariância e covariância

Com base nos resultados obtidos a partir da discussão entre absolutismo e relacionalismo,

juntamente com as ferramentas matemáticas desenvolvidas nos séculos XIX e XX, Michael

Friedman apresenta uma distinção entre a invariância com base nas transformações matemáticas e

a covariância por meio de transformações.45

A invariância, ou simetria, aplica-se a objetos e a eventos. Dentro do espaçotempo, ou de qualquer

outra geometria, euclidiana ou não, a invariância aplica-se a características de objetos ou eventos

que não mudam sob qualquer transformação, como a velocidade da luz nas transformações de

Lorentz e o tempo nas transformações de Galileu.46 A covariância refere-se a um conjunto de

características intrínsecas ao objeto ou ao evento que variam mutuamente segundo qualquer

transformação.47 A invariância dentro do espaçotempo determina quais dos objetos ou eventos são

invariantes, ou absolutas, e quais são dinâmicas, ou variáveis.45

Page 56: Física 1

A covariância aplica-se às formulações da teoria. O grupo de características covariantes designa em

qual sistema de coordenadas as leis da Física estão aplicadas.47 A distinção pode ser ilustrada

através do experimento mental de Leibniz, no qual o universo está deslocado cinco metros. Neste

exemplo, a posição de um objeto não é exatamente uma característica própria, ou seja, sua

localização não é invariante. De modo semelhante, o grupo de características covariante dentro

da Mecânica Clássica será qualquer sistema de coordenadas que são obtidas de outro sistema

através de mudanças de posição assim como outras translações permitidas pela transformação de

Galileu.48

No caso clássico, o grupo de características invariantes ou simétricas e o grupo de características

covariante coincidem, mas tomam caminhos diferentes dentro da Relatividade. O grupo de

características invariantes da Relatividade Geral inclui todas as transformações

diferenciáveis.45 Todas as propriedades de um objeto são dinâmicas, não há objetos absolutos. As

formulações da Teoria da Relatividade Geral, diferentemente da Mecânica Clássica, não

compartilham um padrão, não há uma única formulação que esteja ligada com as

transformações.45 Por outro lado, o grupo de características covariantes da Relatividade Geral é

como qualquer outro grupo covariante de outra teoria física qualquer.47

[editar]Relatividade

Ver artigo principal: Teoria da relatividade

Representação da Terra deformando o espaçotempo em seu torno. As linhas representam geodésicas

A Teoria da Relatividade de Einstein está baseada no princípio da relatividade, que afirma que

as leis da Física devem ser as mesmas para todos os observadores, não importando

o referencial que usem.49 A maior dificuldade para esta ideia foi as equações de Maxwell, que

incluíam a velocidade da luzno vácuo, juntamente com a ideia de éter luminífero que ainda se tinha

na segunda metade do século XIX; a velocidade da luz seria constante apenas tomando como

referencial o éter luminífero, em outras palavras, utilizando-se de um espaço absoluto.50 Entretanto,

todas as tentativas de se obter qualquer outro valor para a velocidade da luz conforme as supostas

mudanças de velocidade do éter luminífero, como a Experiência de Michelson-Morley,

fracassaram.50 Einstein mostrou como as transformações de Lorentz podem ser derivadas do

princípio da relatividade e da invariância da velocidade da luz.45 A relatividade restrita é uma

formalização do principio da relatividade que não contém um referencial absoluto, que Einstein

afirmou não existir.51 Esta conclusão filosófica tornou-se popular entre os físicos, e as novas formas

Page 57: Física 1

de visão do espaço e tempo influenciaram matemáticos, como Hermann Minkowski. Segundo

Minkowski, a realidade permanecerá independente apenas se houver alguma maneira de unir

espaço e tempo.52

Einstein foi além; generalizou a relatividade para referenciais não-inerciais, utilizando-se do princípio

da equivalência, onde a forçasentida por um observador em um campo gravitacional e a força

(virtual) sentida por um observador em um referencial em aceleração são indistinguíveis.46 Isto levou

à conclusão que a massa de um objeto deforma a geometria do espaço de seu entorno, como

descrito pelas equações de campo de Einstein.53 Um referencial inercial está ligada a

uma geodésica do espaçotempo.53 Um objeto necessita de força para sair de uma geodésica. Um

balde de água em rotação irá experimentar uma força não porque está em movimento em relação às

estrelas distantes, mas em respeito à geodésica. Einstein vindica parcialmente o principio de Mach,

a superfície da água contida em um balde em rotação será côncava, pois está girando em relação

às geodésicas. Entretanto, as geodésicas existem mesmo se não houver objetos massivos,

relembrando a ideia da independência do espaço e do tempo proposta por Newton.38

[editar]Direção do tempo

O problema da direção do tempo surge diretamente de dois fatos contraditórios. Primeiramente, as

leis da Natureza, a física fundamental, não se alteram se a direção do tempo for retrógrada. Ou seja,

se fosse possível assistir um fenômeno físico com duração de  , como se assistisse um filme ao

contrário, as leis da física continuariam as mesmas.54 Porém, dentro de nossas mentes, não há a

possibilidade da reversão do tempo. Um copo quebrado simplesmente não se recomporá e subirá

sobre a mesa. Temos memórias do passado e nenhuma do futuro. Não podemos alterar o passado,

mas podemos alterar o futuro.55

Em uma solução, dentro da metafísica, causa e ação são assimétricas. Sabemos mais sobre o

passado porque os elementos do passado são causas para o efeito que é a nossa percepção.

Sentimos que não podemos afetar o passado e podemos afetar o futuro porque não podemos afetar

o passado e podemos afetar o futuro, nada mais.56 Entretanto, existem dois grandes problemas a

este ponto de vista. Um deles é a dificuldade de se definir causa e ação, levando em consideração

que a prioridade temporal da causa sobre o efeito não é meramente uma estipulação.57 Neste caso,

se a definição de causa e efeito estiver sido construída em torno disto, a direção do tempo será

circular.58 O segundo problema refere-se ao poder explanador deste ponto de vista. Este pode até

explicar os fenômenos que estimulam a nossa percepção de ação, mas não explica todos os

fenômenos temporalmente assimétricos.59

[editar]Termodinâmica

Outra solução para este problema encontra-se na termodinâmica, onde a natureza da direção do

tempo está relacionada à natureza da própria termodinâmica. A resposta da termodinâmica clássica

afirma que nossas teorias físicas básicas é, de fato, reversamente possíveis, a termodinâmica não

é.60 Em particular, a segunda lei da termodinâmica afirma que a rede de entropia de um sistema

Page 58: Física 1

fechado nunca diminui e isso explica o porquê sempre vemos o vidro quebrar e nunca se recompor;

a "complexidade", que pode ser traduzida em "bagunça microscópica", nos fenômenos físicos

sempre será a maior.55

Apesar de ser uma resposta satisfatória, não significa que esta seja a resposta final. Com o

desenvolvimento da mecânica estatística, tornou-se mais complicado se obter tal resposta. Por um

lado, a mecânica estatística é bem superior à termodinâmica clássica, no qual pode ser mostrado

que o comportamento termodinâmico, como a quebra de um copo, pode ser explicado através das

leis fundamentais da Física juntamente com um postulado estatístico.61 Por outro lado, entretanto, a

mecânica estatística, diferentemente da termodinâmica clássica, tem simetria temporal.62 A segunda

lei da termodinâmica, sob o ponto de vista da mecânica estatística, meramente afirma que é

provável que a rede de entropia vá aumentar, mas isso não é uma lei absoluta.63

[editar]Mecânica Quântica

[editar]Determinismo e indeterminismo

A Mecânica Quântica é uma das teorias cientificas mais bem sucedidas. Suas previsões foram

confirmadas por experimentos após experimentos e não há cientistas sérios que duvidem de sua

validade. Apresenta uma descrição aceitável sobre o comportamento do mundo microscópico

de átomos e partículas elementares. Entretanto, ao se estudar mais profundamente o significado

desta teoria, percebe-se que diferentes pessoas têm ideias diferentes. Alguns dizem que a

Mecânica Quântica prova que o mundo éindeterminístico, enquanto que outros defendem

o determinismo.64

[editar]Probabilidade

Em todo sistema físico, certas propriedades, ou grandezas físicas, estão associadas,

como posição, distância, massa, velocidade outemperatura. Em uma teoria física clássica, isto é,

que não tenha a interferência da Mecânica Quântica, um sistema é totalmente descrito apenas com

todas as grandezas físicas associadas descritas.65

Entretanto, a descrição de grandezas físicas na Mecânica Quântica torna-se complicado.66 Um

sistema já não é mais descrito apenas descrevendo todas as grandezas físicas associadas, mas

como sendo um vetor no espaço de Hilbert.67 Este é um conceitomatemático bastante abstrato, que

está relacionado às grandezas físicas por meio das regras da teoria. Em geral, não podemos

precisar com absoluta segurança uma grandeza física dentro da Mecânica Quântica, mas apenas

especificar certa "probabilidade" de se encontrar tal valor quando se realiza uma medida.68

[editar]Incompletude e variáveis ocultas

Ver artigo principal: Teoria das variáveis ocultas

Surgem então debates sobre a completude da teoria. A Mecânica Quântica informa-nos sobre todos

os eventos esperados ou representa apenas uma fração da realidade?69 Dois elétrons com as

Page 59: Física 1

mesmas descrições quânticas podem ter comportamentos diferentes. Isto leva muitos a afirmarem

que o mundo não é comandado pelo determinismo, os fenômenos dependem da "chance". Segundo

eles, torna-se impossível realizar previsões com certeza e isto prova que o mundo é

indeterminístico.64

Entretanto, outros argumentam que os comportamentos diferentes dos elétrons devem-se a estados

inicialmente diferentes dos elétrons, que a Mecânica Quântica não é capaz de descrevê-los,

simplesmente porque a Mecânica Quântica é incompleta.70 Abaixo dos fenômenos quânticos deve

haver "variáveis ocultas", que são diferentes para fenômenos que tem a mesma descrição

quântica.71Assim, a tese das "variáveis ocultas" defende uma realidade determinística; os

fenômenos acontecem sob leis da Física estritas, onde não há lugar para chances.71 Em

1952, David Bohm publicou dois artigos que afirmam exatamente este ponto de vista. Seus

resultados concordam com a Mecânica Quântica "ortodoxa"; toda partícula tem comportamento que

é explicado segundo a mecânica determinística, mas "potenciais quânticos" inferem os fenômenos

não explicados pela Física Clássica.72

[editar]Paradoxo Einstein-Podolsky-Rosen (EPR)

Ver artigo principal: Paradoxo EPR

Em 1935, Albert Einstein, Boris Podolsky e Nathan Rosen publicaram um artigo afirmando que a

teoria quântica era incompleta, e que havia a necessidade de novas variáveis. No artigo, havia duas

assunções fundamentais:73

1. Se em um sistema que não for perturbado possamos prever com precisão o valor de uma

grandeza física, então existe um elemento da realidade física correspondente a esta grandeza

física.73

2. Dois sistemas não podem influenciar mutuamente quando estão grandemente distanciados,

todas as interações são "locais".73

Ambas as assunções são razoáveis. Parece extremamente insensato descartar o requerimento da

localidade, o que se pode fazer aqui na terra não parece estar influenciando outro fenômeno em

qualquer outro planeta distante. Einstein, Podolsky e Rosen argumentavam que a teoria quântica

era incompleta. Deve haver uma teoria mais completa que explique mais profundamente, dentro de

um ponto determinístico, todos os eventos que em que a Mecânica Quântica difere da Mecânica

Clássica.74

[editar]Desigualdades de Bell

Ver artigo principal: Teorema de Bell

Em um artigo publicado em 1964, John Bell afirmou que as possíveis "variáveis ocultas" de Einstein,

Podolsky e Rosen não são compatíveis empiricamente com a Mecânica Quântica. Se as possíveis

variáveis ocultas fossem verdadeiras, existiria uma série de desigualdades, conhecidas como

Page 60: Física 1

as desigualdades de Bell. Se a Mecânica Quântica ortodoxa for verdadeira, tais desigualdades não

ocorrem.75 A discussão sobre a existência de variáveis ocultas determinísticas e locais saiu do

campo filosófico e foi comprovado experimentalmente a sua não existência.75

Um dos postulados do paradoxo EPR devia ser abandonado: a localidade ou os elementos de uma

realidade física. Os físicos fizeram a escolha de se abandonar a localidade, mas seguiram com ideia

das variáveis ocultas não-locais.76 A teoria de Bohm, que se utilizava da noção de variáveis ocultas,

é uma teoria não-local. O potencial quântico de Bohm permite a perturbação de um sistema em

outro sistema a grandes distâncias. Além disso, tais variáveis ocultas devem ser também

contextuais, ou seja, os resultados as medições podem depender de qual tipo de medidas que foram

feitas em outros sistemas. Entretanto, muitos argumentam que a teoria de Bohm deixa de ser

determinística ao impor a não-localidade e a contextualização de medidas.72

[editar]Incerteza e complementaridade

[editar]Relações de incerteza de Heisenberg

Ver artigo principal: Princípio da incerteza

Entre os mais famosos resultados da Mecânica Quântica são as relações de incerteza de

Heisenberg. Entretanto, sua interpretação ainda não obteve consenso. Há duas séries distintas da

interpretação das desigualdades que são conhecidas como as relações de incerteza de

Heisenberg.77

Segundo o próprio Werner Heisenberg em 1925, a incerteza da posição de uma partícula

subatômica multiplicada pela incerteza de seu momento nunca será menor do que certa constante

numérica. Não se pode, por exemplo, medir a posição e o momento de umelétron ao mesmo tempo;

ao se medir a sua posição, comprometemos seu momento, e vice-versa. As relações de incerteza, à

primeira vista, parecem derivar da impossibilidade de nosso conhecimento em obter tais grandezas

físicas. Entretanto, Heisenberg afirmou que a incerteza é uma propriedade intrínseca à partícula, se

não há meios de se definir com precisão uma grandeza física, então tal grandeza não está

precisamente definida por natureza.78

Heisenberg vai além. Segundo ele, a posição ou o momento de um elétron apenas são definidos

porque houve uma medição. Sem a medição, tal elétron não tem posição ou momento

definidos.78 Dois anos mais tarde, E. Kennard provou um teorema que afirma que não se pode ter

certeza absoluta de duas variáveis que não comutam. Embora seja o formalismo matemático para o

principio de Heisenberg, o teorema provado por Kennard e o principio da incerteza de Heisenberg

são objetos diferentes.79

[editar]Dualidade onda-partícula

Ver artigo principal: Dualidade onda-partícula

Page 61: Física 1

Experiência da dupla fenda realizada com elétrons individuais. No anteparo observa-se um padrão

de interferência e ao mesmo tempo pontos brancos que evidenciam o contato local do elétron com o anteparo,

evidenciando a dualidade onda-partícula

No século XVII, houve grandes debates sobre a natureza da luz. Alguns físicos, como Isaac Newton,

defendiam que a luz era constituída de partículas devido ao seu comportamento particular em

algumas circunstâncias (óptica geométrica).80 Entretanto, a experiência da dupla fenda de James

Young mostrou o caráter ondulatório da luz ao se observar ainterferência em um anteparo.81 A teoria

eletromagnética de James Clerk Maxwellpraticamente consagrou a luz com um caráter

ondulatório.80 Entretanto, a descoberta doefeito fotoelétrico retomou a ideia da natureza corpuscular

da luz: a remoção de elétrons de uma chapa metálica pela luz parece depender apenas de

sua freqüência, não de suaenergia.82 Outras experiências mostravam também o caráter corpuscular

da luz, como o surgimento de partículas em chapas fotográficas expostas a fraquíssima luz: se a luz

fosse onda, a chapa fotográfica seria gravada de modo uniforme e não com o aparecimento de

pequenos pontos.83

Louis de Broglie sugeriu em 1924 que o elétron também tem esta propriedade,84 confirmada

experimentalmente através da difração de elétrons em cristais: um padrão de interferência foi

observado no anteparo.85 Tais experiências comprovaram a dualidade onda-partícula das partículas

subatômicas.84 A discussão sobre a verdadeira natureza de tais partículas levou ao surgimento

do princípio da complementaridade.86

[editar]Principio da complementaridade de Bohr

Ver artigo principal: Princípio da complementaridade

A junção da noção de dualidade onda-partícula e o principio da incerteza de Heisenberg levou o

dinamarquês Niels Bohr, um dos fundadores da Mecânica Quântica, a postular o que é conhecido

como o seu "principio da complementaridade". Segundo Bohr, não se pode dar uma descrição sobre

o mundo quântico. Os únicos conceitos que podemos usar são aqueles que descrevem o mundo

macroscópico.87

Entretanto, podemos usar os conceitos clássicos para descrever fenômenos. Um fenômeno é o

resultado de uma medida, alguma coisa que se pode conferir em laboratório e é sempre bem-

definido. Os conceitos que podemos usar em uma situação dependem do contexto experimental;

podemos apenas usar um conceito se o experimento medir a grandeza física correspondente.70 Já

que grandezas físicas diferentes não podem ser medidas ao mesmo tempo, tais grandezas são

Page 62: Física 1

complementárias. Grandezas físicas complementárias não podem ser medidas no mesmo

experimento, embora ainda se precise de tais informações para dar uma descrição completa do

fenômeno.70

Dentro do conceito de dualidade onda-partícula, isso significa que precisamos tanto da natureza

ondular quanto da natureza corpuscular de um objeto quântico para poder descrevê-lo nos

experimentos, mas tais condições não podem ser empregadas ao mesmo tempo.68 A solução de

Bohr nega a possibilidade de se montar um pano de fundo completo para o mundo quântico. Muitos

filósofos e físicos não aceitam, e atualmente tentam encontrar modos de poder ver o mundo

quântico segundo as acepções que a mente humana está acostumada.88

[editar]O problema da medida

Ver artigo principal: Problema da medição

Talvez o maior problema dentro da Mecânica Quântica seja o "problema da medida". Um elétron

pode ter chances de 50% de ter spin1/2 ou 50% de ter spin -1/2. Matematicamente, podemos

descrever tal estado como uma superposição, ou seja, existe a possibilidade de tal partícula ter spin

1/2 e spin -1/2 ao mesmo tempo, com chances de 50% para ambos. Entretanto, ao se realizar a

medida, podemos encontrar ou spin 1/2 ou spin -1/2; o aparelho medidor não vai apontar que a

partícula está em ambos os estados ao mesmo tempo.89

[editar]Gato de Schrödinger

Ver artigo principal: Gato de Schrödinger

Diagrama do experimento mental do gato de Schrödinger

Dentro desse contexto, Erwin Schrödinger elaborou um experimento mental envolvendo um gato.

Suponha-se que um gato esteja em uma caixa selada hermeticamente. A caixa também contém um

aparelho "diabólico", constituindo-se de um átomo radioativo, um aparelho de medida, um martelo e

um frasco de gás venenoso. Quando o átomo radioativo decai, o aparelho de medida percebe o

fenômeno, e o martelo quebra o frasco de gás venenoso, que pode ser suficiente para causar a

morte do gato.90

O decaimento do átomo radioativo é um processo quântico, onde o átomo é uma superposição de

"ainda não decaído" e "já decaído"; a chance para "já decaído" aumenta com o passar do tempo. Se

o átomo radioativo está em superposição, também podemos dizer que o gato também está em

superposição: "gato vivo" e "gato morto" ao mesmo tempo.90

Page 63: Física 1

Existem duas tentativas de resposta para este problema. Uma das soluções prevê o uso das

variáveis ocultas; seria possível averiguar com certeza o momento exato do decaimento do átomo

radioativo e, portanto, é possível afirmar se o gato está vivo ou morto em um determinado

instante.90 A segunda tenta resolver o problema da medida por vários outros métodos.

[editar]Postulado de projeção

A tentativa mais antiga, e a mais seguida, de se resolver o problema da medição, foi elaborada

por John Von Neumann. Em 1932, Von Neumann publicou cinco postulados, onde baseia

matematicamente a Mecânica Quântica.91 Em seu quinto postulado, Von Neumann apresenta a sua

solução para o problema da medida, conhecida como o "postulado de projeção".91 O postulado

afirma que quando um experimento é realizado em um sistema, tal sistema deixa de estar em

superposição e passa para um novo estado onde a grandeza física buscada tem um valor

determinado. Segundo Von Neumann, há dois tipos de evolução de sistemas quânticos, o estado

normal, quando o sistema segue as leis quânticas, e o estado quando se realiza a medida, quando

ocorre uma mudança brusca de evolução e o sistema quântico deixa de seguir as leis quânticas.91

Entretanto, o postulado de projeção tem dois grandes problemas: primeiramente, existem realmente

dois tipos de evolução temporal? O ato de medida é realmente algo especial dentro da Mecânica

Quântica, para que a evolução de um sistema quântico mude bruscamente?92 Segundamente, o que

é realmente uma medida? O que faz de uma medida ser realmente uma medida?93

[editar]Amigo de Wigner

Ver artigo principal: Amigo de Wigner

Eugene Wigner também elaborou um experimento mental em uma tentativa radical de se definir o

que é medida. Segundo Wigner,94

"Estou certo de que minha mente nunca está em superposição. Se eu realizar um

experimento direto, estarei certo de encontrar uma e apenas uma medida definida. Não é

impossível assumir que uma partícula quântica esteja em superposição, e isto se aplica ao

aparelho de medida, mas a minha mente nunca estará em superposição. Se eu observar

diretamente uma partícula quântica, uma medida se realizará e isso será descrito segundo

o postulado de projeção.

Assumindo que eu tenha um amigo que realizou um experimento quântico, ao perguntar

para ele o que ele observou, eu faço uma medida e supostamente reduzo-o da

superposição para um estado onde certamente o resultado será claro e não-ambíguo. Mas

é plausível afirmar que meu amigo, outro ser consciente, estava em superposição até eu

realizar minha medida? Claro que não."94

Segundo Wigner, todas as consciências são capazes de realizar medidas, já que a

consciência é a única coisa do Universo capaz de medir ela própria. Wigner deseja dar à

consciência um papel central dentro da teoria quântica para resolver o problema da

Page 64: Física 1

medida.94Entretanto, muitos acreditam que a ideia de Wigner está deslocada da ciência e

afirmam até mesmo que seja risível. Porem, o fato da grande repercussão do experimento

mental de Wigner, até mesmo entre os físicos, mostra a seriedade do problema da

medida.94

[editar]Colapso instantâneo

Em uma tentativa de resolver o problema da medida sem ter que recorrer a duas evoluções

temporais distintas, Ghirardi, Rimini e Weber desenvolveram as teorias de colapso. Nestas

propostas, há apenas um tipo de evolução temporal de um sistema quântico, mas que é

ligeiramente diferente da prevista pela Mecânica Quântica normal.95

As partículas quânticas têm uma pequeníssima chance de sair da superposição para um

estado onde a sua posição é definida. Tal chance é realmente pequena, ocorre

infitesimalmente uma vez a cada 1010 anos. Entretanto, quando a partícula adentra para o

estado de posição definida, todo o sistema quântico onde tal partícula está contida também

tem posição definida. Como um sistema macroscópico é constituído de intermináveis

partículas quânticas, todo o sistema está em estado de posição definida muitas vezes por

segundo. Como o aparelho de medida é macroscópico, o aparelho também sairá do estado

de superposição para o estado de posição definida muitas vezes por segundo. Ao se

realizar uma medida a nível quântico, em algum momento o aparelho de medida sairá do

estado de superposição para o estado de posição definida, e os resultados que são

colhidos sempre serão com posição definida.96

Isto resolve o problema da superposição, mas traz um elemento não-intuitivo para a

evolução temporal de um sistema quântico. Embora seja possível realizar experimentos

sobre a existência da possibilidade de uma partícula quântica sair do estado de

superposição, tal experimento ainda não é viável.92

[editar]Muitos mundos

Ver artigo principal: Interpretação de muitos mundos

Diagrama do gato de Schrödinger, segundo ainterpretação de muitos mundos

Hugh Everett III, Bryce DeWitt e John Archibald Wheeler rejeitaram o postulado de

projeção e afirmam que a evolução temporal prevista pela Mecânica Quântica é

Page 65: Física 1

perfeitamente aceitável. Quando uma medida é realizada em uma partícula em

superposição, o aparelho que executará a medida também estará em superposição.

Entretanto, as diferentes partes da superposição correspondem a diferentes mundos

alternativos. Se, por exemplo, medir o spin de uma partícula, o universo divide-se em dois:

em um mundo encontraremos spin 1/2 e em outro encontraremos spin -1/2.97 98

Para assegurar que as predições realizadas pela Mecânica Quântica sejam plausíveis

dentro deste ponto de pista, devemos postular que o universo divide-se em infinitos outros

universos, sendo que a probabilidade de encontrar um dos estados de posição definidos

para uma partícula quântica é exatamente a percentagem de mundos onde podemos

encontrar tal posição definida.99 Entretanto, o ceticismo é grande: muitos físicos afirmam

que a afirmação mão é coerente e foge dos "padrões de normalidade". Além disso, essa

proposta de se resolver o problema da medida apenas dispensa a necessidade de duas

evoluções temporais para partículas quânticas, mas deixa intacta a necessidade de se

estabelecer uma real definição do que seja uma medida.99

[editar]Física experimental

Diagrama de um interferômetro como usado na Experiência de Michelson-Morley

Os filósofos da Física tradicionalmente se preocupam com a natureza das teorias

científicas, isto devido em grande parte ao papel central que a epistemologia teve na

filosofia, principalmente após o início do século XX.100 Em vista do advento das teorias

modernas na Física, foi a partir desta data que filósofos e historiadores de Física

começaram a ficar mais atentos à Física Experimental, e têm argumentado que

oexperimento tem seus próprios métodos e práticas, que podem se diferenciar e serem

incomensuráveis dentro da diversidade da Física Experimental.101

Segundo Thomas Kuhn, os paradigmas científicos, que englobam toda uma linha de

teorias científicas, métodos e valores, contém convicções científicas que não podem ser

explicadas segundo as teorias existentes sobre racionalidade.102 Para Kuhn, a ciência

"normal" é realizada dentro de um determinado paradigma científico praticamente estável,

mesmo com a presença de anomalias que contrariam tal paradigma.19 Analisando-se as

revoluções científicas, Kuhn percebe que estas estão associadas a mudanças de

Page 66: Física 1

paradigma.19 Um paradigma não é banido quando a Física Experimental encontra uma

anomalia, mas apenas quanto o próprio paradigma já não mais suporta a quantidade de

anomalias.19 Segundo Imre Lakatos, que batiza paradigma como "programa de

pesquisa",18 tais mudanças não ocorrem abruptamente. Consequentemente, não existem

experimentos cruciais na História da Física.18 A concepção de Éter, para Lakatos, não foi

abandonada abruptamente com a Experiência de Michelson-Morley, mas sim abandonada

historicamente.18

Neste contexto, a morte da geração antiga de cientistas e a formação da geração seguinte

sob influência do novo paradigma que tenta se estabelecer desempenharia papel

importante à evolução das teorias científicas.

Função de ondaOrigem: Wikipédia, a enciclopédia livre.

Este artigo ou secção contém uma lista de fontes ou uma única fonte no fim do texto, mas esta(s) não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. (desde junho de 2011)Por favor, melhore este artigo introduzindo notas de rodapé citando as fontes, inserindo-as no corpo do texto quando necessário.

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Esconder]Conceitos fundamentais

Estado quântico · Função de onda

Superposição · Emaranhamento

Medição · Incerteza

Exclusão · Dualidade

Decoerência · Teorema de

Ehrenfest ·Tunelamento

[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas

Page 67: Física 1

ver • editar

A Wikipédia possui o portal:Portal de Física

Função de onda é uma ferramenta matemática que a física quântica usa para descrever um

sistema físico qualquer.

A densidade de probabilidade do elétron para o átomo de hidrogênio, mostrada como seções transversais.

Essas orbitais formam uma base ortonormal para a função de onda do elétron. Diferentes orbitais são retratadas

com escalas diferentes.

É uma função matemática tipicamente de espaço, momento ou spin e possivelmente de tempo que

retorna a amplitude de probabilidade de uma posição ou momento de uma partícula subatômica.

Matematicamente, é uma função do espaço, que mapeia os possíveis estados do sistema dentro

dos números complexos. As leis da mecânica (equações de Schrödinger) quântica descrevem

como a função de onda evolui com o tempo

Índice

  [esconder] 

1   Problemas de nomenclatura

2   Definição

3   Interpretação

4   Significado filosófico da função de onda

5   Veja também

6   Referências

Problemas de nomenclatura [editar]

Page 68: Física 1

O termo função de onda segundo a mecânica quântica tem um significado bastante diferente

dependendo do contexto, seja na física clássica, seja no eletromagnetismo clássico.

Por causa da relação concreta entre função de onda e localização de uma partícula num espaço de

posições, muitos textos sobre mecânica quântica têm um enfoque "ondulatório". Assim, embora o

termo "função de onda" seja usado como sinônimo "coloquial" para vetor de estado, não é

recomendável, já que não só existem sistemas que não podem ser representados por funções de

onda, mas também que o termo função de onda leva a imaginar erroneamente que há algum meio

que ondula no sentido mecânico.

Na química, especialmente, um dos objetivos da função de onda de elétrons é descrever os

chamados orbitais eletrônicos; com isso, aumenta ainda mais a confusão de termos que se referem

a um mesmo conceito.

Definição [editar]

O uso moderno do termo função de onda é para qualquer vetor ou funçãoque descreva o estado

de um sistema físico pela expansão em termos de outros estados do mesmo sistema. Normalmente,

uma função de onda é:

um vetor complexo com finitos componentes:

,

um vetor complexo com infinitos componentes:

,

ou uma função complexa de uma ou mais variáveis,

.

Em todos os casos, a função de onda provê uma descrição completa do sistema físico

ao qual está associado. Porém, deve-se frisar que uma função de onda não é

unicamente determinada pelo sistema ao qual está associada, já que muitas funções

de onda diferentes podem descrever o mesmo cenário físico.

Page 69: Física 1

Interpretação [editar]

A interpretação física da função de onda depende do contexto. Veja alguns exemplos

a seguir:

Uma partícula em uma dimensão espacial

A função de onda espacial associada a uma partícula em uma dimensão é uma função

complexa   definida no conjunto dos números reais. O quadrado complexo da

função de onda,  , é interpretado como a densidade de probabilidade associada à

posição da partícula e, por isso, a probabilidade de a medição da posição da partícula

dar um valor no intervalo   é

.

Isto leva à condição de normalização

.

já que a medição da posição de uma partícula deve resultar em um número

real.

Significado filosófico da função de onda [editar]

A função de onda é a descrição mais completa possível de um sistema regido

pela mecânica quântica. Se na mecânica clássica a descrição completa de

um sistema consistia na tarefa de encontrar a posição e a velocidade de

todas as partículas e, com esta descrição, ser possível prever todos os

movimentos futuros e passados do sistema, na mecânica quântica não se

pode descrever todos as grandezas desejadas com a mesma certeza

(ver Princípio da incerteza de Heisenberg). De acordo com a mecânica

quântica, a descrição do sistema termina ao nível da função de onda, com

suas probabilidades de posição.

Por isso, depois do nascimento da mecânica quântica, a ciência alcançou um

patamar que encerra o contraste entre o determinismo e o indeterminismo e,

sob os auspícios da ciência contemporânea, temos a função de onda, que

está na fronteira entre odeterminismo e o indeterminismo.

Em certas interpretações da mecânica quântica, o colapso da onda é um dos dois processos

pelos quais um sistema quânticoaparentemente evolui de acordo com as leis da mecânica

quântica. Isto é também conhecido como colapso do vetor de estado. A existência do colapso

da função de onda é necessária:

na versão da interpretação de Copenhague onde a função de onda é real;

Page 70: Física 1

na denominada interpretação transacional;

na "interpretação espiritual" na qual a consciência causa o colapso.

Por outro lado, o colapso não ocorre:

na versão da interpretação de Copenhague onde a função de onda não é real;

na interpretação baseada em histórias consistentes;

na interpretação de muitos mundos;

na interpretação de Bohm.

No geral, sistemas quânticos existem como a superposição de estados fundamentais, e

evoluem no tempo segundo a equação de Schrödinger, que é um dos dois processos

mencionados no começo deste artigo – um processo incluído em todas as interpretações. A

contribuição de cada estado fundamental para toda função de onda é chamada de amplitude.

Contudo, quando a função de onda colapsa, da perspectiva de um observador o estado parece

"pular" para um dos estados fundamentais e unicamente adquirir o valor das propriedades

medidas que são associadas com aquele estado fundamental em particular.

Tendo realizado a medição de um sistema observável A, a probabilidade de colapsar para um

estado particular de A é diretamente proporcional à raiz quadrada do módulo da amplitude

(geralmente complexa) associada a ele. Por consequência, em experimentos tais como dupla

fenda, cada foton individual chega a um ponto discreto da tela, mas como mais e mais fótons

são acumulados, eles formam um padrão de interferência geral. Após o colapso, o sistema

evoluirá de acordo com a equação de Schrödinger.

O grupo de fenômenos descritos pela expressão colapso da função de onda é um problema

fundamental na interpretação da mecânica quântica como problema da medição. O problema

não foi realmente confrontado pela interpretação de Copenhague que simplesmente postula

que esta é uma característica especial do processo de "medição". A interpretação de muitos

mundos de Everett contornou o problema descartando o processo de colapso, pela

reformulação da relação entre o aparato de medição e o sistema de tal forma que uma linha

das leis da mecânica quântica seja universal, isto é, o único processo de acordo com o qual os

sistemas quânticos evoluem é governado pela equação de Schrödinger. Freqüentemente preso

como a interpretação de muitos mundos mas não limitado a este processo físico

de entrelaçamento, o qual causa um colapso aparente, o entrelaçamento é também importante

para interpretação baseada nas Histórias consistentes.

Note que uma descrição geral da evolução dos sistemas de mecânica quântica é possível pela

utilização de operadores de densidadee operadores quânticos. Neste formalismo (o qual é

muito próximo do formalismo da álgebra C*) o colapso da função de onda corresponde ao

operador quântico não unitário.

Interpretações da mecânica quânticaOrigem: Wikipédia, a enciclopédia livre.

Mecânica quântica

Page 71: Física 1

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:Portal de Física

Uma interpretação da mecânica quântica é uma tentativa de responder a questão: Sobre o que

trata exatamente a mecânica quântica? A questão têm as suas raízes históricas na natureza mesma

da mecânica quântica, que desde um princípio foi considerada como uma teoria radicalmente

diferente das teorias físicas precedentes. Porém, a mecânica quântica têm sido descrita como a

teoria "mais comprovada e de maior sucesso na história da ciência" (vide Jackiw and Kleppner,

2000.)

Mecânica quântica, como uma teoria científica, tem sido muito bem sucedida em prever resultados

experimentais. Isto significa, primeiro, que há uma correspondência bem definida entre os elementos

do formalismo (matemático, abstrato) e os procedimentos experimentais e, em segundo lugar, que

os resultado obtidos neste experimentos estão extremamente de acordo com o formalismo. Além

disso, que as questões básicas de que o que significa a mecânica quântica são ainda uma proposta

em si mesmas e requerem algumas explicações.

O entendimento da estrutura matemática da teoria trilhou vários estágios preliminares de

desenvolvimento. Por exemplo, Schrödinger de início não entendeu a natureza probabilística da

função de onda associada ao elétron; Foi Max Born que propôs uma interpretação de uma

distribuição de probabilidade no espaço para a posição do elétron. Outros cientistas de destaque,

tais como Albert Einstein, tiveram grande dificuldade em concordar com a teoria. Mesmo se estes

pontos forem tratados como problemas menores, eles têm grande importância para atividades de

interpretação.

Disto não se deve, porém, presumir que a maioria dos físicos considere que a mecânica

quântica necessite de uma interpretação, além das mínimas fornecidas pela interpretação

Page 72: Física 1

instrumentalista, as quais serão discutidas abaixo. A interpretação de Copenhague, no ano de2005,

ainda parecia ser a mais popular entre os cientistas (seguida pelas histórias

consistentese interpretação de muitos mundos). Mas também é verdade que a maioria

dos fisicos considera que questões não instrumentais (em particular questões ontológicas) sejam

irrelevantes para a física. Eles remetem ao ponto de vista de Paul Dirac, depois expresso em um

famoso ditado: "Cale-se e calcule" freqüentemente (talvez erroneamente) atribuído a Richard

Feynman (veja [1]).

Índice

  [esconder] 

1   Dificuldades de uma interpretação direta

2   Estado problemático das visões e interpretações

3   Interpretação instrumental

4   Propriedades das interpretações

5   Comparação

6   Ver também

7   Referências

8   Ligações externas

Dificuldades de uma interpretação direta [editar]

As dificuldades observadas na interpretação refletem vários pontos a respeito da descrição ortodoxa

da mecânica quântica. Neste artigo são destacados 4 destes pontos:

1. A natureza abstrata, matemática, da descrição da mecânica quântica.

2. A existência de processos não deterministicos e irreversíveis na mecânica quântica.

3. O fenômeno do entrelaçamento, e particularmente, a alta correlação entre eventos que se

esperariam remotos na física clássica.

4. A complementaridade de possíveis descrições da realidade.

Inicialmente, a aceita estrutura matemática da mecânica quântica era baseada profundamente em

abstrações matemáticas, tais comoespaço de Hilbert e operadores no espaço de Hilbert.

Em mecânica clássica e eletromagnetismo, por outro lado, as propriedades de um ponto material ou

as de um campo são descritas por números reais ou funções definidas em duas ou três dimensões.

Claramente, localmente falando, para estas teorias parece ser menos necessário prover uma

interpretação especial para estes números e funções.

Alem disto, os processos de medição apresentam um papel aparentemente essencial nesta teoria.

Eles se relacionam a elementos abstratos da teoria, tais como a função de onda, para

Page 73: Física 1

valores definidos operacionalmente, tais como probabilidades. Medições interagem com o estado do

sistema, de algumas maneiras peculiares, como ilustrado no experimento de dupla fenda.

O formalismo matemático usado para descrever a evolução temporal de um sistema não relativístico

propõe de certa forma dois tipos de transformações:

Transformações reversíveis descritas pelo operador unitário no estado espacial. Estas

transformações podem ser determinadas pela solução da equação de Schrödinger.

Transformações não reversíveis e não deterministicas descritas matematicamente por

transformações mais complicadas (vejaoperadores quânticos). Exemplos destas

transformações são aquelas experimentadas pelo sistema como resultado da medição.

Uma versão restrita do problema de interpretação da mecânica quântica consiste em prover algum

tipo de imagem plausível, justamente para este segundo tipo de transformação. Este problema deve

ser dirigido puramente por reduções matemáticas, por exemplo pela interpretação como na

de muitos mundos ou histórias consistentes .

Alem das características não deterministicas e irreversíveis do processo de medição, há outros

elementos da física quântica que a distinguem profundamente da física clássica e que não podem

ser representados por qualquer figura clássica. Um destes é o fenômeno do entrelaçamento,

ilustrado pelo paradoxo EPR, o qual parece violar o principio da casualidade local.

Outra obstrução para a interpretação direta é o fenômeno da complementaridade, o qual parece

violar os princípios básicos do lógica proposicional. A complementaridade diz não haver nenhuma

figura lógica (obedecendo a lógica proposicional clássica) que pode descrever simultaneamente e

ser usado para justificar todas as propriedades de um sistema quântico S. Isto pode ser

frequentemente formulado dizendo-se que há um conjunto de proposições

"complementares" A e B que pode descrever S, mas não ao mesmo tempo. Exemplos de A e B são

proposições envolvendo a descrição de S na forma de onda e corpuscular. O enunciado anterior é

uma parte de formulação original de Niels Bohr, a qual é frequentemente equaciona o principio da

complementaridade em si.

A completariedade não é tida usualmente como um prova da falha da lógica clássica, embora Hilary

Putnam tenha levantado este ponto de vista em seu trabalho Is logic empirical?. Ao contrário disto, a

complementariedade significa que a composição de propriedades físicas de S (tais como posição e

momento variando em uma certa faixa) possuem uma conectividade proposicional que não

obedecem as leis da lógica proposicional clássica. Como é agora bem demonstrado (Omnès, 1999)

"a origem da complementariedade encontra-se na não commutatividade dos operadores

descrevendo observáveis na mecânica quântica."

Estado problemático das visões e interpretações [editar]

Page 74: Física 1

O preciso estado ontológico, de cada uma das visões interpretativas, permanece um tema da

argumentação filosófica.

Em outras palavras, se nos interpretamos uma estrutura formal X da mecânica quântica por meio da

estrutura Y (via uma equivalência matemática das suas estruturas), qual é o estado de Y? Esta é

uma velha questão do formalismo científico, vista de um novo ângulo.

Alguns físicos, por exemplo Asher Peres e Chris Fuchs, apresentam a argumentação que uma

interpretação não é nada mais do que uma equivalência forma entre um conjuntos de leis para

operar dados experimentais. Isto deve sugerir que todo exercício de interpretação é desnecessário.

Interpretação instrumental [editar]

Qualquer teoria cientifica moderna requer pelo menos uma descrição instrumental a qual possa

relacionar o formalismo matemático a experimento prático. No caso da mecânica quântica, a

descrição instrumental mais comum é uma afirmação da regularidade estatística entre processo

preparação e o processo de medição. A esta geralmente é acrescentado a afirmação da

regularidade estatística de um processo de medição realizado em um sistema em um dado estado

φ.

Considere por exemplo a medição M de uma propriedade física observável com duas possíveis

saídas "para cima" ou "para baixo" que podem ser realizadas em um sistema S com espaço de

Hilbert H. Se a medição é realizada fora de um sistema do qual o estado quântico seja conhecido φ

∈ H, então, de acordo com as leis da mecânica quântica, a medição irá levar à mudança do estado

do sistema da seguinte forma: imediatamente após a medição o sistema se transformará em um dos

dois estados φpara baixo se a saída for "para baixo" ou φpara cima ser a saída for "para cima". A teoria

matemática fornece as seguintes expressões para este estado:

onde E para baixo and Epara cima são projeções ortogonais em dentro do espaço dos autovetores

do observado. Os números

têm uma descrição instrumental precisa em termo de freqüências relativas. Isto

significa que, em um ciclo infinito de experimentos de medições idênticos (no qual

todos os sistemas estão preparados no estado φ), a proporção de valores com

saída "para baixo" é Ppara paixo e a proporção de valores com a saída "para cima" é

Ppara cima. Note que Ppara cima, Ppara baixo são ambos números não negativos e:

 

tal que Ppara cima, Ppara baixo podem ser consideras realmente como probabilidades.

Page 75: Física 1

Por um abuso de linguagem, a simples descrição instrumental pode ser dita como

sendo uma interpretação, embora este uso seja de algum modo enganador já que

o instrumentalismo explicitamente evita qualquer regra explanatória; isto é, ele

não tenta responder à questão a qual mecanismo quântico estamos referindo.

Propriedades das interpretações [editar]

Uma interpretação pode ser caracterizada pelo fato de satisfazer certas

propriedades, tais como:

Realismo

Completude

Realidade local

Determinismo

Para exemplificar estas propriedades, nos devemos ser mais explícitos a cerca do

tipo de visão que a interpretação proporciona. Para finalmente considerar uma

interpretação como uma correspondência entre elementos do formalismo

matemático M e os elementos de uma estrutura interpretativa I, onde:

O formalismo matemático consiste do mecanismo do espaço Hilbertiano

de vetores-ket, operadores auto-adjunto atuando no espaço de vetores-ket,

com dependência temporal unitária dos vetores-ket e operações medição.

Neste contexto uma operação de medição pode ser considerada como uma

transformação a qual leva um vetor-ket em uma distribuição de probabilidade

de vetores-ket. Veja também operadores quânticos para uma formalização

deste conceito.

A estrutura de interpretação incluem estados, transições entre estados,

operações de medição e possíveis informações a respeito da extensão

espacial destes elementos. Como uma operação de medição a qual retorna

um valor e resulta em uma possível mudança de estado no sistema.

Informações espaciais, por exemplo, podem ser exibidas por estados

representados como funções na configuração espacial. A transição deve ser

não-deterministica ou probabilística ou ter infinitos estados. De qualquer

forma, a concepção critica de uma interpretação é que os elementos de I são

tratados como realidade física.

Neste sentido, uma interpretação pode ser interpretada como uma semântica para

o formalismo matemático.

Page 76: Física 1

Particularmente, a limitada visão instrumentalista da mecânica quântica delineada

na seção anterior não é uma interpretação completa desde que ela não faz

referência a respeito da realidade física.

O uso atual na física de "inteireza" e "realismo" é freqüentemente considerado

tendo sido usada originalmente no trabalho (Einstein, 1935) que propôs

o paradoxo EPR. Neste trabalho os autores propõem o conceito de "elemento da

realidade" e "inteireza" de uma teoria física. Embora eles não tenham definido

"elemento da realidade", eles propõem uma boa caracterização para ele,

denominado-o como uma quantidade para qual um valor pode ser predito antes

que amedição em si a perturbe de alguma forma. O EPR define uma "teoria física

completa" como uma na qual cada elemento da realidade física é considerado

pela teoria. Do ponto de vista semântico da interpretação, uma teoria da

interpretação é completa se cada elemento da estrutura da interpretação é

considerado pelo formalismo matemático. Realismo é uma propriedade de cada

um dos elementos matemáticos do formalismo; qualquer elemento é real se

corresponde a alguma coisa na estrutura de interpretação. Por exemplo, em

algumas interpretações da mecânica quântica (tais como a interpretação de

muitos mundos) o vetor ket associado ao sistema é tido como correspondendo a

um elemento da realidade física, enquanto em outras isto não acontece.

Determinismo é uma propriedade caracterizada pela mudança de estado devido a

passagem do tempo, em outras palavras é que o estado a um dado instante do

tempo no futuro e uma função do estado presente (veja evolução). Isto deve nos

permitir esclarecer se uma estrutura interpretativa particular é ou não

deterministica, precisamente porque ela ter ou não uma clara escolha por um

paramento de tempo. Alem disto, uma dada teoria poderia ter duas interpretações,

uma das quais é deterministica, e outra não.

A realidade local tem duas partes:

O valor retornado pela medição corresponde ao valor de alguma função no

espaço de estado. Dizendo de uma outra forma, este valor é um elemento da

realidade;

Os efeitos da medição devem ter uma velocidade de propagação que não

excede alguma barreira universal (isto é, a velocidade da luz). De forma a

fazer sentido, operações de medição devem ser espacialmente localizada

numa estrutura de interpretação.

Uma formulação precisa do realismo local em termos de uma teoria de variáveis

local ocultas foi proposta por John Bell.

Page 77: Física 1

O Teorema de Bell e sua verificação experimental que restringe os tipos de

propriedade da que uma teoria quântica pode ter. Por exemplo, o teorema de Bell

implica que mecânica quântica não pode satisfazer o realismo local.

Comparação [editar]

Até este momento, não há evidência experimental que nos permita distinguir entre

as várias interpretações listadas abaixo. Para que possa evoluir, a teoria física

deve ser sustentável e consistente com ela mesmo e com a realidade; problemas

surgem somente quando tentamos "interpretá-la". Entretanto, existem atividades

de pesquisa sendo feita no sentido de realizar testes experimentais que poderiam

diferenciar entre a várias interpretações.

Algumas das interpretações mais importantes foram sumarizadas aqui:

Interpretação Deterministica?Função de onda real?

Um universo?

evitavariáveis ocultas?

evitacolapso da função de

onda?

Histórias consistentes(Copenhague "corrigida")

Não Não Sim Sim Sim

Interpretação copenhague

(Forma da Onda não é real)

Não Não Sim Sim Sim

Interpretação copenhague

( Forma da Onda é real)

Não Sim Sim Sim Não

Interpretação Transacional

Sim Sim Sim Sim Não

Consciência causa colapso

Não Sim Sim Sim Não

Interpretação de muitos mundos

Sim Sim Não Sim 1 Sim

Interpretação de Bohm

Sim Sim ² Sim Não Sim

1A interpretação de muitos mundos não tem variáveis ocultas, exceto se

consideramos entre os mundos em si.

²Bohm/de Broglie consideram que ambos partícula e função de onda ("onda guia

") são reais.

Cada interpretação tem muitas variações. É difícil obter uma definição precisa da

Interpretação de Copenhague; na tabela acima, duas variantes clássicas e uma

nova versão da interpretação de Copenhague são mostradas; uma que utiliza a

Page 78: Física 1

função de onda unicamente como uma ferramenta para calculo, e outra que utiliza

a função de onda como um "elemento da realidade ".

Ver também [editar]

Lista de tópicos da física

Histórias consistentes

Mecânica Quântica

Indeterminancia Quântica

Teorema de Bell

Interpretação de Bohm

Interpretação de Copenhague da mecânica quântica

Interpretação de muitos mundos

Interpretação transacional

Colapso da função de onda

Problema da medição

Computador quântico

Problemas insolúveis da Física

Filosofia da física

Histórias consistentesOrigem: Wikipédia, a enciclopédia livre.

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações

Copenhague · Conjunta

Teoria das variáveis ocultas ·Transacional

Muitos mundos · Histórias consistentes

Lógica quântica · Interpretação de Bohm

Page 79: Física 1

[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:Portal de Física

Na mecânica quântica, a abordagem histórias consistentes pretende ser uma

modernainterpretação da mecânica quântica, geralmente a interpretação de Copenhague tida como

a mais convencional, provendo uma interpretação natural da cosmologia quântica. Alguns acreditam

que esta interpretação deriva do trabalho apresentado por Hugh Everett sendo uma versão moderna

da interpretação de muitos mundos. Outros discordam profundamente disto. A teoria se baseia no

critério de consistência que então permitiria a história de um sistema possa ser descrito pelas

probabilidades de cada história, que obedecem as leis da probabilidade clássica, enquanto preserva

a consistência com a equação de Schrödinger.

De acordo com esta a interpretação da mecânica quântica, o propósito da teoria da mecânica

quântica é predizer a probabilidade de várias histórias alternativas. Uma história é definida como

uma seqüência (produto) dos operadores de projeção em diferentes instantes no tempo:

O símbolo   indica que os fatores no produto são ordenados cronologicamente de acordo

como os valores de  : os operadores "passados" com menores valores de   aparecem no

lado direito, e os do operadores "futuros" com os maiores valores de   aparecem do lado

esquerdo.

Estas projeções de operadores podem corresponder a qual conjunto de problemas que incluam

todas que tratem de todas as possibilidades. Exemplificando, este poderiam ser o significado de

3 projeções: "o elétron atravessou a fenda da esquerda ", "o elétron atravessou a fenda da

direita" e "o elétron não passou por nenhuma das fendas". Um dos objetivos desta teoria é

mostrar que questões clássicas tais como “onde está meu carro” são consistentes. Nestes

casos deve-se usar um grande número de conjuntos de projeções, cada uma especificando a

localização do carro em alguma pequena região do espaço.

Uma história é uma seqüência destas questões, ou matematicamente o produto do

correspondente operador de projeção. As leis da mecânica quântica são para predizer as

probabilidades das histórias individuais, dadas condições iniciais conhecidas.

Finalmente, das histórias são requeiridas sua consistência, isto é:

Page 80: Física 1

para   diferentes. Onde   representa a matriz de densidade inicial, e o operador foi

expresso na figura Heisenberg. A necessidade de consistência permite postular que a

probabilidade da história   é simplesmente

a qual garante que a probabilidade do "A ou B" é igual à probabilidade de "A" mais a

probabilidade de "B" menos a probabilidade de "A e B", e assim por diante. A

interpretação baseada em histórias consistentes é usada em combinação com a visão

do entrelaçamento quântico. O entrelaçamento quântico implica que somente

determinadas escolhas das histórias são coerentes, e permitem um cálculo

quantitativo da fronteira entre o domínio clássico e o quântico.

Em algumas interpretações baseadas em histórias consistentes não muda em nada

em relação ao paradigma da interpretação de Copenhague que somente as

probabilidades calculadas da mecânica quântica e a função onda têm um significado

físico. De forma a obter uma teoria completa, as regras formais acima devem ser

suplementadas com um espaço Hilbertiano particular e leis que governem a dinâmica

do sistema, pro exemplo um Hamiltoniana.

Na opinião de outros, ainda não foi feita uma teoria completa, portanto nenhuma

previsão é possível a respeito de qual conjunto de histórias consistentes irá sempre

ocorrer. Estas regras das histórias consistentes, o espaço Hilbertiano e o Hamiltoniano

devem ser suplementados por um conjunto selecionado de leis.

Os propositores desta moderna interpretação, tais como Murray Gell-Mann, James

Hartle, Roland Omnes, Robert B. Griffiths, eWojciech Zurek argumentam que esta

interpretação esclarece as desvantagens fundamentais da velha interpretação de

Copenhague, e pode ser usado como um modelo interpretacional para a mecânica

quântica.

Princípio da incerteza de HeisenbergOrigem: Wikipédia, a enciclopédia livre.

(Redirecionado de Indeterminancia Quântica)

Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde Maio de 2011).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.

Page 81: Física 1

Werner Heisenberg

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Esconder]Conceitos fundamentais

Estado quântico · Função de onda

Superposição · Emaranhamento

Medição · Incerteza

Exclusão · Dualidade

Incoerência · Teorema de

Ehrenfest ·Tunelamento

[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

Page 82: Física 1

A Wikipédia possui o portal:Portal de Física

O princípio da incerteza de Heisenberg consiste num enunciado da mecânica quântica, formulado

inicialmente em 1927 por Werner Heisenberg, impondo restrições à precisão com que se podem

efetuar medidas simultâneas de uma classe de pares de observáveis em nível subatômico.

Índice

  [esconder] 

1   Expressão

2   Natureza da medida em mecânica quântica

3   Observáveis e operadores

4   O papel do princípio da incerteza nas formulações modernas da mecânica quântica

5   Referências

6   Bibliografia

Expressão [editar]

Pode-se exprimir o princípio da incerteza nos seguintes termos:

O produto da incerteza associada ao valor de uma coordenada xi e a incerteza associada ao seu

correspondente momento linear pi não pode ser inferior, em grandeza, à constante de Planck

normalizada.[1] Em termos matemáticos, exprime-se assim:

onde   é a Constante de Planck (h) dividida por 2π.

A explicação disso é fácil de se entender, e fala mesmo em favor da intuição, embora o raciocínio

clássico e os aspectos formais da análise matemática tenham levado os cientistas a pensarem

diferentemente por muito tempo. Quando se quer encontrar a posição de um elétron, por exemplo, é

necessário fazê-lo interagir com algum instrumento de medida, direta ou indiretamente. Por

exemplo, faz-se incidir sobre ele algum tipo de radiação. Tanto faz aqui que se considere a radiação

do modo clássico - constituída por ondas eletromagnéticas - ou do modo quântico - constituída

por fótons. Se se quer determinar a posição do elétron, é necessário que a radiação tenha

comprimento de onda da ordem da incerteza com que se quer determinar a posição.

Neste caso, quanto menor for o comprimento de onda (maior freqüência) maior é a precisão.

Contudo, maior será a energia cedida pela radiação (onda ou fóton) em virtude da relação

dePlanck entre energia e freqüência da radiação

Page 83: Física 1

e o elétron sofrerá um recuo tanto maior quanto maior for essa energia, em virtude do efeito

Compton. Como conseqüência, a velocidade sofrerá uma alteração não de todo previsível, ao

contrário do que afirmaria a mecânica clássica.

Argumentos análogos poderiam ser usados para se demonstrar que ao se medir a velocidade com

precisão, alterar-se-ia a posição de modo não totalmente previsível.

Resumidamente, pode-se dizer que tudo se passa de forma que quanto mais precisamente se medir

uma grandeza, forçosamente mais será imprecisa a medida da grandeza correspondente, chamada

de canonicamente conjugada

Algumas pessoas consideram mais fácil o entendimento através da analogia. Para se descobrir a

posição de uma bola de plástico dentro de um quarto escuro, podemos emitir algum tipo de radiação

e deduzir a posição da bola através das ondas que "batem" na bola e voltam. Se quisermos calcular

a velocidade de um automóvel, podemos fazer com que ele atravesse doisfeixes de luz, e calcular o

tempo que ele levou entre um feixe e outro. Nem radiação nem a luz conseguem interferir de modo

significativo na posição da bola, nem alterar a velocidade do automóvel. Mas podem interferir muito

tanto na posição quanto na velocidade de um elétron, pois aí a diferença de tamanho entre o fóton

de luz e o elétron é pequena. Seria, mais ou menos, como fazer o automóvel ter de atravessar dois

troncos de árvores (o que certamente alteraria sua velocidade), ou jogar água dentro do quarto

escuro, para deduzir a localização da bola através das pequenas ondas que baterão no objeto e

voltarão; mas a água pode empurrar a bola mais para a frente, alterando sua posição. Desta forma

torna-se impossivel determinar a localização real desta bola pois a própria determinação mudará a

sua posição. Apesar disto, a sua nova posição pode ser ainda deduzida, calculando o quanto a bola

seria empurrada sabendo a força das ondas obtendo-se uma posição provável da bola e sendo

provável que a bola esteja localizada dentro daquela área.

Natureza da medida em mecânica quântica [editar]

Como se pode depreender da argumentação acima exposta, a natureza de uma medida sofre sérias

reformulações no contexto da mecânica quântica. De fato, na mecânica quântica uma propriedade

leva o nome de observável, pois não existem propriedades inobserváveis nesse contexto. Para a

determinação de um observável, é necessário que se tenha uma preparação conveniente do

aparato de medida, a fim de que se possa obter uma coleção de valores do ensemble de entes do

sistema. Se não puder montar, ao menos teoricamente (em um Gedankenexperiment) uma

preparação que possa medir tal grandeza (observável), então é impossível determiná-la naquelas

condições do experimento.

Uma comparação tornará mais clara essa noção. No experimento de difração da dupla fenda, um

feixe de elétrons atravessando uma fenda colimadora atinge mais adiante duas outras fendas

paralelas traçadas numa parede opaca.

Page 84: Física 1

Do lado oposto da parede opaca, a luz, atravessando as fendas simultaneamente, atinge um

anteparo. Se se puser sobre este um filme fotográfico, obtém-se pela revelação do filme um padrão

de interferência de zonas claras e escuras. Esse resultado indica umanatureza

ondulatória dos elétrons, resultado esse que motivou o desenvolvimento da mecânica quântica.

Entretanto, pode-se objetar e afirmar-se que a natureza dos elétrons seja corpuscular, ou seja,

composta de fótons. Pode-se então perguntar por qual fenda o elétron atravessou para alcançar o

anteparo. Para determinar isso, pode-se pôr, junto de cada fenda, uma pequena fonte luminosa que,

ao menos em princípio, pode indicar a passagem dos elétrons por tal ou qual fenda. Entretanto, ao

fazê-lo, o resultado do experimento é radicalmente mudado. A figura de interferência, antes

presente, agora dá lugar a uma distribuição gaussiana bimodal de somente duas zonas claras em

meio a uma zona escura, e cujos máximos se situam em frente às fendas.

Isso acontece porque as naturezas ondulatória e corpuscular do elétron não podem

ser simultaneamente determinadas. A tentativa de determinar uma inviabiliza a determinação da

outra. Essa constatação da dupla natureza da matéria (e da luz) leva o nome de princípio da

complementaridade.

Essa analogia serve para mostrar como o mundo microfísico tem aspectos que diferem

significativamente do que indica o senso comum.

Para se entender perfeitamente o alcance e o real significado do princípio da incerteza, é necessário

que se distingam três tipos reconhecidos de propriedades dinâmicas em mecânica quântica:

Propriedades compatíveis: são aquelas para as quais a

medida simultânea e arbitrariamente precisa de seus valores não sofre nenhum tipo de

restrição básica. Exemplo: a medição simultânea das coordenadas x, y e z de uma

partícula. A medição simultânea dos momentos px,py e pz de uma partícula.

Propriedades mutuamente excludentes: são aquelas para as quais a medida simultânea é

simplesmente impossível. Exemplo: se um elétron está numa posição xi, não pode estar

simultaneamente na posição diferente xj.

Propriedades incompatíveis: são aquelas correspondentes a grandezas canonicamente

conjugadas, ou seja, aquelas cujas medidas não podem ser simultaneamente medidas

com precisão arbitrária. Em outras palavras, são grandezas cujas medidas simultâneas não

podem ser levadas a cabo em um conjunto de subsistemas identicamente preparados

(ensemble) para este fim, porque tal preparo não pode ser realizado. Exemplos: as

coordenadas x,y e z e seus correspondentes momentos px,py e pz, respectivamente. As

coordenadas angulares θi e os correspondentes momentos angulares Ji.

Observáveis e operadores [editar]

Page 85: Física 1

No formalismo matemático da mecânica quântica, os observáveis são representados por operadores

matemáticos sobre um espaço de Hilbert.

Esses operadores podem ser construídos a partir de seus equivalentes clássicos.

Na formulação de Heisenberg, as relações da incerteza podem ser dados na forma de um

operador comutador, que opera sobre dois outros operadores quaisquer:

onde A e B são operadores quaisquer.

No caso das relações de incerteza:

Dirac notou a semelhança formal entre o comutador e os parênteses de Poisson. Sabedor da

equivalência usada por Schrödingerquando este postulou a forma da equação de onda, Dirac

postulou as seguintes equivalências, que valem como receita para se acharem os operadores

quânticos correspondentes a grandezas clássicas:

A descrição ondulatória dos objetos microscópicos tem consequências teóricas importantes, como o

principio da incerteza de Heisenberg. O fato de os objetos microscópicos, em muitas situações,

terem uma localização no espaço mesmo que aproximada, implica que não podem ser descritos por

uma onda com um só comprimento de onda (onda plana), pois esta ocuparia todo o espaço. É

necessária uma superposição de comprimentos de ondas diferentes para se obter um "pacote" de

ondas mais bem localizado e que represente o objeto microscópico.

O papel do princípio da incerteza nas formulações modernas da mecânica quântica [editar]

Hoje em dia, o princípio da incerteza é importante principalmente por dois motivos: um histórico e

outro didático. Ambos são análogos: o princípio da incerteza mostra de maneira clara que

concepções clássicas a respeito da medida devem ser abandonadas.

No entanto, o princípio da incerteza *não* é um bom princípio (ou postulado) da mecânica quântica,

já que é inexato e pouco geral. A mecânica quântica não-relativística é totalmente descrita com

alguns postulados, dos quais as relações de incerteza de Heisenberg surgem de forma pouco

natural. Mas o espírito do princípio da incerteza é mantido: não se pode ter um sistema que, ao ser

medido, tenha a probabilidade 1 de se encontrar tanto uma ou outra grandeza, se essas grandezas

corresponderem a operadores que não comutam. Iremos explicar isto melhor adiante:

Page 86: Física 1

Todas as grandezas que podem ser medidas correspondem aos chamados "autovalores" de certos

objetos matemáticos chamados de operadores (na verdade, a natureza requer que esses

operadores sejam de uma classe especial, a dos "observáveis"). Chamemos um operador qualquer

de A, e chamemos seus autovalores de a_n (a_1 é um autovalor, a_2 é outro e assim por diante).

Existem estados quânticos, chamados "autoestados" (que representaremos por  ) do

operador A, nos quais uma medida tem 100% de chance de encontrar o valor a_n. Esses

autoestados e esses autovalores são definidos pela seguinte equação:

Um operador é dito um observável se esses autoestados   formarem uma "base". Diz-se que

um grupo qualquer de estados quânticos formam uma base se qualquer outro estado quântico puder

ser escrito como uma superposição deles. Ou seja, para qualquer estado quântico  ,

Onde os coeficientes  , em geral complexos, indicam o quanto os autoestados

correspondentes   influenciam no estado resultante,  . Um dos postulados da mecânica

quântica diz que a probabilidade de uma medida da grandeza A revelar o valor a_n é:

Quando o sistema está no autoestado  , o postulado acima mostra que a probabilidade de se

encontrar o valor a_n correspondente é 100%. Assim, pode-se dizer que o sistema *possui a

grandeza A bem definida*.

Agora consideremos dois operadores A e B, como o operador da posição e o operador do momento.

Em geral, os autoestados de um operador não são os mesmos autoestados do outro operador.

Consequentemente, se o sistema está em um estado quântico onde a grandeza A é bem definida, a

grandeza B não será bem definida. Ou seja, haverá uma "incerteza" na grandeza B.

Mas, e se o sistema estiver num estado onde a grandeza A é bem definida, e efetuarmos uma

medida na grandeza B? Pode-se pensar que, então, saberemos exatamente o valor de ambas as

grandezas. Mas isso está errado, devido a outro dos postulados da mecânica quântica: se uma

medida de uma grandeza qualquer B revela o valor b_n, então o sistema *é perturbado pela

medida*, e passa para o autoestado   correspondente à grandeza B_n.

Então, suponha que dois operadores A e B não possuem os mesmos autoestados. Se efetuarmos

em um sistema qualquer a medida da grandeza A, e encontrarmos um certo valor, o sistema se

torna um autoestado de A, com um valor bem definido de A e uma incerteza no valor de B. Se, após

isso, efetuarmos uma medida no valor de B, então lançamos o sistema num autoestado de B, com

um valor bem definido de B e uma incerteza no valor de A. Com isso, dizemos que é impossível

saber simultaneamente o valor da grandeza A e da grandeza B.

Page 87: Física 1

A incerteza entre a posição e o momento proposta por Heisenberg é, então, uma consequência dos

postulados da mecânica quântica, e não um postulado por si só.

Teorema de BellOrigem: Wikipédia, a enciclopédia livre.

Esta página ou secção foi marcada para revisão, devido a inconsistências e/ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor verifique emelhore a consistência e o rigor deste artigo. Pode encontrar ajuda no WikiProjeto Física.

Se existir um WikiProjeto mais adequado, por favor corrija esta predefinição. Este artigo está para revisão desdemarço de 2011.

O teorema de Bell é o legado mais importante do físico teórico John Bell. Estabelece uma distinção

absoluta entre a mecânica quântica e a mecânica clássica, ou seja, não existe regime de variáveis

ocultas locais que possam reproduzir todos os resultados da mecânica quântica.

Na realidade, o teorema de Bell consiste em uma classe de desigualidades, uma das quais foi

demonstrada por John Bell, que no meado dos anos 60 examinou criticamente a proposta

apresentada por von Neumann da não-existência de variáveis ocultas.

Bell mostrou que a hipótese do realismo local, ou seja,

que uma partícula possui valores definitivos que não dependem do processo de observação

e

que a velocidade de propagação dos efeitos físicos é finita

não é compatível com a mecânica quântica.

O teorema de Bell ofereceu uma forma de quantificar alguns conceitos associados com o paradoxo

EPR e permitiu por fim os testes experimentais de rede quântica versus realismo local.

Foi comprovado pela primeira vez em 1972 por John Clauser, de Berkeley.

[editar]Implicações da violação da desigualdade de Bell

O fenômeno do entrelaçamento quântico que está por trás da violação da desigualdade de Bell é um

dos elementos da física quânticaque não pode ser representado em qualquer outra visão clássica da

física; outros elementos não clássicos são a complementaridade e o colapso da função de onda. O

problema da interpretação da mecânica quântica busca prover uma visão satisfatória deste

elementos.

Teorema de Bell, portanto, aplica-se apenas com os resultados estatísticos de muitas provações do

experimento. Simbolicamente, a correlação entre os resultados de um único par pode ser

representada como "+1" para uma correspondência, ou "-1" para uma não-correspondência.

Page 88: Física 1

Ao medir o "spin" dessas partículas entrelaçadas ao longo de eixos paralelos sempre

resultará em idênticos (ie, perfeitamente correlacionados) resultados, medição em

direções perpendiculares terá apenas uma chance de 50% de correspondência (ou seja,

terá uma probabilidade de 50% de um resultado não-correlacionado).

Tabela de casos básicosMesmo eixo Par 1 Par 2 Par 3 Par 4 … Par n

Alice, 0° + − − + … +Bob, 0° + − − + … +Correspondência:( +1 +1 +1 +1 … +1 ) / n = +1

(100% idêntico)

Eixos ortogonais Par 1 Par 2 Par 3 Par 4 … Par nAlice, 0° + − + − … −Bob, 90° − − + + … −Correspondência( −1 +1 +1 −1 … −1 ) / n = 0

(50% idêntico)

Alguns defensores da idéia das variáveis ocultas preferem aceitar a opinião de que estes

experimentos são controlados de fora por variáveis ocultas locais. Eles estão prontos para abrir mão

da localidade, explicando a violação da desigualdades de Bell por meio de uma teoria de variáveis

ocultas não locais, na qual a partículas trocam informação a respeito de seus estados. Esta é a base

dointerpretação de Bohm da mecânica quântica. Isto entretanto, requereria que por exemplo, que

todas as partículas do universo fossem capazes de instantaneamente trocar informações com todas

as outras.

Finalmente, um sub-produto das conseqüências das desigualdades de Bell é a asserção contra-

factual. Esta derivação refere-se a várias propriedade objetivas que não podem ser todas medidas

para qualquer partícula dada, desde que a ação de realizar a medição muda o seu estado. Em

relação ao realismo local esta dificuldade é prontamente transposta, tão logo se assuma que a fonte

é estável, produzindo a mesma distribuição estatística de todos os estados para todos sub-

experimentos. Se esta suposição é tida como injustificável, por conseqüência, podemos argüir que a

desigualdade de Bell é não comprovada. Na interpretação de muitos-mundos de Everett, a

suposição da asserção contra-factual é abandonada, esta interpretação assume que o universo se

divide para muitos observadores diferentes, cada um dos quais realiza uma medição para uma

observação diferente. Portanto a interpretação de muitos mundos pode ser aderente as

propriedades do realismo filosófico e ao principio da localidade e não viola as condições de Bell.

Interpretação de BohmOrigem: Wikipédia, a enciclopédia livre.

Mecânica quântica

Page 89: Física 1

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações

Copenhague · Conjunta

Teoria das variáveis ocultas ·Transacional

Muitos mundos · Histórias consistentes

Lógica quântica · Interpretação de Bohm[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:Portal de Física

David Bohm, aluno de Robert Oppenheimer e contemporâneo de Albert Einstein em Princeton, após

publicar seu Teoria Quântica, elogiado por Einstein como a mais clara explicação que lera sobre o

tema, reinterpretou a física quântica de forma divergente da Interpretação de Copenhagen.

A interpretação de Bohm generaliza a teoria da onda piloto de Louis de Broglie de 1927, a qual

apresenta que ambos: onda e partícula são reais. A função de onda evolui de acordo com aequação

de Schrödinger e de algum modo 'guia' a partícula. Isto assumindo um simples, e não dividido

universo (diferente da interpretação de muitos mundos) e é deterministica (diferente dainterpretação

de Copenhague). Isto quer dizer que o estado do universo evolui suavemente através do tempo,

sem o colapso da função de onda quando a medição ocorre, como nainterpretação de Copenhague.

Contudo, deve-se assumir a existência de um grande número devariáveis ocultas, as quais nunca

podem ser diretamente mensuradas.

Índice

  [esconder] 

1   Equação de Schroedinger

2   Fundamentação Matemática

3   Comentários

4   Criticas

Page 90: Física 1

5   Veja também

6   Ligações externas

7   Referências

Equação de Schroedinger [editar]

Inicialmente, Bohm dividiu a equação de Schroedinger em duas partes. A primeira era uma

recapitulação da física newtoniana clássica, e a segunda um campo informativo semelhante aondas.

A equação de Schroedinger define o movimento do elétron, e indica respostas para questões

sobre o comportamento e a natureza do elétron.

Contrariamente a Niels Bohr (complementaridade onda-partícula) e à escola de Copenhagen, Bohm

postulou que o elétron se comporta como uma partícula clássica comum, mas tendo acesso à

informação sobre o resto do universo. Bohm denominou o segundo termo de potencial quântico, um

campo informativo funcional que fornece ao elétron informações sobre o resto do universo físico.

Demonstrou que a influência desse potencial quântico dependia apenas da forma, e não da

magnitude desse tipo de função de onda, sendo portanto, independente da separação no espaço:

todo ponto no espaço contribui com informação para o elétron.

Esta explicação para o comportamento do elétron tem relação com o conceito de holomovimento e

com as ordens implícita e explícita que o compõem.

Fundamentação Matemática [editar]

Na equação de Schrödinger

,

onde a função de onda ψ(r,t) é uma função complexa da posição r e tempo t, a densidade

probabilidade ρ(r,t) é uma função real definida por

.

Sem perda de generalidade, nos podemos expressar a função de onda ψ em termos da

dendisdade de probabilidade real ρ = |ψ|2 e uma função de fase da variável real S que são

ambas também funções de posição e tempo

.

Quando fazemos isto, a equação de Schrödinger separa-se em duas equações,

Page 91: Física 1

com

.

Se identificarmos o momento como   e a energia

como  , então (1) é simplesmente a equação de

continuidade tendo a probabilidade de

,

e (2) estabelece que energia total é a soma da energia potencial,

energia cinética, e um termo adicional Q, que pode ser chamado

depotencial quântico. Não é por acaso que S possua a unidade e

típico nome variável de ação.

A partícula é vista como tendo uma posição definida, com uma

distribuição de probabilidade ρ que pode ser calculada da função de

onda ψ. A função de onda "guia" a partícula por meio do potencial

quântico Q. Muito deste formalismo foi desenvolvido por Louis de

Broglie, Bohm estendeu o caso de uma simples partícula para a o

de várias partículas e reinterpretou as equações. Elas também

foram estendias para incluir o spin, embora a extensão para

condições relativísticas não tenha sido bem sucedida.

Comentários [editar]

A interpretação de Bohm não é muito popular entre os físicos por

inúmeras razões cientificas e sociológicas que poderiam fazer parte

de um fascinante porem longo estudo, mas podemos ao menos

dizer onde é considerada menos elegante por alguns (ela foi

considerada como "superestrutura desnecessária" mesmo

por Einstein que sonhava com um substituto deterministico para

ainterpretação de Copenhague).

Presumivelmente a Einstein, e outros, não agradavam a não

localidade da maioria das interpretações da mecânica quântica,

como ele tentou mostrar sua incompletude no Paradoxo EPR. A

teoria de Bohm é de forma inevitável não local, o que conta como

um golpe contra ela; mas isto é menos importante agora, pois nos

últimos tempos a não localidade vem se tornando mais convincente

devido a verificação experimental da Desigualdade de Bell. Porém, a

Page 92: Física 1

teoria vem sendo usado por outros como base de inumeros livros

tais como Dancing Wu-li Masters, o qual tem por objetivo ligar a

física moderna a religiões orientais. Isto, como também os vários

amigos filosóficos padrões de Bohm como J. Krishnamurti, devem

ter levado alguns mais a desconsiderá-la.

A interpretação de Bohm versus Copenhague (ou quase

Copenhague como definida por Von Neumann e Dirac) são

diferentes em pontos cruciais: ontologia versus epistemologia;

potencial quântico ou informação ativa versus usual partícula-onda e

ondas de probabilidades; não localidade vs. localidade (deve-se

notar que a mecânica quântica padrão é também não local, veja

o paradoxo EPR); completude versus abordagem segmentária

normal.

Em seu livro póstumo "O universo não dividido", Bohm tinha (com

Hiley, e, certamente, em inúmeros outros papers) apresentou um

elegante e completa descrição do mundo físico. Esta descrição é em

muitos aspectos mais satisfatória antecessora, ao menos para Bohm

e Hiley. De acordo com a interpretação de Copenhague, há uma

esfera de realidade clássica, para objetos grandes e grandes

números quânticos, e uma esfera quântica separada. Não há um

único fragmento da teoria quântica na descrição do "mundo

clássico" – diferentemente da situação encontrada na versão da

mecânica quântica de Bohm. Estas diferenças afetam tão pouco nos

resultados dos testes experimentais que não existes consenso se a

interpretação de Copenhague, ou outra, poderá ser provada como

inadequada; ou os resultados são tão vagos para serem

interpretados de forma não ambígua. Os papers em questão são

listados no final desta pagina, cujo o principal assunto são os efeitos

quânticos, como predito por Bohm, são observados no mundo

clássico – algumas vezes de forma impensável na versão dominante

da interpretação de Copenhague.

A interpretação Bohmiana da Mecânica Quântica é caracterizada

pela seguintes aspectos:

É baseada nos conceitos da não localidade potencial quântico e

informação ativa. Por um lado deve-se mencionar que a

abordagem Bohmiana não é nova em relação a seu formalismo

matemático, mas uma reinterpretarão da abordagem

Page 93: Física 1

usual equação de Schrödinger (a qual sob certas aproximações

é a mesma clássica equação Hamilton-Jacobi), a qual

simplesmente, no processo de cálculo, adicionou-se um termo

que foi interpretado por Bohm como um potencial quântico e

desenvolvido como uma nova visão da mecânica quântica.

Então, Na interpretação de Bohm não é (como poderia sugerir o

livro The Undivided Universe) a originalidade do formalismo

matemático (que é a função de em uma forma central, e a

equação de Schrodinger aplicada a ela) – mas uma

interpretação que nega a características centrais da mecânica

quântica: não existência do dualismo partícula onda (o elétron é

uma partícula real guiada guiada por um campo potencial

quântico real); nenhuma abordagem epistemológica (isto é,

realidade quântica e ontologia).

1. talvez o mais a parte mais interessante a respeito da

abordagem de Bohm é o formalismo: ela dá uma nova versão

para o micro mundo, não somente uma nova (apesar de radical)

interpretação. Esta descreve um mundo onde conceitos como a

causalidade, posição e trajetória têm um significado físico

concreto. Colocando de lado as possíveis objeções com

respeito a não localidade, o possível triunfo da visão de Bohm

(por exemplo, não necessitar de nada parecido com Princípio

da complementaridade) - deixa-nos com uma impressão de que

Bohm talvez ofereça seja um novo paradigma e uma

absolutamente arrojada versão reformulada da uma antiga e

estabelecida mecânica quântica.

Bohm enfatizou que experimento e experiência englobam um

todo indivisível. Não há separação deste todo indivisível. O

potencial quântico Q não assume o valor zero no infinito.

Criticas [editar]

Os principais pontos de criticas, juntamente com as respostas dos

que advogam a interpretação de Bohm, foram sumarizadas nos

pontos que se seguem:

Page 94: Física 1

1. a função de onda deve " desaparecer" depois do processo de

medição, e este processo parece profundamente artificial no

modelo de Bohm.

Resposta: A teoria de von Neumann da medição

quântica combinada com a interpretação de Bohm explica físicos

comportam-se como se a função de onda "desaparecesse", a

despeito do fato que não há um "desaparecimento" verdadeiro.

o artificialismo teórico escolhe variáveis privilegiadas: enquanto

a mecânica quântica ortodoxa admite todas as variáveis

do espaço de Hilbert que são tratados sempre de forma

equivalente (muito parecido com as bases compostas de seus

autovetores), A interpretação de Bohm requer algumas

variáveis tenha um conjunto de "privilégios" que são tratados

classicamente – principalmente a posição. Não existe razão

experimental para pensar que algumas variáveis são

fundamentalmente diferentes de outras.

Reposta: Na física clássica, a posição é mais fundamental que

outras variáveis. Portanto, não devia ser estranho que isto pudesse

também ser verdadeiro na mecânica quântica.

O modelo Bohmiano é verdadeiramente não local: esta não

localidade passível de violar a invariância de Lorent;

contradições comrelatividade especial já eram esperadas; Estes

fatos criam uma tarefa profundamente não trivial: reconciliar os

atuais modelos dafísica de partículas, tais como teoria quântica

de campo ou teoria das cordas, com alguns testes

experimentais muito acurados da relatividade especial, sem

algumas explicações adicionais. Por outro lado, outras

interpretações da mecânica quântica – tais comoHistórias

consistentes ou interpretação de muitos mundos permite-nos

explicar o teste experimental do entrelaçamento quânticosem

qualquer utilização de não localidade.

Resposta: A teoria das cordas sugere uma teoria de campo quântico

não comunicante, a qual também introduz não-localidades e

violação da invariância de Lorentz. Portanto, na física moderna, não

localidade e violação da invariância de Lorentz não são tratados

Page 95: Física 1

como patologias, mas, ao invés disto, possibilidades interessantes.

Além disto, em algumas versões da interpretação de Bohm, a não-

localidade do potencial quântico é relativisticamente invariante na

mesma medida que a função de onda é relativisticamente invariante,

o que conduz a versões da interpretação de Bohm que respeitem

a covariância de Lorentz.

A interpretação Bohmiana tem problemas sutis para incorporar

o spin e outros conceitos da física quântica: os eigenvalores do

spin são discretos, e alem disto contradiz a invariância

rotacional ao menos que uma interpretação probabilística seja

aceita

Resposta: Há variantes da interpretação de Bohm na qual este

problema não aparece.

A interpretação Bohmiana também parece incompatível com as

modernas visões a respeito entrelaçamento que permite-nos

calcular a "barreira" entre o "micro-mundo quântico" e o "macro-

mundo clássico"; de acordo com o entrelaçamento, as variáveis

que exibem comportamento clássico são determinadas

dinamicamente, não por uma suposição.

Resposta: Quando a interpretação de Bohm e tratada juntamente

com a teoria de von Neumann da medição quântica, nenhuma

incompatibilidade com as visões a respeito

do entrelaçamento permanecem. Pelo contrario, a interpretação de

Bohm deve ser vista como uma complemento da teoria do

entrelaçamento, porque ela prove respostas para questões que o

entrelaçamento por si só não pode responder: Qual o motivo que

leva o sistema a ser conduzido a um simples e definido valor da

variável observada?

a interpretação de Bohm não leva a novas predições

mesuráveis, então isto não e realmente uma teoria cientifica.

Resposta: No domínio nos quais a interpretação convencional

da mecânica quântica não são ambíguos, as predições da

interpretação de Bohm são idênticos a aqueles da interpretação

convencional. Porem, no domínio no qual a interpretação

Page 96: Física 1

convencional é ambígua, tais como a questão do tempo observador

e posição-observador em mecânica quântica relativística, a

interpretação de Bohm conduz a predições mensuráveis novas e

não ambíguas.

Interpretação de CopenhagaOrigem: Wikipédia, a enciclopédia livre.

(Redirecionado de Interpretação de Copenhague)

Mecânica quântica

Princípio da Incerteza

Introducão a...

Formulação matemática

[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações

Copenhague · Conjunta

Teoria das variáveis ocultas ·Transacional

Muitos mundos · Histórias consistentes

Lógica quântica · Interpretação de Bohm[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:Portal de Física

A Interpretação de Copenhague (português brasileiro) ou Interpretação de Copenhagen(português europeu) é a

interpretação mais comum da Mecânica Quântica e foi desenvolvida porNiels Bohr e Werner

Heisenberg que trabalhavam juntos em Copenhague em 1927. Pode ser condensada em três teses:

As previsões probabilísticas feitas pela mecânica quântica são irredutíveis no sentido em

que não são um mero reflexo da falta de conhecimento de hipotéticas variáveis

escondidas. No lançamento de dados, usamos probabilidades para prever o resultado

porque não possuímos informação suficiente apesar de acreditarmos que o processo é

determinístico. As probabilidades são utilizadas para completar o nosso conhecimento. A

Page 97: Física 1

interpretação de Copenhague defende que em Mecânica Quântica, os resultados são

indeterminísticos.

A Física é a ciência dos resultados de processos de medida. Não faz sentido especular

para além daquilo que pode ser medido. A interpretação de Copenhague considera sem

sentido perguntas como "onde estava a partícula antes de a sua posição ter sido medida?".

O ato de observar provoca o "colapso da função de onda", o que significa que, embora

antes da medição o estado do sistema permitisse muitas possibilidades, apenas uma delas

foi escolhida aleatoriamente pelo processo de medição, e a função de onda modifica-se

instantaneamente para refletir essa escolha.

A complexidade da mecânica quântica (tese 1) foi atacada pela experiência (imaginária) deEinstein-

Podolsky-Rosen, que pretendia mostrar que têm que existir variáveis escondidas para evitar "efeitos

não locais e instantâneos à distância". A desigualdade de Bell sobre os resultados de uma tal

experiência foi derivada do pressuposto de que existem variáveis escondidas e não existem "efeitos

não-locais". Em 1982, Aspect levou a cabo a experiência e descobriu que a desigualdade de Bell

era violada, rejeitando interpretações que postulavam variáveis escondidas e efeitos locais. Esta

experiência foi alvo de várias críticas e novas experiências realizadas por Weihs e Rowe

confirmaram os resultados de Aspect.

Muitos físicos e filósofos notáveis têm criticado a Interpretação de Copenhague, com base quer no

fato de não ser determinista quer no fato de propor que a realidade é criada por um processo de

observação não físico. As frases de Einstein "Deus não joga aos dados" e "Pensas mesmo que

a Lua não está lá quando não estás a olhar para ela?" ilustram a posição dos críticos. A experiência

do Gato de Schroedinger foi proposta para mostrar que a Interpretação de Copenhague é absurda.

A alternativa principal à Interpretação de Copenhague é a Interpretação de Everett dos mundos

paralelos.

Interpretação de muitos mundosOrigem: Wikipédia, a enciclopédia livre.

Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde Dezembro de 2011).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.

Mecânica quântica

Princípio da Incerteza

Page 98: Física 1

Introducão a...

Formulação matemática

[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações

Copenhague · Conjunta

Teoria das variáveis ocultas ·Transacional

Muitos mundos · Histórias consistentes

Lógica quântica · Interpretação de Bohm[Expandir]Tópicos avançados[Expandir]Cientistas

ver • editar

A Wikipédia possui o portal:Portal de Física

A Interpretação de muitos mundos (ou IMM) é uma interpretação da mecânica quântica que

propõe a existência de múltiplos "universos paralelos". A IMM foi formulada inicialmente porHugh

Everett para a explicação de alguns processos não determinísticos (tais como medição) na

mecânica quântica.

Embora varias versões de IMM tenham sido propostas desde o trabalho original de Everett, todas

compartilham duas idéias chaves. A primeira delas é a existência de uma função estadopara

todo universo a qual obedece a equação de Schrödinger para todo tempo e para a qual não há

processo de colapso da onda. A segunda idéia é que este estado universal é umasobreposição

quântica de vários, possivelmente infinitos, estados de idênticos universos paralelos não

comunicantes.

As idéias da IMM originaram-se na tese de Ph. D. de Hugh Everett na Universidade de Princeton,

mas a frase “muitos mundos” é devida a Bryce DeWitt, que posteriormente desenvolveu algumas

das idéias presentes no trabalho original de Everett. A formulação de DeWitt tornou-se tão popular

que muitos confundem-na com o trabalho original de Everett.

IMM é uma das muitas hipóteses multiverso na física e na filosofia.

Índice

  [esconder] 

1   Muitos mundos e o problema da interpretação

2   Visão geral

3   Estado relativo

4   Propriedades comparativas e suporte experimental

5   Um exemplo simples

Page 99: Física 1

6   Traço Parcial e estado relativo

o 6.1   Estados coerentes como estados relativos

o 6.2   Ramificações múltiplas

o 6.3   Operadores quânticos gerais

o 6.4   Ramificação

7   Aceitação da interpretação de muitos mundos

8   Muitos mundos na literatura e ficção cientifica

9   Referências

10   Ver também

11   Ligações externas

Muitos mundos e o problema da interpretação [editar]

Como outras interpretações da mecânica quântica, a interpretação de muitos mundos é motivada

pelo comportamento que pode ser ilustrado pela experiência da dupla fenda. Quando partículas de

luz (ou algo semelhante) são conduzidos através de uma dupla-fenda, uma explicação baseada no

comportamento de onda para luz é necessária para identificar onde as partículas deverão ser

observadas. Já quando as partículas são observadas, elas se mostram como partículas e não como

ondas não localizadas. Pela interpretação de Copenhague da mecânica quântica é proposto um

processo de "colapso" do comportamento de onda para o de partícula para explicar o fenômeno

observado.

Na época em que John von Neumann escreveu seu famoso tratado Mathematische Grundlagen der

Quantenmechanik em 1932, o fenômeno do "colapso da função de onda" era acomodado em dentro

da formulação matemática da mecânica quântica postulando-se que havia dois processos de

transformação da função de onda:

A mudança descontinua e de natureza aleatória que é ocasionada pelo processo de

observação.

A evolução no tempo de um sistema isolado que obedece a equação de Schrödinger, que

é determinista.

O fenômeno do colapso da função de onda por (1) proposto pela interpretação Copenhague foi

amplamente considerada como artificial e ad-hoc, e conseqüentemente uma interpretação

alternativa na qual o comportamento da medição pudesse ser entendido a partir de um principio

físico mais fundamental era amplamente desejável.

A tese de doutorado de Everett tinha a intenção de prover uma interpretação alternativa. Everett

propôs que para um sistema composto (por exemplo, aquele formado por uma partícula que

interage com o aparato de medição), não se pode associar um estado bem definido a um

Page 100: Física 1

determinado subsistema. Isto levou a Everett sugerir a noção de estado relativo de um subsistema

em relação a outro.

O formalismo de Everett para compreender o processo do colapso da função de onda como um

resultado da observação é matematicamente equivalente a superposição de funçōes de onda.

Everett deixou a pesquisa física logo apos obter seu Ph.D, tendo como resultado que suas idéias

foram desenvolvidas por outros pesquisadores.

Visão geral [editar]

Na formulação de Everett, um aparato de medição M e um sistema objeto S formam um sistema

composto, cada parte do qual antes da medição existem em estados bem definidos (mas tempo-

dependentes). A medição é tida como causadora da interação de M e S. Apos S interagir com M,

não é mais possível descrever ambos sistemas como estados independentes. De acordo com

Everett, a única descrição possível de cada sistema são estados relativos: por exemplo o estado

relativo de S dado o estado de M ou o estado relativo de M dado o estado de S. Na formulação de

DeWitt, o estado de S após a medição é dado pela superposição quântica das historias alternativas

de S.

Por exemplo, considere o menor sistema quântico verdadeiro possível S, como mostrado na

ilustração. Este descreve por exemplo, o estado-spin de um elétron. Considerando um eixo

especifico (digamos o eixo z) o pólo norte representando o spin "para cima" e o pólo sul, spin "para

baixo". Os estados de superposição do sistema descrito pela (a superfície da) esfera, chamada

de esfera de Bloch. Para se executar uma medição em S, deve-se interagi-lo com um outro sistema

similar a M. Após esta interação, o sistema combinado é descrito por um estado que abrange um

espaço de seis dimensões (o motivo para o número 6 é explicado no artigo sobre a esfera de Bloch).

Este objeto de 6 dimensões pode também ser concebido a como uma superposição quântica de

duas "histórias alternativas" do sistema original S, uma das quais "para cima" foi observada e a

outra na qual o "para baixo" foi observado. Cada subseqüente medição binária (que é uma interação

com o sistema M) causa uma divisão similar na árvore da história. Portanto após três medições, o

sistema pode se apresentar como a superposição quântica, o sistema pode ser representado

inicialmente como uma superposição quântica de 8= 2 × 2 × 2 copias do sistema original S.

A terminologia aceita é de algum modo enganosa porque é incorreto considerar o universo esteja se

dividindo um certo número de vez.

Estado relativo [editar]

O objetivo do formalismo do estado-relativo, como originalmente proposto Everett em 1957 na sua

dissertação de doutorado, foi interpretar o efeito da observação externa englobada inteiramente no

arcabouço desenvolvido por Dirac, Von Neumann e outros, descartando totalmente o mecanismo

ad-hoc de colapso da função de onda. Desde trabalho original de Everett, tem surgido alguns

formalismos similares na literatura. Um destes será discutido na próxima seção.

Page 101: Física 1

Do formalismo do estado-relativo, nos podemos obter a interpretação do estado-relativo por duas

suposições. A primeira é que a função de onda não é só uma simples descrição do estado do

objeto, mas que ela é realmente inteiramente equivalente ao objeto, esta exigência foi muito comum

em outras interpretações. A segunda e que o observador não possua uma condição especial, ao

contrario da interpretação de Copenhague a qual considera o colapso da função de onda como um

tipo especial de evento que ocorre como resultado da observação.

A interpretação de muitos mundos é reconstruída por DeWitt a partir de um formalismo de estado (e

interpretação). Everett refere-se ao sistema (tal como o observador) como sendo dividido por uma

observação, cada divisão corresponde a um resultado possível de se obter pela observação. Estas

divisões geram uma árvore de possibilidade como mostrada no gráfico abaixo. Subseqüentemente

DeWitt introduziu o termo "mundo" para descrever uma história completa da medição de um

observador, a qual corresponde a um caminho iniciado na raiz daquela árvore. Note que "divisão"

neste sentido, é dificilmente novo ou inédito na mecânica quântica. A idéia de um espaço de

histórias completamente alternativas já foi usada pela teoria da probabilidade desde meados de

1930, por exemplo, para o modelo do movimento Browniano. A inovação no ponto de vista DeWitt's

foi que as várias histórias completamente alternativas podem se sobrepor para formar um novo

estado.

No contexto da interpretação de muitos mundos, a equação de Schrödinger influência todos os

instantes e lugares. Uma observação ou medição de um objeto por um observador é modelada pela

aplicação da equação de onda de Schrödinger a todo sistema englobando o observador e o objeto.

Uma conseqüência é que cada observação pode ser tida como a causadora de divisão da função

universal de onda na superposição quântica de dois ou mais ramos não comunicantes, ou

"mundos". Desde muitos eventos semelhantes de observação estão constantemente acontecendo,

há um enorme número de simultâneos estados de existência simultâneos.

Se um sistema é composto de dois ou mais subsistemas, o estado do sistema típico será uma

superposição dos produtos dos estados dos subsistemas. Uma vez que os subsistemas interajam,

seus estados não mais completamente independentes. Cada produto dos estados subsistema irão

acabar envolvendo no decorrer do tempo o estada dos outros. Os subsistemas se

tornaramentrelaçados e não será possível mais considerá-los como sendo independentes. O termo

usado por Everett's para este entrelaçamento de subsistemas foi estado relativo, desde que cada

subsistema deve ser agora considerado relativamente aos outros subsistemas como o qual ele

tenha interagido.

Propriedades comparativas e suporte experimental [editar]

Uma das características a se salientar da interpretação de muitos mundos é que o observador não

requer de uma construção especial (tal como o colapso da função de onda) para ser explicada.

Muitos físicos, por outro lado, não gostam da implicação de haver infinitos universos alternativos não

observáveis.

Page 102: Física 1

Como desde 2002, não foram feitos experimentos práticos que para distinguir entre as

interpretações de muitos mundos e Copenhague, e na ausência de dados amostrais, a escolha de

uma delas é de caráter pessoal. Porem, uma das áreas de pesquisa e planejar experimentos os

quais possam distinguir entre as várias interpretações da mecânica quântica, embora exista algum

ceticismo se esta é mesmo uma questão importante a ser respondida. Realmente, pode ser

argumentado que há uma equivalência matemática entre Copenhague (quando é expressa, por

exemplo, como um conjunto de algoritmos para manipulação densidade de estado) e muitos

mundos (o qual da as mesmas respostas das de Copenhague usando uma visão matemática mais

elaborada) o que parece mostrar que esta empreitada seja impossível. Porem, esta equivalência

algorítmica não deve ser verdadeira em escala cosmológica. Foi proposto que em um mundo com

infinitos universos alternativos, os universos que se colapsam existem por um tempo menor que os

universos que se expandem, este fenômeno pode causar um diferença detectável probabilidade

entre as interpretações de muitos mundos e Copenhague.

Na interpretação de Copenhague, a matemática da mecânica quântica permite prever

a probabilidades para a ocorrência de vários eventos. Na interpretação de muitos mundos, todos

estes eventos ocorrem simultaneamente. O que se obtem por estes cálculos de probabilidade? E

porque nos devemos observar, em nossa história, que eventos com alta probabilidade parecem

ocorrer com mais freqüência? Uma das respostas para esta questão é dizer que há medição

probabilidade no espaço de todos universos, onde um possível universo é uma arvore completa do

universo de ramificação. Isto é o que realmente este calculo produz. Então nos deveríamos esperar

encontrar-nos mesmo em um universo com alta probabilidade do que em um de relativamente baixa

probabilidade: mesmo que todas as saídas em uma experimento ocorram, elas não ocorrem de igual

maneira.

A interpretação de muitos mundos não deve ser confundida com a interpretação com a muitas

mentes a qual postula que é somente a mente do observador que se divide ao invés de todo

universo.

Um exemplo simples [editar]

Considere-se formalmente o exemplo apresentado na introdução. Considere um par

de partículas de spin 1/2, A e B, na qual nos unicamente consideraremos o spin observável (em

particular sua mudança de posição). Como um sistema isolado, A partícula A é descrita por

um Espaço de Hilbert de duas dimensões HA; similarmente a partícula B é descrita por um Espaço

de Hilbert HB. O sistema composto é descrito pelo produto tensor:

o qual é de dimensão 2 x 2. Se A e B não estão interagindo, o conjunto de tensores puros

Page 103: Física 1

é invariante no que se refere a evolução temporal; de fato, nos somente consideramos os

observáveis do spin para os quais as partículas isoladas são invariantes, o tempo não terá

efeito a prior na observação. Porém, apos a interação, o estado do sistema composto é um

possível estado de entrelaçamento quântico, o qual não é um tensor puro.

O estado de entrelaçamento mais geral é uma soma

Para este estado corresponde um operador linear HB → HA o qual aplica estados puros

para estados puros.

Esta aplicação (essencialmente numa normalização modular do estado) é

o aplicação do estado relativo definido por Everett, como associado a um

estado puro de B correspondente a estado relativo(puro) associado de A. Mais

precisamente, há uma únicadecomposição polar de TΦ tal que

e U é uma aplicação isométrica definido em algum sub-espaço de HB. Veja

também decomposição de Schmidt.

Note que a matriz de densidade do sistema composto é pura. Porém, é

também possível considerar a matriz densidade reduzidadescrevendo a

partícula A isolada tomando o traço parcial sobre os estados da partícula B. A

matriz de densidade reduzida, ao contrario da matriz original descreve

um estado misto. Este exemplo em particular é baseado no paradoxo EPR.

O exemplo anterior pode ser generalizado facilmente para sistemas

arbitrários A, B sem nenhuma restrição na dimensão de espaço de Hilbert

correspondente. Em geral, o estado relativo é uma aplicação linear isométrica

definida no subespaço de HB para valores emHA.

Traço Parcial e estado relativo [editar]

A transformação de um sistema quântico resultante do processo de medição,

tal como na experiência de dupla fenda discutida acima, pode ser facilmente

descrita matematicamente de uma forma que seja consistente a maioria

dos formalismos matemáticos. Nos iremos apresentar uma destas

descrições, também chamada de estado reduzido, baseada no conceito traço

parcial, o qual pode ser processo pela interação, resume para um tipo de

Page 104: Física 1

conhecimento formalismo muitos mundos. Isto então é um pequeno passo do

formalismo de muitos mundos para a interpretação de muitos mundos.

Por definição, assumir-se-á que o sistema sempre é uma partícula tal como

o elétron. A discussão do estado reduzido e muitos mundos não é diferente

no caso que se nos considerarmos qualquer outro sistema físico, incluindo

um "sistema observador". No que se segue, nos deveremos considerar não

somente estados puros para o sistema, mas mais genericamente estados

mistos; Estes são certamente operadores lineares no espaço

Hilbertiano H descrevendo o sistema quântico. Sem duvida, como vários

cenários medição apontados, o conjunto de estados puros não relacionados

com a medição. Matematicamente, a matriz de densidade são misturas

estatísticas de estados puros. Operacionalmente um estado misto pode ser

identificado como a agrupamento estatísticoresultante de um especifico

procedimento preparação laboratorial.

Estados coerentes como estados relativos [editar]

Suponha que tenhamos um agrupamento de partículas tal que o estado S dele é puro. Isto

significa que haverá um vetor unitário ψ emH tal que S é o operador dado em notação bra-

ket pela fórmula seguinte:

Agora consideremos um experimento para determinar se a partícula deste agrupamento

tem uma propriedade particular: Por exemplo, a propriedade poderia ser a localização da

partícula em alguma região A do espaço. O experimento pode ser preparado para se

comportar seja como uma medição de um observador ou seja como um filtro. Como uma

medição, determinará que a variável Qassume o valor 1 se a partícula se encontra em A e

0 no caso contrario. Como um filtro, ele deixará passar somente aquelas partículas que se

encontram em A e impedindo a passagem das outras.

Matematicamente, uma propriedade é dada pela sua projeção auto-adjunta E no espaço

de Hilbert H: Aplicando o filtro para um pacote de partículas, algumas delas serâo

rejeitadas, e outras passam. Agora será possível mostrar que uma operação de filtro

ocasiona o "colapso" do estado puro como no seguinte exemplo: prepara-se um novo

estado composto dado pelo operador densidade

onde F = 1 - E.

Para ver isto, note-se que como um resultado da medição, o estado das partículas

imediatamente após a medição é um eigevetor deQ, que é um dos dois estados

puros...

com as respectivas probabilidades

Page 105: Física 1

A forma matemática da de apresentação deste estado combinado é pela

utilização de combinação convexa de estados puros:

na qual o operados S1 acima.

Comentário. O uso da palavra colapso neste contexto é de alguma

maneira diferente daquela usada na explicação da interpretação de

Copenhague. Nesta discussão não se irá referir a um colapso ou

transformação da onda em nenhuma parte, mas particularmente da

transformação de um estado puro em um estado misto.

As considerações precedente são completamente padrões da maioria dos

formalismos da mecânica quântica. Agora considere um sistema

"ramificado" o qual seguindo espaço de Hilbert é

onde H2 é uma espaço de Hilbert bi-dimensional com vetores de

base   and  . A ramificação no espaço pode ser entendida como

um sistema composto constituído do sistema original (do qual agora

é um subsistema) juntamente com um sistema não-interativo

subordinado qbit simples. No sistema ramificado, considere o estado

entrelaçado

Nos podemos expressar este estado na matriz de densidade

formatado como  . Multiplicando resulta em:

O traço parcial do estado misto foi obtido pela somatória dos coeficientes do operador

de   and   na expressão acima. Isto resulta em estado misto em H. De fato, este

estado misto é idêntico ao estado composto "pos filtragem" S1 acima.

Sumarizando, nos temos descrição matemática do efeito do filtro para a partícula no estado

puro ψ no seguinte caminho:

O estado original é ampliado com sistema qubit subordinado.

O estado puro do sistema original é substituído por um estado de entrelaçamento puro

de um sistema subordinado e

O estado pos-filtro do sistema é o traço parcial do estado entrelaçado para o estado

subordinado.

Page 106: Física 1

Ramificações múltiplas [editar]

No curso do tempo de vida do sistema esperar-se-ía que muitos eventos de filtragem

ocorressem. A cada um destes eventos, uma ramificação ocorre. De forma que isto seja

consistente com estrutura de ramificação como descrito na ilustração acima, nos deveremos

mostrar que se um evento de filtragem ocorre em um dos caminhos do nodo raiz da árvore,

então teremos que assumir que ele ocorrera em todas as ramificações. Isto mostra que a

árvore é consideravelmente simétrica, que é para cada nodo n da árvore, a forma da árvore

não muda pelo intercâmbio da sub-árvores imediatamente abaixo deste nodo n.

De forma a mostrar esta propriedade de uniformidade de ramificação, note que alguns cálculos

resultam no mesmo se o estado original de S é composto. De fato, o estado pos-filtragem será

o operador de densidade:

O estado S1 é o caminho parcial de

Isto significa que cada medição subseqüente (ou ramificação) ao longo de um destes

caminhos da raiz da árvore para um nodo folha corresponde a uma ramificação

homologa ao longo de cada caminho. Isto garante a simetria da árvore de muitos

mundos em relação a rotação os nodos filhos de cada nodo.

Operadores quânticos gerais [editar]

Nas duas seções anteriores, tem-se a representação da operação de medição em

sistemas quânticos em termos de estados relativos. De fato existe uma classe mais

ampla de operadores que devem ser considerados: estes são conhecidos

como operadores quânticos. Considerado as operações com operadores densidade no

sistema de espaço Hilbertiano H, isto se dará da seguinte forma:

onde I é um conjunto finito ou indexado infinitamente comutável. Os

operadores Fi são chamados de operadores de Kraus.

'Teorema. Dado

Então

Além disso, o mapeamento V definido por

é tal como

Page 107: Física 1

Se γ é uma operador quântico que preserva o caminho,

então V é um mapa linear isométrico

Onde a soma direta de Hilbert e feita sobre todas as copias

de H indexadas pelos elementos de I. Podemos considerar

tais mapas Φ como embutidos. Em particular:

Corolário. Qualquer operador quântico que preserve o

caminho é a composição de uma isometria embutida e um

caminho parcial.

Isto sugere que o formalismo de muitos mundos pode ser

considerado para uma classe mais geral de transformações

da mesma forma que foi feita para uma simples medição.

Ramificação [editar]

Em geral, pode-se mostrar a propriedade da ramificação

uniforme da árvore como se segue: Se

e

onde

e

então um calculo fácil mostra

Isto também demonstra que entre as

medições propriamente ditas dos

operadores quânticos (isto é, não-

unitária), podemos interpolar uma

arbitraria evolução unitária.

Aceitação da interpretação de muitos mundos [editar]

Há uma ampla gama de pontos a serem considerados na interpretação de "muitos mundos". É

freqüentemente salientado (ver a referência a Barret) que Everett por si mesmo não estava

inteiramente consciente do que ela significava. Além disso, popularmente tem-se usado

freqüentemente a interpretação de muitos mundos para justificar afirmações a respeito do

relacionamento entre a consciência e o mundo material. Fora destas interpretações new-age,

interpretações do tipo "muitos mundos" são consideradas suficientemente coerentes.

Page 108: Física 1

Por exemplo, um a votação entre 72 físicos de destaque, conduzida pelo pesquisador

Americano David Raub em 1995 e publicada em um periódico Francês Sciences et Avenir em

Janeiro de 1998, registrou que aproximadamente 60% acreditavam que a interpretação de

muitos mundos era verdadeira. Max Tegmark (veja referencia para sua web page abaixo)

também relata o resultado de uma pesquisa feita no Seminário de mecânica quântica de 1997.

De acordo com Tegmark, "A interpretação de muitos mundo está cotada em segundo lugar,

confortavelmente à frente das histórias consistentes e interpretações de Bohm." Outras

votações não cientificas têm sido feitas noutras conferências: ver por exemplo o blogue

de Michael Nielsen [1] o qual relata algumas destas votações. Porém, o valor destas votações

é um tanto discutível.

Um dos mais fortes defensores da Interpretação de muitos mundos é David Deutsch. De

acordo com Deutsch, o padrão de interferência observado com um único no experimento de

dupla fenda, pode ser explicado pela interferência das fotos nos múltiplos universos. Visto

desta forma, o experimento de interferência de um único fóton é indistinguível de um

experimento de vários fótons. De um ponto de vista mais prático, numa das suas mais recentes

publicações de computação quântica (Deutsch 1985), ele sugere que o paralelismo que resulta

da validade da IMM poderia conduzir a "um método pelo qual certas tarefas probabilísticas

poderiam ser feitas mais rápidas por um computador quântico universal do que por qualquer

um com restrições clássicas ".

Asher Peres foi um crítico aberto a IMM, por exemplo, em uma seção em seu livro texto

de 1993 com o título Interpretação de Everett e outras teorias bizarras . De fato, Peres

questiona se MWI é realmente uma "interpretação" ou mesmo se interpretações da mecânica

quântica são mesmo necessárias. Além disso, a interpretação de muitos mundos pode ser

considerada como meramente uma transformação formal, a qual não adiciona nenhuma regra

instrumentalista (i.e. estatístico) à mecânica quântica. Talvez mais significativo, Peres parece

sugerir a crença da existência de um número infinito de universos não-comunicantes que

somente piora o problema que supõem tentar resolver.

IMM é considerada por alguns como sendo não testável, porque os múltiplos universos

paralelos são não comunicáveis no sentido que informação não pode passar entre eles. Além

disso, como também foi salientado (por exemplo, por Peres) que votações de "aprovação" tais

como as mencionadas acima não podem ser usadas como evidência da correção ou não de

uma teoria em particular.

Muitos mundos na literatura e ficção cientifica [editar]

A interpretação de muitos mundos (e o conceito relacionado dos mundos possíveis) tem sido

associado com diversos temas naliteratura, arte e ficção científica.

Ao lado da violação de princípios fundamentais da casualidade e relatividade, estas histórias

são extremamente equivocadas desde que estrutura da teoria da informação de caminhos dos

múltiplos universos (que é o fluxo de informações entre os diferentes caminhos) é

extraordinariamente complexa. Veja também FAQ de Michael Price referenciado na seção de

links externos abaixo onde estes temas (e outros similares) são tratados como mais detalhes.

Outro tipo da visão popular da divisão em muitos mundos, a qual não envolve fluxo de

informações entre os caminhos ou informação fluindo para trás no tempo considera finais

alternativos para eventos históricos. Do ponto de vista da física quântica, estas histórias são

incorretas por pelo menos dois motivos:

Page 109: Física 1

Não há nada que relacione a mecânica quântica com a descrição dos desdobramentos

de eventos históricos. De fato, este tipo de analise baseada em casos é uma técnica

comum no planejamento é pode ser analisada quantitativamente pela probabilidade

clássica.

O uso de eventos históricos é uma forma complicada para introdução a teoria quântica

já que se geralmente se considera ser este assunto externo a ela, especialmente a

questão da natureza da escolha individual.

Imortalidade quânticaOrigem: Wikipédia, a enciclopédia livre.

Imortalidade quântica é definida como uma especulação controversa derivada do experimento

mental do suicídio quântico que afirma que a interpretação de muitos

mundos de Everett da mecânica quântica implica que seres conscientes são imortais1 2 .

[editar]A Teoria

Suicídio quântico consiste em uma teoria criada a partir de um experimento mental no qual

imagina-se um homem que se senta frontalmente a uma arma e a aponta para sua cabeça. A arma

está ligada a uma máquina que mede o spin de fótons. A cada 10 segundos, o spin de um novo

fóton é medido; dependendo do seu valor, a arma é disparada ou não.

Como existe a possibilidade de 50% para cada caso, a Interpretação de muitos mundos diz que, a

cada turno do experimento, as duas possibilidades serão verdadeiras, com uma divisão do universo

nas duas versões possíveis. Logo, se o gatilho for acionado pela primeira vez a arma não dispara; o

gatilho é novamente acionado e novamente a arma não dispara. O gatilho continuará a ser acionado

com o mesmo resultado: a arma não vai disparar, uma vez que a partícula manterá seu spin

idêntico.

Mas, de acordo com a interpretação de muitos mundos, quando o gatilho é acionado pela primeira

vez, o universo se divide em dois, e, numa outra versão da realidade, a medida mostra que o spin

do fóton tem um dado valor. Conseqüentemente, a arma dispara e o homem morre. Mas como

vimos inicialmente, a cada nova realização do experimento, os dois casos serão verdadeiros. Ele

não tem consciência disso, mas está vivo e morto, e cada vez que o gatilho é acionado, o universo

se divide em dois e vai continuar a se dividir cada vez que o gatilho for acionado, criando múltiplas

realidades. Não importa quantas vezes o gatilho for acionado, em uma das realidades possíveis a

arma não irá disparar e assim, ele vai continuar o processo eternamente, tornando-se "imortal".

[editar]Surgimento

A idéia do Suicídio quântico foi introduzida pelo então teórico da Universidade de Princeton Max

Tegmark3 em 1997 (atualmente professor do MIT), baseada na teoria dos muitos mundos que

contrasta com a interpretação de Copenhagen; esta teoria, resumidamente, diz que para cada

Page 110: Física 1

possível resultado de uma ação que ocorra, a realidade se "divide" em uma cópia de si mesma

através de um processo instantâneo o qual Everett chamou de "descoesão".

Hugh Everett IIIOrigem: Wikipédia, a enciclopédia livre.

Este artigo ou secção está a ser traduzido. Ajude e colabore com a tradução.

Hugh Everett III

Física

Nacionalidade Estadunidense

Residência EUA

Nascimento 11 de Novembro de 1930

Local Washington, D.C., Maryland,EUA

Falecimento 19 de julho de 1982 (51 anos)

Local McLean, Virgínia, EUA

Actividade

Campo(s) Física

Alma mater Universidade Católica da América

Universidade de Princeton

Orientador(es) John Archibald Wheeler

Conhecido(a) por Interpretação de muitos mundos

Física quântica

ver

Page 111: Física 1

Hugh Everett III (11 de Novembro, 1930 – 19 de Julho, 1982) foi um físicoestadunidense que

propôs a interpretação de muitos mundos (IMM) da física quântica, que ele chamou formulação

do "estado relativo".

Abandonou a física após completar seu Ph. D., desanimado pela falta de respostas a suas

teorias pelos outros físicos1 . Desenvolveu o uso de Multiplicadores de

Lagrangena investigação operacional e aplicou esta comercialmente como analista de defesa e

consultor. Foi casado com Nancy Everett née Gore, com quem teve dois filhos, Mark Oliver

Everett (vocalista da banda Eels) e Elizabeth Everett.

Vida e educação [editar]

Everett nasceu e cresceu em Washington, D.C.. Após a Segunda Guerra Mundial, o pai de

Everett foi mandado para a Alemanha Ocidental, e Hugh visitou Leipzig naAlemanha Oriental,

em 1949. Graduou-se na Universidade Católica da América em 1953 em engenharia química, e

então recebeu uma bolsa da Fundação Nacional da Ciência, que lhe permitiu frequentar

a Universidade de Princeton. Iniciou seus estudos na Universidade de Princeton no

Departamento de Matemática trabalhando no então novo campo da teoria dos jogos, mas

seguiu lentamente em Física. Em 1953 ele começou a ter suas primeiras aulas de física,

notavelmente Introdução à Física Quântica com Robert Dicke.

Muitos mundos em Princeton e depois [editar]

Para seu segundo ano, em Princeton, a partir de 1954, ele se mudou para o Departamento de

Física. Seu curso principal naquele ano foi de Métodos de Física Matemática com Eugene

Wigner, embora ele permaneceu ativo em matemática e apresentou um trabalho sobre a teoria

dos jogos militares em dezembro. Ele passou seus exames em geral, na Primavera de 1955,

ganhando assim o seu Mestrado, e depois começou a trabalhar na sua tese que (muito) depois

o tornaria famoso. Ele trocou de orientador de tese para John Wheeler há algum tempo, em

1955, escreveu um par de artigos curtos sobre a teoria quântica e completou o seu extenso

trabalho,Ondas Mecânicas Sem Probabilidade em abril de 19562 , mais tarde renomeado

como A Teoria da Função de Onda Universal, e, eventualmente, defendeu sua tese depois de

algum atraso na primavera de 1957. Um pequeno artigo, que foi um compromisso entre Everett

e Wheeler sobre como apresentar o conceito e quase idêntico à versão final de sua tese,

apareceu emReviews of Modern Physics Vol 29 # 3 454-462, (julho 1957), acompanhada por

uma revisão de apoio por Wheeler. O mundo da física deu pouca atenção. Everett já havia

deixado a academia para o trabalho da defesa.

A dissertação de Everett foi digitada pela secretária departamental da Universidade de

Princeton, Nancy Gore, com quem se casou no ano seguinte.3 4

Durante Março e Abril de 1959, a pedido de Wheeler, Everett visitou Copenhagen, em férias

com sua esposa e filha, a fim de conhecerNiels Bohr, o "pai da interpretação de

Copenhague da mecânica quântica ". A visita foi um tremendo desastre; Everett era

simplesmente incapaz de comunicar a idéia central de que a função de onda deveria ser

considerada como um campo real clássico, o que era simplesmente uma heresia para Bohr e

os outros em Copenhague. O abismo conceitual entre as suas posições era simplesmente

demasiado grande para permitir uma reunião de mentes; Léon Rosenfeld, um dos seguidores

de Bohr, falando sobre a visita de Everett, descreveu Everett como sendo "indescritivelmente

estúpido e não poderia entender as coisas mais simples na mecânica quântica". Everett mais

tarde descreveu a experiência como "um inferno ... condenado desde o início".5

Page 112: Física 1

Em 1962, Everett aceitou um convite para apresentar a formulação do estado-relativo (como

ainda era chamado) em uma conferência sobre os fundamentos da mecânica quântica

realizada na Universidade Xavier de Cincinnati.5 Na sua apresentação Everett mostrou sua

derivação da probabilidade e também explicitamente que os observadores em todos os ramos

da função de onda eram igualmente válidos. Ele também concordou com uma observação que

o número de ramos da função de onda universal era um conjunto infinito.

Multiverso (ciência)Origem: Wikipédia, a enciclopédia livre.

Esta página ou secção não cita nenhuma fonte ou referência, o que compromete suacredibilidade (desde julho de 2012).Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Google — notícias, livros, acadêmico —Scirus — Bing. Veja como referenciar e citar as fontes.

Impressão artistica de um multiverso nível 9

'Teoria do multiverso' é um termo usado para descrever um hipotético grupo de todos

os universos possíveis; geralmente usado na ficção científica, embora também como consequência

de algumas teorias científicas, para descrever um grupo de universos que estão relacionados

(universos paralelos). A ideia de que o universo que se pode observar é só uma parte da realidade

física deu luz a definição do conceito "multiverso".

O conceito de Multiverso tem suas raízes na moderna Cosmologia e na Teoria Quântica e engloba

várias ideias da Teoria da Relatividade de modo que pode ser possível a existência de

inúmeros Universos onde todas as probabilidades quânticas de eventos ocorrem. Simplesmente há

espaço suficiente para acoplar outros universos numa estrutura dimensional maior: o chamado

Multiverso.

Os Universos seriam, em uma analogia, semelhantes a bolhas de sabão flutuando num espaço

maior. Alguns seriam até interconectados entre si por buracos negros ou de buracos de minhoca.

Devido ao facto da teoria quântica ser em sua grande parte teórica, impossibilita, atualmente,

qualquer tipo de prova tecnicamente real, como a prova visivel do conceito Multiverso. Imagina-se

um esquema em que todas as bolas de sabão se agregavam mutuamente por uma infinita vastidão.

O conceito de Multiverso implica numa contradição em relação a atual busca pela teoria do Campo

Page 113: Física 1

Unificado, uma vez que em cada Universo ("bolha de sabão") pode-se imaginar que haja diferentes

Leis Físicas.

As diferentes Teorias de Multiverso também são utilizadas para contraposição à ideia do Design

Inteligente e seu Argumento da Improbabilidade ou Argumento do Universo Bem Ajustado. Ou seja,

são utilizadas como explicação para a improbabilidade estatística das leis da física (constantes

físicas fundamentais, relatividade das forças nucleares, eletromagnetismo, gravidade entre

partículas fundamentais, etc) serem tão bem ajustadas para permitirem a construção do universo tal

qual o conhecemos. Se existem múltiplos universos, em um número muito grande, a probabilidade

de pelo menos um deles se desenvolver de forma a possibilitar a vida se torna plausível.

O entrelaçamento quântico é um fenômeno da mecânica quântica que permite que dois ou

mais objetos estejam de alguma forma tão ligados que um objeto não possa ser corretamente

descrito sem que a sua contra-parte seja mencionada - mesmo que os objetos possam estar

espacialmente separados. Isso leva a correlações muito fortes entre as propriedades físicas

observáveis dos diversos sub-sistemas.

Essas fortes correlações fazem com que as medidas realizadas num sistema pareçam estar a

influenciar instantaneamente outros sistemas que estão emaranhados com ele, e sugerem que

alguma influência estaria a propagar-se instantaneamente entre os sistemas, apesar da

separação entre eles. Mas o emaranhamento quântico não permite a transmissão de

informação a uma velocidade superior à da velocidade da luz, porque nenhuma informação útil

pode ser transmitida desse modo. Só é possível a transmissão de informação usando um

conjunto de estados emaranhados em conjugação com um canal de informação clássico -

aquilo a que se chama o teletransporte quântico.

O emaranhamento quântico é a base para tecnologias emergentes, tais como computação

quântica, criptografia quântica e tem sido usado para experiências como o teletransporte

quântico. Ao mesmo tempo, isto produz alguns dos aspectos teóricos e filosóficos mais

perturbadores da teoria, já que as correlações previstas pela mecânica quântica são

inconsistentes com o princípio intuitivo do realismo local, que diz que cada partícula deve ter

um estado bem definido, sem que seja necessário fazer referência a outros sistemas distantes.

Os diferentes enfoques sobre o que está a acontecer no processo do emaranhamento quântico

dão origem a diferentes interpretações da mecânica quântica.

A interpretação transacional da mecânica quântica (em inglês, Transactional Interpretation

of Quantum Mechanics, TIQM), proposta por John Cramer em 1986,1 2 é

uma interpretaçãopouco usual da mecânica quântica que descreve as interações quânticas

como uma onda estacionária formada pela combinação de uma onda que precede a partícula

(avançada no tempo) e uma outra onda que segue a partícula (retardada no tempo). Essa

interpretação descreve todo evento quântico como se fosse um "aperto de mãos" entre a onda

avançada e a onda retardada.3 4 Segundo Cramer, essa maneira de ver as coisas é mais

intuitiva, evita o problema filosófico do papel do observador (presente na interpretação de

Copenhague) e resolve vários paradoxos quânticos. De acordo com o autor, a interpretação

transacional é coerente com os resultados da experiência da borracha quântica de escolha

retardada de Marlan Scully, ao passo que a interpretação de Copenhague e a interpretação

dos mundos múltiplos não o são.5 . A interpretação transacional é também consistente

com Experimento de Afshar, apresentado em 2004 pelo físico iraniano Shahriar S. Afshar.6

Page 114: Física 1

A existência de ondas adiantadas e retardadas como soluções válidas das equações de

Maxwell já havia sido proposta em 1945, por R. Feynman e J. Wheeler (citados no artigo

original de John Cramer) na teoria do absorvedor. Isso lhes permitiu resolver o problema

da autoenergiado elétron. Mais tarde, eles desistiram da ideia das ondas que voltassem no

tempo.

J. Cramer retomou a ideia das duas ondas para formular sua interpretação transacional

da teoria quântica. Enquanto a equação de Schrödinger usual não admite soluções avançadas,

sua versão relativista permite essas soluções, as quais são empregadas na interpretação

transacional. De acordo com essa interpretação, qualquer fonte normalmente emite uma onda

retardada com a metade da amplitude observada, enquanto o detector emite uma onda

avançada com a mesma meia amplitude. As fases da onda retardada e avançada são

correlacionadas de tal forma que as ondas interferem positivamente na região do espaço-

tempocorrespondente à onda verdadeira (observável) e interferem negativamente em todas as

outras regiões do espaço-tempo (isto é, antes do ponto de emissão e depois do ponto de

absorção). Para o observador, esta onda padrão no espaço-tempo pareceria como se uma

partícula viajasse através do espaço.

Cramer adotou a TIQM no seu curso de mecânica quântica na Universidade de Washington,

em Seattle.

O problema da medição em mecânica quântica, é um problema não resolvido de como

acontece o colapso da função de onda. A incapacidade de observar esse processo diretamente

deu origem as diversas interpretações da mecânica quântica, e possuiu um conjunto chave de

questões que cada interpretação devem responder. A função de onda, na mecânica quântica,

envoluem de acordo com a equação de Schrödinger em uma superposição linear de diferentes

estados, mas a medida real sempre encontra o sistema físico em um estado definitivo.

Qualquer evolução futura é baseada no estado do sistema que foi descoberto ao se realizar a

medição, significando que a medição "fez alguma coisa" sobre o processo em questão.

Sistemas quânticos podem ser descritos por uma função de estado que evolui de maneira

linear e determinística, segundo a Equação de Schrödinger. Uma outra maneira de o sistema

evoluir é passar instantaneamente, durante o processo de medição, de uma superposição de

auto-estados para um auto-estado específico. A primeira forma de evolução não traz problema

algum, sendo compatível com o eletromagnetismo de Maxwell e também com a física

newtoniana. Para a segunda forma, cria-se um problema ainda não resolvido pela teoria

quântica (TQ): como acontece o colapso da função de onda, onde a superposição colapsa num

auto-estado? Este problema é conhecido como “O Problema da Medição”. “As raízes do

problema se encontram nos primórdios da física quântica”, discutido pelos fundadores da

teoria, como Niels Bohr, Albert Einstein e Erwin Schrödinger, entre outros.

Em 1932, John Von Neuman introduziu um postulado, que denominou de “postulado de

projeção” aquilo que na literatura era conhecido como “redução do pacote de onda”. Pelo

postulado, a equação de Schrödinger não teria validade durante os processos de medição.

Teríamos então dois processos: na ausência de medição, o processo seria regido pela

equação de Schrödinger, evoluindo de modo linear, contínuo e determinístico; no outro, durante

a medição, o processo evoluiria regido pelo postulado de projeção, sendo não-linear,

descontínuo e probabilístico.

O Problema da Medição é, segundo alguns físicos, uma prova da incompletude da teoria

quântica porque não consegue tratar adequadamente esses dois processos. Para outros,

Page 115: Física 1

dentre eles o próprio Bohr, o problema sequer existe, pois esta é uma característica especial do

processo de "medição".

O Princípio da Incerteza, formulado por Werner Heisenberg, estabelece que a posição e o

momento de uma partícula (assim como tempo e energia) são grandezas conjugadas e não se

pode precisar, simultaneamente, o valor de uma sem perda de precisão, proporcional, no valor

da outra. Isso está relacionado com diversas situações da TQ, dentre elas o Problema da

Medição.

Para certas interpretações da mecânica quântica, A função de onda evolui de acordo com a

equação de Schrödinger em uma superposição linear de diferentes estados, mas, durante o

processo de medição, a medida real sempre encontra o sistema físico em um estado definido.

Qualquer evolução futura é baseada no estado do sistema que foi revelado ao se realizar a

medição, significando que a medição "fez alguma coisa" sobre o processo em questão,

provocando o colapso da função. Contudo, quando a função de onda colapsa, da perspectiva

de um observador, o estado parece "pular" de uma superposição de auto-estados para aquele

auto-estado em particular. Após o colapso, o sistema continuará evoluindo de acordo com a

Equação de Schrödinger. No entanto, a equação não faz qualquer alusão à causa do colapso.

Fala apenas que o auto-estado é descrito por um vetor unitário, sendo que este auto-estado

está associado a um autovalor. O vetor guarda as probabilidades para o resultado de todas as

possíveis medições aplicadas ao sistema. Como o colapso acontece fica fora da explicação.

Einstein e Schrödinger defendiam, junto com outros físicos, a incompletude da teoria por não

relacionar satisfatoriamente esses aspectos à sua base; Bohr, um dos fundadores da teoria, no

entanto, afirmava que a teoria quântica estava completa e que ela poderia dizer tudo o que era

possível dizer sobre o sistema.

O Gato de Schrödinger. Num experimento de pensamento, um gato vivo, átomos de um

elemento químico que sofre decaimento espontâneo a um dado intervalo de tempo, um frasco

contendo veneno e um contador Geiger são postos em uma caixa lacrada. Se o contador

Geiger detectar radiação, o frasco é quebrado, liberando o veneno, matando o gato. Quando se

abre a caixa depois de um intervalo de tempo, devemos encontrar o gato vivo ou morto?

Segundo a teoria quântica, teríamos a probabilidade de 50% de encontrar o gato vivo e de 50%

de probabilidade de encontrar o gato morto. Poderíamos, então, encontrar uma superposição

desses estados (auto-estados), o gato vivo-morto. Mas isso nunca é verificado. Sempre que

abrirmos a caixa, ou o gato estará vivo, ou estará morto. Perguntas ainda em aberto

questionam o que acontece no instante em que um evento colapsa, como, por exemplo,

quando abrimos a caixa e encontramos o gato num auto-estado (um estado bem definido) ou

vivo ou morto. O que força o colapso para um auto-estado? Por que não vemos uma

superposição de estados (gato vivo-morto) “onde o vetor de estado do gato estaria

emaranhado com aquele de um sistema microscópico, tal como um átomo”? O que acontece

na transição do mundo microscópico para o macroscópico? “A impressão é que, na ausência

de mecanismos internos à teoria capazes de justificar a não-ocorrência de certas

superposições na escala macroscópica, a validade universal da mecânica quântica seria posta

em questão justamente por nossas experiências mais familiares.” (OSNAGHI, 2005).

Em um outro experimento de pensamento, que ficou conhecido como paradoxo EPR,

formulado por Einstein, Podolsky e Rosen, estes cientistas demonstraram que o resultado de

uma medição realizada em uma parte do sistema quântico poderia ter um efeito instantâneo no

resultado de uma medição realizada em outra parte (ou mais radicalmente, sequer seria

necessária a sua medição para se saber o resultado) independentemente da distância que

Page 116: Física 1

separa as duas partes. No experimento EPR tem-se uma fonte emissora de pares de elétrons,

com um elétron enviado para o destino A, onde existe uma observadora chamada Alice, e outro

elétron é enviado para o destino B, onde existe um observador chamado Bob. De acordo com a

mecânica quântica, podemos arranjar nossa fonte de forma tal que cada par de elétrons

emitido ocupe um estado quântico conhecido como singleto. Isto pode ser visto como uma

superposição quântica de dois estados; sejam eles I e II. No estado I, o elétron A tem spin

apontado para cima ao longo do eixo z (+z) e o elétron B tem seu spin apontando para baixo ao

longo do mesmo eixo z (-z). No estado II, o elétron A tem spin -z e o elétron B, +z. Quando

Alice mede o spin no eixo z ela pode obter duas possíveis respostas: +z ou -z. Suponha que

ela obteve +z. O estado quântico do sistema colapsou para o estado I. O estado quântico

determina a probabilidade das respostas de qualquer medição realizada no sistema. Neste

caso, se Bob a seguir, medir o spin no eixo z, ele obterá -z com 100% de certeza.

Similarmente, se Alice obtiver -z, Bob terá +z. Não há, certamente, nada de especial quanto à

escolha do eixo z. Por exemplo, suponha que Alice e Bob agora decidam medir o spin no eixo

x. O estado singleto do spin deve estar exprimido igualmente bem como uma superposição dos

estados de spin orientados na direção x. Chamemos tais estados de Ia e IIa. No estado Ia, o

elétron de Alice tem o spin +x e o de Bob, -x. No estado IIa, o elétron de Alice tem spin -x e o

de Bob, +x. Portanto, se Alice mede +x, o sistema colapsa para Ia e Bob obterá -x. Por outro

lado, se Alice medir -x, o sistema colapsa para IIa e Bob obterá +x.

Na mecânica quântica, o spin x e o spin z são "observáveis incompatíveis", significa que o

princípio da incerteza de Heisenberg está operando sobre eles (um estado quântico não pode

possuir um valor definido para ambas as variáveis). Suponha que Alice meça o spin z e

obtenha +z, com o estado quântico colapsando para o estado I. Agora, ao invés de medir o

spin z também, suponha que Bob meça o spin x. De acordo com a mecânica quântica, quando

o sistema está no estado I, a medição do spin x de Bob terá uma probabilidade de 50% de

produzir +x e 50% de -x. Além disso, é fundamentalmente impossível predizer qual resultado

será obtido até o instante em que Bob realize a medição. Os autores argumentavam que a

descrição quântico-mecânica, fornecida pelas funções ondulatórias não era completa “porque

violava a pressuposição da localidade”, entendida como base de qualquer teoria em

concordância com a Teoria da Relatividade Especial. Ademais, argumentaram que a posição e

o momento de uma das partículas poderiam ser considerados "elementos [simultâneos] de

realidade”.

Em 1964, John Stuart Bell formulou um teorema, conhecido como Teorema de Bell, onde

derivou uma desigualdade cujo valor era violado por certas situações da teoria quântica e

derrubava a possibilidade de existência de Teorias de Variáveis Ocultas (TVO's) Locais. Esse

fato foi importante para que se abrisse a possibilidade de testar experimentalmente a teoria

quântica para além de sua já bem-sucedida capacidade de previsão, além claro, de derrubar a

localidade, base do argumento EPR.

Na interpretação de muitos mundos, ou "estados relativos", Hugh Everett contornou o problema

da medição descartando o processo de colapso, pela reformulação da relação entre o aparato

de medição e o sistema, de tal forma que uma linha das leis da mecânica quântica seja

universal, ou seja, os sistemas quânticos evoluiriam de modo linear e deterministicamente, de

acordo com a equação de Schrödinger. Para Everett, o universo como um todo deveria ser

descrito por uma única função de onda. O aparente "colapso" que ocorre durante as medições

seria uma ilusão ligada à nossa "trajetória de configurações de memória".

Page 117: Física 1

Por fim, temos a entrada em cena de Eugene P. Wigner. Em seu trabalho sob o título “The

Problem of Measurement”, ele introduziu um paradoxo que ficou conhecido como “paradoxo do

amigo de Wigner”, pelo qual “a presença de um observador consciente em um processo físico

de medição leva a resultados diferentes (isso em termos da descrição fornecida pela TQ)”. Ele

propõe que a medição ocorre, e a função de onda colapsa, quando um observador consciente

vira-se para [olhar] o estado do aparato de medição. Nesse ponto de vista, o cérebro é descrito

de maneira ordinária dentro da mecânica quântica, mas a mente não; esta não estaria sujeita

às leis da física. Assim, qualquer ato de olhar (observar) é tido como uma medição.

Computador quânticoOrigem: Wikipédia, a enciclopédia livre.

A Esfera de Block é uma representação de um qubit, o bloco de construção fundamental de computadores

quânticos.

Um computador quântico é um dispositivo que executa cálculos fazendo uso direto de

propriedades da mecânica quântica, tais como sobreposição e interferência.

Teoricamente,computadores quânticos podem ser implementados e o mais desenvolvido atualmente

trabalha com poucos qubits de informação. O principal ganho desses computadores é a

possibilidade de resolver em tempo eficiente, alguns problemas que na computaçãoclássica

levariam tempo impraticável (exponencial no tamanho da entrada), como por exemplo, a fatoração

em primos de números naturais. A redução do tempo de resolução deste problema possibilitaria a

quebra da maioria dos sistemas de criptografia usados atualmente. Contudo, o computador quântico

ofereceria um novo esquema de canal mais seguro.

Computadores quânticos são diferentes de computadores clássicos tais comocomputadores de

DNA e computadores baseados em transístores, ainda que estes utilizem alguns efeitos da

mecânica quântica.

Índice

  [esconder] 

Page 118: Física 1

1   A estrutura dos computadores quânticos

2   O poder dos computadores quânticos

3   A história dos computadores quânticos

4   Como trabalha

o 4.1   Teoria da Complexidade

5   Referências

6   Ligações externas

7   Outras Informações

A estrutura dos computadores quânticos [editar]

Na Mecânica Quântica, é possível que uma partícula esteja em dois ou mais estados ao mesmo

tempo. Uma famosa metáfora denominada o gato de Schrödinger expressa esta realidade. Imagine

que um gato esteja dentro de uma caixa, com 50% de chances de estar vivo e 50% de chances de

estar morto; para a Mecânica Quântica, até abrirmos a caixa e verificarmos como está o gato, ele

deve ser considerado vivo e morto ao mesmo tempo. A esta capacidade de estar simultaneamente

em vários estados chama-se superposição.

Um computador clássico tem uma memória feita de bits. Cada bit guarda um "1" ou um "0" de

informação. Um computador quântico mantém um conjunto de qubits. Um qubit pode conter um "1",

um "0" ou uma sobreposição destes. Em outras palavras, pode conter tanto um "1" como um "0" ao

mesmo tempo. O computador quântico funciona pela manipulação destes qubits.

Um computador quântico pode ser implementado com alguns sistemas com partículas pequenas,

desde que obedeçam à natureza descrita pela mecânica quântica. Pode-se construir computadores

quânticos com átomos que podem estar excitados e não excitados ao mesmo tempo, ou

com fótons que podem estar em dois lugares ao mesmo tempo, ou com prótons e nêutrons, ou

ainda com elétrons e pósitrons que podem ter um spin ao mesmo tempo "para cima" e "para baixo"

e se movimentam em velocidades próximas à da luz. Com a utilização destes, ao invés de nano-

cristais de silício, o computador quântico é menor que um computador tradicional.

Uma molécula microscópica pode conter muitos milhares de prótons e nêutrons, e pode ser usada

como computador quântico com muitos milhares de qubits. A grande questão a ser resolvida hoje

para a implementação destas máquinas é a capacidade de controlar este sistema, já que as

interferências são grandes e o tempo de coerência dos estados das partículas, pequeno.

O poder dos computadores quânticos [editar]

Page 119: Física 1

Qubits são compostos de partículas controladas (por exemplo, dispositivos que aprisionam partículas e as

trocam de um estado para outro).

Encontrar todos os fatores primos de um número grande pode ser uma tarefa muito difícil. Um

computador quântico poderia resolver este problema muito rapidamente. Se um número tiver n bits

(ou seja, se tiver o comprimento de n dígitos quando escrito em binário), então um computador

quântico com um pouco mais de 2n qubits poderá encontrar os seus fatores. Também poderá

solucionar um problema relacionado, chamado problema dologaritmo discreto. Esta capacidade

poderia permitir a um computador quântico quebrar qualquer dos sistemas criptográficos atualmente

em uso. A maior parte das cifras de chave pública mais populares poderiam ser quebradas com

rapidez, incluindo formas da cifrasRSA, ElGammal e Diffie-Helman. Estas cifras são utilizadas para

proteger páginas web seguras, email encriptado e muitos outros tipos de dados. A quebra destes

códigos poderia ter um impacto significativo. A única forma de tornar seguro um algoritmo com

o RSA seria tornar o tamanho da chave maior do que o maior computador quântico que pudesse ser

construído. Parece provável que possa sempre ser possível construir computadores clássicos com

mais bits que o número de qubits no maior computador quântico, e se verificar que isto é verdade,

então algoritmos como o RSA poderão permanecer seguros.

Se um computador quântico fosse baseado nos prótons e nêutrons de uma molécula, seria talvez

demasiado pequeno para ser visível, mas poderia factorizar números inteiros com milhares de bits.

Um computador clássico a correr algoritmos conhecidos também poderia factorizar estes números,

mas para o conseguir fazer antes que o sol desaparecesse, teria de ser maior que universo

conhecido. Seria algo inconveniente construí-lo.

Não surpreendentemente, os computadores quânticos poderiam também ser úteis para correr

simulações de mecânica quântica. O aumento de velocidade poderia ser tão grande como para

factorizações. Isto poderia trazer grandes benefícios a muitos físicos.

Atualmente se sabe que essa vantagem dos computadores quânticos existe apenas para os três

problemas seguintes: fatoração, logaritmo discreto e simulações de física quântica. Existe outro

Page 120: Física 1

problema em que os computadores quânticos têm uma vantagem maior, porém menos significativa,

a busca quântica em base de dados, à qual é referida algumas vezes por square root speedup.

Suponha que existe um problema como encontrar a senha para desencriptar um arquivo. O

problema possui as quatro propriedades:

A única forma de resolvê-lo é chutar respostas repetidamente e verificá-las

Existem n respostas possíveis para se verificar

Toda resposta possível gasta o mesmo tempo de verificação

Não existem pistas indicando quais respostas sejam melhores. Gerar as possibilidades

aleatoriamente é tão eficiente quanto verificá-las em alguma ordem especial

Problemas com todas as quatro propriedades levarão uma média de n/2 tentativas para encontrar a

resposta usando um computador clássico. O tempo gasto por um computador quântico seria

proporcional à raiz quadrada de n. Isso pode representar um ganho enorme, encurtando o tempo

para solução de alguns problemas de anos para segundos. Essa vantagem pode ser usada para

atacar cifras simétricas tais como o 3DES e AES. Porém a defesa contra tal ataque é fácil,

consistindo em dobrar o tamanho da chave para a cifra. Há também mais métodos complicados

para tornar uma comunicação segura, tal como usar Criptografia Quântica.

Atualmente não há outro problema prático conhecido para o qual os computadores quânticos

mostrem um ganho expressivo sobre os computadores clássicos. As pesquisas continuam, e mais

problemas podem, então, ser identificados.

A história dos computadores quânticos [editar]

1981 - Richard Feynman elaborou a primeira proposta de utilizar um fenômeno quântico para

executar rotinas computacionais. Foi numa palestra apresentada na Primeira Conferência de

Computação Física no MIT. Ele mostrou que um computador tradicional levaria um tempo

extremamente longo para simular um simples experimento de física quântica. Por outro lado,

sistemas quânticos simples podem executar enormes quantidades de cálculos num curto espaço de

tempo. Poderia ser possível utilizar essa capacidade para se calcular algo útil.

1985 - David Deutsch, na Universidade de Oxford, descreveu o primeiro computador quântico

universal. Exatamente como umaMáquina de Turing pode simular outra máquina de Turing

eficientemente, um computador quântico universal é capaz de simular o funcionamento de outro

computador quântico com complexidade, no máximo, polinomial. Isso fez crescer a esperança de

que um dispositivo simples seja capaz de executar muitos algoritmos quânticos diferentes.

1994 - Peter Shor, no Bell Labs da AT&T em Nova Jersey, descobriu um excelente algoritmo. Ele

permite a um computador quântico fatorar grandes inteiros rapidamente. Ele resolve tanto o

problema da fatoração quanto o '[problema do logaritmo discreto. O Algoritmo de Shor poderia, em

Page 121: Física 1

teoria, quebrar muitos dos sistemas criptográficos em uso atualmente. Essa descoberta criou um

enorme interesse nos computadores quânticos, até fora da comunidade acadêmica.

1996 - Lov Grover, no Bell Labs, descobriu o algoritmo de pesquisa em bases de dados quânticas.

O speedup de raiz quadrada não foi tão dramático quanto o speedup para fatoração, logs discretos,

ou simulações físicas. Mas o algoritmo poderia ser aplicado a uma variedade muito maior de

problemas. Qualquer problema que tinha que ser resolvido por uma pesquisa de força bruta,

aleatória, podia agora ter um speedup de raiz quadrada.

1996(?) É Proposto o primeiro esquema para correção de erro quântico. Isso é uma aproximação a

computadores quânticos que podem processar grandes números de qubits por longos períodos de

tempo. Erros sempre são introduzidos pelo meio, mas uma forma de correção de erros quânticos

pode sobrescrevê-los e corrigi-los. Esta pode ser a chave tecnológica para a produção em larga

escala de computadores quânticos que realmente funcionam. Estas propostas adiantadas tiveram

um certo número de limitações. Poderiam corrigir alguns erros, mas não erros que ocorrem durante

o próprio processo da correção. Algumas melhorias foram sugeridas, e a pesquisa sobre esta

continua ativa.

O suspeito relacionamente da BQP à outros espaços de problema.

1999(?) - No MIT foram construídos os primeiros computadores quânticos baseados em montagem

térmica. O computador é , na verdade, uma única molécula pequena, que armazena qubits na

rotação (spin) de seus prótons e nêutrons. Trilhões e trilhões destas moléculas podem flutuar em um

copo da água. O copo está colocado em um equipamento de ressonância magnética nuclear, similar

à imagem por ressonância magnética das máquinas usadas nos hospitais. Este conjunto do room-

temperature (' ' thermal ' ') das moléculas (' ' ensemble ' ') tem quantidades maciças de redundância,

que permite que mantenha coerência muito melhor do que muitos outros sistemas propostos.

2007 - Empresa Canadense D-Wave afirmou ter desenvolvido um computador híbrido chamado

Orion que inclui um processador quântico de 16 qubits mas que também processa bits

convencionais 1 . Se confirmado, será a primeira máquina desse tipo capaz de realizar tarefas

práticas o que é surpreendente. Alguns especialistas vinham prevendo que demoraria 20 anos para

que os computadores quânticos pudessem ser usados na prática. O Orion seria capaz de resolver

Page 122: Física 1

problemas de lógica, encontrar soluções para o jogo Sudoku e pesquisar alternativas para drogas

usadas na indústria farmacêutica. Em seu estágio atual, o Orion não teria aplicação comercial. Mas

a D-Wave diz que vai produzir um computador de 32 qubits ainda neste ano. No primeiro semestre

de 2008, a empresa pretende chegar a 512 qubits para, em menos de dois anos, atingir 1 quiloqubit.

A comunidade científica recebeu o anúncio da empresa com ceticismo, por ela não ter liberado

maiores detalhes do processador.2

Como trabalha [editar]

Um computador clássico com três bits de memória pode apenas armazenar dois estados lógicos

(uns ou zeros). Num determinado momento, pode conter os bits "000" ou "001" ou "010" ou "011" ou

"100" ou "101" ou "110" ou "111". Um computador quântico pode atualmente armazenar 16 valores

analógicos em pares para formar 8 números complexos. Em um dado instante, ele poderia

conter isto:

Estado Amplitude Probabilidade

* (a+ib) (a²+b²)

000 0.37 + i 0.04 0.14

001 0.11 + i 0.18 0.04

010 0.09 + i 0.31 0.10

011 0.30 + i 0.30 0.18

100 0.35 + i 0.43 0.31

101 0.40 + i 0.01 0.16

110 0.09 + i 0.12 0.02

111 0.15 + i 0.16 0.05

Se existissem n qubits, então esta tabela teria 2n linhas. Para um n nas centenas, isso seriam mais

linhas do que os átomos conhecidos no universo.

A primeira coluna mostra todos os estados possíveis para os três bits. Um computador clássico

apenas suporta um destes padrões de cada vez. Um computador quântico pode colocar-se na super

posição de assumir os 8 estados simultaneamente. A segunda coluna mostra a "amplitude" para

cada um dos 8 estados. Estes 8 números complexos são uma imagem dos conteúdos de um

computador quântico num determinado momento. Durante a computação, estes 8 números irão

modificar e interagir uns com os outros. Neste sentido, um computador quântico de 3-qubit tem

muito mais memória do que um computador clássico de 3-bit.

No entanto, não existe nenhuma forma de ver diretamente estes 8 números. Quando o algoritmo é

terminado, é feita uma únicamedida. A medida fornece uma simples linha de 3-bit, e elimina todos

os 8 números complexos. A linha fornecida é gerada aleatoriamente.

A terceira coluna da tabela calcula a probabilidade de cada linha possível. Neste exemplo, há uma

probabilidade de 14% de que a linha fornecida seja "000", uma de 4% de que seja "001", e assim

por diante. Cada probabilidade é encontrada com a execução do quadrado do módulo do número

Page 123: Física 1

complexo (ou a multiplicação do complexo pelo seu conjugado - dá no mesmo). O quadrado do

módulo de (a+ib) é (a²+b²). As 8 probabilidades somam até 1.

Geralmente, um algoritmo num computador quântico irá dar início a todos os números complexos de

modo a se equivalerem a valores, por isso todos os estados terão probabilidades equivalentes. A

lista de números complexos pode ser vista como um vector de 8 elementos. Em cada passo do

algoritmo, esse vector é modificado ao multiplicá-lo por uma matriz. A matriz advém da física da

própria máquina, e será sempre invertível, e irá garantir que as probabilidades continuem a somar

até 1 (ou seja, a matriz será sempre ortogonal).

Para uma máquina térmica completa, a operação é realizada disparando um curto pulso de radiação

no recipiente de moléculas. Diferentes tipos de pulsos resultam em diferentes matrizes. O algoritmo

para o computador quântico consiste em que pulsos usar e em que ordem. A sequência é

usualmente escolhida de modo que todas as probabilidades tendam a 0 exceto uma. Essa

probabilidade é a que corresponde à linha que é a resposta correta. Então, quando as medidas são

feitas, essa resposta é a mais provável de ser retornada. Para um dado algoritmo, as operações

serão sempre feitas na mesma ordem. Não existe regras "SE ENTÃO" para variar a ordem, já que

não há modo de ler a memória antes da medição no final.

Para mais detalhes na sequência de operações usada para vários algoritmos, veja computador

quântico universal, Algoritmo de Shor, busca quântica em base de dados, e correção de erro

quântico.

O computador quântico do exemplo acima pode ser imaginado como uma caixa preta contendo 8

números complexos. Ou, pode ser imaginado como 8 caixas pretas, cada uma contendo 1 número

complexo, cada um se situando num universo alternativo diferente, e todas se comunicando uma

com as outras. Essas duas interpretações correspondem a Interpretação Copenhaque e

Interpretação Everett de diferentes-mundos, respectivamente, da mecânica quântica. A escolha da

interpretação não influi no cálculo, ou no comportamento do computador quântico. Nos dois casos, é

um vetor de 8 elementos que é modificado pela multiplicação da matriz.

Teoria da Complexidade [editar]

Esta secção mostra o que é actualmente conhecido matematicamente acerca do poder dos

computadores quânticos. Descreve os resultados conhecidos da teoria da complexidade e da teoria

da computação que dizem respeito aos computadores quânticos.

Uma classe de problemas que pode ser resolvida eficientemente por computadores quânticos é

chamada BQP, para "bounded error, quantum, polynomial time". Computadores quânticos somente

executam algoritmos aleatórios, então BQP em computadores quânticos é a parte contrária

do BPP em computadores clássicos. É definido como um conjunto da problemas solucionável como

um algoritmo de tempo polinomial, cuja probabilidade de errar é reduzida para metade. Um

computador quântico "resolve" um problema se, para toda situação, sua resposta estará certa com

Page 124: Física 1

alta probabilidade. Se esta solução for encontrada em tempo polinomial, então este problema

é BQP.

BQP é supostamente disjunto de NP-Completo e super-conjunto de P, mas nada é conhecido.

Tanto a factorização de inteiros como o logaritmo discreto pertencem a BQP. Ambos são

problemas NP mas suspeita-se que não estejam em P nem em NP-Completo. Existe um comum

mal-entendido que os computadores quânticos poderão resolver problemas completos em NP em

tempo polinomial. Existem muitas dúvidas, mas é considerada uma afirmação falsa.

Já foi mostrado que se um computador quântico pudesse ser desenhado com operadores não-

lineares, então poderia resolver problemas completos em NP em tempo polinomial e até para #P-

Completos. No entanto estes formulações ainda não foram aprovadas por outros colegas.

Embora computadores quânticos sejam algumas vezes mais rápidos que os computadores

clássicos, eles não podem solucionar problemas que computadores clássicos não podem resolver,

tendo tempo e memória suficientes. Uma Máquina de Turing pode simular um computador quântico,

então um computador quântico nunca poderá solucionar um problema sem a capacidade de decisão

parecido com o Problema da parada. A existência de computadores quânticos não pode refutar a

tese de Church-Turing.

Richard FeynmanOrigem: Wikipédia, a enciclopédia livre.

(Redirecionado de Feynman)

Richard Feynman 

Física

Nacionalidade Estadunidense

Page 125: Física 1

Residência  Estados Unidos

Nascimento 11 de maio de 1918

Local Far Rockaway, Queens, New York

Falecimento 15 de fevereiro de 1988 (69 anos)

Local Los Angeles

Actividade

Campo(s) Física

Instituições Projeto Manhattan, Universidade Cornell,Instituto

de Tecnologia da Califórnia

Alma mater Instituto de Tecnologia de

Massachusetts,Universidade de Princeton

Orientador(es) John Archibald Wheeler

Orientado(s) Albert Hibbs, George Zweig,Giovanni Rossi

Lomanitz,Thomas Curtright

Conhecido(a) por Diagramas de Feynman,ponto de

Feynman,fórmula de Feynman–Kac,aspersor de

Feynman,teorema de Hellmann–

Feynman,parametrização de Feynman

Prêmio(s) Prêmio Albert Einstein (1954),Prêmio Ernest

Orlando Lawrence (1962),   Nobel de Física

(1965),Medalha Oersted (1972),Medalha Nacional

de Ciências (1979)

Assinatura

ver

Richard Philips Feynman (Nova Iorque, 11 de maio de 1918 — Los Angeles,15 de

fevereiro de 1988) foi um renomado físico norte-americano do século XX, um dos pioneiros

da eletrodinâmica quântica, e Prémio Nobel da Física em 1965.

Page 126: Física 1

Índice

  [esconder] 

1   Biografia

2   Contribuições à Física

3   Experiência no Brasil

4   Leitura

5   Ver também

6   Ligações externas

Biografia [editar]

Nasceu em Nova York e cresceu em Far Rockaway. Desde criança demonstrava facilidade com

ciências e matemática. Cursou física no Instituto de Tecnologia de Massachusetts onde, graças

a John Clarke Slater, Julius Adams Stratton e Philip McCord Morse, além de outros professores, era

devidamente conceituado.

Na graduação, em colaboração com Manuel Sandoval Vallarta, publicou um artigo sobre os raios

cósmicos. Outro artigo foi publicado no mesmo ano, creditado somente a Feynman, versando

sobre forças moleculares.

Adicionalmente a seus trabalhos sobre física teórica, Feynman foi pioneiro na área de computação

quântica, introduzindo o conceito de nanotecnologia, no encontro anual da Sociedade Americana de

Física, em 29 de dezembro de1959, em sua palestra sobre o controle e manipulação da matéria em

escala atômica. Defendeu a hipótese de que não existe qualquer obstáculo teórico à construção de

pequenos dispositivos compostos por elementos muito pequenos, no limite atômico, nem mesmo

o princípio da incerteza.

Pós graduado no Instituto de Estudos Avançados de Princeton, do qual participou Albert Einstein.

Lá, fica sob a supervisão de John Archibald Wheeler, com o qual cria uma teoria de eletrodinâmica

clássica equivalente às equações de Maxwell. No seu trabalho, desenvolve a eletrodinâmica

quântica, onde utiliza o método das integrais de caminho. Participa também do projeto Manhattan.

Torna-se professor da Universidade de Cornell e em seguida do Instituto de Tecnologia da

Califórnia (Caltech), onde atuou como professor por 35 anos e ministrou 34 cursos, sendo 25 deles

cursos de pós graduação avançados, os demais cursos eram, basicamente, introdutórios de pós

graduação, salvo o curso de iniciação à física ministrado para alunos dos 1° e 2° anos durante os

anos de 1961-1962 e 1962-1963, cursos que originaram uma de suas mais conceituadas obras,

o Feynman Lectures on Physics publicado originalmente em 1963. Dois anos depois, em 1965,

Feynman recebeu o Nobel de Física por seu trabalho na eletrodinâmica quântica. Concebeu, ainda,

a ideia dacomputação quântica, e chefiou a comissão que estudou o acidente do ônibus

espacial Challenger em 1986.

Page 127: Física 1

Contribuições à Física [editar]

A maior contribuição de Feynman à Física foi o desenvolvimento daeletrodinâmica quântica, a qual

foi desenvolvida paralelamente por Julian Schwinger e Sin-Itiro Tomonaga. Nela, utiliza o método

das integrais de caminho.

Na década de 1950, Feynman trabalha na teoria das interações fracas, e nos anos 1960, ele

trabalhou na teoria das interações fortes.

Também trabalhou na superfluidez do hélio líquido.

Experiência no Brasil [editar]

No começo da década de 50, Feynman se interessa pela América do Sul e acaba indo lecionar

como convidado de Jayme Tiomno noCentro Brasileiro de Pesquisas Físicas no Rio. Entre 1951 e

1952, Feynman passa vários meses no Brasil e sua estada é relatada no capítulo "O americano,

outra vez!" do seu Livro “O senhor está brincando, Sr. Feynman!”. Entre outros assuntos ele

descreve sua divertida experiência com o povo brasileiro, com a língua portuguesa e com a música

(percussão e samba). No final do capítulo ele se utiliza da experiência que teve com seus alunos e

suas falhas durante o aprendizado para fazer uma crítica ao método de aprendizado por meio da

memorização mecânica em vez de usar o raciocínio.

Leitura [editar]

Livro: "O senhor está brincando, Sr. Feynman!"; Richard P. Feynman; tradução do original

em inglês, "Surely You're Joking, Mr. Feynman!", publicado no Brasil pela Editora Elsevier; Rio

de Janeiro; 2006.

Livro: "O Arco-iris de Feynman"; Leonard Mlodinow, publicado no Brasil pela Editora

Sextante; 2005

Livro: "Física em 12 Lições : Fáceis e Não tão Fáceis"; Richard P. Feynman.

em Portugal, escritos por Richard Feynman

Livro: "O que é uma lei física?", Gradiva.

Livro: "Uma tarde com o senhor Feynman", Gradiva.

Livro: "O prazer da descoberta", Gradiva.

Livro: "O Significado de Tudo", Gradiva.

Livro: "QED", Gradiva.

Livro: "Nem sempre a brincar, Sr. Feynman", Gradiva.

Livro: "Deve estar a brincar, Sr. Feynman!", Gradiva.

Na física, força forte é a interação entre quarks e glúons descrita pela cromodinâmica

quântica. Antigamente, era entendida como aforça nuclear, que ocorria

Page 128: Física 1

entre prótons e nêutrons, até então considerados indivisíveis. Sempre foi classificada como

uma interação fundamental da natureza. A força nuclear forte é uma das quatro forças

fundamentais da natureza. Sendo a mais forte embora tenha um curtíssimo raio de ação de

aproximadamente   centímetros(dez elevado à potencia menos treze, uma distância

muito pequena). O trabalho pioneiro sobre as forças fortes foi realizado pelo físico japonês

Yukawa em 1934, mas até meados da década de 1970 não havia uma teoria capaz de explicar

os fenômenos nucleares. Foi então que surgiu a cromodinâmica quântica, a teoria que explica

os fenômenos que ocorrem no interior do núcleo atômico. As outras forças fundamentais são força nuclear fraca, força eletromagnética e a força gravitacional.

Índice

  [esconder] 

1   História

2   Detalhes

1. 2.1   Comportamento da força forte

3   Referências

4   Ver também

[editar]História

Antes da década de 1970, os físicos estavam incertos acerca do mecanismo de ligação do

núcleo atômico. Era claro que ele era formado por prótons e nêutrons, e que o próton

tinha carga elétrica e o nêutron era eletricamente neutro. Pela compreensão física da época, os

prótons deveriam se repelir e fazer o átomo decair rapidamente, mas isso não acontecia, era

necessária uma nova teoria da física.

A Força Forte foi postulada para explicar como o núcleo atômico continua unido apesar da

mútua repulsão eletromagnética do prótons. Essa era a hipótese da Força Forte, uma força

fundamental que atuava nos nucléons (os prótons e nêutrons). Experimentos mostram que isso

força os nucléons a ficaram juntos mesmo com a repulsão eletromagnética dos prótons (a

Força Forte é cem vezes mais forte que a eletromagnética).

Então foi descoberto que os prótons e nêutrons não eram as partículas fundamentais, e que

eram formados de quarks, e que a atração entre nucléons era efeito colateral do que ocorria

dentro deles, fazendo os quarks ficarem unidos. A Teoria da Cromodinâmica quântica, e que os

quarks transportavam o que era chamado carga de cor, embora não tenha nenhuma relação

com a luz visível, quarks com cor diferentes se atraem como resultado da forte interação que é

mediada por partículas chamadas de glúons.

[editar]Detalhes

A interação forte é cem vezes mais forte que a força eletromagnética, cerca de 1011 maior que

a força fraca, e cerca de 1039 maior que a gravidade.

Page 129: Física 1

[editar]Comportamento da força forte

A interação de quarks dentro de um nêutron deve-se à força forte.

A forte força contemporânea é descrita pela Cromodinâmica quântica (QCD), sendo parte

domodelo padrão da física de partículas. Matematicamente, a QCD é uma teoria de calibre não

abeliana, com base em um calibre (local) de grupo de simetria chamado SU (3).

Os quarks e glúons são as únicas partículas que não tem o desaparecimento da carga e cor,

podendo então participarem da forte interação, sendo que esta atua diretamente nestes.

A força forte, ao contrário das outras forças fundamentais da natureza (eletromagnética, fraca e

gravidade) não fica menos poderosa com a distancia de seu alcance (que é do tamanho de um

hádron), a sua força de atuação é de cerca de 10.000 newtons, em QCD isto é chamado

confinamento da cor, mas implica que somente hádrons e não quarks individuais podem ser

observados. A explicação é que a quantidade de trabalho realizado contra uma força de 10.000

newtons (sobre o peso de uma tonelada métrica de massa sobre a superfície da Terra) é o

suficiente para criar novas partículas pelo choque entre elas. Em termos simples a própria

energia aplicada para puxar dois quarks separados irá gerar um novo par de quarks. O

fracasso em observar quarks livres é uma evidencia desse fenômeno.

Força fracaOrigem: Wikipédia, a enciclopédia livre.

(Redirecionado de Força nuclear fraca)

Força nuclear fraca ou interação fraca é uma das quatro forças fundamentais da natureza. É

comumente vista no decaimento betarelacionado a radiação. Ela afeta todos os léptons e quarks. É

mediada pelos bósons W e Z. A força nuclear fraca (ou simplesmente força fraca) é a força que

cinde as partículas. O Modelo padrão da física de partículas, desenvolvido em 1968 por Sheldon

Glashow,Abdus Salam e Steven Weinberg, descreve a interação eletromagnética e a interação fraca

como dois aspectos diferentes de uma mesma interação eletrofraca1 .

[editar]Corrente neutra

Em 1933, Enrico Fermi, físico italiano, introduziu o conceito de interação fraca, que em conjunto com

o recém postulado neutrino, entrariam na teoria do decaimento beta. Assim numa interação fraca um

neutrino é sempre produzido com um pósitron, ou umantineutrino com um elétron, o que dá um

conjunto de carga eletricamente carregado.

Page 130: Física 1

Esperava-se que nas correntes fracas e raras, a interação entre neutrino e a matéria, um neutrino

desse um elétron. Observou-se esse fenômeno mas também um fenômeno inesperado, um neutrino

que interagia guardando a sua carga nula. Era preciso concluir na existência de uma corrente

neutra, o que já permitia de relação indireta com as previsões da teoria electrofraca.

[editar]Gargamela

A Gargamela no museu Microcosmo do CERN.

Foi em 1973 na experiência da câmara de bolhas Gargamela, do CERN, com

um feixe deneutrinos que permitiu estabelecer a existência de interacção fraca electricamente

neutra, a força nuclear fraca2 -.3

Eletrodinâmica quântica (EDQ), ou QED, de Quantum electrodynamics, é uma teoria

quântica de campos do eletromagnetismo. A EDQ descreve todos

os fenômenos envolvendo partículas eletricamente carregadas interagindo por meio da força

eletromagnética. Sua capacidade de predição de grandezas como o momento

magnético anômalo do múon e o desvio de Lamb dos níveis de energia dohidrogênio a tornou

uma teoria renomada.

[editar]História

A eletrodinâmica foi a evolução natural das teorias da antigamente denominada segunda

quantização, isto é, quantização dos campos, ao ramo da eletrodinâmica.

As teorias de campo são necessariamente relativísticas, já que admitindo-se que haja partículas mensageiras na troca de energia e momento mediados pelo campo, essas

mesmas partículas, a exemplo do fóton (que historicamente precedeu a descoberta das teorias

de quantização do campo) devem se deslocar a velocidades próximas ou igual à da luz no

vácuo (c = 299 792 458 m/s).

A eletrodinâmica quântica se desenvolveu a partir dos trabalhos de Sin-Itiro Tomonaga, Julian

Schwinger e Richard Feynman. Pelos seus trabalhos, eles ganharam o prêmio Nobel em 1965.

[editar]Desenvolvimento formal

A Eletrodinâmica Quântica é uma teoria abeliana de calibre, dotada de um grupo de calibre

U(1).

O campo de calibre que media a interação entre campos de spin 1/2, é o campo

eletromagnético, que se apresenta sob a forma defótons.

A descrição da interação se dá através da Lagrangiana para a interação

entre elétrons e pósitrons, que é dada por:

Page 131: Física 1

onde   e sua adjunta de Dirac   são os campos representando partículas eletricamente

carregadas, especificamente, os campos doelétron e pósitron representados como espinores

de Dirac.

Teoria quântica de camposOrigem: Wikipédia, a enciclopédia livre.

(Redirecionado de Teoria Quântica dos Campos)

Esta página ou secção não cita nenhuma fonte ou referência, o que compromete suacredibilidade (desde Setembro de 2011).Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Google — notícias, livros, acadêmico —Scirus — Bing. Veja como referenciar e citar as fontes.

Teoria quântica de campos

(Diagramas de Feynman)

Histórica

[Esconder]Pano de fundo

Teoria de gauge

Teoria dos campos

Simetria de Poincaré

Mecânica quântica

Quebra espontânea de simetria[Expandir]Simetrias[Expandir]Ferramentas[Expandir]Equações[Expandir]Modelo padrão[Expandir]Teorias incompletas[Expandir]Cientistas

ver • editar

A Teoria Quântica de Campos é a aplicação conjunta da mecânica quântica e da relatividade

especial aos campos que fornecem a estrutura teórica usada na física de partículas e na física da

matéria condensada. Em particular, a teoria quântica do campo eletromagnético, conhecida

como eletrodinâmica quântica (tradicionalmente abreviada como QED, do inglês "Quantum

EletroDynamics"), é a teoria provada experimentalmente com maior precisão na Física.

Page 132: Física 1

Resumidamente, pode-se dizer que a teoria quântica dos campos é uma teoria criada com o objetivo

de descrever os campos de forma quantizada (na denominação mais antiga se chamasegunda

quantização). Por outro lado, a mecânica quântica lida essencialmente com a quantização da

matéria e da energia.

A teoria quântica dos campos considera tanto as partículas que compõem a matéria

(quarks eleptóns) quanto os condutores de força (bósons mensageiros) como excitações de um

campo fundamental de energia mínima não-nula (vácuo).

Índice

  [esconder] 

1   História

1.1   Advento da teoria clássica dos campos

1.2   Mecânica, Eletromagnetismo e Relatividade

1.3   Termodinâmica e Mecânica Quântica

2   Primeiras unificações. Equações relativísticas

2.1   Equação de Klein-Gordon

2.2   Equação de Dirac

2.3   Desenvolvimento da teoria quântica dos campos

2.4   Quantização canônica dos campos

3   Ligações externas

História [editar]

Advento da teoria clássica dos campos [editar]

A noção de campo surgiu inicialmente como uma construção matemática "conveniente" para

descrever as forças, que são conceitos centrais na mecânica de Newton. Entretanto, no século XIX,

devido principalmente aos trabalhos de Maxwell, o conceito de campo passa a ocupar o papel

central na descrição física da realidade. De fato, a mudança foi ainda maior, porque foi então que

surgiu a primeira grande unificação da física: a relação entre campos elétricos e magnéticos, bem

como o reconhecimento de que a luz (óptica) é uma manifestação particular deste campo

eletromagnético.

Page 133: Física 1

Mecânica, Eletromagnetismo e Relatividade [editar]

O eletromagnetismo foi a "raison d’être" do surgimento da relatividade. Com a inadequação

das transformações de Galileu quando aplicadas à equação de onda tridimensional, surgiu um

dilema: ou se preservava a mecânica clássica e abandonava-se o nascenteeletromagnetismo, ou se

preservava este e abandonava-se quase três séculos de previsões solidamente confirmadas pela

experimentação.

O caminho foi achado, surpreendemente, numa espécie de conciliação entre as duas alternativas.

Inicialmente, Woldemar Voigt derivou em 1887 um conjunto de relações, baseado apenas

na equação de onda ordinária, devida a Jean D'Alembert. Essas relações eram transformações

espaciais e temporais que deixavam invariante a forma desta equação.

Estas relações são as que se conhecem como transformações de Loretz-Fitzgerald, cientistas que

redescobriram estas transformações mais tarde. Em particular, Lorentz o fez num contexto diferente,

na tentativa de se reconciliar as teorias do éter com os resultados de experiências físicas, tais como

a de Michelson-Morley. Einstein então entra em cena, com seu trabalho seminal de1905, "Sobre a

Eletrodinâmica dos Corpos em Movimento", onde introduz a relatividade, interpretando

corretamente as transformações de Lorentz-Fitzgerald como alterações do espaço e do tempo em

função da velocidade relativa entre os referenciais.

Termodinâmica e Mecânica Quântica [editar]

A mecânica quântica surgiu da incapacidade conjunta da termodinâmica e

do eletromagnetismo clássicos de prever a correta distribuição de energias em função da freqüência

no problema de corpo negro.

A tentativa de derivação feita por Lord Rayleigh e por James Jeans postulava que cada onda

eletromagnética estava em equilíbrio com as paredes do forno. Isso se traduz num teorema que

mantém sua validade mesmo na mecânica quântica:

"Numa cavidade fechada em equilíbrio térmico com o campo eletromagnético confinado, o

campo é equivalente a um conjunto enumeravelmente infinito de osciladores harmônicos, e a

sua energia é igual à soma das energias desses osciladores.

Cada frequência corresponde aos osciladores tomados dois a dois."

Max Planck obteve a forma correta da distribuição porque postulou a quantização da energia

dos osciladores harmônicos que comporiam as paredes da cavidade que confina a radiação. Essa

hipótese teve por efeito introduzir um limite máximo de freqüência acima do qual há um corte

(cutoff) nas contribuições dos entes (ondas eletromagnéticas) que estão em equilíbrio. Einstein,

para explicar o efeito fotoelétrico, ampliou o conceito da quantização para a energia radiante,

postulando a existência do fóton (o que "implicitamente" quer dizer que as equações de Maxwell não

tem validade ilimitada, porque a existência do fóton implica não-linearidades). A antiga teoria

Page 134: Física 1

quântica cedeu lugar à mecânica quântica moderna quando Schrödinger desenvolveu a famosa

equação que leva o seu nome. Entretanto, a primeira versão que ele desenvolveu foi a equação que

hoje é conhecida como equação de Klein-Gordon, que é uma equação relativista, mas que não

descrevia bem o átomo de hidrogênio, por razões que só mais tarde puderam ser entendidas.

Assim, ele abandonou a primeira tentativa, chegando à sua equação (equação de Schrödinger):

A equação de Schrödinger acima colocada é a equação "dependente do tempo", pois o tempo

aparece explicitamente. Neste caso, as soluções   são funções das coordenadas espaciais e do

tempo.

Quando o potencial   não depende do tempo, ou seja, quando o campo de força ao qual a

partícula está submetida é conservativo, é possível separar as variáveis   e  .

A equação que a parte espacial da função de onda   obedece é:

conhecida como equação de Schrödinger "independente do tempo". Esta é uma equação de

autovalores, ou seja, através dela se obtem simultaneamente autofunções (no caso as funções de

onda  ) e autovalores (no caso, o conjunto das energias estacionárias  ).

Primeiras unificações. Equações relativísticas [editar]

Equação de Klein-Gordon [editar]

Como foi dito acima, quando Schrödinger primeiro procurou uma equação que regesse os sistemas

quânticos, pautou sua busca admitindo uma aproximação relativista, encontrando a depois

redescoberta equação de Klein-Gordon:

onde

A equação de Klein-Gordon, às vezes chamada de equação de Klein-Fock-Gordon (ou ainda Klein-

Gordon-Fock) pode ser deduzida de algumas maneiras diferentes.

Usando-se a definição relativística de energia

chega-se à equação:

Page 135: Física 1

Essa expressão, por conter operadores diferenciais sob o radical, além de apresentar dificuldades

computacionais, também apresenta dificuldades conceituais, já que se torna uma teoria não-

local (pelo fato de a raiz poder ser expressa como uma série infinita). Por ser uma equação de

segunda ordem não permite que fique bem definida a questão da normalização da função de

onda.

Fock deduziu-a através da generalização da equação de Schrödinger para campos

magnéticos (onde as forças dependem da velocidade). Fock e Klein usaram ambos o método de

Kaluza-Klein para deduzi-la. O motivo, só mais tarde entendido, da inadequação desta equação ao

átomo de hidrogênio é que ela se aplica bem somente a partículas sem carga e de spin nulo.

Equação de Dirac [editar]

Em 1928 Paul Dirac obteve uma equação relativística baseada em dois princípios básicos

A equação deveria ser linear na derivada temporal;

A equação deveria ser relativisticamente covariante.

A equação obtida por ele tinha a seguinte forma:

onde  ,  ,   e   não são números reais ou complexos, mas sim matrizes quadradas com N²

componentes. Semelhantemente, as funções   são na verdade matrizes coluna da forma

e as matrizes  ,  ,   e   devem ser hermitianas.

A equação de Dirac, diferentemente da equação de Klein-Gordon, é uma equação que dá bons

resultados para partículas de spin ½. Aliás, um dos sucessos é que esta equação incorpora

o spin de forma natural, o que não ocorre com a equação de Schrondinger, onde o spin é

admitido posteriormente como uma hipótese ad hoc. Não obstante, isso levou certos autores a

afirmarem que o spin é um grau de liberdade relativístico, o que é contestado. Outro sucesso

da equação de Dirac foi prever a existencia do pósitron, já que a equação previa valores negativos

de energia, o que foi inicialmente interpretado, à luz da "teoria dos buracos", como indicação

de elétrons com energias negativas. Essa teoria afirmava que

Page 136: Física 1

os pósitrons seriam vacâncias produzidas pela promoção desses elétrons para estados com

energias positivas. O vácuo é então visto como um mar de elétrons onde eles estariam

compactamente colocados. Hoje, entretanto, essa teoria cedeu lugar à questão de criação e

aniquilação de partículas num contexto mais geral da quantização canônica dos campos.

Desenvolvimento da teoria quântica dos campos [editar]

A origem da teoria quântica dos campos é marcada pelos estudos de Max Born e Pascual

Jordan em 1925 sobre o problema da computação da potência irradiada de um átomo em uma

transição energética.

Em 1926, Born, Jordan e Werner Heisenberg formularam a teoria quântica do campo

eletromagnético desprezando tanto apolarização como a presença de fontes, levando ao que se

chama hoje de uma teoria do campo livre. Para tanto, usaram o procedimento da quantização

canônica.

Três razões principais motivaram o desenvolvimento da teoria quântica dos campos:

A necessidade da uma teoria que lidasse com a variação do número de partículas;

A necessidade de conciliação entre as duas teorias: mecânica quântica e a relatividade;

A necessidade de lidar com estatísticas de sistemas multipartículas.

Quantização canônica dos campos [editar]

Um campo, no esquema conceitual da teoria dos campos, é uma entidade com infinitos graus de

liberdade.

O estado de mais baixa energia, chamado de vácuo, corresponde à ausência de partículas.

Estas, entretanto, podem ser criadas ou destruidas através de dois operadores:

: operador criação

: operador aniquilação

que agem sobre a função de onda do campo, respectivamente simbolizando a criação e a

aniquilação de partículas dotadas de momento  , possibilidade exigida pela relatividade.

Os operadores, agindo sobre os estados de um tipo específico de espaço de Hilbert,

chamado espaço de Fock, criam e destroem as partículas. Entretanto, uma restrição é:

o que quer dizer que não pode haver aniquilação sobre o estado básico, já que nesse caso não há

partículas a serem aniquiladas.

Page 137: Física 1

NeutrinoOrigem: Wikipédia, a enciclopédia livre.

Observação de um neutrino batendo em um próton em uma câmara de bolhas. A colisão ocorreu no ponto onde

emanam três faixas da direita da fotografia.

O neutrino é uma partícula subatômica sem carga elétrica e que interage com outras partículas

apenas por meio da interação gravitacional e da fraca (duas das quatro interações fundamentais da

Natureza, ao lado da eletromagnética e da forte)1 . É conhecido por suas características extremas: é

extremamente leve (algumas centenas de vezes mais leve que oelétron2 3 ), existe com enorme

abundância (é a segunda partícula mais abundante do Universo conhecido, depois do fóton) e

interage com a matéria de forma extremamente débil (cerca de 65 bilhões de neutrinos atravessam

cada centímetro quadrado da superfície da Terra voltada para o Sol a cada segundo)4 .

Índice

  [esconder] 

1   Características

o 1.1   Sabores de neutrinos e antineutrinos

o 1.2   Cargas e Massa

o 1.3   Interações

o 1.4   Ocorrência na Natureza

2   História

o 2.1   Previsão teórica da existência do neutrino

2.1.1   O espectro contínuo da radiação β

2.1.2   Novas leis da física x nova partícula

2.1.3   Outras motivações para a previsão do neutrino

o 2.2   Os modelos teóricos

o 2.3   Observação experimental

o 2.4   Os três sabores de neutrinos

o 2.5   O problema dos neutrinos solares e a massa dos neutrinos

o 2.6   A massa não-nula

Page 138: Física 1

3   Suposta observação de neutrinos mais velozes que a luz

o 3.1   As possibilidades de explicação

4   Referências

o 4.1   Bibliografia

[editar]Características

[editar]Sabores de neutrinos e antineutrinos

Há três tipos, ou sabores, de neutrinos5 :

neutrino do elétron

neutrino do múon

neutrino do tau

Eles têm esses nomes porque o neutrino do elétron só participa de interações entre partículas

subatômicas em que o elétron também participa; o do múon só naquelas em que o múon também

participa; e o mesmo com o do tau. O elétron, o múon e o tau são três partículas elementares que,

juntamente com os três neutrinos, são classificadas como léptons.

Existem também os antineutrinos, ou antipartículas dos neutrinos. Ocorrem também em três

sabores: do elétron, do múon e do tau.

Os três tipos de neutrinos transformam-se espontaneamente uns nos outros, fenômeno conhecido

por "oscilação de neutrinos".

[editar]Cargas e Massa

Os neutrinos não possuem carga elétrica nem carga de cor (a "carga" das interações fortes). Não se

sabe o valor exato de suas massas, mas indícios indiretos apontam que devem ser algumas

centenas de vezes menores que a massa do elétron (que é de 0,511MeV/c2), ou menos 2 3 . Os

experimentos realizados com oscilações de neutrinos dão indicações diretas apenas das diferenças

entre os quadrados das massas dos três tipos.6 Há três dessas diferenças (entre neutrino do elétron

e do múon; entre do múon e do tau; e entre do elétron e do tau), mas apenas dois valores foram

obtidos até agora: 0,000079 (eV/c2)27 e 0,0027 (eV/c2)28 Como estamos falando de diferença entre os

quadrados das massas, pelo menos uma das massas tem que ser pelo menos igual à raiz quadrada

deste valor. Assim, existe pelo menos um neutrino com massa de pelo menos 0,04 eV/c2.9

[editar]Interações

Como não possuem carga nem cor, os neutrinos não interagem eletromagneticamente nem por

meio da interação forte. Apenas interagem com a matéria por meio da força gravitacional e da força

Page 139: Física 1

fraca. Estas são interações muito débeis. Para haver probabilidade apreciável de um neutrino

interagir com pelo menos um próton, ele deveria atravessar uma chapa de chumbo de um ano-luz

de espessura.10

Assim, os neutrinos são classificados como léptons, isto é, partículas imunes à interação forte.

Um exemplo de interação fraca na qual o neutrino toma parte é o decaimento do nêutron, que

produz a radiação beta (radiação β)11 :

(nêutron → próton + elétron + antineutrino)

Quando esse decaimento acontece em um núcleo atômico, o nêutron se transforma em

um próton, que permanece no núcleo (portanto, o número atômico aumenta de uma

unidade), enquanto o antineutrino e o elétron são ejetados (o elétron constituirá a radiação

beta).

Essa reação, na verdade, acontece apenas com o quark down (d) do nêutron, e o

decaimento completo se dá em dois passos12 :

(quark d → quark u + partícula W- → quark u + elétron + antineutrino)

O W- é um bóson intermediário ou de calibre que, juntamente com as partículas

W+ e Z0, são os intermediadores da interação fraca (assim como o fóton é o

da interação eletromagnética).

[editar]Ocorrência na Natureza

Neutrinos existem em grande quantidade atravessando o espaço a velocidades

próximas à da luz. É a segunda partícula mais abundante do Universo depois do

fóton. Não os percebemos cotidianamente, ao contrário dos fótons, por ele

interagir muito fracamente com a matéria. Grande parte é produzida

pelas reações nucleares que ocorrem no interior de estrelas e que geram a

energia das mesmas (inclusive no Sol) e também por supernovas (grandes

explosões estelares).

A maioria dos neutrinos que atravessam a Terra foi produzida no Sol13 , mas

podem originar-se também de reatores nucleares,explosões

nucleares, decaimentos radioativos e da interação dos raios cósmicos com as

camadas superiores da atmosfera terrestre.

[editar]História

[editar]Previsão teórica da existência do neutrino

[editar]O espectro contínuo da radiação β

Page 140: Física 1

A existência do neutrino foi predita teoricamente em 1930 pelo físico

austríaco Wolfgang Pauli, para explicar o fato de o espectro de energia

da radiação beta estar distribuída em uma faixa contínua, e não com valores bem

definidos (ou seja, discretos), como acontecia com outras radiações

nucleares, alfa e gama14 . O espectro contínuo da radiação beta foi confirmado em

1914 por James Chadwick15 16 (o mesmo que em 1932 descobriria o nêutron).

A razão pela qual isso demandava uma explicação radical a ponto de exigir a

postulação da existência de uma nova partícula era que o fenômeno parecia

contradizer leis bem estabelecidas da física, como a lei da conservação da

energia17 . Átomos iguais deveriam emitir radiação com a mesma energia; no

entanto, no caso da radiação beta - e só nesse caso - parecia que emitiam com

energias infinitamente variadas.

Naturalmente, primeiro pensou-se que essa variação ocorria porque a radiação

beta interagia com a matéria e perdia energia antes de chegar nos aparelhos

detectores. No entanto, em meados da década de 1920, graças às pesquisas de

Charles Drummond Ellis18 e outros, estava claro que esse espectro contínuo não

era devido a fatores externos aos núcleos atômicos que emitiam a radiação; ela já

saía do núcleo dessa forma19 .

[editar]Novas leis da física x nova partícula

Diante do impasse, vários físicos adotaram dois tipos de abordagem.

Alguns, liderados por Niels Bohr, passaram a defender que as leis da física

deviam ser radicalmente alteradas para explicar o fenômeno. Bohr chegou a

propor o abandono da lei da conservação da energia, que então valeria apenas

estatisticamente17 .

Outros, liderados por Wolfgang Pauli, supunham que a energia que faltava era

carregada por uma terceira partícula desconhecida, emitida junto com a partícula

beta20 . Nesse caso, a energia das duas partículas juntas seria ainda bem

definida; no entanto, ela poderia ser distribuída de infinitas maneiras entre elas, de

modo que a partícula beta poderia ter várias energias possíveis. Como resultado,

o espectro contínuo poderia ser explicado com as leis da física intactas. Pauli não

publicou sua proposta, mas comentou-a em diversas cartas a colegas, sendo a

mais famosa a endereçada para vários deles datada de 4 de dezembro de

193021 , reproduzida parcialmente em Pais (1986)14 .

Essas partículas novas foram chamadas inicialmente de "nêutrons", porque não

tinham carga elétrica. Com a descoberta, em 1932, do que conhecemos hoje por

Page 141: Física 1

"nêutrons"22 , elas passaram a ser chamadas pelo diminutivo em italiano,

"neutrino", palavra escolhida pelo físico italiano Enrico Fermi23 .

[editar]Outras motivações para a previsão do neutrino

É comum que os livros de física mencionem que o caso da radiação beta foi a

única inspiração para a previsão do neutrino24 . No entanto, segundo o físico e

historiador da ciência Abraham Pais, Pauli tinha também outro problema grave em

vista quando postulou o neutrino. Era o problema da composição do núcleo

atômico25 .

Sabe-se que os prótons têm carga positiva e os elétrons, negativa. Ora, se o

átomo é eletricamente neutro, então o número de prótons no núcleo deve ser

igual ao de elétrons. No entanto, a massa do núcleo é bem maior que a soma da

massa desses prótons (em geral mais do que o dobro), de maneira que ele

parecia ter mais prótons! Imaginava-se então que havia elétrons no núcleo, para

cancelar o excesso de cargas positivas desses prótons.

Mesmo assim, esse modelo levava a complicações relacionadas com o spin do

núcleo. Pauli achava que elas também podiam ser resolvidas se se admitisse que

os neutrinos também fizessem parte do núcleo. Porém, em 1932, descobriu-se

que o núcleo continha nêutrons22 , o que resolveu esses problemas.

[editar]Os modelos teóricos

A hipótese de Bohr das novas leis físicas e da quebra das leis de conservação

perdeu força nos anos seguintes. Com a descoberta dos nêutrons, a hipótese

dominante para a origem dos neutrinos passou a ser o decaimento do nêutron em

um próton, um elétron e um neutrino. O próton permaneceria no núcleo e o elétron

e o neutrino seriam ejetados (o elétron formaria a radiação beta). Essa é a versão

atualmente aceita, exceto por o neutrino ser, na verdade, um antineutrino

(a antipartícula do neutrino).

Em 1934, Enrico Fermi formulou a primeira teoria consistente para descrever esse

processo26 . A teoria teve muito sucesso em descrever quantitativamente o

espectro da radiação beta e por isso a existência do neutrino passou a ser mais

aceita (antes, o próprio Pauli era cauteloso com relação a isso20 ). A concordância

entre a previsão teórica e o resultado experimental era máxima quando a massa

do neutrino introduzida nas equações era zero.

Aperfeiçoamentos da teoria de Fermi foram feitos nos anos seguintes. A teoria

vigente hoje é a teoria de Abdus Salam, Sheldon Lee Glashow e Steven

Weinberg das interações eletrofracas (que descreve simultaneamente as forças

Page 142: Física 1

fracas, responsáveis pela radiação beta, e as forças fortes), formulada em 1968 e

corroborada experimentalmente a partir do início dos anos 198027 .

[editar]Observação experimental

Faltava, porém, uma evidência direta da existência do neutrino no laboratório. A

dificuldade era que o neutrino interage muito fracamente com a matéria, e por isso

era muito difícil de ser detectado.

Essa limitação poderia ser superada se fosse usada uma fonte bastante intensa

de neutrinos. Frederick Reines e Clyde Cowantiveram a ideia de usar para isso

um reator nuclear. Após uma tentativa pouco conclusiva em 1953 em Hantford,

Washington, EUA (com o mesmo reator que produziu plutônio para a bomba

atômica usada no fim da Segunda Guerra Mundial), eles finalmente alcançaram

seu objetivo em 1956 com o reator do laboratório de Savannah River, na Carolina

do Sul (que produzia um fluxo de 1013antineutrinos atravessando cada centímetro

quadrado a cada segundo).

Usaram como detector um tanque de água com cloreto de cádmio. Alguns dos

neutrinos que entravam no tanque interagiam com os prótons dos átomos,

produzindo nêutrons e pósitrons (elétrons positivos). Os pósitrons aniquilavam-

se com os elétrons dos átomos, produzindo raios gama. Já os nêutrons eram

capturados pelos núcleos atômicos do cádmio, produzindo outros raios gama com

frequências diferentes. Os espectros dos dois tipos de raios gama eram uma

"assinatura" da presença do antineutrino ali28 .

[editar]Os três sabores de neutrinos

A partir dos anos 1950, descobriu-se que havia mais de um tipo, ou sabores, de

neutrino29 . Algumas inconsistências nos decaimentos observados em partículas

elementares levaram E. J. Mahmoud, H. M. Konopinski30 e Julian Schwinger31 a

conjecturar sobre a existência de um segundo neutrino. O problema mais

contundente era que o decaimento:

(muon → elétron + antineutrino + neutrino)

era observado, mas não o decaimento:

(muon → elétron + fóton)

No entanto, como o neutrino e o antineutrino se aniquilavam

formando dois fótons de raios gama, era incompreensível que a

primeira ocorresse e a segunda não. Isso seria resolvido se o

Page 143: Física 1

antineutrino não fosse a antipartícula daquele neutrino. Ou seja,

se houvesse dois tipos de neutrinos e o decaimento do múon

produzisse neutrino de um tipo e antineutrino de outro. Se

assim fosse, os dois últimos não poderiam se aniquilar e o fóton

jamais poderia surgir.

Essa previsão foi confirmada em 1962 no laboratório de

Brookhaven, nos EUA32 . O primeiro neutrino foi

chamado neutrino do elétron e o segundo, neutrino do

múon. Na verdade, sabe-se hoje que a reação é:

(múon negativo → elétron + antineutrino do elétron + neutrino do múon);

(múon positivo → pósitron + neutrino do elétron + antineutrino do múon)

Os nomes dos dois neutrinos foram escolhidos

porque o neutrino do elétron só participa de

decaimentos em que o elétron aparece, enquanto

o do múon só participa de decaimentos em que o

múon aparece.

Não era, porém, o fim da história. Em 1975, um

novo lépton foi observado, o tau33 . Conjecturou-se

imediatamente se existiria umneutrino do tau.

Este foi observado finalmente em 2000, pela

Colaboração DONUT, no Fermilab, nos EUA34 .

[editar]O problema dos neutrinos solares e a massa dos neutrinos

Desde o modelo pioneiro de Enrico Fermi,

publicado em 1934, achava-se que a massa de

repouso dos três tipos de neutrinos era zero. O

modelo em si continha uma variável para a

massa, mas a coincidência entre a previsão

teórica do modelo e os dados experimentais era

máxima quando o valor zero era dado a essa

variável. O neutrino, então, conteria

apenas energia cinética e viajaria na velocidade

da luz (segundo a teoria da relatividade especial,

partículas sem massa de repouso, como o fóton,

Page 144: Física 1

devem necessariamente viajar na velocidade da

luz).

Isso mudou após a solução do chamado problema

dos neutrinos solares. Os modelos físicos que

descrevem a geração de energia do Sol eram bem

sucedidos na comparação de suas previsões com

as observações, exceto por um detalhe: os

neutrinos observados vindos do Sol eram apenas

um terço do que a teoria previa (uma discrepância

conhecida desde o fim dos anos 196035 36 ).

Diversas tentativas foram feitas para resolver essa

discrepância.

A hipótese que sobreviveu aos testes

observacionais dizia que os três tipos de neutrinos

podem transformar-se uns nos outros, proposta

por Bruno Pontecorvo em 196837 . Assim, parecia

haver menos neutrinos porque os astrofísicos

estavam observando neutrinos do elétron vindos

do Sol, que era o que a teoria previa que o Sol

produzia, mas no meio do caminho para a Terra

parte deles se transformava em neutrinos do

múon e do tau. Como a transformação é oscilante,

o fenômeno foi chamado "oscilação dos neutrinos"

e foi observado diretamente em 1998 no

observatório Superkamiokande, no Japão38 . O

problema dos neutrinos solares foi finalmente

resolvido em 2002, com observações do

Observatório de Neutrinos de Sudbury (SNO), no

Canadá, que mostraram que, levando-sem em

conta as oscilações, o número de neutrinos vindos

do Sol coincide bem com as previsões teóricas.39 .

[editar]A massa não-nula

A equação que descreve a oscilação dos

neutrinos no tempo depende da diferença entre as

massas dos três neutrinos. Se as massas dos três

fosse nula, não haveria oscilação. Assim, a

observação do Sudbury também implicou que os

Page 145: Física 1

neutrinos tivessem massa. Os experimentos,

porém, apenas indicam a diferença entre as

massas dos três tipos de neutrino, não o valor das

massas individuais. Indícios indiretos, porém,

indicam que essas massas provavelmente são da

ordem de poucos elétrons-volt ou frações de

elétrons-volt23 . Isso é centenas de vezes menor

que a massa de um elétron, de 0,511 MeV/c2.

[editar]Suposta observação de neutrinos mais velozes que a luz

Antes que a ideia de oscilações de neutrinos

surgisse, era comumente aceito que eles viajavam

à velocidade da luz.40 A questão da velocidade do

neutrino está intimamente relacionada à

sua massa extremamente pequena, algumas

centenas de milhares de vezes menores que a

do elétron.41 42 De acordo com a teoria da

relatividade, se os neutrinos têm massa, eles não

podem alcançar a velocidade da luz.

Em setembro de 2011, surgiram dados43 da

Colaboração OPERA (cujo detector subterrâneo

de neutrinos está em Gran Sasso, na Itália) que

pareciam indicar a observação de neutrinos

movendo-se a uma velocidade 0,00248% superior

à da luz no vácuo.44Resultados semelhantes já

haviam sido publicados em 2007 por outra

colaboração, a MINOS, no laboratório Fermilab,

em Chicago, nos EUA, mas com índice de

confiabilidade menor.45 Grande parte das

declarações de cientistas na imprensa

demonstrou ceticismo ou pelo menos cautela

quanto aos resultados da OPERA.46 47 Os próprios

pesquisadores que realizaram a medição dizem

que os resultados são intrigantes e que devem ser

analisados com cautela.48 O artigo original,

inclusive, informa que serão necessários testes

Page 146: Física 1

independentes para confirmar ou refutar a

informação.43 No entanto, um seminário49 dos

autores na Organização Europeia para a

Investigação Nuclear (CERN), em Genebra,

Suíça, dado diante de uma plateia de

especialistas um dia depois da publicação de seu

artigo no arXiv, pareceu convincente para boa

parte da comunidade científica.50

[editar]As possibilidades de explicação

Houve, porém, cientistas que buscaram explicar

os resultados de outras formas. Tais tentativas

podem ser classificadas em três grupos:51

Houve algum erro por parte dos autores da

pesquisa;

Os neutrinos realmente viajam mais

rapidamente que a luz e isso significa uma

violação da teoria da relatividade especial

(inclusive, alguns teóricos já vêm dando os

primeiros passos na busca de uma teoria

alternativa à relatividade52 );

Os neutrinos realmente viajam mais

rapidamente que a luz, mas a teoria da

relatividade não é violada.

O último item demanda explicações. Ao contrário

do que muitos imaginam, a existência de

partículas com velocidades maiores que a da luz

não é totalmente incompatível com a teoria da

relatividade. Se for aceita a existência de

outras dimensões espaciais além das três

conhecidas, partículas que se deslocam pelas

dimensões extras podem parecer mais velozes

que a luz quando vistas por observadores restritos

no espaço tridimensional. Alguns cientistas vêm

explorando essa hipótese.53

Page 147: Física 1

Outra possibilidade de se compatibilizar a

observação de neutrinos mais velozes que a luz

com a relatividade especial seria considerar os

neutrinos como táquions. Táquions são partículas

que viajam sempre mais velozmente que a luz.

Isto é compatível com a relatividade, pois o que

ela proíbe é que a velocidade da luz

seja ultrapassada.54 No entanto, essa hipótese

parece não ser compatível com as observações

dos neutrinos da supernova SN 1987a.55 52

Segundo informações mais recentes publicadas

pelo grupo de pesquisadores responsáveis pela

descoberta no sítio eletrônico por eles mantido,

revisão dos procedimentos adotados no

experimento que culminaram com o artigo acerca

das velocidades supraluminais dos neutrinos

levantaram dúvidas quanto à sincronização dos

equipamentos nas duas localidades envolvidas.

Aparelhos GPS não corretamente sincronizados

seriam os vilões da estória. Além de tal problema

técnico, há a suspeita de que o canal de fibra ótica

que conecta o GPS externo ao relógio principal do

OPERA poderia também não estar funcionando

corretamente quando as medidas foram tomadas.

Se confirmado, esses defeitos seriam os

responsáveis por uma subestimativa do tempo de

voo dos neutrinos.56

Em 2012, o cientista Antonio Ereditato, porta-voz

do experimento responsável por esta experiência,

pediu demissão.57 58 59 60

No modelo padrão da física das partículas, um muão (português europeu) ou múon (português brasileiro) (grego: μείον, "menos") é uma partícula elementar semi-estável com carga eléctrica negativa e spin de 1/2 (fermião). Em conjunto com o electrão, o tau e seus respectivos neutrinos, é classificado como fazendo parte da família dos leptões. Tal como todas as partículas fundamentais, o muão tem a sua antipartícula, com carga oposta mas com massa e spin idêntico: o antimuão ou muão positivo.

Um férmion (português brasileiro) ou fermião (português europeu) é uma partícula que tem spin semi-inteiro

(em unidades de  ) e obedece à estatística de Fermi-Dirac.1 Recebem este nome em

Page 148: Física 1

homenagem ao físico Enrico Fermi. Todas as partículas elementaresou são férmions

ou bósons.

Em decorrência do princípio de exclusão de Pauli, dois férmions de spin 1/2 quaisquer não

podem ter simultaneamente todos os números quânticos idênticos, aí incluídos os valores das

projeções ms do spin. Em decorrência disso e do fato de que para uma partícula com spin = s

há 2s + 1 orientações possíveis de spin, o número máximo de ocupação de um férmion com

spin 1/2 em um estado é 1 (2 se se abstrair o spin) ms = +1/2 e ms = - 1/2.

Exemplos de férmions:

prótons

quarks

elétrons

neutrinos

Motivação

As partículas microscópicas exibem propriedades que, no começo do século XX, motivaram o

surgimento da Mecânica quântica. O problema da identidade das partículas, antes tido como

ponto pacífico pela Mecânica clássica, toma feição inteiramente nova.

Duas partículas que podem ser distinguidas pela posição na mecânica clássica já não o podem

ser pela mecânica quântica. Isso decorre pela imprecisão inerente às medidas efetuadas sobre

os observáveis, que correspondem, grosso modo, à noção depropriedade da mecânica

clássica.

A imprecisão da mecânica quântica decorre do Princípio da incerteza de Heisenberg, que

estipula restrição para a medição simultânea de propriedades incompatíveis, que são

aquelas que são relacionadas pela relação de incerteza de Heisenberg

[editar]Estatística quântica

Com o advento da Mecânica quântica as noções de distinção das partículas subatômicas e da

ocupação de estados de energia sofreram sérias reformulações.

No começo do século XX, Boltzmann havia chegado a forma correta da distribuição do número

de partículas em função do nível de energia. Mas isso no âmbito da mecânica clássica.

Contudo, principalmente com o surgimento da moderna teoria quântica, o conceito de trajetória

se torna seriamente prejudicado, quando não totalmente desnecessário e contraditório.

Uma trajetória implica o deslocamento de uma partícula (idealizada como um ponto

matemático) no espaço e no tempo. Nesse sentido, uma trajetória física corresponderia, na

matemática, a uma curva suave e diferenciável, completamente contínua em todos os seus

pontos.

Porém, mesmo no trabalho de Einstein sobre o movimento browniano em 1905 (publicado

juntamente com outros três trabalhos: sobre o efeito fotoelétrico, sobre o calor específico dos

sólidos e sobre a relatividade), esse cientista postulou trajetórias em zig-zag, descontínuas em

inúmeros (para não dizer infinitos) pontos, para as moléculas e átomos, assim como também

Page 149: Física 1

as partículas movidas, fossem elas partículas de pó, pólen, dentre outras. Assim, ainda no

cenário da física clássica, as trajetórias suaves já eram admissíveis.

Com o entendimento trazido à luz pela interpretação do princípio da incerteza de Heisenberg, e

pela interpretação estatística daFunção de onda dada por Max Born foi totalmente por terra a

noção de que a partícula tinha trajetória definida.

Assim sendo, não se podem distinguir partículas cujas características sejam idênticas se se

aproximam muito uma da outra, porque então não se pode identifica-las pela trajetória, já que

para pontos muitos próximos, dependendo da velocidade, os pontos já não são discerníveis. A

relação matemática que rege essa indeterminação fundamental é a relação da incerteza de

Heisenberg:

[Xk,Pl] = i

onde Xk representa o operador posição, Pl representa o operador Momento linear e   o

operador identidade.

Dentro desse entendimento, a distribuição de Boltzmann não é mais válida, senão

como aproximação. Verificou-se que as distribuições válidas para partículas com carácter

manifestamente quântico, são as seguintes:

Distribuição de Fermi-Dirac

Distribuição de Bose-Einstein

A primeira é válida para partículas de Spin semi-inteiro( 1/2, 3/2, 5/2...),em unidades de  , ou

seja, para os férmions, ao passo que a segunda é a distribuição válida para partículas de spin

inteiro (0,1,2,3...), ou seja, para os bósons.

Pode-se explicar qualitativa e sucintamente, de forma simplificada, que para os férmions as

função de onda , são funções anti-simétricas, ou seja, trocam de sinal perante a troca

simultânea das coordenadas espaciais e das coordenadas de spin entre dois férmions.

Estatística de Fermi-DiracOrigem: Wikipédia, a enciclopédia livre.

Distribuição Fermi-Dirac como uma função de ε/μ num gráfico para 4 temperaturas diferentes. Ocupando transições são deriváveis a mais altas temperaturas.A estatística de Fermi-Dirac é uma estatística quântica que rege as partículas de spin semi-inteiro, os férmions. Leva o nome de dois eminentes físicos: Enrico Fermi e Paul Adrien Maurice Dirac.Índice [esconder] 1 Formulação matemática2 Interpretação física3 Aplicações4 Ver também[editar]Formulação matemática

A distribuição de Fermi-Dirac é dada por

Onde: é o número médio de partículas no estado de energia .

Page 150: Física 1

é a degeneração do estado i-ésimo é a energia no estado i-ésimo é o potencial químico é a temperatura a constante de BoltzmannEm casos aonde é a energia de Fermi e , a função é chamada de função Fermi:

Fermi-Dirac distribution as a function of temperature. More states are occupied at higher temperatures.[editar]Interpretação física

Para baixas temperaturas, a distribução de Fermi é uma função de passo que vale 1 se e 0 se . Isto quer dizer que as partículas vão se posicionando desde o nivel mais baixo de energia até acima devido ao princípio de exclusão de Pauli até que se tenham postas todas as partículas. A energia do último nível ocupado se denomina energia de Fermi e a temperatura à que corresponde esta energia mediante , a temperatura de Fermi.Se da circunstância de que a temperatura de Fermi da maioria dos metais reais é enorme (da ordem de 10000 Kelvin), portanto a aproximação de dizer que a distribução de Fermi-Dirac segue sendo um escalar até temperatura ambiente é válida com bastante precisão.A distribuição de Fermi-Dirac tem importância capital no estudo de gases de férmions e em particular no estudo dos elétrons livres em um metal.[editar]Aplicações

Este artigo ou secção está a ser traduzido (desde novembro de 2007). Ajude e colabore com a tradução.Estatísticas de Fermi–Dirac e Bose–Einstein aplicadas quando efeitos quânticos tendem a ser levadas em conta e as partículas são consideradas "indistinguíveis". Os efeitos quânticos aparecem se a concentração de partículas (N/V) ≥ nq (aonde nq é a concentração quântica). A concentração quântica é quando a distância interpartículas é igual ao comprimento de onda térmico de de Broglie, i.e. quando a funções de onda das partículas são atingidos mas não ultrapassados. Como a concentração quântica depende da temperatura; altas temperaturas irão colocar a maioria dos sistemas no limite clássico sem eles terem uma muito alta densidade, e.g. uma anã branca. A estatística de Fermi–Dirac é aplicada a férmions (partículas que obedecem ao princípio de exclusão de Pauli), a estatística de Bose–Einstein é aplicada a bósons. Tanto Fermi–Dirac e Bose–Einstein tornam-se a estatística de Maxwell–Boltzmann a altas temperaturas ou baixas concentrações.

Estatísticas de Maxwell–Boltzmann são frequentemente descritas como estatísticas de partículas clássicas "distinguíveis". Em outras palavras a configuração de partícula A no estado 1 e a partícula B no estado 2 é diferente do caso aonde a partícula B está no estado 1 e a partícula A está no estado 2. Quando esta idéia é estendida, conduz à distribuição própria (de Boltzmann)de partículas em estados de energia, mas conduz a resultados sem significado físico para a entropia, conforme encorporado no paradoxo de Gibbs. Estes problemas desaparecem quando se percebe que todas as partículas são de fato indistinguíveis entre sí. Ambas as distribuições se aproximam da distribuição de Maxwell-Boltzmann no limite de alta temperatura e baixa densidade, sem a necessidade

Page 151: Física 1

de quaisquer pressupostos adicionais ad hoc. A distribuição estatística de Maxwell–Boltzmann é particularmente útil para estudar gases. A distribuição estatística de Fermi–Dirac é mais usualmente usada para o estudo do comportamento de elétrons em sólidos. Como tal, é a base da teoria dos dispositivos semicondutores e da eletrônica.

Em mecânica estatística, a estatística de Bose–Einstein (ou mais coloquialmente estatística

B-E) determina a distribuição estatística de bósons idênticos indistinguíveis sobre os estados

de energia em equilíbrio térmico.

[editar]Formulação matemática

O número esperado de partículas num estado de energia i é:

onde:

 é o número de partículas no estado i.

 é a degenerecência quântica do estado i.

 é a energia do estado i.

 é o potencial químico.

 é a constante de Boltzmann.

 é a temperatura.

A estatística de Bose-Einstein reduz-se à estatística de Maxwell-Boltzmann para

energias: 

Estatística de Maxwell–BoltzmannOrigem: Wikipédia, a enciclopédia livre.

Em mecânica estatística, a estatística Maxwell–Boltzmann descreve a distribuição estatística de

partículas materiais em vários estados de energia em equilíbrio térmico, quando a temperatura é alta

o suficiente e a densidade é baixa suficiente para tornar os efeitos quânticos negligenciáveis. A

estatística Maxwell–Boltzmann é consequentemente aplicável a quase qualquer fenômeno terrestre

para os quais a temperatura está acima de poucas dezenas de kelvins.

O número esperado de partículas com energia   para a estatística de Maxwell–Boltzmann é   

onde:

onde:

 é o número de partículas no estado i

 é a energia do estado i-ésimo

Page 152: Física 1

 é a degenerescência do nível de energia i, o número de estados dos partículas (excluindo o

estado de "partícula livre") com energia 

μ é o potencial químico

k é a constante de Boltzmann

T é a temperatura absoluta

N é o número total de partículas

Z é a função partição

e(...) é a função exponencial, sendo e o número de Euler

A distribuição de Maxwell-Boltzmann tem sido aplicada especialmente à teoria

cinética dos gases, e outros sistemas físicos, além de em econofísica para predizer a

distribuição da renda. Na realidade a distribuição de Maxwell-Boltzmann é aplicável a

qualquer sistema formado por N "partículas" ou "indivíduos" que interacambiam

estacionariamente entre si uma certa magnitude m e cada um deles têm uma

quantidade mi da magnitude m e ao longo do tempo ocorre que M := m1+m2+...+ mN.

[editar]Limites de aplicação

Para um sistema de partículas quânticas, a hipótese de que   seja substancialmente

menor que   para os estados diferentes do fundamental em geral não se cumprirá e é

necessário recorrer-se à estatística de Bose-Einstein se as partículas

são bosônicas ou àestatística de Fermi-Dirac se as partículas são fermiônicas.

As estatísticas de Bose–Einstein e Fermi–Dirac podem ser expressas como:

Assumindo que o valor mínimo de   é bastante pequeno, se pode verificar que a

condição na qual a distribuição de Maxwell-Boltzmann é válida é quando se

cumpre que:

Para um gás ideal, podemos calcular os potenciais químicos utilizando o

desenvolvimento da equação de Sackur–Tetrode para demonstrar que:

Page 153: Física 1

onde   é a energia interna total,   é a entropia,   é o volume, e   é

o comprimento de onda térmico de de Broglie. A condição de aplicação

para a distribuição Maxwell-Boltzmann em um gás ideal resulta:

Gás de FermiOrigem: Wikipédia, a enciclopédia livre.

Um gás de férmions, gás de Fermi ou gás de elétrons livres é um conjunto de férmions não

interativos. É a versão na Mecânica Quântica de um gás ideal, para o caso de partículas

fermiônicas. Elétrons em metais e semicondutores e nêutrons em estrelas de nêutrons podem

aproximadamente ser considerados gases de Fermi.

A distribuição de energia dos férmions em um gás de Fermi em equilíbrio térmico é determinada por

sua densidade, pela temperaturae pelos estados de energia disponíveis, via a estatística de Fermi-

Dirac. Pelo princípio de exclusão de Pauli, nenhum estado quânticopode ser ocupado por mais que

um férmion, então a energia total do gás de Fermi à temperatura do zero absoluto é tão grande

quanto o produto do número de partículas pelo estado de energia de cada partícula. Por esta razão,

a pressão de um gás Fermi é diferente de zero na temperatura de zero absoluto, em contraste com

um gás ideal clássico. Esta então chamada pressão de degeneraçãoestabiliza uma estrela de

nêutrons (um gás de Fermi de nêutrons) ou uma estrela anã branca (um gás de Fermi de elétrons)

contra a tração interna da gravidade.

É possível definir uma temperatura de Fermi abaixo do qual o gás pode ser considerado

degenerado. Esta temperatura depende da massa dos férmions e da energia da densidade dos

estados. Para metais, a temperatura do gás de elétrons de Fermi é geralmente de muitos milhares

de kelvins, quando então eles podem ser considerados degenerados. A máxima energia dos

férmions a temperatura do zero absoluto é chamada energia de Fermi. A superfície da energia de

Fermi no momento espacial é chamada superfície de Fermi.

Desde que as interações são negligenciadas por definição, o problema de tratar propriedades do

equilíbrio e o comportamento dinâmico de um gás de Fermi se reduz ao estudo do comportamento

de partículas independentes e isoladas. Como está, é ainda relativamente tratável e dá forma ao

ponto de servir de base para teorias mais avançadas (tais como a teoria do líquido de Fermi ou

ateoria perturbacional) as quais levam em conta as interações com algum grau de exatidão.

Índice

  [esconder] 

Page 154: Física 1

1   Descrição matemática

Gás de Fermi como modelo para os núcleos dos átomos

Referências

Ligações externas

5   Ver também

[editar]Descrição matemática

Dentro da estrutura que a física estatística possibilita, segue-se que com a ajuda de conjuntos

estatísticos para um número médio de ocupação   dos estados   com a energia   

da estatística de Fermi-Dirac:

Onde   é o potencial químico,   a temperatura e   a constante de Boltzmann.

Estes férmions que estão sujeitos ao princípio de exclusão de Pauli, podem estar na condição

de máxima ocupação, ou seja  . Esta condição é que a estatística de Fermi-Dirac

tratará para qualquer valor de preenchimento pleno  , porque o potencial químico de um gás

ideal de Fermi não é sujeito a quaisquer restrições.

[editar]Gás de Fermi como modelo para os núcleos dos átomos

O primeiro pesquisador a apontar uma explicação simples para o movimento independente

de núcleons através do núcleo atômico em seus estado fundamental foi Weisskopf.1 Tal

explicação usa como base o modelo de gás de Fermi. O modelo utilizado é essencialmente o

mesmo utilizado para tratar de elétrons livres em um metal condutor. É suposto que cada

núcleon do núcleo atômico mova-se num potencial efetivo atrativo que representa um efeito

médio de suas interações com os outros núcleons naquele núcleo. Há um valor constante

dentro do núcleo para este potencial e externamente ao núcleo ele decresce até zero a uma

distância igual ao alcance das forças nucleares e é aproximadamente igual a um poço

quadrado infinito e tridimensional, de raio ligeiramente superior ao raio do núcleo.2 O núcleo

atômico contém dois tipos de partículas, os prótons e os neutrons e ambos têm um momento

angular intrínseco, ambos são classificados como férmions de spin 1/2, mas sendo duas

partículas distinguíveis o princípio de exclusão de Pauli age independentemente sobre cada um

deles. Assim podemos considerar que o núcleo é constituído por dois gases de Fermi, o dos

Page 155: Física 1

prótons e o dos nêutrons e que corresponderão a dois estado energéticos diferentes e cada

estado só pode ser ocupado por apenas dois prótons ou dois nêutrons, com spins de sinais

opostos.3 4 5

O elétron (português brasileiro) ou electrão (português europeu) (do grego ήλεκτρον, élektron, "âmbar"),

geralmente representado como e-, é uma partícula subatômica que circunda o núcleo atômico,

identificada em 1897 pelo inglês John Joseph Thomson. Subatómica e de carga negativa, é o

responsável pela criação de campos magnéticos e eléctricos.

No modelo padrão ele é um lépton, junto com o muon, o tau e os respectivos neutrinos. O

elétron foi proposto como partícula subatómica por J. J. Thomson em 1897. A carga do elétroné

de -1,60217733 ×10-19 C, e a sua massa é de 9,1093897 ×10-31 kg, ou 511,0 keV/c².

Normalmente, em física nuclear, a carga do elétron é definida como sendo uma unidade.

É o número de electrões de um átomo que define a sua carga, sendo que um número de

electrões igual ao número de protões origina uma partícula electricamente neutra. Nas escalas

de distâncias dos átomos o comportamento da partícula é regido pela mecânica quântica,

segundo a qual os electrões ficam "espalhados" pela maior parte do átomo, numa área

denominada "nuvem electrónica". Por outro lado, o núcleo que comporta a carga positiva do

átomo está localizado no centro deste.

O elétron, além de interagir com outras partículas pela força electromagnética, também

interage pela força nuclear fraca, onde normalmente vem acompanhado do seu neutrino associado. Sua antipartícula é o posítron, com a mesma massa, mas carga positiva.

Índice

  [esconder] 

1   Considerações gerais

História e descobrimento do elétron

Os elétrons e a prática

3.1   Classificação dos elétrons

3.2   Propriedades e comportamento dos elétrons

3.3   Elétrons no universo

3.4   Elétrons na vida cotidiana

3.5   Elétrons na indústria

Elétrons em laboratório

Os elétrons e a teoria

Page 156: Física 1

Ver também

7   Ligações externas

Considerações gerais [editar]

Os elétrons apresentam uma carga elétrica muito pequena e seu movimento gera corrente

elétrica. Visto que os elétrons das camadas mais externas de um átomo definem as atrações

com outros átomos, estas partículas possuem um papel importante na química.

História e descobrimento do elétron [editar]

A existência do elétron foi postulada por G. Johnstone Stoney como uma unidade de carga no

campo da eletroquímica. O elétron foi descoberto

por Thomson em 1897 no Laboratório Cavendish, da Universidade de Cambridge, enquanto

estudava o comportamento dosraios catódicos. Influenciado pelo trabalho de Maxwell e o

descobrimento dos raios X.

"O Tubo de Raios catódicos de J.J. Thomson". O tubo de raios catódicos é semelhante ao tubo

de imagem de um aparelho de televisão. Partículas carregadas (hoje conhecidas como

elétrons) são emitidas por um filamento aquecido em uma das extremidades de um tubo

evacuado e aceleradas por uma diferença de potencial elétrico (V). Depois de passarem por

uma fenda em um anteparo, formam um feixe estreito. Em seguida, passam por uma região

onde existem dois campos cruzados e atingem uma tela fluorescente, onde produzem um

ponto luminoso (na televisão os pontos são parte da imagem). As Forças a que o elétron é

submetido na região de campos cruzados podem desviá-lo do centro da tela. (como o sentido

da deflexão depende do sinal da carga das partículas, Thomson foi capaz de provar que

as partículas responsáveis pelo ponto luminoso na tela tinham carga negativa). Thomson

também afirmou que essas partículas estavam presentes em todas as formas de matéria e

também eram mais de 1000 vezes mais leves que o átomo mais leve conhecido (hidrogênio).

Ainda que Stoney haja proposto a existência do elétron, foi Thomson quem descobriu seu

caráter de partícula fundamental. Para confirmar a existência do elétron, era necessário medir

suas propriedades, em especial a sua carga elétrica. Este objetivo foi alcançado por Millikan,

através da célebre experiência da gota de azeite, realizada em 1909.

George Paget Thomson, filho de J.J. Thomson, demonstrou a natureza ondulatória do elétron,

provando a dualidade onda-corpúsculo postulada pela mecânica quântica. Esta descoberta lhe

valeu o Prémio Nobel de física de 1937.

O spin do elétron foi observado pela primeira vez pela experiência de Stern-Gerlach. Sua carga

elétrica pode ser medida diretamente através de um eletrômetro e a corrente gerada pelo seu

movimento com um galvanômetro.

Os elétrons e a prática [editar]

Classificação dos elétrons [editar]

O elétron é um tipo de partícula subatômica denominada lépton, acreditando-se que é uma das

partículas fundamentais, isto é, que não pode ser dividida em constituintes menores.

Page 157: Física 1

A palavra "partícula" não é totalmente correta, porque a mecânica quântica nos indica que os

elétrons, em determinadas condições, se comportam como uma onda, fato que ocorre na

experiência de dupla fenda. Esta propriedade é denominada dualidade onda-corpúsculo.

Propriedades e comportamento dos elétrons [editar]

O elétron tem uma carga elétrica negativa de −1.6 × 10−19 coulomb e uma massa de

9.10 × 10−31 kg (0.51 MeV/c²), que é aproximadamente 1/1836 da massa do próton.

O elétron tem um spin 1/2, implicando que é um férmion, ou seja, que se pode aplicar-lhe a

estatística Fermi-Dirac.

Ainda que a maioria dos elétrons faça parte da constituição dos átomos, existem aqueles que

se deslocam independentemente pela matéria ou aqueles que se deslocam juntos, formando

um feixe de elétrons no vácuo. Em alguns supercondutores os elétrons se movem em pares.

Quando os elétrons que não fazem parte da estrutura do átomo se locomovem e existe um

fluxo deles numa determinada direcção, este fluxo é chamado de corrente eléctrica.

A eletricidade estática não é um fluxo de elétrons. É mais correto denominá-la de "carga

estática". Esta carga é causada por um corpo cujos átomos apresentam mais ou menos

elétrons que o necessário para equilibrar as cargas positivas dos núcleos dos seus átomos.

Quando existe um excesso de elétrons, diz-se que o corpo está carregado negativamente.

Quando existem menos elétrons que prótons, o corpo está carregado positivamente. Se o

número total de prótons e elétrons é equivalente, o corpo está num estado eletricamente

neutro.

Os elétrons e os posítrons podem aniquilar-se mutuamente, produzindo fótons, assim como, de

maneira inversa, fótons de alta energia podem transformar-se em elétrons e posítrons.

O elétron é uma partícula elementar; isso significa que não apresenta uma subestrutura - pelo

menos não foi comprovado até agora. Por isso, pode ser representado por um ponto, ou seja,

sem extensão espacial. Entretanto, nas cercanias de um elétron, pode-se medir variações na

sua massa e na sua carga elétrica. Este é um efeito comum a todas as partículas elementares:

a partícula influi nas flutuações do vácuo que o cerca, de forma que as propriedades

observadas de maior distância são a soma das propriedades da partícula mais as causadas

pelo efeito do vácuo que a rodeia.

Existe uma constante física chamada raio clássico do elétron, com um valor de 2.8179 ×

10−15 metros. É preciso considerar que este é o raio que se pode aferir a partir da carga do

elétron descrito sob o ponto de vista da eletrodinâmica clássica, não da mecânica quântica.

Esta constante baseia-se num conceito desfasado, porém útil para alguns cálculos.

Elétrons no universo [editar]

Acredita-se que o número total de elétrons que caberiam no universo conhecido é da ordem de

10130.

Elétrons na vida cotidiana [editar]

A corrente elétrica que abastece com energia as nossas casas é proveniente de elétrons em

movimento. O tubo de raios catódicos de um televisor se baseia num feixe de elétrons no

vácuo que é desviado por campos magnéticos para atingir uma tela fosforescente.

Ossemicondutores são utilizados em dispositivos tais como os transístores.

Page 158: Física 1

Elétrons na indústria [editar]

Feixes de elétrons são utilizados em solda.

Elétrons em laboratório [editar]

O microscópio eletrônico, que utiliza feixes de elétrons no lugar de fótons, permite ampliar até

500.000 vezes os objetos. Os efeitos quânticos do elétron são a base do microscópio de efeito

túnel, que permite estudar a matéria em escala atómica.

Os elétrons e a teoria [editar]

Na mecânica quântica, o elétron é descrito pela equação de Fermi-Dirac. No modelo padrão da

física das partículas, forma uma dupla com o neutrino, visto que ambos interagem de forma

fraca. O elétron tem os padrões massivos adicionais múon e tau.

O equivalente do elétron na antimatéria, sua antipartícula, é o pósitron, que tem a mesma

quantidade de carga elétrica que o elétron, mas positiva. O spin e a massa são iguais no

elétron e no pósitron. Quando um elétron e um pósitron colidem, acontece a aniquilação mútua,

originando-se dois fótons de raios gama com uma energia de 0,500 Mev cada um.

Os elétrons são um elemento chave no eletromagnetismo, uma teoria adequada desde um

ponto de vista clássico, aplicável a sistemas macroscópicos.

Ver também [editar]

Antielétron (pósitron)

Efeito fotoelétrico

Física de partículas

Nêutron

Partícula subatômica

Próton

Raio catódico

QuarkOrigem: Wikipédia, a enciclopédia livre.

Este artigo ou secção contém uma lista de fontes ou uma única fonte no fim do texto, mas esta(s) não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. (desde abril de 2012)Por favor, melhore este artigo introduzindo notas de rodapé citando as fontes, inserindo-as no corpo do texto quando necessário. Nota: Para outros significados, veja Quark (desambiguação).Quark, na física de partículas, é um dos dois elementos básicos que constituem a matéria (o outro é o lépton) e é a única, entre as partículas, que interage através de todas as quatro forças fundamentais. O quark é um férmion fundamental com carga hadrónica ou cor. Não se observaram ainda quarks em estado livre. Segundo o Modelo Padrão, os

Page 159: Física 1

quarks ocorrem em seis tipos na natureza: "top", "bottom", "charm", "strange", "up" e "down". Os dois últimos formam os prótons e nêutrons, enquanto os quatro primeiros são formados em hádrons instáveis em aceleradores de partículas.Os quarks têm uma unidade de carga hadrônica, que aparece em três tipos distintos (cores). O campo hadrônico é também chamado de força nuclear forte. A teoria que estuda a dinâmica de quarks e das cargas hadrônicas (mediadas pelos glúons) é chamada Cromodinâmica Quântica. Segundo a Cromodinâmica Quântica, os quarks podem formar estados ligados aos pares e às trincas. Os pares de quarks são chamados mésons e as trincas bárions. O próton é uma trinca de quarks, formado por dois quarks "up" e um quark "down". O nêutron é outro estado ligado de três quarks, dois deles "down" e um "up".Os quarks têm carga elétrica -1/3 ou 2/3, em que a unidade é a carga do elétron. Antipartículas dos quarks têm carga oposta. Os quarks também interagem com a força nuclear fraca, a qual transmuta tipos distintos de quarks. Por exemplo, o quark tipo "down" pode mudar para um quark tipo "up" pela emissão de um bóson vetorial massivo, que transporta a força nuclear fraca. Tal mecanismo está por trás da desintegração do nêutron.Apesar de não serem observados em estado livre, a massa dos quarks pode ser inferida dos hádrons e mésons observados. Sabe-se que os quarks "up" e "down" tem massa comparável com a do eléctron, enquanto o quark "top" tem uma massa cerca de 200 vezes maior que a do próton.A propriedade mais importante dos quarks é chamada de confinamento. É um fato experimental que os quarks individuais não são vistos — Eles estão sempre confinados ao interior dos hádrons, partículas subatômicas como os prótons, nêutrons, e méson. Esperava-se que esta propriedade fundamental surgisse da moderna teoria das interações forte, chamada de cromodinâmica quântica (QCD). Embora não exista nenhuma derivação matemática de confinamento na QCD, é fácil mostrar isto usando a teoria grade gauge.Índice [esconder] 1 Quarks livres2 Confinamento e propriedades do quark3 Sabores4 Spin5 Cores6 Massa do quark6.1 Massa corrente do quark6.2 Massa do quark de valência6.3 Massa dos quarks pesados7 Antiquarks8 Sub-estrutura9 História10 Ver também11 Referências e ligações externas11.1 Fontes primárias e secundárias11.2 Outras refêrenciasQuarks livres [editar]

Nenhuma pesquisa para quarks livres ou carga elétrica fracionária produziu uma evidência convincente. A ausência de quarks livres foi então sendo incorporada na noção de confinamento, o qual, acredita-se, a teoria de quark deve possuir. Contudo,

Page 160: Física 1

deve ser possível mudar o volume do confinamento pela criação de matéria quark densa ou quente. Esta nova fase da matéria QCD foi predita teoricamente e buscas experimentais por ela já foram iniciadas.Confinamento e propriedades do quark [editar]

Cada partícula subatômica é descrita por um pequeno conjunto de números quânticos tais como spin J, paridade P, e massa m. Usualmente estas propriedades são diretamente identificadas por experimentos. Contudo, o confinamento torna impossível medir estas propriedades nos quarks. Ao invés disto, elas devem ser inferidas pela medição das propriedades das partículas compostas que são feitas de quarks. Tais inferências são mais fáceis de serem feitas adicionando números quânticos chamados de sabor (flavor).As particulas compostas feitas de quarks e antiquarks são os hádrons. Estes incluem os mesons os quais obtêm os seus números quânticos de um quark e de um antiquark, e os baryons, os quais obtêm os seus números quânticos de três quarks. Os quarks (e os antiquarks) que contam para os números quânticos dos hádrons são chamados quark de valência. À parte destes, muitos hádrons devem conter um número indefinido de quarks, antiquarks e glúons virtual os quais contribuem para os seus números quânticos. Cada quark virtual é denominado de mar de quarks.Sabores [editar]

Sabor em partículas físicasNúmeros quânticos saboresNúmero leptônico: LNúmero bariônico: BCarga Elétrica: QHipercarga Fraca: YWIsospin fraco: TzIsospin: I, IzHipercarga: YEstranheza: SCharme: CInferioridade: B'Superioridade: TY=B+S+C+B'+TQ=Iz+Y/2Q=Tz+YW/2B-L conservado no modelo padrãoTópicos relacionados:Simetria CPTMatriz CKMSimetria CPQuiralidadeA cada quark é atribuído um número bariônico, B = 1/3, e um numero leptônico nulo L = 0. Eles tem uma carga elétrica fracionada, Q, Q = +2/3 ou Q = −1/3. Os iniciais chamaram up-type quarks, e depois, down-type quarks. A cada quark é atribuído um isospin fraco: Tz = +1/2 para um quark "up" e Tz = −1/2 para um quark "down". Cada vez que se dobra o isospin fraco tem-se uma nova geração de quarks. Existem três gerações, e então 6 sabores de quarks — o quark up tem os sabores u, c e t, os down os d, s, b.

Page 161: Física 1

O número de gerações de quarks e léptons são iguais no modelo padrão. O número de gerações de leptons é fortemente restrito, segundo os testes experimentais feitos no LEP e CERN e pela observação da abundância de hélio no universo. A precisão da medição da meia-vida do bóson Z no LEP restringe o número de gerações a três. Observações astronômicas da abundância de hélio produzem resultados consistentes com essa restrição. Os resultados, de uma busca direta por uma quarta geração de quarks apontam para a existência de um limite mínimo na massa dos quarks, sendo os de quarta geração os mais leves possíveis. A mais severa limitação veio da análise dos resultados do colisor Tevatron do Fermilab, e mostra que a massa da quarta geração de quark deve ser maior que 190 GeV.Cada sabor define um número quântico que será conservado durante a interação forte, mas não na interação fraca. A alteração da magnitude do sabor na interação fraca é codificada em uma estrutura chamada matriz CKM. Esta também determina a violação CP que é permitida no modelo padrão. Os números quânticos do sabor são descritos em detalhes no artigo Sabor.Spin [editar]

Números quânticos correspondem a simetrias não-abelianas tal como a rotação. Elas requerem mais atenção na sua extração, dado que as simetrias não são aditivas. No modelo dos quarks, a construção de um mésons se dá com um quark e um antiquark; por outro lado, bárions são constituídos por três quarks. Desde que os mésons são bósons (têm spin inteiro) e bárions são férmions (têm spin semi-inteiro), o modelo dos quarks implica que os quarks são férmions. Além disto, o fato de bárions mais leves terem spin igual a -1/2 implica que cada quark pode ter spin J = 1/2. Os spins de mésons e bárions excitados são completamente consistente com estes argumentos.Cores [editar]

Como os quarks são férmions, o princípio de exclusão de Pauli implica que os três quarks de valência devam estar em uma combinação assimétrica em um bárion. Contudo, a carga Q = 2 bárion, Δ++ (a qual é uma dos quatro isospin Iz = 3/2 bárions) pode somente ser feita de três quarks u com spins paralelos. Como esta configuração é simétrica com respeito ao intercâmbio das cargas dos quarks, isso implica que existem outros números quânticos internos que poderão então compor combinações assimétricas. A isto se dá o nome de cor, embora não tenha nada a ver com a sensação fisiológica cores. Este número quântico é a carga envolvida na Teoria Gauge chamada de Cromodinâmica Quântica (QCD).A outra única partícula colorida é o gluon, o qual é o bóson mediador da QCD. Tal como todas as outras teorias mediadoras não-Abelianas (e diferentemente da Eletrodinâmica Quântica) os bósons mediadores interagem com os outros devido à mesma força que afeta os quarks.A Cor é uma simetria gauge SU(3). Os quarks são dispostos na representação fundamental, 3, desde que eles se mostrem em 3 cores. Os gluons são dispostos na representação adjunta, 8 e, por conseguinte aparecem em 8 variedades. Para mais informações a este respeito, veja carga colorida.Massa do quark [editar]

Embora se fale da massa do quark da mesma forma que se fala da massa de qualquer outra partícula, a noção da massa do quark é mais complicada pelo fato de ele não poder ser encontrado livre na natureza. Como um resultado disto, a noção da massa do quark é

Page 162: Física 1

uma construção teórica, a qual só faz sentido quando se especifica o procedimento usado para defini-la.Massa corrente do quark [editar]A aproximada simetria chiral da QCD, por exemplo, permite definir a razão entre as massas dos vários quarks (para cima, para baixo e estranho) através da combinação das massas do octeto de méson escalar no modelo quark utilizando a teoria da perturbação chiral, dado

O fato de que mu ≠ 0 é importante, dado que estes não estão no problema forte CP se mu forem eliminadas. Os valores absolutos de massa foram atualmente determinados para leis de soma QCD (também conhecido como leis da somatória da função espectral) e grade QCD. A massa determinada desta maneira é conhecida como massa corrente do quark. A conexão entre diferenças de massa corrente do quark necessita de mecanismo pleno de renormalização para estas especificações.Massa do quark de valência [editar]Outro, antigo, método de especificar a massa do quark foi usado na fórmula de massa de Gell-Mann-Nishijima no modelo de quark, a qual relaciona a massa do hádron às massas do quark. A massa assim determinada é chamada massa do quark constituinte, e é significantemente diferente da massa corrente do quark definida acima. A massa constituinte não tem qualquer significado dinâmico.Massa dos quarks pesados [editar]As massas dos quarks pesados, charme e inferior são obtidas das massas de hádrons que contêm um simples quark pesado (e um antiquark leve ou dois quarks leves) e da análise do seu quarkoma. Cálculos com grade QCD usando a teoria do quark pesado influente (HQET em inglês) ou cromodinâmica quântica não relativista (NRQCD em inglês) são usadas atualmente para determinar a massa destes quarks.O quark topo é suficientemente pesado para que a QCD de perturbação possa ser usada para determinar sua massa. Antes da sua descoberta em 1995, a melhor estimativa teórica da massa do quark topo foi obtida da análise global de testes de precisão do Modelo Padrão. O quark topo, contudo, é o único entre os quarks que decai antes que se tenha uma chance de hadronizar. Portando, sua massa tem de ser indiretamente medida através do produto de seu decaimento. Isto pode ser feito somente em um Tevatron o qual é o único acelerador de partícula com energia bastante para produzir quarks em abundância.Propriedades dos QuarksSabor Nome Geração Carga Massa (MeV)Iz=+1/2, Tz=+1/2 para acima (u) 1 +2/3 1.5 a 4.0Iz=−1/2, Tz=−1/2 para abaixo (d) 1 −1/3 4 a 8S=−1, Tz=−1/2 Estranho (s) 2 −1/3 80 a 130C=1, Tz=+1/2 Charmoso (c) 2 +2/3 1150 a 1350B′=−1, Tz=−1/2 Inferior (b) 3 −1/3 4100 a 4400T=1, Tz=+1/2 Superior (t) 3 +2/3 172700 ± 2900Massa do quark Superior do Tevatron Electroweak Working GroupOutra massas do quark obtidas de Grupo de massa de partícula.Os números quânticos do quark topo e inferior são denominados algumas vezes como, respectivamente, verdadeiro e belo.Antiquarks [editar]

Os números quânticos aditivos de antiquarks são iguais em magnitude e opostos em sinal àqueles dos quarks. A simetria CPT obriga-os a terem o mesmo spin e massa que

Page 163: Física 1

seus quarks correspondentes. Testes de simetria CPT não podem ser realizados diretamente nos quarks e antiquarks devido ao confinamento, mas podem ser feito nos hádrons. A notação de antiquarks segue à da antimatéria em geral: um quark up é referido como , e um quark anti-up é referido como .Sub-estrutura [editar]

Algumas evoluções do Modelo Padrão lançaram a idéia que os quarks e leptons têm subestrutura. Em outras palavras, este modelo assume que as partículas elementares do modelo padrão são de fato partículas compostas, feitas de algum outro constituinte elementar. Tais idéias estão abertas para a fase de testes experimentais, e estas teorias são severamente limitadas por falta de dados. Não há no momento atual nenhuma evidência desta sub-estrutura.História [editar]

A noção de quarks evoluiu da classificação dos hádrons desenvolvida independentemente em 1961 por Murray Gell-Mann e Kazuhiko Nishijima, sendo atualmente denominada como modelo quark. O esquema agrupa partículas com isospin e estranheza usando simetria unitária derivada da álgebra corrente, a qual nós reconhecemos hoje como parte de simetria chiral de QCD aproximada. Esta é uma simetria de sabor SU(3) global, a qual não deve ser confundida com a simetria de calibre da QCD.Neste esquema os mésons leves (spin-0) e os bárions (spin-½) foram agrupados em octetos, 8, com simetria de sabor. A classificação dos bárions de spin-3/2 em uma representação 10 produziu previsão de uma nova partícula, Ω−, a qual foi descoberta em 1964, levando à larga aceitação do modelo. A desejada representação 3 foi identificada como quarks.Este esquema ficou conhecido como "modelo das oito dobras" (do inglês eightfold way) por Gell-Mann, em uma clara referência aos octetos do modelo das oito dobras do Budismo. Ele também inventou o nome quark e atribuiu-lhe a sentença “Three quarks for Muster Mark” em Finnegans Wake de James Joyce. Os resultados negativos dos experimentos de busca do quark levaram Gell-Mann a considerá-los como ficção matemática.A análise de certas propriedade das reações de altas energias dos hádrons levou Richard Feynman a postular a existência de subestruturas nos hádrons, as quais foram chamadas de pártons (pois elas são partes dos hádrons). Uma adaptação de seções tranversais de espalhamento profundamente inelástico derivada da álgebra corrente por James Bjorken recebeu uma explicação em termos de párton. Quando adaptação de Bjorken foi verificada experimentalmente em 1969, foi imediatamente percebido que partons e quarks poderiam ser a mesma coisa. Com a prova da liberdade assintótica na QCD em 1973 por David Gross, Frank Wilczek e David Politzer, esta concepção foi firmemente estabelecida.O quark charmoso foi postulado por Sheldon Glashow, John Iliopoulos e Luciano Maiani em 1973 para prevenir mudanças não físicas do sabor em decaimentos fracos, os quais deveriam de outra forma ocorrer segundo o modelo padrão. A descoberta em 1975 do méson que veio a ser denominado de J/ψ levou ao reconhecimento que ele seria composto de um quark charmoso e um antiquark.

A existência de uma terceira geração de quaks foi predita por Makoto Kobayashi e Toshihide Maskawa em 1973, que entenderam que a observação da violação da simetria CP por kaons neutros não poderia ser acomodada no modelo padrão com duas gerações

Page 164: Física 1

de quarks. O quark inferior foi descoberto em 1980 e o quark superior em 1996 no acelerador de partículas Tevatron, do Fermilab.

PrótonOrigem: Wikipédia, a enciclopédia livre.

 Nota: Para outros significados, veja Proton (desambiguação).Esta página ou secção não cita nenhuma fonte ou referência, o que compromete suacredibilidade (desde junho de 2009).Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Google — notícias, livros, acadêmico —Scirus — Bing. Veja como referenciar e citar as fontes.

O protão/próton é composto de doisquarks u e um quark d.

Um "protão" (português europeu) ou "próton" (português brasileiro) é uma partícula "sub-atômica" que faz parte do

núcleo de todos os elementos. Convencionou-se que o prótontem carga eléctrica positiva.

É uma das partículas, que junto com o nêutron, formam os núcleos atómicos.

Índice

  [esconder] 

1   História

Características físicas

Na química e bioquímica

4   Ver também

História [editar]

Em 1886, o físico alemão Eugen Goldstein criou um tubo e observou que, quando ocorriam

descargas elétricas através do tubo contendo um gás rarefeito, surgiam raios que

apresentavam massa e cargas elétricas positivas. Esses raios foram denominados de raios canais.

Page 165: Física 1

Posteriormente, o inglês Ernest Rutherford verificou que os raios canais originários do hidrogénio

possuíam a menor carga positiva conhecida até então. A essa unidade eletricamente carregada

positivamente deu-se o nome de próton.

Características físicas [editar]

A massa real de um próton é de, aproximadamente, 1,673 · 10−27 kg ou 1.007276 u. Entretanto,

atribui-se-lhe uma massa relativa de valor 1.

A carga elétrica real do próton é de, aproximadamente, 1,6 · 10−19 coulombs. Porém, do mesmo

modo que à massa, atribuiu-se uma carga relativa de +1.

O próton é formado por dois quarks up e um down, sendo escrito como: uud.

Comparativamente:

O nêutron não tem carga elétrica e é ligeiramente mais pesado que o próton.

O elétron apresenta a mesma carga que o próton, porém de sinal contrário. Entretanto, é 1836

vezes mais leve (1/1836).

Na química e bioquímica [editar]

Na química e bioquímica , a palavra próton é frequentemente usada como um sinônimo para o íon

molecular de hidrogênio (H+) em vários contextos:

A transferência do H+ em uma reação ácido-base é descrita como a transferência de um

próton. Um ácido é tido como um doador de próton e uma base como um receptor de

próton.

O íon de hidrogênio (H3O+) em uma solução aquosa corresponde ao íon de hidreto de

hidrogênio. Frequentemente a molécula da água é ignorada e o íon é escrito simplesmente

como H+(aq) ou finalmente H+, e tratado como um próton.

Modelo padrãoOrigem: Wikipédia, a enciclopédia livre.

Este artigo ou secção contém uma lista de fontes ou uma única fonte no fim do texto, mas esta(s) não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. (desde maio de 2011)Por favor, melhore este artigo introduzindo notas de rodapé citando as fontes, inserindo-as no corpo do texto quando necessário.O modelo padrão da física de partículas é uma teoria que descreve as forças fundamentais forte, fraca e eletromagnética, bem como as partículas fundamentais que constituem toda a matéria. Desenvolvida entre 1970 e 1973, é uma teoria quântica de campos, consistente com a mecânica quântica e a relatividade especial. Para demonstrar sua importância, quase todos os testes experimentais das três forças descritas pelo

Page 166: Física 1

modelo padrão concordaram com as suas predições. Entretanto, o modelo padrão não é uma teoria completa das interações fundamentais, primeiramente porque não descreve a gravidade.Índice [esconder] 1 O Modelo padrão2 Testes e predições3 Tabela4 Desafios do Modelo padrão5 Links e Referências5.1 Artigos selecionados5.2 Ligações externas[editar]O Modelo padrão

O modelo padrão descreve dois tipos de partículas fundamentais: férmions e bósons.Os férmions são as partículas que possuem o spin semi-inteiro e obedecem o princípio de exclusão de Pauli, que diz que férmions idênticos não podem compartilhar o mesmo estado quântico.Os bósons possuem o spin inteiro e não obedecem o princípio de exclusão de Pauli.Informalmente falando, os férmions são as partículas que constituem a matéria e os bósons são as partículas que transmitem as forças. Para uma descrição detalhada das diferenças entre férmions e bósons, veja o artigo de partículas idênticas.No modelo padrão, a teoria da interação eletrofraca (que descreve as interações fracas e eletromagnéticas) é combinada com a teoria da cromodinâmica quântica. Todas estas teorias são teorias de calibre, significando que modelam as forças entre férmions acoplando aos bósons que "carregam" as forças. A Lagrangiana de cada conjunto de bósons mediadores é invariante sob uma transformação chamada de transformação de calibre, assim estes bósons mediadores são referidos como bósons de calibre. Os bósons no modelo padrão são:Fótons, que medeiam a interação eletromagnética.Bósons W e Z, que medeiam a interação fraca.Oito espécies dos glúons, que medeiam a interação forte. Seis destes glúons são rotulados como pares de "cores" e de "anti-cores" (por exemplo, um glúon pode carregar o "vermelho" e "anti-verde".) Outras duas espécies são uma mistura mais complexa das cores e anti-cores.Os bósons de Higgs, que induzem a quebra espontânea de simetria dos grupos de calibre e são responsáveis pela existência da massa inercial.As transformações de gauge dos bósons de calibre podem ser descritas usando um grupo unitário chamado grupo de calibre. O grupo de calibre da interação forte é o SU(3), e o grupo de calibre da interação eletrofraca é o SU(2)×U(1). Conseqüentemente, o modelo padrão é frequentemente referido como SU(3)×SU(2)×U(1). O bóson de Higgs é o único bóson na teoria que não é um bóson de calibre; tem um status especial na teoria, o que foi assunto de algumas controvérsias. Grávitons, os bósons que acredita-se mediar a interação gravitacional, não é explicado no modelo padrão.Há doze tipos diferentes de "sabores" dos férmions no modelo padrão. Entre o próton, o nêutron, e o elétron, aqueles férmions que constituem a maior parte da matéria, o modelo padrão considera somente o elétron uma partícula fundamental. O próton e o nêutron são agregados de umas partículas menores conhecidas como quarks, que são mantidos junto pela interação forte.[editar]Testes e predições

Page 167: Física 1

O modelo padrão predisse a existência dos bósons W e Z, dos glúons, do quark top e do quark charm antes que estas partículas fossem observadas. Suas propriedades preditas foram confirmadas experimentalmente com uma boa precisão.O grande colisor de Elétron-Pósitron no CERN testou várias predições sobre a decaimento dos bósons Z, e foram confirmados.Para ter uma ideia do sucesso do modelo padrão, uma comparação entre os valores medidos e preditos de algumas quantidades são mostrados na seguinte tabela:Quantidade Valores medidos(GeV) Modelo Padrão (GeV)Massa do bóson WMassa do bóson Z[editar]Tabela

fermions levógeros (para esquerda) no Modelo PadrãoFermion Símbolo Carga elétrica Carga fraca* Isospin fraco Hipercarga

Carga Colorida* Massa**Geração 1Eletron -1 -1/2 -1/2 0.511 MeVneutrino eletron 0 +1/2 -1/2 < 50 eVPosítron 1 0 1 0.511 MeVAntineutrino eletron 0 0 0 < 50 eVQuark Up +2/3 +1/2 +1/6 ~5 MeV ***Quark Down -1/3 -1/2 +1/6 ~10 MeV ***Antiquark Up -2/3 0 -2/3 ~5 MeV ***Antiquark Down +1/3 0 +1/3 ~10 MeV ***Geração 2Muon -1 -1/2 -1/2 105.6 MeVNeutrino muon 0 +1/2 -1/2 < 0.5 MeVAnti-Muon 1 0 1 105.6 MeVantineutrino Muon 0 0 0 < 0.5 MeVQuark charme +2/3 +1/2 +1/6 ~1.5 GeVQuark Estranho -1/3 -1/2 +1/6 ~100 MeVAntiquark anti-charme -2/3 0 -2/3 ~1.5 GeVAntiquark anti-estranho +1/3 0 +1/3 ~100 MeVGeração 3Tau -1 -1/2 -1/2 1.784 GeVNeutrino tau 0 +1/2 -1/2 < 70 MeVAnti-Tau 1 0 1 1.784 GeVAntineutrino tau 0 0 0 < 70 MeVQuark Top +2/3 +1/2 +1/6 173 GeVQuark Bottom -1/3 -1/2 +1/6 ~4.7 GeVAntiquark Top -2/3 0 -2/3 173 GeVAntiquark Bottom +1/3 0 +1/3 ~4.7 GeV* - Essas não são Cargas Abeliana ordinárias que podem ser adicionadas, mas sim identificações de Representações de gupo dos Grupos de Lie.** – A massa é realmente um acoplamento entre fermion dextrógeno e levógeno. Por exemplo, a massa de um eletro é realmente um acoplamento entre um elétron dextrógeno e levógeno, o qual é antiparticula de um positron levógeno. Também os neutrinos mostram a grande mistura entre seus acoplamentos de massa, então não é certo falar de massa do neutrino e no Sabor básico ou sugerir que o neutrino elétron

Page 168: Física 1

levógeno e um neutrino elétron dextrógeno tem a mesma massa como esta tabela parece sugerir.*** – O que é sempre medido experimentalmente são as massas dos baryons e hadrons e vários razões de seção transversal. Desde que os quarks não podem ser isolados por causa do confinamento QCD, a quantidade expressa é a suposta massa do quark na escala da renormalização de fase de transição QCD.Os fermions podem ser agrupados em três gerações, a primeira consiste do elétron, quark para cima e para baixo e o neutrino elétron. Toda a matéria ordinária é feita desta primeira geração de partículas; as gerações mais altas de partículas decaem rapidamente para a primeira geração e somente podem ser gerados por um curto tempo em experimentos de alta-energia. A razão para este arranjo em gerações é que os quatro fermions em cada geração comportam-se sempre exatamente como seus contrapontos na outra geração; a única diferença e suas massas. Por exemplo, o elétron e o muon têm sempre meio spin e carga elétrica unitária, mas o muon e cerca de 200 vezes mais massivo.Os elétrons e os neutrinho-eletron, e seus contrapontos em outras gerações, são chamados de "leptons", "partículas de interação fraca". Diferentes dos quarks, eles não possuem uma qualidade chamada "cor", e suas interações são somente eletromagnética e fraca, e diminuem com a distância. Por outro lado, a força forte ou cor entre os quarks se torna mais forte com a distância, tal que os quarks são sempre encontrado em combinações neutras chamadas de hadrons, num fenômeno conhecido como confinamento quark. Existem os fermionic baryons compostos de três quark (o proton e o neutro para começar são os exemplos mais familiares) e os mesons bosonico compostos de um par quark-antiquark (tais como os pions). A massa de cada agrupamento excede a massa de seus componentes devido a energia de ligação.[editar]Desafios do Modelo padrão

Embora o modelo padrão tivesse um grande sucesso de explicar os resultados experimentais, ele nunca foi aceito como uma teoria completa da física fundamental, por ter dois grandes defeitos:O modelo contém 19 parâmetros livres, tais como as massas da partícula, que devem ser determinadas experimentalmente (mais uns outros 10 para massas do neutrino). Estes parâmetros não podem ser calculados independentemente.O modelo não descreve a interação gravitacional.Desde a conclusão do modelo padrão, muitos esforços foram feitos dirigidos a estes problemas.Uma tentativa de resolver o primeiro defeito é conhecida como teorias de grande unificação. As teorias de grande unificação às vezes chamada de (GUTs) especulam que o SU(3), o SU(2), e o U(1) grupos são subgrupos de um único grupo da simetria maior. Em altas energias (além do alcance de experiências atuais), a simetria do grupo unificador é preservada; em energias baixas, reduz-se a SU(3)×SU(2)×U(1) por um processo conhecido como quebra espontânea de simetria. A primeira teoria deste tipo foi proposta em 1974 por Georgi e por Glashow, usando SU(5) como o grupo unificador. Uma característica importante desta GUT é que, ao contrário do modelo padrão, o modelo de Georgi-Glashow prediz a existência do decaimento do próton. Em 1999, o Observatório de neutrinos Super-Kamiokande relatou que não tinha detectado o decaimento do próton, estabelecendo um limite mais baixo na meia-vida do próton de 6.7 × 1032 anos. Isto e outras experiências descartaram numerosas GUTs, includindo o SU(5).

Page 169: Física 1

Além disso, há algumas razões cosmológicas pelas quais acredita-se que o modelo padrão está incompleto. Dentro dele, a matéria e o antimatéria são simétricas. A preponderância da matéria no universo poderia ser explicada dizendo que o universo começou fora deste caminho, mas a maioria dos físicos acham essa explicação não elegante. Além disso, o modelo padrão não fornece nenhum mecanismo para gerar a inflação cósmica que acredita-se ter ocorrido no começo do universo, uma conseqüência de sua omissão da gravidade.O bóson de Higgs, que é predito pelo modelo padrão, não foi observado até 2005 (embora alguns fenômenos foram observados nos últimos dias do colisor LEP, que poderiam estar relacionados ao Higgs; uma das razões para construir o LHC é que o aumento na energia espera fazer um Higgs observável).O primeiro desvio experimental do modelo padrão veio em 1998, quando os resultados publicados pelo Super-Kamiokande indicaram a oscilação dos neutrinos. Isto implicou a existência de massas não-nulas dos neutrinos desde que partículas sem massa viajam na velocidade da luz e assim não experimentam a passagem do tempo. O modelo padrão não acomodou neutrinos massivos, porque supôs a existência somente dos neutrinos "canhotos", que têm o spin alinhado no sentido anti-horário em relação ao seu eixo de movimento. Se os neutrinos tiverem massas não-nulas, então eles viajam necessariamente mais lentamente do que a velocidade da luz. Conseqüentemente, seria possível "alcançar" um neutrino, escolhendo um sistema da referência em que o seu sentido do movimento é invertido sem afetar seu spin (que os faz destros). Desde então, os físicos revisam o modelo padrão para permitir que os neutrinos tenham massas, o que fazem aumentar os parâmetros livres adicionais além dos 19 iniciais.Uma extensão do modelo padrão pode ser encontrada na teoria da supersimetria que propõe um "parceiro" supersimétrico massivo para cada partícula no modelo padrão convencional.

As partículas supersimétricas foram sugeridas como candidatas para explicar a matéria escura.

Em Física Nuclear e Física de Partículas, um lépton (português brasileiro) ou leptão (português

europeu) (grego para "leve", em oposição aos hádrons, ou hadrões, que são "pesados") é

uma partícula subatómica que não interage fortemente. Léptons comportam-se comoférmions e

não são feitos de quarks.

Um lépton pode ser um elétron, um múon, um tau lépton ou um dos seus respectivos neutrinos.

[editar]Cargas elétricas

Os leptões podem ou não ter carga elétrica. Os neutrinos não tem carga, e os elétrons,

os múons e os taus têm carga equivalente a uma unidade. As respectivas antipartículas têm

carga oposta. Os léptons não sentem a força nuclear forte, mas interagem com

oshádrons pela força nuclear fraca.

[editar]Tabela de leptões

Nome Carga Massa(GeV/c²)

Elétron -1 0.000511

Múon -1 0.1056

Tau -1 1.777

Neutrino do elétron 0 ~0

Page 170: Física 1

Neutrino do múon 0 ~0

Neutrino do tau 0 ~0

(Experimentos recentes com neutrinos solares mostram que pelo menos dois dos três tipos de

neutrinos possuem massa acima de zero. Contudo isto ainda não está confirmado.)

Partícula elementarOrigem: Wikipédia, a enciclopédia livre.(Redirecionado de Lista de partículas)

Esta página ou secção foi marcada para revisão, devido a inconsistências e/ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor verifique e melhore a consistência e o rigor deste artigo. Pode encontrar ajuda no WikiProjeto Física.Se existir um WikiProjeto mais adequado, por favor corrija esta predefinição. Este artigo está para revisão desde abril de 2011.Física

As Equações de MaxwellFísicaHistória da FísicaFilosofia da Física[Expandir]Divisões elementares[Expandir]Grandezas Físicas[Expandir]Campos de pesquisa[Expandir]Cientistas[Expandir]Experimentos[Expandir]Experimentos atuaisver • editarEm física de partículas, uma partícula elementar ou partícula fundamental é uma partícula que não possui nenhuma subestrutura1 . Por exemplo, átomos são feitos de partículas menores conhecidas como elétrons, prótons e nêutrons. Os prótons e nêutrons, por sua vez, são compostos de partículas mais elementares conhecidas como quarks. Um dos mais notáveis da física de partículas é encontrar as partículas mais elementares – ou as co-denominadas partículas fundamentais – as quais constroem todas as outras partículas encontradas na natureza, e não são elas mesmas compostas de partículas menores. Historicamente, os hádrons (mésons e Bárions tais como o próton o nêutron) e até mesmo o átomo inteiro já foram considerados como partículas elementares.Índice [esconder] 1 Modelo padrão1.1 Férmions fundamentais1.1.1 Antipartículas1.1.2 Quarks

Page 171: Física 1

1.2 Bósons Fundamentais1.2.1 Glúons1.2.2 Bósons eletrofracos1.2.3 Bóson de Higgs2 Além do modelo padrão2.1 Supersimetria2.2 Teoria das cordas2.3 Teoria Preon3 Ver também4 Bibliografia5 Referências6 Ligações externas[editar]Modelo padrão

Ver artigo principal: Modelo padrãoO modelo padrão das partículas físicas contém 12 sabores de férmions (partículas massa) elementares, além de suas correspondentes antipartículas, como também bósons ("partículas de radiação") elementares que mediam as forças e o recém descoberto bóson de Higgs. Contudo, o modelo padrão é largamente considerado como sendo uma teoria provisória do que uma verdade fundamental, desde que ele é incompatível como a relatividade geral de Einstein. Os fótons (partículas emitidas pela luz) por exemplo são o quanta dos campos eletromagnéticos. Há o que provavelmente sejam partículas elementares hipotéticas que não são descritas pelo modelo padrão, tais como o gráviton, a particular que transporta a força gravitacional ou as s-partículas, associações supersimétricas da partículas ordinárias.[editar]Férmions fundamentaisOs doze sabores fundamentais de férmions estão divididos em três gerações de quatro partículas cada. Seis destas partículas são quarks. As seis restantes são leptons, três dos quais são neutrinos, e as três restantes as quais tem carga elétrica -1: o elétron e dois primos, o muon e o tau.Gerações de PartículasPrimeira Geraçãoelétron: e-neutrino do elétron: νequark up: uquark down: dSegunda Geraçãomuon: μ-neutrino do múon: νμquark charmoso: cquark estranho: sTerceira Geraçãotau: τ-neutrino do tau: ντquark top: tquark bottom: b[editar]AntipartículasVer artigo principal: AntipartículaHá também 12 antipartículas fermiônicas fundamentais correspondentes às doze outras. O posítron e+ corresponde ao elétron e assim por diante:

Page 172: Física 1

AntiparticulasPrimeira Geraçãopósitron: e+elétron-antineutrino: anti-quark up: anti-quark down: Segunda Geraçãomuon positivo: μ+muon-antineutrino: anti-quark charmoso: anti-quark estranho: sTerceira Geraçãotauon positivo: τ+tauon-antineutrino: ντanti-quark top: anti-quark bottom: [editar]QuarksVer artigo principal: QuarkQuarks e antiquarks nunca foram detectados isoladamente. Um quark pode existir emparelhado com um antiquark, formando um meson: o quark tem uma cor(veja carga colorida) e um antiquark tem uma anticor correspondente. Uma cor e a anticor cancelam-se mutuamente, produzindo o negro (isto é, a ausência de carga colorida). Ou três quarks podem existir juntos formando um Bárion: um quark é "vermelho", outro "azul", outro "verde". Estas três cores juntas formam o branco (isto é, a ausência de carga colorida) Ou três antiquarks podem existir juntos formando um anti-Bárion: um antiquark é "antivermelho", outro "anti-azul", outro "antiverde". Estas três anticores juntas forma o antibranco (isto é neutro). O resultado é que cores (ou anticores) não podem ser isoladas, mas quark carregam cores, e antiquarks carregam anticores.Os quarks possuem carga elétrica fracionária, mas como eles estão confinados dentro dos hadrons nos quais as cargas são todas inteiras, cargas fracionárias nunca foram isoladas. Note que os quarks têm carga elétrica +2/3 ou -1/3, enquanto os antiquarks têm cargas elétricas correspondentes -2/3 ou +1/3.Evidências de quarks vêm do bombardeamento com elétrons de núcleos de hidrogênio (essencialmente um próton) para determinar a distribuição da carga dentro de um próton. Se a carga é uniforme, o campo eletrostático em volta do próton deve ser uniforme e o elétron deve espalhar elasticamente. Elétrons de baixa energia espalham-se da mesma forma que o próton recua, mas acima de uma dada energia, os prótons defletem alguns elétrons em grandes ângulos. O recuo dos elétrons tem muito menos energia e um jato de partículas fundamentais é emitido. Se os prótons podem provocar isto para nos elétrons, sugere-se que a carga no próton não é uniforme mas dividia entre partículas carregadas menores, isto é os quarks.[editar]Bósons FundamentaisNo modelo padrão, bósons vetores (spin-1) (gluons, fótons, e os bósons W e Z) mediam forças, enquanto os bósons Higgs são responsáveis pelo fato das partículas possuírem massa.[editar]GlúonsOs Glúons são mediadores da força nuclear forte, e transportam cor e uma anti-cor. Embora gluons não possuam massa, eles nunca foram observados em detectores devido ao confinamento; porém eles produzem jatos de hadrons, similares aos de um único quarks.

Page 173: Física 1

[editar]Bósons eletrofracosExistem três bóson gauge fracos: W+, W-, e Z0; estes mediam a força nuclear fraca O fóton media a força eletromagnética.[editar]Bóson de HiggsVer artigo principal: Bóson de HiggsEmbora as forças eletromagnética e fraca apareçam muito diferentes para nós nas energias do dia-a-dia, as duas forças são teoricamente unificadas em uma única força eletrofraca a altas energias. A razão para estas diferenças a baixas energias é atribuída à existência do bóson de Higgs. Através do processo de quebra espontânea de simetria, o Higgs seleciona uma direção especial no espaço eletrofraco que proporciona três partículas eletrofracas tornassem bem pesadas (o bosons fracos) e uma permanecer sem massa (o fóton eletromagnético).[editar]Além do modelo padrão

[editar]SupersimetriaUma das mais importantes extensões do modelo padrão envolve partículas supersimétricas , abreviada como s-particulas, as quais incluem os sleptons, squarks, neutralinos e charginos. Cada partícula no modelo padrão tem um super-padrão que difere por 1/2 da partícula original. Em adição, estas s-partículas são mais pesadas do que seus contrapontos originais: eles são tão pesados que colineadores de partículas existentes não tem potência suficiente para ser capaz de detecta-los. Porem, alguns físicos acreditam que as s-particulas possam ser detectadas no Large Hadron Collider do CERN a partir de seu funcionamento.[editar]Teoria das cordasVer artigo principal: Teoria das CordasDe acordo com a teoria das cordas, cada tipo de particular fundamental corresponde a um diferente modo vibração de uma corda fundamental (cordas estão constantemente vibrando em padrão de ondas fundamentais, de forma similar a qual as órbitas quantizadas dos elétrons no modelo de Bohr vibrando em padrões de ondas fundamentais.A Teorias das cordas também prevê a existência de gravitons. Gravitons são praticamente impossíveis de serem detectados, porque a força gravitacional é muito fraca se comparada às outras forças.[editar]Teoria PreonDe acordo com a teoria do Préon existe uma ou mais ordens de partículas mais fundamentais do que esta (ou mais do que estas) encontradas no modelo padrão. Esta famílias mais fundamentais que estas são normalmente chamadas "Preons" para quais derivaram dos "pre-quarks". Em essência, a teoria tenta fazer o modelo padrão arquivo que o modelo padrão tinha feito ao zoológico de partículas que havia antes dele. A maioria dos modelos assume que o modelo padrão pode ser explicado em termos de três a meia dúzia de partículas mais fundamentais e leis que governam suas interações.

Enquanto a metodologia na teoria das cordas é tipicamente tentar construir uma estrutura matemática completa do zero, uma Teoria Preon tipicamente procura por padrões no modelos padrões em si e tenta encontrar modelos que podem imitar estes padrões.

AntimatériaOrigem: Wikipédia, a enciclopédia livre.

Page 174: Física 1

Esta página ou secção foi marcada para revisão, devido a inconsistências e/ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor verifique e melhore a consistência e o rigor deste artigo. Pode encontrar ajuda no WikiProjeto Física.Se existir um WikiProjeto mais adequado, por favor corrija esta predefinição.Física

As Equações de MaxwellFísicaHistória da FísicaFilosofia da Física[Expandir]Divisões elementares[Expandir]Grandezas Físicas[Expandir]Campos de pesquisa[Expandir]Cientistas[Expandir]Experimentos[Expandir]Experimentos atuaisver • editarAntimatéria - na física de partículas e na química quântica, é a extensão do conceito de antipartícula da matéria, por meio de que a antimatéria é composta de antipartículas da mesma maneira que matéria normal está composta das partículas.Por exemplo, anti-elétrons (pósitrons, elétrons com carga positiva), antiprótons (prótons com carga negativa) e antinêutrons (com carga nula como os nêutrons) poderiam dar forma a antiátomos da mesma maneira que elétrons, prótons e nêutrons dão forma a átomos normais da matéria.Além disso, a mistura da matéria e da antimatéria conduziria ao aniquilamento de ambos, da mesma maneira que a mistura das antipartículas e das partículas, criando assim fótons de grande energia (raios gama) e outros pares de partículas e antipartículas. As partículas que resultam do aniquilamento matéria-antimatéria são dotadas de energia igual à diferença entre a massa do descanso dos produtos do aniquilamento e a massa do descanso do par original da matéria-antimatéria, que é sempre grande (ver: aniquilação pósitron-elétron).Índice [esconder] 1 Introdução2 A teoria3 Experimentos4 Ver também5 Bibliografia6 Referências7 Ligações externasIntrodução [editar]

Page 175: Física 1

Em 1928, o físico teórico britânico Paul Dirac elaborou uma equação que leva seu nome. Esta equação tornou possível antever a existência dos pósitrons e, portanto, a existência da antimatéria.Há uma especulação considerável na ciência e na ficção científica a respeito de por que o universo observado parece ser constituído inteiramente de matéria. Especula-se a respeito de outros lugares possivelmente constituídos apenas por antimatéria. Atualmente, a assimetria aparente entre matéria e antimatéria é um dos maiores problemas sem solução da física. Os possíveis processos pelo que ocorreu são explorados mais detalhadamente na bariogênese.Em 1995, foram produzidos antiátomos de anti-hidrogênio, assim como núcleos de anti-deutério, criados a partir de um antipróton e um antinêutron. Porém, não houve sucesso na obtenção de antimatéria de maior complexidade.A antimatéria cria-se no universo como resultado da colisão entre partículas de alta energia, como ocorre no centro das galáxias, entretanto, não se tem detectado nenhum tipo de antimatéria como resíduo do Big Bang, coisa que ocorre com a matéria normal. A desigual distribuição entre a matéria e a antimatéria no universo tem sido, durante muito tempo, um mistério. A solução mais provável reside em certa assimetria nas propriedades dos mésons-B e suas antipartículas, os antimésons-B [1].Os pósitrons e os antiprótons podem ser armazenados num dispositivo denominado "armadilha" (Penning trap, em inglês), que usa uma combinação de campos magnéticos e elétricos. Para a criação de armadilhas que retenham átomos completos de anti-hidrogênio foram empregados campos magnéticos muito intensos, assim como temperaturas muito baixas. As primeiras destas armadilhas foram desenvolvidas pelos projetos ATRAP e ATHENA.

Foguete de antimatéria: astronave que, teoricamente, utilizaria antimatéria como combustível.O símbolo que se usa para descrever uma antipartícula é o mesmo símbolo da partícula normal, porém com um traço sobre o símbolo. Por exemplo, o antiproton é simbolizado como:.As reações entre matéria e antimatéria tem aplicações práticas na medicina como, por exemplo, na tomografia por emissão de pósitrons (PET).As colisões entre matéria e antimatéria convertem toda a massa possível das partículas em energia. Esta quantidade é muito maior que a energia química ou mesmo a energia nuclear que se podem obter atualmente através de reações químicas, fissão ou mesmo fusão nuclear. A reação de 1 kg de antimatéria com 1 kg de matéria produziria 1.8×1017 J de energia (segundo a equação E=mc²). Em contraste, queimar 1 kg de petróleo produziria 4.2×107 J, e a fusão nuclear de 1 kg de hidrogênio produziria 2.6×1015 J.A escassez de antimatéria significa que não existe uma disponibilidade imediata para ser usada como combustível. Gerar somente um antipróton é imensamente difícil e requer aceleradores de partículas, assim como imensas quantidades de energia (muito maior do que a obtida pelo aniquilamento do antipróton), devido a ineficiência do processo. Os métodos conhecidos para produzir antimatéria também produzem uma quantidade igual de matéria normal, de forma que o limite teórico do processo é a metade da energia administrada se converter em antimatéria. Inversamente, quando a antimatéria é aniquilada com a matéria ordinária, a energia emitida é o dobro da massa de antimatéria, de forma que o armazenamento de energia na forma de antimatéria poderia apresentar (em teoria) uma eficiência de 100%.

Page 176: Física 1

Na atualidade, a produção de antimatéria é muito limitada, porém tem aumentado em progressão geométrica desde o descobrimento do primeiro antipróton em 1995. A taxa atual de produção de antimatéria é entre 1 e 10 nanogramas por ano, esperando-se um incremento substancial com as novas instalações do CERN e da Fermilab.Considerando as partículas mais elementares que se conhecem atualmente: Lépton (Elétron, Elétron-neutrino, Múon, múon-neutrino, Tau e Tau-neutrino), Quarks (Up, Down, Charm, Strange, Top e Bottom) e Bósons (Fótons, Glúons, Bósons vetoriais mediadores e grávitons), podemos dizer que para cada uma delas, existe uma antipartícula, com massa igual porém com carga elétrica e momento magnético inverso. Elas dão origem ao antielétron (chamado também de pósitron), ao antipróton e ao antinêutron - a antimatéria, portanto.A teoria [editar]

A teoria mais aceita para a origem do universo é a do Big Bang que diz que tudo se iniciou numa grande expansão. Nos primeiros instantes o universo não era constituído por matéria, mas sim por energia sob forma de radiação. O universo então passou a expandir-se e, consequentemente, a arrefecer. Pares de partícula-antipartícula eram criados e aniquilados em grande quantidade. Com a queda de temperatura a matéria pôde começar a formar hádrons, assim como a antimatéria a formar antihádrons, pois matéria e antimatéria foram geradas em quantidades iguais. Atualmente, no entanto, parece que vivemos em um universo onde só há matéria.

Na esquerda: Partículas (elétron, próton, nêutron).Na direita: Antipartículas (pósitron, antipróton, antinêutron).Na realidade, já é estranho que o universo exista[carece de fontes], pois, quando a matéria e a antimatéria se encontram, o processo inverso da criação ocorre, ou seja, elas anulam-se gerando apenas energia nesse processo. Seria altamente provável[carece de fontes], portanto, que logo após terem sido criadas, partículas e antipartículas se anulassem, impedindo que corpos mais complexos como hádrons, átomos, moléculas, minerais e seres vivos pudessem formar-se[carece de fontes]. Acredita-se[carece de fontes] que esse processo de geração e aniquilação realmente ocorreu para quase toda a matéria criada durante o início da expansão do universo, mas o simples fato de existirmos indica que ao menos uma pequena fração de matéria escapou a esse extermínio precoce[carece de fontes].É possível que algum processo, de origem desconhecida, tenha provocado uma separação entre a matéria e a antimatéria. Neste caso existiriam regiões do universo em que a antimatéria e não a matéria seria mais abundante[carece de fontes]. Planejam-se algumas experiências no espaço para procurar essas regiões. No entanto, como até hoje não se conhece um processo capaz de gerar tal separação[carece de fontes], a maioria dos cientistas não acredita nessa hipótese[carece de fontes].Por outro lado, existe a possibilidade de que a natureza trate de forma ligeiramente diferente a matéria e a antimatéria. Se isto for verdade, seria possível que uma pequena fração da matéria inicialmente gerada tenha sobrevivido e formado o universo conhecido hoje. Há resultados experimentais e teóricos que apontam nesta direção.[carece de fontes]Experimentos [editar]

Page 177: Física 1

Experimentos para a produção artifical de antimatéria e seu armazenamento por períodos relativamente longos de tempo vem sendo tentados por cientistas nos últimos anos.Em setembro de 2010, a equipe internacional ALPHA do CERN (a qual inclui pesquisadores de diversos países, includindo os brasileiros Cláudio Lenz Cesar e Daniel de Miranda Silveira) anunciou que conseguiu pela primeira vez capturar átomos de antimatéria. Foram aprisionados 38 átomos de antihidrogênio no "tanque de antimatéria" criado pelos cientistas, cada um deles ficando retido por mais de um décimo de segundo.1Em junho de 2011, a mesma equipe ALPHA anunciou um novo recorde, ao aprisionar átomos de antimatéria por 1000 segundos (mais de 16 minutos e 35 segundos).2

Em março de 2012, a equipe ALPHA anunciou que conseguiu pela primeira vez efetuar medições de propriedades de átomos de antimatéria.

Energia escuraOrigem: Wikipédia, a enciclopédia livre.

Cosmologia

Universo · Big Bang

Idade do universo

Cronologia do Universo

Derradeiro destino do Universo

[Expandir]Universo primordial[Expandir]Universo em expansão[Expandir]Formação das estruturas[Expandir]Componentes[Expandir]Cronologia[Expandir]Experimentos[Expandir]Cientistas

Esta caixa: ver • editar

Em cosmologia, a energia escura (ou energia negra) é uma forma hipotética de energiaque estaria

distribuída por todo espaço e tende a acelerar a expansão do Universo.1 A principal característica da

energia escura é ter uma forte pressão negativa. De acordo com ateoria da relatividade, o efeito de

tal pressão negativa seria semelhante, qualitativamente, a uma força que age em larga escala em

oposição à gravidade. Tal efeito hipotético é frequentemente utilizado, por diversas teorias atuais

que tentam explicar as observações que apontam para um universo em expansão acelerada.

A natureza da energia escura é um dos maiores desafios atuais da física, da cosmologia e

da filosofia. Existem hoje muitos modelos fenomenológicos diferentes, contudo os dados

observacionais ainda estão longe de selecionar um em detrimento dos demais. Isso acontece pois a

Page 178: Física 1

escolha de um modelo de energia escura depende de um bom conhecimento da variação temporal

da taxa de expansão do universo o que exige a observação de propriedades de objetos a distâncias

muito grandes (observações e medição de distância em altos redshifts).

As principais formas das diferentes propostas de energia escura são: a constante cosmológica (que

pode ser interpretada tanto como uma modificação de natureza geométrica nas equações de campo

da relatividade geral, quanto como um efeito da energia do vácuo, a qual preenche o universo de

maneira homogênea); e a quintessência(usualmente modelado como campo escalar cuja densidade

de energia pode variar no tempo e no espaço).

Outra proposta relativamente popular entre pesquisadores é a quartessência que visa unificar os

conceitos de energia escura e matéria escura postulando a existência de uma forma de energia

conhecida como gás de Chaplygin que seria responsável tanto pelos efeitos das duas componentes

escuras.