Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Interações em Física: Bosons e Fermions, Massa e Conservação, Notas de estudo de Física

Este texto discute as interações entre partículas elementares descritas por modelos que se baseiam na troca de partículas de spin ou helicidade, incluindo bosons e fermions com ou sem massa. O autor aborda a importância destes modelos na descrição de processos como emissão ou absorção de fótons por átomos, criação ou aniquilação de pares de partículas, e o problema de invalidar as estratégias básicas das teorias quânticas de campos. Além disso, o texto discute a importância de teorias como a de dirac e a de fermi na descoberta de partículas com massa não-nula e a evolução para teorias sem número definido de partículas.

Tipologia: Notas de estudo

Antes de 2010

Compartilhado em 06/04/2008

daniel-tedesco-1
daniel-tedesco-1 🇧🇷

5 documentos

1 / 15

Documentos relacionados


Pré-visualização parcial do texto

Baixe Interações em Física: Bosons e Fermions, Massa e Conservação e outras Notas de estudo em PDF para Física, somente na Docsity! CADERNO DE FÍSICA DA UEFS 04 (01 e 02): 161-175, 2006 A TEORIA QUÂNTICA DE CAMPOS E SEU PAPEL NA DESCRIÇÃO DAS INTERAÇÕES FUNDAMENTAIS∗ Sebastião Alves Dias Centro Brasileiro de Pesquisas F́ısica - CBPF Apresentamos um histórico do desenvolvimento da descrição de três interações fundamen- tais (eletrodinâmica, interações fracas e fortes), ressaltando o papel da teoria quântica de campos como unificadora dos prinćıpios da relatividade especial e da mecânica quântica. Tópicos relacionados, como a renormalização, a quebra espontânea de simetria e a liberdade assintótica também são brevemente abordados. I. INTRODUÇÃO A descrição atual da natureza, no seu ńıvel mais fundamental, vale-se da hipótese da e- xistência de quatro interações: a forte, caracterizada por uma constante de acoplamento, αs, da ordem da unidade, responsável pelas forças entre prótons e neutrons; a eletromagnética, controlada pela constante de estrutura fina, α = e2/~c, cem vezes mais fraca que a ante- rior; a fraca, de magnitude t́ıpica mil vezes menor que a eletromagnética; e a gravitacional, 10−34 vezes mais tênue que a fraca. Todas as interações são descritas por modelos que se ba- seiam na troca de part́ıculas de spin ou helicidade inteiros (com ou sem massa) chamadas de bósons, entre part́ıculas de spin ou helicidade semi-inteiros (chamadas de férmions, também com ou sem massa), dentro de um contexto teórico consistente com a Mecânica Quântica e a Relatividade Especial. A Gravitação resiste, até o momento, a uma descrição compat́ıvel com a Mecânica Quântica. Devido ao curt́ıssimo alcance das interações fortes e fracas (em geral, intranuclear), a maioria dos fenômenos que ocorrem desde a escala atômica até a or- dem do tamanho do universo pode ser atualmente descrita pela Eletrodinâmica (distâncias interatômicas) e pela Gravitação (distâncias desde metros até anos-luz ou mais). A incom- patibilidade entre Gravitação e Mecânica Quântica não tem efeitos observacionais registrados até agora, dada a extrema pequenez das posśıveis correções gravitacionais a fenômenos nos ∗ Este trabalho é oriundo da palestra apresentada pelo autor na IX Semana de F́ısica da UEFS ocorrida no peŕıodo de 18 a 22 de setembro de 2006. 161 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 domı́nios atômico e sub-atômico. A Eletrodinâmica, contudo, não poderia descrever adequada- mente estes domı́nios sem ser consistente com os prinćıpios quânticos. Houve, pois, uma neces- sidade histórica de construir uma teoria para os fenômenos eletromagnéticos que obedecesse a esses requerimentos. A teoria que emergiu deste contexto foi a Eletrodinâmica Quântica. As suas previsões têm o maior grau de concordância com os dados experimentais alcançado pela F́ısica até hoje. Podeŕıamos citar, como exemplo, o cálculo do momento magnético anômalo do elétron, onde a previsão teórica (1, 00115965221 ± 4 no último d́ıgito) concorda com o valor medido em nove casas decimais (1, 00115965246 ± 19 nos últimos dois d́ıgitos). Feynman comparou a precisão desta medida com a que seria pretendida caso se desejasse medir a distância entre Los Angeles e Nova Iorque com o erro menor que a espessura de um fio de cabelo. A base sobre a qual se funda essa teoria é o casamento entre a Relatividade Especial e a Mecânica Quântica, obtido através da Teoria Quântica de Campos. Este é um formalismo que acomoda situações em que o número de part́ıculas não permanece constante, sendo, portanto, compat́ıvel com a descrição de processos como a emissão ou absorção de fótons por átomos, ou a criação ou aniquilação de pares elétron-pósitron. As teorias de campos, em geral, fazem uso de objetos matemáticos chamados distribuições, ou funções generalizadas. Os campos quânticos são considerados como distribuições que tomam valores em operadores. Em geral, precisamos considerar situações em que aparecem produtos de campos no mesmo ponto, o que implica em considerar produtos de distribuições, os quais não estão definidos em geral. Esse fato poderia invalidar toda a estratégia básica das teorias quânticas de campos, se não houvesse uma classe dessas teorias onde este problema pode ser contornado. Tais teorias são chamadas de renormalizáveis. A Eletrodinâmica Quântica foi a primeira teoria de campos realista que se mostrou renormalizável. Graças a este fato, ela se tornou o protótipo para a construção das teorias para as interações fracas e fortes. Isso se deu a partir da generalização do conceito de simetria de calibre, ou de gauge. Esse conceito está na origem da renormalizabilidade da Eletrodinâmica e foi o guia para a construção e interpretação das outras teorias fundamentais. Neste seminário procuraremos mostrar o desenvolvimento da Teoria Quântica de Campos, a partir dos sucessos conseguidos na descrição de três das quatro interações [1]. Ao final, discutiremos brevemente a situação atual e as perspectivas da área. 162 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... indefinidamente, através de interações com fótons ou campos externos dados). Para resolver este problema, Dirac postulou a existência de um número infinito de elétrons, prenchendo to- dos os ńıveis acesśıveis de energia negativa (que não seriam observados) e evitando (devido ao prinćıpio de exclusão de Pauli) que um elétron pudesse decair para ńıveis de energia iguais ou abaixo de −mc2. Elétrons de energia negativa poderiam ser excitados a ńıveis de energia posi- tiva, deixando conseqüências observáveis no “mar de elétrons” de energia negativa, que seriam vistas como buracos (part́ıculas que se comportariam como sendo de energia positiva, mas com carga e componente de spin opostas). Similarmente, elétrons de energia positiva poderiam emitir um fóton e ocupar a posição vaga no “mar”, tornando-se então inobserváveis (ou seja, desaparecendo, na prática). Estava, assim, aberta a possibilidade de criação e aniquilação de pares de part́ıculas com massa não-nula, o que, na época, pareceu extremamente bizarro aos olhos da comunidade dos f́ısicos. Subrepticiamente, passava-se, também, de uma teoria de uma única part́ıcula para uma teoria sem número definido de part́ıculas, muito mais próxima (em suas caracteŕısticas efetivas) da teoria quântica constrúıda anteriormente para os fótons. Os buracos no “mar” de elétrons, inicialmente identificados, por Dirac, como sendo os prótons, logo foram associados a novas part́ıculas, de mesma massa e carga oposta à do elétron. Em 1932, Anderson descobriu experimentalmente uma part́ıcula com essas caracteŕısticas, à qual foi dado o nome de pósitron e que se constituiu no primeiro exemplo f́ısico do que se convencionou chamar de anti-matéria. Consubstanciou-se, a partir dáı a teoria chamada de Eletrodinâmica Quântica, na qual elétrons e pósitrons (ou part́ıculas carregadas eletricamente, de spin 1/2) interagiam, de forma não-linear, através da troca de fótons. Assim, no ińıcio da década de 30, eram conhecidos como part́ıculas elementares os elétrons, prótons e fótons e haviam sido recentemente propostos o nêutron e o neutrino. A descoberta do nêutron e a proposição, por Heisenberg, de que os núcleos atômicos eram compostos por prótons e nêutrons, conduziu à proposição de uma nova interação (a interação forte), que seria responsabilizada pela estabilidade dos núcleos. A observação do decaimento β (Co60 → Ni60 + e− + ν̄e), com a subseqüente proposição da existência do neutrino, ao não poder ser explicada por nenhuma das interações já descobertas, implicou na hipótese da existência da interação fraca. Era natural que fossem tentadas descrições dessas interações baseadas na técnica que tão bem havia funcionado no caso da Eletrodinâmica. Em particular, no caso das interações fortes, foi proposto um modelo, por Yukawa, que seguia bem de perto o da Eletrodinâmica, com uma part́ıcula de massa diferente de zero (chamada de méson) fazendo 165 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 o papel correspondente ao do fóton. No entanto, como veremos, a história seguiu caminhos bastante tortuosos até que consegúıssemos formular um modelo das interações fracas e fortes baseado na Teoria Quântica de Campos. III. O PROBLEMA DOS INFINITOS E SUA SOLUÇÃO Uma das bases da ciência ocidental é o procedimento de incorporar, inicialmente, apenas os aspectos mais relevantes de um determinado fenômeno, deixando para um segundo momento a consideração de efeitos mais sutis e numericamente menores (mas que poderiam complicar excessivamente o problema). Assim, por exemplo, ao considerarmos o problema de estabelecer a órbita da Terra no sistema solar, desprezamos, inicialmente, a atração gravitacional exercida sobre ela pelos outros planetas, para nos concentrarmos naquela oriunda do Sol. Uma vez cal- culada a órbita sob apenas esta influência, vamos aos poucos incluindo as outras contribuições, chamadas de perturbações (no exemplo, a influência dos planetas, da Lua, o fato da Terra não ser uma distribuição de massa exatamente esférica, etc.) através de uma técnica chamada de teoria de perturbações. O alcance desta técnica é amplo o suficiente para cobrir situações tanto no domı́nio clássico quanto no quântico. Ela se baseia em considerar que a solução e- xata do problema dependa de algum parâmetro (caracteŕıstico da perturbação) que possa ser considerado pequeno em comparação com parâmetros similares, correspondentes ao caso sem perturbações. Se for este o caso, a solução pode ser expressa como uma série de potências neste parâmetro, chamado de constante de acoplamento. Um procedimento algoŕıtmico per- mite, então, o cálculo dos coeficientes desta série, que vão nos dar a solução truncada numa dada potência da constante de acoplamento. Se ela for pequena o suficiente, serão precisos poucos termos na série para dar uma boa idéia do comportamento da solução. Assim, como não poderia deixar de ocorrer, a teoria de perturbações foi aplicada para os fenômenos atômicos onde havia a necessidade de utilizar a Eletrodinâmica Quântica. A constante de acoplamento, neste caso, era a chamada constante de estrutura fina, definida como α := e2/~c, onde e é a carga do elétron. Esta constante é adimensional e da ordem de 1/137, o que a torna um parâmetro muito conveniente para controlar a aplicação da teoria de perturbações. No entanto, os primeiros cálculos perturbativos, realizados por Heisenberg e Pauli em 1929/30 deram resultados nada animadores: os coeficientes da expansão em potências de α davam infinito! Podia-se “parametrizar” este infinito, requerendo que os momenta dos estados 166 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... intermediários não contribúıssem para o cálculo, a partir de um certo Λ (este procedimento é chamado de regularização). Obviamente, dever-se-ia tomar o limite Λ → ∞ ao final da conta. Isso mostrava que os cálculos divergiam seguindo uma lei do tipo 1/Λ2. Outros cálculos, posteriores, mostraram resultados amb́ıguos: em alguns casos, os infinitos se cancelavam, em outros a divergência era menos severa (os cálculos divergiam como ln Λ), enquanto que, em outros, a divergência mencionada anteriormente se confirmava. A sensação generalizada, entre os f́ısicos mais proeminentes da época (o que inclúıa nomes como os de Dirac e Heisenberg), era de que a Teoria Quântica de Campos era inconsistente e que alguma modificação essencial era necessária, embora houvesse trabalhos isolados (como o de Weisskopf) que chamavam a atenção para a possibilidade de os infinitos serem tratáveis. A confusão durou até depois do final da segunda guerra mundial, quando os trabalhos de Schwinger, Feynman, Tomonaga e Dyson, por volta de 1949, foram progressivamente estabele- cendo esquemas sistemáticos de cálculos perturbativos, através da definição de regras gráficas que possibilitaram escrever rapidamente as contribuições perturbativas e analisar, de forma organizada, a origem dos infinitos. Descobriu-se, então, que se os parâmetros caracteŕısticos da Eletrodinâmica Quântica (massas e cargas das part́ıculas carregadas) fossem tomados como funções do parâmetro regularizador Λ, tais funções podiam ser escolhidas de forma que uma parte dos infinitos podia ser cancelada em qualquer ordem perturbativa. O restante dos in- finitos poderia ser descartado considerando que os operadores de campo fossem multiplicados por constantes que, por sua vez, eram tomadas também como funções de Λ, escolhidas ordem por ordem perturbativa para deixar a teoria finita. O procedimento todo recebeu o nome de renormalização. Os cálculos feitos com o aux́ılio da renormalização foram comparados com a experiência, com o sucesso mencionado no ińıcio deste artigo. IV. OUTRAS INTERAÇÕES O sucesso da Eletrodinâmica Quântica, consubstanciado no ińıcio da década de 1950, es- timulou a aplicação da Teoria Quântica de Campos à descrição das interações fortes e fracas. Em 1954, Yang e Mills propuseram uma generalização da Eletrodinâmica Quântica, que seria adequada a uma descrição das interações entre prótons e nêutrons (mediada por ṕıons, con- forme tinha sido proposto por Yukawa anteriormente). A Eletrodinâmica possui uma simetria, bastante bem conhecida classicamente, a simetria de calibre, que implica na invariância do 167 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 O modelo original foi estendido para incluir férmions e, neste processo, descobriu-se que, ao fazer isso, aparecia uma nova simetria entre bósons e férmions que foi chamada de supersimetria. Era a primeira vez que o mundo dos bósons dava indicações de poder se misturar com o dos férmions. No entanto, apesar de tantas caracteŕısticas interessantes, a teoria de cordas apresentava problemas aparentemente incontornáveis: requeria que o espaço-tempo tivesse 10 dimensões, exibia em seu espectro uma part́ıcula de spin 2 que nunca apareceu nas interações fortes e, pior que tudo, dava resultados errados para as amplitudes de espalhamento em certos limites. Estes fatos, aliados a novos avanços na teoria quântica de campos (que narramos na próxima seção) acabaram por fazer com que a maior parte dos f́ısicos teóricos abandonasse a teoria de cordas, no ińıcio dos anos 70 [5]. V. A QUEBRA ESPONTÂNEA DE SIMETRIA E A VOLTA DAS TEORIAS DE YANG-MILLS O problema da massa da part́ıcula intermediária era comum às interações fortes e fracas, em meados da década de 1960 [4]. De fato, foi proposta uma modificação da teoria de Fermi, na qual eram introduzidas part́ıculas mediadoras com massa e carga (as part́ıculas W+ e W−, cuja massa era necessária devido ao curto alcance das interações fracas). No entanto, devido ao fato da part́ıcula intermediária ter massa, os problemas de unitaridade e renormalizabilidade persistiam. Goldstone, no ińıcio dos anos 60, mostrou que, numa situação em que a hamiltoniana que descreve a teoria possui uma dada simetria cont́ınua (em termos mais técnicos, a hamiltoniana comuta com o gerador dessa simetria) mas o seu estado fundamental (chamado de vácuo) é degenerado (há vários estados associados à menor energia posśıvel para o sistema) e não é simétrico (não é aniquilado pelo gerador da simetria, mas sim levado em outro vácuo pela ação dele) é posśıvel reparametrizar a teoria de modo que a hamiltoniana pareça não ser simétrica, ao custo do surgimento de um conjunto de part́ıculas sem massa (os bósons de Goldstone). A simetria continua existindo, mas escondida, e visualizamos o espectro de part́ıculas de outra forma. Este fenômeno foi chamado de quebra espontânea de simetria, e sua inspiração remonta à F́ısica da Matéria Condensada. O mecanismo, embora extremamente interessante, gerava o problema de descobrir o que aconteceu com os bósons de Goldstone já que, pelo fato de não terem massa, deveriam ser facilmente descobertos nos aceleradores onde, no entanto, não havia 170 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... sinal deles. Então, em 1964, Higgs mostrou que a quebra espontânea de simetria poderia ser usada, no caso da simetria quebrada ser de calibre, para gerar massa para as part́ıculas mediadoras. A simetria de calibre possibilitava redefinições dos campos que apareciam no hamiltoniano, que absorviam os bósons de Goldstone e geravam um termo de massa para os campos de calibre. Este era o ingrediente que faltava para a construção de um modelo unificado das interações eletromagnéticas e fracas. Usando todo o conhecimento experimental e teórico obtido sobre as interações fracas e fortes e acumulado ao longo dos últimos 30 anos, Glashow, Weinberg e Salam conseguiram montar (a partir de esforços independentes durante toda a década), em 1968, uma teoria quântica de campos que descrevia, de maneira precisa, as principais caracteŕısticas dessas interações. Era uma teoria de calibre, do tipo daquela proposta por Yang e Mills, baseada em um grupo não-abeliano SU (2)×U (1), onde a matéria (elétrons, múons e neutrinos) era descrita por férmions quirais (autoestados do operador γ5 = iγ 0γ1γ2γ3, onde os γµ são as matrices de Dirac, mencionadas anteriormente) e os intermediadores da interação eram bósons vetoriais, análogos ao fóton. Nenhuma part́ıcula tinha massa, inicialmente, e o mecanismo de Higgs era o responsável por gerar massa para todas elas, inclusive três dos quatro bósons vetoriais que apareciam no modelo. Estes, após a reparametrização que lhes concedeu massa, se tornaram as part́ıculas W+, W− e Z0, enquanto o bóson vetorial sem massa foi identificado com o fóton. Em 1983 estas part́ıculas foram descobertas experimentalmente, o que se constituiu num grande triunfo para a teoria quântica de campos. No entanto, uma das conseqüências do mecanismo de Higgs é o aparecimento de uma part́ıcula escalar fundamental com massa (a primeira a existir na natureza), o bóson de Higgs, que ainda não foi visto experimentalmente. VI. A CROMODINÂMICA QUÂNTICA, A RENORMALIZAÇÃO DE TEORIAS NÃO-ABELIANAS E A LIBERDADE ASSINTÓTICA Paralelamente aos avanços feitos na descrição das interações fracas, em 1964, Gell-Mann and Zweig insinuaram a possibilidade de que as part́ıculas que interagiam através das interações fortes (chamadas de hádrons) poderiam ser constitúıdas por part́ıculas mais elementares, que chamaram de quarks. Na época eles mostraram como conseguiam reproduzir todo o espectro de mésons (hádrons bosônicos) e bárions (hádrons fermiônicos) com o aux́ılio de três quarks férmiônicos (de spin 1/2) chamados de up, down e strange (u, d, s) que possuiam carga elétrica 171 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 fracionária de 2/3, -1/3, -1/3, respectivamente. Embora até mesmo novos hádrons tivessem sido descobertos devido a este esquema classificatório, os quarks foram tratados inicialmente como um artif́ıcio curioso e não como part́ıculas de verdade, principalmente devido à carga elétrica fracionária, que nunca antes tinha sido observada. Pouco depois, em 1965, Greenberg, Han e Nambu propuseram o conceito de cor, como um novo atributo para os quarks, para resolver um paradoxo associado com o prinćıpio de exclusão de Pauli. Tratava-se de um novo número quântico, que nada tinha a ver com a cor no sentido eletromagnético do termo. A cor podia assumir três valores distintos, que foram chamados de red, green e blue. Então, em 1968, Bjorken e Feynman analisaram um experimento de colisão entre elétrons e prótons, no Stanford Linear Accelerator Center (SLAC), e propuseram que os elétrons estavam realmente sendo espalhados por part́ıculas constituentes dos prótons (que eles chamaram de pártons). Estimulados por tais análises, entre 1972 e 1973, várias pessoas (Fritzsch, Gell-Mann, Leutwyller, Weinberg, Gross e Wilczek) propuseram, então, uma teoria quântica de campos, novamente do tipo Yang-Mills, para as interações fortes, pensadas agora como sendo interações t́ıpicas dos quarks. Nesta teoria, a cor desempenhava um papel análogo ao da carga elétrica e, assim, a teoria foi chamada de Cromodinâmica Quântica. As part́ıculas que intermediavam a interação foram chamadas de glúons. A teoria era baseada num grupo não abeliano do tipo SU (3), o que fixava o número de glúons em 8. Aos três quarks iniciais foi adicionado um quarto (desde 1964) chamado de charm, que desempenhava um papel importante para compatibilizar dados experimentais relativos às interações fracas (que redundariam na descoberta das correntes neutras). A vitória final da Teoria Quântica de Campos, na descrição das interações eletrofracas e fortes, no entanto, tinha vindo um ano antes, em 1971, quando ’t Hooft apresentou sua demon- stração de que as teorias de calibre não-abelianas eram renormalizáveis, mesmo sob a ação do mecanismo de Higgs [7]. Este resultado, juntamente com a formulação dos modelos descritos anteriormente para as três interações, fez com que três das quatro interações conhecidas fossem unificadas em uma única teoria de calibre, baseada no grupo SU (3)×SU2×U (1), que hoje re- cebe o nome de modelo padrão das interações fundamentais. A renormalizabilidade das teorias de Yang-Mills possibilitou a aplicação da técnica do grupo de renormalização, que prevê que, dependendo da energia envolvida em um dado processo, podemos utilizar uma constante de acoplamento efetiva, dependente desta energia, para efetuar nossos cálculos. Com isto, Gross, Politzer e Wilczek descobriram, em 1973, uma propriedade essencial das interações fortes (vis- 172
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved