Co to jest mechanika kwantowa. Podstawowe zasady mechaniki kwantowej

MINISTERSTWO EDUKACJI FEDERACJI ROSYJSKIEJ

MOSKWA PAŃSTWOWY INSTYTUT INŻYNIERII RADIOWEJ, ELEKTRONIKI I AUTOMATYKI (UCZELNIA TECHNICZNA)

AA BERZIN, V.G. MOROZOW

PODSTAWY MECHANIKI KWANTOWEJ

Instruktaż

Moskwa – 2004

Wstęp

Mechanika kwantowa pojawiła się sto lat temu i ukształtowała się w spójną teorię fizyczną około 1930 roku. Obecnie uważana jest za podstawę naszej wiedzy o otaczającym nas świecie. Dość długi czas użytkowania mechanika kwantowa Do stosowane zadania ograniczony energia nuklearna(głównie wojsko). Jednak po wynalezieniu tranzystora w 1948 r

Jeden z głównych elementów elektroniki półprzewodnikowej, a pod koniec lat pięćdziesiątych XX wieku powstał laser - kwantowy generator światła, stało się jasne, że odkrycia w fizyce kwantowej mają ogromny potencjał praktyczny i poważna znajomość tej nauki jest konieczna nie tylko dla zawodowych fizyków , ale także dla przedstawicieli innych specjalności – chemików, inżynierów, a nawet biologów.

Ponieważ mechanika kwantowa coraz częściej zaczęła nabierać cech nie tylko podstawowych, ale także nauka stosowana pojawił się problem nauczania jej podstaw studentów kierunków niefizycznych. Student po raz pierwszy w trakcie kursu zapoznaje się z niektórymi koncepcjami kwantowymi. fizyka ogólna, ale z reguły ta znajomość ogranicza się do przypadkowych faktów i ich znacznie uproszczonych wyjaśnień. Z drugiej strony pełny kurs mechaniki kwantowej, wykładany na uniwersyteckich wydziałach fizyki, jest wyraźnie zbędny dla tych, którzy swoją wiedzę chcieliby wykorzystać nie do odkrywania tajemnic przyrody, ale do rozwiązywania problemów technicznych i innych. problemy praktyczne. Trudność „dostosowania” kursu mechaniki kwantowej do potrzeb edukacyjnych uczniów stosowane specjalności została zauważona już dawno i nie została do dziś całkowicie przezwyciężona, mimo licznych prób stworzenia kursów „przejściowych” nastawionych na praktyczne zastosowania prawa kwantowe. Wynika to ze specyfiki samej mechaniki kwantowej. Po pierwsze, aby zrozumieć mechanikę kwantową, student wymaga dogłębnej znajomości fizyki klasycznej: mechaniki newtonowskiej, teoria klasyczna elektromagnetyzm, specjalna teoria teoria względności, optyka itp. Po drugie, w mechanice kwantowej, aby poprawnie opisać zjawiska w mikroświecie, trzeba poświęcić przejrzystość. Fizyka klasyczna operuje mniej lub bardziej wizualnymi koncepcjami; ich związek z eksperymentem jest stosunkowo prosty. Inaczej jest w mechanice kwantowej. Jak zauważył L.D. Landau, który wniósł znaczący wkład w powstanie mechaniki kwantowej, „trzeba zrozumieć to, czego nie jesteśmy już w stanie sobie wyobrazić”. Zwykle trudności w studiowaniu mechaniki kwantowej tłumaczy się zwykle jej dość abstrakcyjnym aparatem matematycznym, którego użycie jest nieuniknione ze względu na utratę przejrzystości pojęć i praw. Rzeczywiście, aby nauczyć się rozwiązywać problemy mechaniki kwantowej, trzeba to wiedzieć równania różniczkowe, całkiem swobodny w obsłudze Liczby zespolone, a także móc znacznie więcej. Wszystko to jednak nie wykracza poza to szkolenie matematyczne nowoczesny student Uniwersytet Techniczny. Prawdziwe trudności mechaniki kwantowej nie są związane tylko, a nawet w większym stopniu, z matematyką. Faktem jest, że wnioski z mechaniki kwantowej, jak każde inne teoria fizyczna, należy przewidzieć i wyjaśnić prawdziwe eksperymenty dlatego trzeba nauczyć się łączyć abstrakcyjne konstrukcje matematyczne z mierzalnymi wielkościami fizycznymi i obserwowalnymi zjawiskami. Umiejętność tę rozwija każdy indywidualnie, głównie poprzez samodzielne rozwiązywanie problemów i zrozumienie wyników. Newton zauważył również: „w badaniu nauk ścisłych często podaje się przykłady ważniejsze niż zasady" Jeśli chodzi o mechanikę kwantową, słowa te zawierają wiele prawdy.

Podręcznik oddany czytelnikowi opiera się na wieloletnim prowadzeniu w MIREA kursu „Fizyka 4”, poświęconego podstawom mechaniki kwantowej, dla studentów wszystkich specjalności wydziałów elektroniki i RTS oraz studentów tych specjalności wydziału cybernetyki, gdzie fizyka jest jedną z głównych dyscyplin akademickich. Treść podręcznika i sposób prezentacji materiału są zdeterminowane szeregiem obiektywnych i subiektywnych okoliczności. Przede wszystkim należało wziąć pod uwagę, że kurs „Fizyka 4” przeznaczony jest na jeden semestr. Dlatego ze wszystkich działów współczesnej mechaniki kwantowej, tych, które są bezpośrednio związane z elektroniką i optyka kwantowa- najbardziej obiecujące obszary zastosowań mechaniki kwantowej. Jednak w przeciwieństwie do kursów z fizyki ogólnej i stosowanej dyscyplin technicznych, staraliśmy się przedstawić te sekcje w ramach jednego i wystarczającego nowoczesne podejście biorąc pod uwagę możliwości uczniów w zakresie jego opanowania. Objętość podręcznika przekracza treść wykładów i zajęć praktycznych, gdyż kurs „Fizyka 4” wymaga od studentów zaliczenia zajęć lub zadania indywidualne które wymagają samokształcenie pytania nieujęte w planie wykładu. Prezentacja tych zagadnień w podręcznikach z mechaniki kwantowej skierowanych do studentów wydziały fizyki uczelniach, często przekracza poziom wyszkolenia studenta uczelni technicznej. Dlatego niniejszy podręcznik może być używany jako źródło materiału do zajęć i zadań indywidualnych.

Ważną częścią podręcznika są ćwiczenia. Część z nich podana jest bezpośrednio w tekście, pozostałe umieszczone są na końcu każdego akapitu. Wiele ćwiczeń zawiera instrukcje dla czytelnika. W związku ze wspomnianą powyżej „niezwykłością” pojęć i metod mechaniki kwantowej, wykonywanie ćwiczeń należy uznać za absolutnie niezbędny element studiowania przedmiotu.

1. Pochodzenie fizyczne teoria kwantowa

1.1. Zjawiska sprzeczne z fizyką klasyczną

Zacznijmy krótki przegląd zjawiska, których fizyka klasyczna nie potrafiła wyjaśnić i które ostatecznie doprowadziły do ​​​​powstania teorii kwantowej.

Widmo promieniowania równowagowego ciała doskonale czarnego. Przypomnijmy sobie to na fizyce

Ciało doskonale czarne (często nazywane „ciałem doskonale czarnym”) to ciało, które całkowicie pochłania padające na nie promieniowanie elektromagnetyczne o dowolnej częstotliwości.

Absolutnie czarne ciało jest oczywiście modelem wyidealizowanym, ale można go zastosować wysoka celność za pomocą prostego urządzenia

Zamknięta wnęka z małym otworem, której wewnętrzne ściany pokryte są substancją dobrze pochłaniającą promieniowanie elektromagnetyczne, na przykład sadzą (patrz ryc. 1.1.). Jeśli temperatura ściany T będzie utrzymywana na stałym poziomie, wówczas między substancją ścian zostanie ostatecznie ustalona równowaga termiczna

Ryż. 1.1. i promieniowanie elektromagnetyczne we wnęce. Jednym z problemów aktywnie omawianych przez fizyków w koniec XIX stulecia, brzmiało: jak rozkłada się energia promieniowania równowagowego

Ryż. 1.2.

częstotliwości? Ilościowo rozkład ten opisuje widmowa gęstość energii promieniowania u ω. Produktu ω dω to energia fal elektromagnetycznych na jednostkę objętości o częstotliwościach z zakresu od ω do ω +dω. Widmową gęstość energii można zmierzyć analizując widmo promieniowania wychodzącego z otworu wnęki pokazanego na ryc. 1.1. Eksperymentalną zależność u ω dla dwóch wartości temperatur pokazano na ryc. 1.2. Wraz ze wzrostem temperatury maksimum krzywej przesuwa się w stronę wysokich częstotliwości, a przy dostatecznie wysokiej temperaturze częstotliwość ω m może dotrzeć do obszaru promieniowania widocznego dla oka. Ciało zacznie się świecić, a wraz z dalszym wzrostem temperatury kolor ciała zmieni się z czerwonego na fioletowy.

Do tej pory rozmawialiśmy o danych eksperymentalnych. Zainteresowanie widmem promieniowania ciała doskonale czarnego spowodowane zostało faktem, że funkcję u ω można dokładnie obliczyć wykorzystując metody klasycznej fizyki statystycznej oraz teoria elektromagnetyczna Maxwella. Według klasyki fizyka statystyczna, w równowadze termicznej energia dowolnego układu rozkłada się równomiernie na wszystkich stopniach swobody (twierdzenie Boltzmanna). Każdy niezależny stopień swobody pola promieniowania jest falą elektromagnetyczną o określonej polaryzacji i częstotliwości. Zgodnie z twierdzeniem Boltzmanna, średnia energia takiej fali w równowadze termicznej w temperaturze T jest równa k B T, gdzie k B = 1. 38· 10− 23 J/ K jest stałą Boltzmanna. Dlatego

gdzie c jest prędkością światła. Zatem klasyczne wyrażenie równowagowej widmowej gęstości promieniowania ma postać

u ω=

k B T ω2

π2 c3

Ta formuła to słynna formuła Rayleigha-Jeansa. W fizyce klasycznej jest to trafne i jednocześnie absurdalne. W rzeczywistości, zgodnie z nim, w równowadze termicznej w dowolnej temperaturze istnieje fale elektromagnetyczne dowolnie wysokie częstotliwości (tj. promieniowanie ultrafioletowe, promieniowanie rentgenowskie a nawet śmiertelne dla człowieka promieniowanie gamma), przy czym im wyższa częstotliwość promieniowania, tym więcej energii ono wytwarza. Oczywista sprzeczność między klasyczną teorią promieniowania równowagowego a eksperymentem otrzymała w literaturze fizycznej nazwę emocjonalną - ultrafioletowy

katastrofa Zauważmy, że słynny angielski fizyk Lord Kelvin, podsumowując rozwój fizyki w XIX wieku, nazwał problem równowagowego promieniowania cieplnego jednym z głównych nierozwiązanych problemów.

Efekt fotograficzny. Kolejnym „słabym punktem” fizyki klasycznej okazał się efekt fotoelektryczny - wybijanie elektronów z substancji pod wpływem światła. To było zupełnie niezrozumiałe energia kinetyczna elektronów nie zależy od natężenia światła, które jest proporcjonalne do kwadratu amplitudy pola elektrycznego

V fali świetlnej i jest równy średniemu strumieniowi energii padającej na substancję. Natomiast energia emitowanych elektronów zależy w istotny sposób od częstotliwości światła i rośnie liniowo wraz ze wzrostem częstotliwości. Tego też nie da się wytłumaczyć

V w ramach elektrodynamiki klasycznej, ponieważ zgodnie z teorią Maxwella przepływ energii fali elektromagnetycznej nie zależy od jej częstotliwości i jest całkowicie zdeterminowany amplitudą. Ostatecznie eksperyment wykazał, że dla każdej substancji istnieje tzw czerwona ramka efektu fotoelektrycznego, czyli minimum

częstotliwość ω min, przy której rozpoczyna się wybijanie elektronów. Jeśliω< ω min , то свет с частотойω не выбьет ни одного электрона, независимо от интенсивности.

Efekt Comptona. Inne zjawisko, którego fizyka klasyczna nie potrafiła wyjaśnić, odkrył w 1923 roku amerykański fizyk A. Compton. Odkrył to, gdy był rozproszony promieniowanie elektromagnetyczne(w zakresie częstotliwości promieniowania rentgenowskiego) na wolnych elektronach częstotliwość promieniowania rozproszonego okazuje się mniejsza niż częstotliwość promieniowania padającego. Ten eksperymentalny fakt jest sprzeczny z klasyczną elektrodynamiką, zgodnie z którą częstotliwości promieniowania padającego i rozproszonego muszą być dokładnie równe. Aby być przekonanym o tym, co zostało powiedziane, nie musisz złożona matematyka. Wystarczy przypomnieć klasyczny mechanizm rozpraszania fali elektromagnetycznej przez naładowane cząstki. Schemat

Rozumowanie wygląda mniej więcej tak. Zmienne pole elektryczne E (t) =E 0 sinωt

fala padająca działa na każdy elektron z siłą F (t) =−eE (t), gdzie −e -

(Ja

ładunek elektronowy

Elektron uzyskuje przyspieszenie a (t) = F (t)/m e

elektron), które zmienia się w czasie z tą samą częstotliwością ω, co pole w padającej fali. Według elektrodynamiki klasycznej ładunek poruszający się z przyspieszeniem emituje fale elektromagnetyczne. Jest to promieniowanie rozproszone. Jeśli przyspieszenie zmienia się w czasie zgodnie z prawem harmonicznym o częstotliwości ω, wówczas emitowane są fale o tej samej częstotliwości. Pojawienie się fal rozproszonych o częstotliwościach niższych niż częstotliwość padającego promieniowania jest wyraźnie sprzeczne z klasyczną elektrodynamiką.

Stabilność atomowa. W roku 1912 wydarzyło się coś bardzo ważnego dla wszystkiego. dalszy rozwój wydarzenie przyrodnicze - wyjaśniono budowę atomu. Fizyk angielski E. Rutherford, prowadząc doświadczenia dotyczące rozpraszania cząstek α ​​w materii, stwierdził, że ładunek dodatni i prawie cała masa atomu skupiają się w jądrze o wymiarach rzędu 10−12 - 10−13 cm. jądra okazała się znikoma w porównaniu z wymiarami samego atomu (około 10−8 cm). Aby wyjaśnić wyniki swoich eksperymentów, Rutherford postawił hipotezę, że atom ma podobną budowę do Układu Słonecznego: lekkie elektrony poruszają się po orbitach wokół masywnego jądra, tak jak planety krążą wokół Słońca. Siła utrzymująca elektrony na ich orbitach to siła Coulomba przyciągania jądra. Na pierwszy rzut oka taki „model planetarny” wydaje się bardzo

1 Symbol wszędzie oznacza dodatni ładunek elementarny = 1,602 · 10− 19 C.

atrakcyjny: jest jasny, prosty i całkiem zgodny z wynikami eksperymentów Rutherforda. Co więcej, na podstawie tego modelu łatwo jest oszacować energię jonizacji atomu wodoru zawierającego tylko jeden elektron. Szacunek daje dobrą zgodność z wartość eksperymentalna energia jonizacji. Niestety, biorąc dosłownie, planetarny model atomu ma nieprzyjemną wadę. Faktem jest, że z punktu widzenia elektrodynamiki klasycznej taki atom po prostu nie może istnieć; jest niestabilny. Powód tego jest dość prosty: elektron porusza się po swojej orbicie z przyspieszeniem. Nawet jeśli prędkość elektronu się nie zmienia, nadal występuje przyspieszenie w kierunku jądra (przyspieszenie normalne lub „dośrodkowe”). Jednak, jak wspomniano powyżej, ładunek poruszający się z przyspieszeniem musi emitować fale elektromagnetyczne. Fale te przenoszą energię, więc energia elektronu maleje. Promień jego orbity maleje i ostatecznie elektron musi spaść na jądro. Proste obliczenia, których nie będziemy przedstawiać, pokazują, że charakterystyczny „czas życia” elektronu na orbicie wynosi około 10−8 sekund. Zatem fizyka klasyczna nie jest w stanie wyjaśnić stabilności atomów.

Podane przykłady nie wyczerpują wszystkich trudności, z jakimi spotykała się fizyka klasyczna przełomie XIX i XX wieku i XX wieki. Inne zjawiska, których wnioski przeczą eksperymentowi, rozważymy później, gdy zostanie opracowany aparat mechaniki kwantowej i będziemy mogli od razu podać prawidłowe wyjaśnienie. Stopniowo narastające sprzeczności pomiędzy teorią a danymi eksperymentalnymi doprowadziły do ​​uświadomienia sobie tego fizyka klasyczna„nie wszystko jest w porządku” i potrzebne są zupełnie nowe pomysły.

1.2. Hipoteza Plancka dotycząca kwantyzacji energii oscylatora

W grudniu 2000 roku przypadała setna rocznica teorii kwantowej. Data ta związana jest z pracą Maxa Plancka, w której zaproponował rozwiązanie problemu równowagowego promieniowania cieplnego. Dla uproszczenia Planck wybrał jako model substancji ściany wnęki (patrz rys. 1.1.) układ naładowanych oscylatorów, czyli cząstek zdolnych do wykonywania drgania harmoniczne w pobliżu położenia równowagi. Jeśli ω jest częstotliwością własną oscylatora, to jest on w stanie emitować i pochłaniać fale elektromagnetyczne o tej samej częstotliwości. Niech ściany wnęki na ryc. 1.1. zawierają oscylatory o wszystkich możliwych częstotliwościach naturalnych. Następnie, po ustaleniu równowagi termicznej, średnia energia fali elektromagnetycznej o częstotliwości ω powinna być równa średniej energii oscylatora E ω o tej samej częstotliwości drgań własnych. Przypominając rozumowanie podane na stronie 5, zapiszmy równowagową widmową gęstość promieniowania w postaci:

1 W języku łacińskim słowo „quantum” dosłownie oznacza „część” lub „kawałek”.

Z kolei kwant energii jest proporcjonalny do częstotliwości oscylatora:

Niektórzy zamiast częstotliwości cyklicznej ω wolą stosować tzw. częstotliwość liniową ν =ω/2π, która jest równa liczbie oscylacji na sekundę. Wówczas wyrażenie (1.6) na kwant energii można zapisać w postaci

ε = h ν.

Wartość h = 2π 6, 626176 10− 34 J s nazywana jest także Stała Plancka 1 .

Wychodząc z założenia kwantyzacji energii oscylatora, Planck otrzymał następujące wyrażenie na gęstość widmową promieniowania równowagowego2:

π2 c3

e ω/kB T

− 1

W obszarze niskich częstotliwości (ω k B T ) wzór Plancka praktycznie pokrywa się ze wzorem Rayleigha-Jeansa (1.3), a przy wysokich częstotliwościach (ω k B T ) widmowa gęstość promieniowania, zgodnie z eksperymentem, szybko dąży do zera .

1.3. Hipoteza kwantowa Einsteina pole elektromagnetyczne

Chociaż hipoteza Plancka dotycząca kwantyzacji energii oscylatora „nie pasuje” do mechaniki klasycznej, można ją interpretować w tym sensie, że najwyraźniej mechanizm oddziaływania światła z materią jest taki, że energia promieniowania jest pochłaniana i emitowana tylko w porcjach, którego wartość podaje wzór ( 1.5). W roku 1900 o budowie atomów nie wiedziano praktycznie nic, zatem sama hipoteza Plancka nie oznaczała jeszcze całkowitego odrzucenia prawa klasyczne. Bardziej radykalną hipotezę sformułował w 1905 roku Albert Einstein. Analizując prawa efektu fotoelektrycznego wykazał, że można je w naturalny sposób wyjaśnić, jeśli przyjmiemy, że światło o określonej częstotliwości ω składa się z pojedynczych cząstek (fotonów) o energii

1 Czasami, aby podkreślić, o którą stałą Plancka chodzi, nazywa się ją „przekreśloną stałą Plancka”.

2 Teraz to wyrażenie nazywa się wzorem Plancka.

gdzie Aout jest funkcją pracy, czyli energią potrzebną do pokonania sił utrzymujących elektron w substancji1. Zależność energii fotoelektronów od częstotliwości światła, opisana wzorem (1.11), była doskonale zgodna z zależność eksperymentalna, a wartość w tym wzorze okazała się bardzo bliska wartości (1,7). Należy zauważyć, że przyjmując hipotezę fotonową, możliwe było również wyjaśnienie wzorców równowagowego promieniowania cieplnego. Rzeczywiście, absorpcja i emisja energii pola elektromagnetycznego przez materię zachodzi w kwantach, ponieważ poszczególne fotony posiadające dokładnie tę energię są absorbowane i emitowane.

1.4. Pęd fotonu

W pewnym stopniu odżyło wprowadzenie pojęcia fotonów teoria korpuskularna Swieta. O tym, że foton jest cząstką „prawdziwą”, potwierdza analiza efektu Comptona. Z punktu widzenia teorii fotonów, rozpraszanie zdjęcia rentgenowskie można przedstawić jako pojedyncze akty zderzeń fotonów z elektronami (patrz rys. 1.3.), w których muszą być spełnione prawa zachowania energii i pędu.

Prawo zachowania energii w tym procesie ma postać

zatem proporcjonalna do prędkości światła

potrzebne jest wyrażenie na energię elektronów

przyjąć formę relatywistyczną, tj.

Węgorz = ja c2,

E el=

mi 2c 4+ p 2c 2

gdzie p jest wielkością pędu elektronu po zderzeniu z fotonem, am

elektron. Prawo zachowania energii w efekcie Comptona wygląda następująco:

ω + ja c2 = ω+

mi 2c 4+ p 2c 2

Nawiasem mówiąc, od razu widać, że ω< ω ; это наблюдается и в эксперименте. Чтобы записать закон сохранения импульса в эффекте Комптона, необходимо найти выражение для импульса фотона. Это можно сделать на основе следующих простых рассуждений. Фотон всегда движется со скоростью светаc , но, как известно из теории относительности, частица, движущаяся со скоростью света, должна

mają zerową masę. Zatem w ten sposób od wyrażenie ogólne za relatywistyczne

energia E =m 2 c 4 +p 2 c 2 wynika z tego, że energia i pęd fotonu są powiązane zależnością E =pc. Przywołując wzór (1.10) otrzymujemy

Teraz prawo zachowania pędu w efekcie Comptona można zapisać jako

Rozwiązanie układu równań (1.12) i (1.18), które pozostawiamy czytelnikowi (patrz ćwiczenie 1.2.), prowadzi do następującą formułę zmienić długość fali promieniowania rozproszonego ∆λ =λ − λ:

nazywa się długością fali Comptona cząstki (masa m), przy której promieniowanie jest rozproszone. Jeżeli m = m e = 0,911 · 10− 30 kg jest masą elektronu, to λ C = 0,0243 · 10− 10 m. Wyniki pomiarów ∆λ przeprowadzonych przez Comptona, a następnie przez wielu innych eksperymentatorów są całkowicie zgodne z przewidywania wzoru (1.19) i wartość stałej Plancka zawarta w wyrażeniu (1.20) pokrywają się z wartościami uzyskanymi z eksperymentów nad równowagowym promieniowaniem cieplnym i efektem fotoelektrycznym.

Po pojawieniu się fotonowej teorii światła i jej sukcesie w wyjaśnieniu szeregu zjawisk powstała dziwna sytuacja. Właściwie spróbujmy odpowiedzieć na pytanie: czym jest światło? Z jednej strony w efekcie fotoelektrycznym i efekcie Comptona zachowuje się jak strumień cząstek – fotonów, ale z drugiej strony zjawiska interferencji i dyfrakcji równie uporczywie pokazują, że światło jest falą elektromagnetyczną. Z doświadczeń „makroskopowych” wiemy, że cząstka to obiekt, który ma skończone wymiary i porusza się po określonej trajektorii, a fala wypełnia obszar przestrzeni, czyli jest obiektem ciągłym. Jak połączyć te dwa wzajemnie wykluczające się punkty widzenia na ten sam temat rzeczywistość fizyczna- promieniowanie elektromagnetyczne? Paradoks korpuskularno-falowy (lub, jak wolą mawiać filozofowie, dualizm korpuskularno-falowy) dla światła został wyjaśniony jedynie w mechanice kwantowej. Wrócimy do niego po zapoznaniu się z podstawami tej nauki.

1 Przypomnijmy, że moduł wektora falowego nazywany jest liczbą falową.

Ćwiczenia

1.1. Korzystając ze wzoru Einsteina (1.11) wyjaśnij istnienie czerwieni granice materii. ωmin dla efektu fotograficznego. Wyrazićωmin poprzez funkcję pracy elektronu

1.2. Wyprowadź wyrażenie (1.19) na zmianę długości fali promieniowania w efekcie Comptona.

Wskazówka: Dzieląc równość (1.14) przez c i korzystając z zależności pomiędzy liczbą falową a częstotliwością (k =ω/c), piszemy

p2 + m2 mi c2 = (k – k) + ja do.

Po podniesieniu obu stron do kwadratu otrzymujemy

gdzie ϑ jest kątem rozproszenia pokazanym na ryc. 1.3. Przyrównując prawe strony (1.21) i (1.22) dochodzimy do równości

ja do(k – k) = kk(1 –cos ϑ) .

Pozostaje pomnożyć tę równość przez 2π, podzielić przez m e ckk i przejść od liczb falowych do długości fal (2π/k = λ).

2. Kwantyzacja energii atomowej. Właściwości falowe mikrocząstek

2.1. Teoria atomowa Bohra

Zanim przejdziemy bezpośrednio do badań mechaniki kwantowej w jej współczesnej formie, pokrótce omówimy pierwszą próbę zastosowania idei kwantyzacji Plancka do problemu struktury atomowej. Porozmawiamy o teorii atomu zaproponowanej w 1913 roku przez Nielsa Bohra. Głównym celem, jaki postawił sobie Bohr, było wyjaśnienie zaskakująco prostego wzoru widma emisyjnego atomu wodoru, który został sformułowany przez Ritza w 1908 roku w postaci tzw. zasady kombinacji. Zgodnie z tą zasadą częstotliwości wszystkich linii widma wodoru można przedstawić jako różnice pewnych wielkości T (n) („warunki”), których sekwencja jest wyrażona w liczbach całkowitych.

PODSTAWOWE ZASADY MECHANIKI KWANTOWEJ.

Nazwa parametru Oznaczający
Temat artykułu: PODSTAWOWE ZASADY MECHANIKI KWANTOWEJ.
Rubryka (kategoria tematyczna) Mechanika

W 1900 r. ᴦ. Niemiecki fizyk Max Planck zasugerował, że emisja i absorpcja światła przez materię zachodzi w skończonych porcjach – kwantach, a energia każdego kwantu jest proporcjonalna do częstotliwości emitowanego promieniowania:

gdzie jest częstotliwością emitowanego (lub pochłanianego) promieniowania, a h jest uniwersalną stałą zwaną stałą Plancka. Według współczesnych danych

h = (6,62618 0,00004)∙ 10 -34 J∙s.

Hipoteza Plancka była punktem wyjścia do pojawienia się koncepcji kwantowych, które stworzyły podstawę całkowicie nowej fizyki - fizyki mikroświata, zwanej Fizyka kwantowa. Głębokie idee duńskiego fizyka Nielsa Bohra i jego szkoły odegrały ogromną rolę w jego powstaniu. U podstaw mechaniki kwantowej leży spójna synteza korpuskularnych i falowych właściwości materii. Fala to bardzo rozległy proces w przestrzeni (pamiętajcie o falach na wodzie), a cząstka jest obiektem znacznie bardziej lokalnym niż fala. W pewnych warunkach światło zachowuje się nie jak fala, ale jak strumień cząstek. Jednocześnie cząstki elementarne wykazują czasami właściwości falowe. W ramach teorii klasycznej nie da się połączyć właściwości falowych i korpuskularnych. Z tego powodu utworzenie nowej teorii opisującej prawa mikroświata doprowadziło do porzucenia konwencjonalnych koncepcji, obowiązujących dla obiektów makroskopowych.

Z kropka kwantowa Z punktu widzenia widzenia zarówno światło, jak i cząstki są obiektami złożonymi, które wykazują zarówno właściwości falowe, jak i korpuskularne (tzw. dualizm falowo-cząsteczkowy). Stymulacją do powstania fizyki kwantowej były próby zrozumienia budowy atomu i wzorców widm emisyjnych atomów.

Pod koniec XIX wieku odkryto, że gdy światło pada na powierzchnię metalu, z tej ostatniej emitowane są elektrony. Zjawisko to nazwano efekt fotograficzny.

W 1905 r. ᴦ. Einstein wyjaśnił efekt fotoelektryczny w oparciu o teorię kwantową. Wprowadził założenie, że energia w wiązce światła monochromatycznego składa się z części, których wielkość jest równa h. Fizyczny wymiar wielkości h jest równy czas∙energia=długość∙impuls=pęd pędu. Ten wymiar ma wielkość zwana działaniem i w związku z tym h nazywana jest elementarnym kwantem działania. Według Einsteina elektron w metalu po pochłonięciu takiej części energii wykonuje pracę wyjścia z metalu i uzyskuje energię kinetyczną

E k = h - A na zewnątrz.

To jest równanie Einsteina na efekt fotoelektryczny.

Później (w 1927 r.) nazwano dyskretnymi porcjami światła fotony.

W nauce przy wyznaczaniu aparatu matematycznego należy zawsze kierować się naturą obserwowanych zjawisk eksperymentalnych. Niemiecki fizyk Schrödinger osiągnął wielkie osiągnięcia, wypróbowując inną strategię badania naukowe: najpierw matematyka, potem zrozumienie jej znaczenia fizycznego i w rezultacie interpretacja natury zjawisk kwantowych.

Było jasne, że równania mechaniki kwantowej muszą być równaniami falowymi (w końcu obiekty kwantowe tak mają). właściwości fal). Równania te muszą mieć rozwiązania dyskretne (zjawiska kwantowe mają elementy dyskretności). Równania tego rodzaju były znane w matematyce. Na ich podstawie Schrödinger zaproponował wykorzystanie koncepcji funkcji falowej ʼʼψʼʼ. Dla cząstki swobodnie poruszającej się wzdłuż osi X funkcja falowa ψ = e - i|h(Et-px), gdzie p to pęd, x to współrzędna, E-energia, h to stała Plancka. Funkcja „ψ” jest zwykle nazywana funkcją falową, ponieważ do jej opisu używa się funkcji wykładniczej.

Stan cząstki w mechanice kwantowej opisuje funkcja falowa, która pozwala określić jedynie prawdopodobieństwo znalezienia cząstki w danym punkcie przestrzeni. Funkcja falowa nie opisuje samego obiektu ani nawet jego potencjalnych możliwości. Operacje na funkcji falowej pozwalają obliczyć prawdopodobieństwa zdarzeń mechaniki kwantowej.

Podstawowe zasady fizyki kwantowej są zasady superpozycji, niepewności, komplementarności i identyczności.

Zasada superpozycje w fizyce klasycznej pozwala uzyskać wynikowy efekt z nałożenia (superpozycji) kilku niezależnych wpływów jako sumę efektów wywołanych każdym wpływem z osobna. Dotyczy to układów lub pól opisanych równaniami liniowymi. Zasada ta jest bardzo ważna w mechanice, teorii wibracji i teoria fal pola fizyczne. W mechanice kwantowej zasada superpozycji dotyczy funkcji falowych: jeśli układ fizyczny może znajdować się w stanach opisanych dwiema lub większą liczbą funkcji falowych ψ 1, ψ 2,…ψ ń, wówczas może znajdować się w stanie opisanym dowolną kombinacją liniową tych funkcji:

Ψ=c 1 ψ 1 +c 2 ψ 2 +….+с n ψ n,

gdzie с 1, с 2,…с n są dowolnymi liczbami zespolonymi.

Zasada superpozycji jest udoskonaleniem odpowiednich pojęć fizyki klasycznej. Według tego ostatniego, w ośrodku, który nie zmienia swoich właściwości pod wpływem zaburzeń, fale rozchodzą się niezależnie od siebie. W konsekwencji powstałe zaburzenie w dowolnym punkcie ośrodka, gdy rozchodzi się przez niego kilka fal, jest równe sumie zaburzeń odpowiadających każdej z tych fal:

S = S 1 + S 2 +….+S n,

gdzie S 1, S 2,….. S n są zakłóceniami powodowanymi przez falę. W przypadku fali nieharmonicznej można ją przedstawić jako sumę fal harmonicznych.

Zasada niepewność polega na tym, że nie można jednocześnie określić dwóch cech mikrocząstki, na przykład prędkości i współrzędnych. Odzwierciedla podwójną naturę korpuskularno-falową cząstek elementarnych. Błędy, niedokładności, pomyłki przy jednoczesnym wyznaczaniu w doświadczeniu wielkości dodatkowych powiązane są zależnością niepewności ustaloną w 1925 roku. Wernera Heisenberga. Relacja niepewności polega na tym, że iloczyn niedokładności dowolnych par dodatkowych wielkości (na przykład współrzędnej i rzutu na nią pędu, energii i czasu) jest określony przez stałą Plancka h. Relacje niepewności wskazują, że im pewniejsza jest wartość jednego z parametrów zawartych w zależności, tym bardziej niepewna jest wartość drugiego parametru i odwrotnie. Oznacza to, że parametry są mierzone jednocześnie.

Fizyka klasyczna nauczyła nas, że wszystkie parametry obiektów i zachodzące w nich procesy można mierzyć jednocześnie z dowolną dokładnością. Stanowisko to zostaje odrzucone mechanika kwantowa.

Duński fizyk Niels Bohr doszedł do wniosku, że obiekty kwantowe zależą od środków obserwacji. Parametry zjawisk kwantowych można oceniać dopiero po ich oddziaływaniu ze środkami obserwacyjnymi, ᴛ.ᴇ. z instrumentami. Zachowania obiektów atomowych nie można w ostry sposób oddzielić od ich interakcji z przyrządami pomiarowymi rejestrującymi warunki, w jakich zachodzą te zjawiska. Należy wziąć pod uwagę, że instrumenty używane do pomiaru parametrów są różnego rodzaju. Dane uzyskane z różne warunki doświadczenie należy uważać za dodatkowe w tym sensie, że jedynie za całość różne wymiary może dać Pełny widok o właściwościach obiektu. Taka jest treść zasady komplementarności.

W fizyce klasycznej uważano, że pomiar nie zakłóca przedmiotu badań. Pomiar pozostawia obiekt niezmieniony. Według mechaniki kwantowej każdy pojedynczy pomiar niszczy mikroobiekt. Aby przeprowadzić nowy pomiar, należy ponownie przygotować mikroobiekt. Komplikuje to proces syntezy pomiarów. W tym względzie Bohr opowiada się za komplementarnością pomiarów kwantowych. Dane pomiarów klasycznych nie są komplementarne, mają niezależne znaczenie niezależnie od siebie. Komplementarność ma miejsce wtedy, gdy badane obiekty są od siebie nieodróżnialne i są ze sobą powiązane.

Bohr skorelował zasadę komplementarności nie tylko z naukami fizycznymi: „integralność organizmów żywych i cechy ludzi posiadających świadomość, ale także kultury ludzkie reprezentują cechy integralności, których pokazanie zwykle wymaga dodatkowa metoda opisy. Według Bohra możliwości istot żywych są tak różnorodne i tak ściśle ze sobą powiązane, że badając je, ponownie trzeba uciekać się do procedury uzupełniania danych obserwacyjnych. Jednocześnie ten pomysł Bohra nie został odpowiednio rozwinięty.

Cechy i specyfika oddziaływań pomiędzy elementami złożonych mikro- i makrosystemów. jak i zewnętrzne interakcje między nimi prowadzą do ich ogromnej różnorodności. Mikro- i makrosystemy charakteryzują się indywidualnością, każdy system opisany jest zbiorem wszelkich możliwych właściwości właściwych tylko jemu. Istnieją różnice między jądrami wodoru i uranu, chociaż oba należą do mikroukładów. Nie mniej istnieją różnice między Ziemią a Marsem, chociaż planety te należą do tego samego układu słonecznego.

W tym przypadku możemy mówić o tożsamości cząstek elementarnych. Identyczne cząstki mają te same właściwości fizyczne: masę, ładunek elektryczny i inne cechy wewnętrzne. Na przykład wszystkie elektrony we Wszechświecie są uważane za identyczne. Identyczne cząstki podlegają zasadzie identyczności – podstawowej zasadzie mechaniki kwantowej, zgodnie z którą: w żadnym eksperymencie nie można rozróżnić stanów układu cząstek uzyskanych od siebie poprzez przestawianie identycznych cząstek.

Zasada ta stanowi główną różnicę między mechaniką klasyczną a mechaniką kwantową. W mechanice kwantowej identyczne cząstki nie mają indywidualności.

STRUKTURA ATOMU I JĄDRA ATOMOWEGO. CZĄSTECZKI ELEMENTARNE.

Pierwsze wyobrażenia o budowie materii pojawiły się w starożytnej Grecji w VI-IV wieku. PNE. Arystoteles uważał materię za ciągłą, ᴛ.ᴇ. można go zmiażdżyć na dowolną liczbę małych części, ale nigdy nie dotrze do najmniejszej cząstki, której nie można by dalej podzielić. Demokryt wierzył, że wszystko na świecie składa się z atomów i pustki. Atomy to najmniejsze cząstki materii, co oznacza „niepodzielne”, a według Demokryta atomy to kule o postrzępionej powierzchni.

Ten światopogląd istniał do końca XIX wieku. W 1897 r. Joseph John Thomson (1856-1940ᴦ.ᴦ.), syn W. Thomsona, dwukrotnego laureata Nagrody Nobla, odkrył cząstkę elementarną, którą nazwano elektronem. Stwierdzono, że elektron wylatuje z atomów i ma ujemną wartość ładunek elektryczny. Wartość ładunku elektronu mi=1,6,10 -19 C (kulomb), masa elektronu M=9.11.10 -31 tys.

Po odkryciu elektronu Thomson w 1903 r. postawił hipotezę, że atom jest kulą z rozłożonym na niej ładunkiem dodatnim, z elektronami o ładunkach ujemnych przeplatanymi w postaci rodzynek. Ładunek dodatni jest równy ładunkowi ujemnemu; ogólnie atom jest elektrycznie obojętny (całkowity ładunek wynosi 0).

W 1911 roku, przeprowadzając eksperyment, Ernst Rutherford odkrył, że ładunek dodatni nie rozprzestrzenia się w całej objętości atomu, ale zajmuje tylko niewielką jego część. Następnie przedstawił model atomu, który później nazwano planetarnym. Według tego modelu atom tak naprawdę jest kulą, w środku której znajduje się ładunek dodatni, zajmujący niewielką część tej kuli - około 10 -13 cm. Ładunek ujemny znajduje się na zewnętrznej, tzw. powłoce elektronowej.

Bardziej zaawansowany model kwantowy atom zaproponował duński fizyk N. Bohr w 1913 roku, pracujący w laboratorium Rutherforda. Za podstawę wziął model atomu Rutherforda i uzupełnił go o nowe hipotezy, które są sprzeczne z klasycznymi ideami. Hipotezy te nazywane są postulatami Bohra. Οʜᴎ sprowadzają się do następujących kwestii.

1. Każdy elektron w atomie może pełnić funkcję stabilną ruch orbitalny na określonej orbicie, o określonej wartości energii, bez emitowania i pochłaniania promieniowania elektromagnetycznego. W tych stanach układy atomowe mają energie tworzące dyskretny szereg: E 1, E 2,…E n. Każda zmiana energii w wyniku emisji lub absorpcji promieniowania elektromagnetycznego może nastąpić nagle z jednego stanu do drugiego.

2. Kiedy elektron przechodzi od jednego orbita stacjonarna z drugiej strony energia jest emitowana lub pochłaniana. Jeżeli podczas przejścia elektronu z jednej orbity na drugą energia atomu zmienia się z E m na E n, to h w= mi m - mi n , gdzie w– częstotliwość promieniowania.

Bohr wykorzystał te postulaty do obliczenia najprostszego atomu wodoru,

Obszar, w którym koncentruje się ładunek dodatni, nazywa się jądrem. Założono, że jądro składa się z dodatnich cząstek elementarnych. Cząstki te, zwane protonami (proton oznacza po grecku „pierwszy”), zostały odkryte przez Rutherforda w 1919 roku. Ich ładunek modułowy jest równy ładunkowi elektronu (ale dodatni), masa protonu wynosi 1,6724,10 -27 kᴦ. Istnienie protonu zostało potwierdzone sztuczną reakcją jądrową, która zamieniła azot w tlen. Atomy azotu napromieniowano jądrami helu. W rezultacie powstał tlen i proton. Proton jest cząstką stabilną.

W 1932 roku James Chadwick odkrył cząstkę, która nie miała ładunku elektrycznego i miała masę prawie równa masa proton. Cząstkę tę nazwano neutronem. Masa neutronu wynosi 1,675,10 -27 kᴦ. Neutron odkryto w wyniku napromieniowania płytki berylowej cząstkami alfa. Neutron jest cząstką niestabilną. Brak ładunku wyjaśnia jego łatwą zdolność do penetracji jąder atomów.

Odkrycie protonu i neutronu doprowadziło do stworzenia protonowo-neutronowego modelu atomu. Zaproponowali go w 1932 roku radzieccy fizycy Iwanenko, Gapon i Niemiecki fizyk Heisenberga. Według tego modelu jądro atomu składa się z protonów i neutronów, z wyjątkiem jądra wodoru, które składa się z jednego protonu.

Ładunek jądra zależy od liczby znajdujących się w nim protonów i jest oznaczony symbolem Z . Cała masa atomu zawarta jest w masie jego jądra i jest określona przez masę wchodzących do niego protonów i neutronów, ponieważ masa elektronu jest znikoma w porównaniu z masami protonu i neutronu. Numer seryjny V układ okresowy Mendelejew odpowiada ładunkowi jądra danego pierwiastka chemicznego. Liczba masowa atomu A równa masie neutronów i protonów: A=Z+N, Gdzie Z – liczba protonów, N – liczba neutronów. Tradycyjnie każdy element jest oznaczony symbolem: A X z.

Istnieją jądra, które zawierają ten sam numer protony, ale różna liczba neutronów, ᴛ.ᴇ. różniących się liczbą masową. Takie jądra nazywane są izotopami. Np, 1 N 1 - zwykły wodór, 2 N 1 - deuter, 3 N 1 - tryt. Najbardziej stabilne jądra to te, w których liczba protonów jest równa liczbie neutronów lub obu jednocześnie = 2, 8, 20, 28, 50, 82, 126 - liczby magiczne.

Wymiary atomu wynoszą około 10-8 cm, atom składa się z jądra o wielkości 10-13 cm, pomiędzy jądrem atomu a granicą atomu znajduje się ogromna przestrzeń w skali mikroskopowej. Gęstość w jądrze atomu jest ogromna i wynosi około 1,5·108 t/cm 3 . Pierwiastki chemiczne z masą A<50 называются легкими, а с А>50 – ciężki. Jest trochę zatłoczony w jądrach ciężkich pierwiastków, ᴛ.ᴇ. powstaje energetyczny warunek ich rozpadu promieniotwórczego.

Energia potrzebna do rozszczepienia jądra na nukleony składowe nazywana jest energią wiązania. (Nukliny to ogólna nazwa protonów i neutronów, a przetłumaczona na język rosyjski oznacza „cząstki jądrowe”):

E St = Δm∙с 2,

Gdzie Δm – defekt masy jądrowej (różnica między masami nukleonów tworzących jądro a masą jądra).

W 1928 r. Fizyk teoretyczny Dirac zaproponował teorię elektronu. Cząstki elementarne mogą zachowywać się jak fala – mają dualizm korpuskularno-falowy. Teoria Diraca pozwoliła określić, kiedy elektron zachowuje się jak fala, a kiedy cząstka. Doszedł do wniosku, że musi istnieć cząstka elementarna, która ma takie same właściwości jak elektron, ale z ładunek dodatni. Taka cząstka została później odkryta w 1932 roku i nazwana pozytonem. Amerykański fizyk Andersen odkrył na fotografii promieni kosmicznych ślad cząstki podobnej do elektronu, ale z ładunkiem dodatnim.

Z teorii wynikało, że elektron i pozyton oddziałując ze sobą (reakcja anihilacji), tworzą parę fotonów ᴛ.ᴇ. kwanty promieniowania elektromagnetycznego. Jest to również możliwe proces odwrotny kiedy foton oddziałujący z jądrem zamienia się w parę elektron-pozyton. Z każdą cząstką związana jest funkcja falowa, której kwadrat amplitudy jest równy prawdopodobieństwu wykrycia cząstki w określonej objętości.

W latach 50. XX wieku udowodniono istnienie antyprotonu i antyneutronu.

Jeszcze 30 lat temu uważano, że neutrony i protony są cząstkami elementarnymi, jednak eksperymenty dotyczące oddziaływania protonów i elektronów poruszających się z dużymi prędkościami wykazały, że protony składają się z jeszcze większej liczby drobne cząstki. Cząstki te po raz pierwszy zbadał Gell Mann i nazwał je kwarkami. Znanych jest kilka odmian kwarków. Zakłada się, że istnieje 6 smaków: U - kwark (w górę), d-kwark (w dół), kwark dziwny (dziwny), kwark czarujący (urok), b - kwark (piękno), t-kwark (prawda).

Każdy kwark smakowy ma jeden z trzech kolorów: czerwony, zielony, niebieski. To tylko określenie, ponieważ Rozmiar kwarków jest znacznie mniejszy niż długość fali światła widzialnego i dlatego nie mają one koloru.

Rozważmy niektóre cechy cząstek elementarnych. W mechanice kwantowej każdej cząstce przypisuje się coś specjalnego moment mechaniczny, co nie jest związane ani z jego ruchem w przestrzeni, ani z jego obrotem. Nazywa się ten własny moment mechaniczny. kręcić się. Tak więc, jeśli obrócisz elektron o 360 o, można się spodziewać, że powróci on do swojego pierwotnego stanu. W takim przypadku stan początkowy zostanie osiągnięty dopiero po jeszcze jednym obrocie o 360°. Oznacza to, że aby przywrócić elektron do stanu pierwotnego, należy go obrócić o 720 o; w porównaniu do spinu postrzegamy świat tylko w połowie. Na przykład w pętli z podwójnego drutu koralik powróci do pierwotnej pozycji po obróceniu o 720 o. Takie cząstki mają spin półcałkowity ½. Spin dostarcza nam informacji o tym, jak wygląda cząstka oglądana pod różnymi kątami. Na przykład cząstka o spinie „0” jest podobna do punktu: wygląda tak samo ze wszystkich stron. Cząstkę o spinie „1” można porównać do strzałki: wygląda inaczej z różnych stron i tak samo wygląda po obróceniu o 360°. Cząstkę o spinie „2” można porównać do zaostrzonej obustronnie strzałki: dowolne jej położenie powtarza się z półobrotem (180°). Cząstki o wyższym spinie powracają do swojego pierwotnego stanu, gdy obracają się o jeszcze mniejszą część pełnego obrotu.

Cząstki o spinie półcałkowitym nazywane są fermionami, a cząstki o spinie całkowitym nazywane są bozonami. Do niedawna uważano, że jedynymi są bozony i fermiony możliwe typy nierozróżnialne cząstki. W rzeczywistości istnieje wiele możliwości pośrednich, a fermiony i bozony to tylko dwa skrajne przypadki. Ta klasa cząstek nazywana jest anyonami.

Cząstki materii podlegają zasadzie wykluczenia Pauliego, odkrytej w 1923 roku przez austriackiego fizyka Wolfganga Pauliego. Zasada Pauliego głosi, że w układzie dwóch identycznych cząstek o spinach półcałkowitych nie może znajdować się więcej niż jedna cząstka w tym samym stanie kwantowym. Nie ma żadnych ograniczeń dla cząstek o spinie całkowitym. Oznacza to, że dwie identyczne cząstki nie mogą mieć tych samych współrzędnych i prędkości z dokładnością określoną zasadą nieoznaczoności. Jeżeli cząstki materii mają bardzo zbliżone wartości współrzędnych, to ich prędkości muszą być różne i dlatego nie mogą długo przebywać w punktach o tych współrzędnych.

W mechanice kwantowej przyjmuje się, że wszelkie siły i oddziaływania pomiędzy cząstkami przenoszą cząstki o spinie całkowitym równym 0,1,2. Dzieje się to w następujący sposób: na przykład cząstka materii emituje cząstkę będącą nośnikiem oddziaływania (na przykład foton). W wyniku odrzutu zmienia się prędkość cząstki. Następnie cząstka nośnika „przelatuje” na inną cząsteczkę substancji i zostaje przez nią pochłonięta. To zderzenie zmienia prędkość drugiej cząstki, tak jakby między tymi dwiema cząstkami materii działała siła. Cząstki nośnikowe wymieniane pomiędzy cząsteczkami materii nazywane są wirtualnymi, ponieważ w odróżnieniu od rzeczywistych nie można ich zarejestrować za pomocą detektora cząstek. Istnieją jednak, ponieważ tworzą efekt, który można zmierzyć.

Cząstki nośnikowe można podzielić na 4 typy w zależności od ilości przenoszonych przez nie interakcji oraz z jakimi cząstkami i z jakimi cząstkami oddziałują:

1) Siła grawitacji. Na każdą cząstkę działa siła grawitacji, której wielkość zależy od masy i energii cząstki. To jest słaba siła. Siły grawitacyjne działają dalej długie dystanse i zawsze są siłami przyciągania. Na przykład oddziaływanie grawitacyjne utrzymuje planety na orbitach, a nas na Ziemi.

W podejściu mechaniki kwantowej pole grawitacyjne Uważa się, że siła działająca pomiędzy cząsteczkami materii przenoszona jest przez cząstkę o spinie „2”, potocznie nazywaną grawitonem. Grawiton nie ma własnej masy, dlatego siła, którą przenosi, jest dalekiego zasięgu. Oddziaływanie grawitacyjne między Słońcem a Ziemią tłumaczy się faktem, że cząstki tworzące Słońce i Ziemię wymieniają grawitony. Efekt wymiany tych wirtualnych cząstek jest mierzalny, gdyż efektem tym jest obrót Ziemi wokół Słońca.

2) Następny widok powstaje interakcja siły elektromagnetyczne, które działają pomiędzy naładowanymi elektrycznie cząstkami. Oddziaływanie elektromagnetyczne jest znacznie silniejsze niż oddziaływanie grawitacyjne: siła elektromagnetyczna, działająca pomiędzy dwoma elektronami, jest około 10 40 razy większa od siły grawitacji. Oddziaływanie elektromagnetyczne warunkuje istnienie stabilnych atomów i cząsteczek (oddziaływanie pomiędzy elektronami i protonami). Przewoźnik oddziaływanie elektromagnetyczne pojawia się foton.

3) Słaba interakcja. Odpowiada za radioaktywność i występuje pomiędzy wszystkimi cząsteczkami substancji o spinie ½. Słabe oddziaływanie zapewnia długie i równomierne spalanie naszego Słońca, które dostarcza energii dla wszystkich procesów biologicznych na Ziemi. Nośnikami oddziaływania słabego są trzy cząstki – bozony W ± i Z 0. Οʜᴎ zostały otwarte dopiero w 1983ᴦ. Promień oddziaływania słabego jest niezwykle mały, dlatego jego nośniki muszą mieć duże masy. Zgodnie z zasadą nieoznaczoności czas życia cząstek o tzw duża masa powinien być wyjątkowo krótki -10 -26 s.

4) Silna interakcja reprezentuje interakcję, która utrzymuje kwarki wewnątrz protonów i neutronów oraz protony i neutrony w jądrze atomowym. Za nośnik oddziaływania silnego uważa się cząstkę o spinie „1”, którą zwykle nazywa się gluonem. Gluony oddziałują tylko z kwarkami i innymi gluonami. Kwarki dzięki gluonom łączą się w pary lub trojaczki. Silne oddziaływanie słabnie przy wysokich energiach, a kwarki i gluony zaczynają zachowywać się jak wolne cząstki. Własność tę nazywamy swobodą asymptotyczną. W wyniku eksperymentów na potężnych akceleratorach uzyskano zdjęcia śladów (śladów). wolne kwarki, powstające w wyniku zderzenia protonów i antyprotonów wysokiej energii. Silne oddziaływanie zapewnia względną stabilność i istnienie jąder atomowych. Oddziaływania silne i słabe są charakterystyczne dla procesów mikroświata prowadzących do wzajemnej konwersji cząstek.

Oddziaływania silne i słabe stały się znane człowiekowi dopiero w pierwszej tercji XX wieku w związku z badaniem promieniotwórczości i zrozumieniem skutków bombardowania atomów różne elementy cząstki α. Cząstki α wybijają zarówno protony, jak i neutrony. Cel rozumowania doprowadził fizyków do przekonania, że ​​protony i neutrony znajdują się w jądrach atomów, będąc ze sobą ściśle powiązane. Występują silne interakcje. Z drugiej strony substancje radioaktywne emitują promienie α, β i γ. Kiedy w 1934 roku Fermi stworzył pierwszą teorię dostatecznie adekwatną do danych eksperymentalnych, musiał założyć obecność w jądrach atomów oddziaływań o znikomej intensywności, które zaczęto nazywać słabymi.

Obecnie podejmuje się próby łączenia oddziaływań elektromagnetycznych, słabych i silnych, tak aby w efekcie uzyskać tzw. TEORIA WIELKIEGO ZJEDNOCZENIA. Teoria ta rzuca światło na samo nasze istnienie. Możliwe, że nasze istnienie jest konsekwencją powstawania protonów. Taki obraz początku Wszechświata wydaje się najbardziej naturalny. Materia ziemska składa się głównie z protonów, ale nie zawiera ani antyprotonów, ani antyneutronów. Eksperymenty z promieniami kosmicznymi wykazały, że to samo dotyczy całej materii w naszej Galaktyce.

Charakterystykę oddziaływań silnych, słabych, elektromagnetycznych i grawitacyjnych podano w tabeli.

Rząd intensywności poszczególnych interakcji wskazany w tabeli jest ustalany w oparciu o intensywność oddziaływania silnego, przyjmowaną jako 1.

Podajmy klasyfikację najbardziej znanych obecnie cząstek elementarnych.

FOTON. Jego masa spoczynkowa i ładunek elektryczny są równe 0. Foton ma spin całkowity i jest bozonem.

LEPTONY. Ta klasa cząstek nie uczestniczy w oddziaływaniach silnych, lecz podlega oddziaływaniom elektromagnetycznym, słabym i grawitacyjnym. Leptony mają spin półcałkowity i są klasyfikowane jako fermiony. Cząstkom elementarnym zaliczanym do tej grupy przypisuje się pewną cechę zwaną ładunkiem leptonowym. Ładunek leptonowy w odróżnieniu od ładunku elektrycznego nie jest źródłem żadnego oddziaływania, jego rola nie została jeszcze do końca wyjaśniona. Wartość ładunku leptonowego dla leptonów wynosi L=1, dla antyleptonów L= -1, dla wszystkich pozostałych cząstek elementarnych L=0.

MEZONY. Są to cząstki niestabilne, które charakteryzują się silnymi oddziaływaniami. Nazwa „mezony” oznacza „pośredni” i wynika z faktu, że pierwotnie odkryte mezony miały masę większą niż elektron, ale mniejszą niż proton. Dziś znane są mezony, których masy są większe od mas protonów. Wszystkie mezony mają spin całkowity i dlatego są bozonami.

BARONY. W ta klasa obejmuje grupę ciężkich cząstek elementarnych o spinie półcałkowitym (fermiony) i masie nie mniejszej niż masa protonu. Jedynym stabilnym barionem jest proton; neutron jest stabilny tylko wewnątrz jądra. Bariony charakteryzują się 4 rodzajami interakcji. W jakimkolwiek reakcje jądrowe i interakcji, ich całkowita liczba pozostaje niezmieniona.

PODSTAWOWE ZASADY MECHANIKI KWANTOWEJ. - koncepcja i rodzaje. Klasyfikacja i cechy kategorii „PODSTAWOWE ZASADY MECHANIKI KWANTOWEJ”. 2017, 2018.

PLAN

WSTĘP 2

1. HISTORIA POWSTANIA MECHANIKI KWANTOWEJ 5

2. MIEJSCE MECHANIKI KWANTOWEJ WŚRÓD INNYCH NAUK O RUCHU. 14

WNIOSEK 17

LITERATURA 18

Wstęp

Mechanika kwantowa to teoria ustalająca sposób opisu i prawa ruchu mikrocząstek (cząstek elementarnych, atomów, cząsteczek, jąder atomowych) i ich układów (na przykład kryształów), a także związek między wielkościami charakteryzującymi cząstki i układy z wielkości fizyczne mierzone bezpośrednio w doświadczeniach makroskopowych. Prawa mechaniki kwantowej (zwane dalej QM) stanowią podstawę badania struktury materii. Umożliwiły wyjaśnienie budowy atomów, ustalenie natury wiązań chemicznych, wyjaśnienie układu okresowego pierwiastków, zrozumienie budowy jąder atomowych i badanie właściwości cząstek elementarnych.

Ponieważ właściwości ciał makroskopowych zależą od ruchu i interakcji cząstek, z których się składają, prawa mechaniki kwantowej leżą u podstaw zrozumienia większości zjawisk makroskopowych. Rachunek pozwolił na przykład wyjaśnić zależność temperaturową i obliczyć pojemność cieplną gazów i ciał stałych, określić strukturę i zrozumieć wiele właściwości ciał stałych (metale, dielektryki, półprzewodniki). Dopiero w oparciu o mechanikę kwantową możliwe było spójne wyjaśnienie takich zjawisk jak ferromagnetyzm, nadciekłość i nadprzewodnictwo, zrozumienie natury takich obiektów astrofizycznych jak białe karły i gwiazdy neutronowe oraz wyjaśnienie mechanizmu reakcji termojądrowych w Słońcu i gwiazdy. Istnieją również zjawiska (na przykład efekt Josephsona), w których prawa mechaniki kwantowej bezpośrednio manifestują się w zachowaniu obiektów makroskopowych.

Zatem prawa mechaniki kwantowej leżą u podstaw działania reaktorów jądrowych, determinują możliwość reakcji termojądrowych w warunkach ziemskich, przejawiają się w szeregu zjawisk w metalach i półprzewodnikach stosowanych w najnowszej technologii itp. Podstawą tak szybko rozwijającej się dziedziny fizyki, jaką jest elektronika kwantowa, jest kwantowo-mechaniczna teoria promieniowania. Prawa mechaniki kwantowej wykorzystywane są w ukierunkowanych poszukiwaniach i tworzeniu nowych materiałów (zwłaszcza materiałów magnetycznych, półprzewodnikowych i nadprzewodnikowych). Mechanika kwantowa staje się w dużej mierze nauką „inżynierską”, której znajomość jest niezbędna nie tylko fizykom badawczym, ale także inżynierom.

1. Historia powstania mechaniki kwantowej

Na początku XX wieku. odkryto dwie (pozornie niezwiązane ze sobą) grupy zjawisk, wskazujące na niemożność zastosowania zwykłej klasycznej teorii pola elektromagnetycznego (klasycznej elektrodynamiki) do procesów oddziaływania światła z materią oraz do procesów zachodzących w atomie. Pierwsza grupa zjawisk związana była z eksperymentalnym ustaleniem dwoistej natury światła (dualizm światła); drugim jest niemożność wyjaśnienia na podstawie klasycznych koncepcji stabilnego istnienia atomu, a także wzorców widmowych odkrytych w badaniach emisji światła przez atomy. Ustalenie powiązań pomiędzy tymi grupami zjawisk i próby ich wyjaśnienia w oparciu o nową teorię doprowadziły ostatecznie do odkrycia praw mechaniki kwantowej.

Po raz pierwszy pojęcia kwantowe (w tym stała kwantowa H) zostały wprowadzone do fizyki w pracy M. Plancka (1900), poświęconej teorii promieniowania cieplnego.

Istniejąca wówczas teoria promieniowania cieplnego, zbudowana w oparciu o elektrodynamikę klasyczną i fizykę statystyczną, doprowadziła do bezsensownego wniosku, że nie da się osiągnąć równowagi termicznej (termodynamicznej) pomiędzy promieniowaniem a materią, gdyż Wszelka energia prędzej czy później musi zamienić się w promieniowanie. Planck rozwiązał tę sprzeczność i uzyskał wyniki doskonale zgodne z eksperymentem, opartym na niezwykle śmiałej hipotezie. W przeciwieństwie do klasycznej teorii promieniowania, która traktuje emisję fal elektromagnetycznych jako proces ciągły, Planck sugerował, że światło emitowane jest w określonych porcjach energii – kwantach. Wielkość takiego kwantu energii zależy od częstotliwości światła n i jest równa mi=H N. Z tej pracy Plancka można prześledzić dwie wzajemnie powiązane linie rozwoju, których kulminacją było ostateczne sformułowanie mechaniki kwantowej w jej dwóch postaciach (1927).

Pierwsza zaczyna się od pracy Einsteina (1905), w której podana została teoria efektu fotoelektrycznego – zjawiska wyrzucania przez światło elektronów z materii.

Rozwijając koncepcję Plancka, Einstein zasugerował, że światło nie tylko jest emitowane i pochłaniane w dyskretnych porcjach – kwantach promieniowania, ale także rozchodzenie się światła zachodzi w takich kwantach, co oznacza, że ​​dyskretność jest nieodłączną cechą samego światła – że samo światło składa się z oddzielnych części – kwanty światła (które później nazwano fotonami). Energia fotonu mi jest powiązana z częstotliwością oscylacji fali n poprzez relację Plancka mi= HN.

Dalsze dowody na korpuskularną naturę światła uzyskał w 1922 r. A. Compton, który wykazał eksperymentalnie, że rozpraszanie światła na wolnych elektronach zachodzi zgodnie z prawami sprężystego zderzenia dwóch cząstek - fotonu i elektronu. Kinematykę takiego zderzenia wyznaczają zasady zachowania energii i pędu, a foton wraz z energią mi= HN należy przypisać impuls p = godz / l = godz n / do, Gdzie l- długość fali świetlnej.

Energia i pęd fotonu są powiązane wzorem E = cp , obowiązuje w mechanice relatywistycznej dla cząstki o masie zerowej. W ten sposób udowodniono eksperymentalnie, że oprócz znanych właściwości falowych (objawiających się na przykład w dyfrakcji światła) światło ma również właściwości korpuskularne: składa się niejako z cząstek - fotonów. Ujawnia to dualizm światła, jego złożoną naturę korpuskularno-falową.

Dualizm jest już zawarty w formule mi= HN, co nie pozwala na wybranie żadnego z dwóch pojęć: po lewej stronie równości energia mi odnosi się do cząstki, a po prawej - częstotliwość n jest cechą fali. Powstała formalna sprzeczność logiczna: do wyjaśnienia niektórych zjawisk należało przyjąć, że światło ma naturę falową, a do wyjaśnienia innych – korpuskularną. Zasadniczo rozwiązanie tej sprzeczności doprowadziło do stworzenia fizycznych podstaw mechaniki kwantowej.

W 1924 r. L. de Broglie, próbując znaleźć wyjaśnienie warunków kwantyzacji orbit atomowych postulowanych w 1913 r. przez N. Bohra, wysunął hipotezę o powszechności dualizmu falowo-cząsteczkowego. Według de Broglie’a każdą cząstkę, niezależnie od jej charakteru, należy skojarzyć z falą, której długość L związane z pędem cząstki R stosunek. Zgodnie z tą hipotezą nie tylko fotony, ale także wszystkie „zwykłe cząstki” (elektrony, protony itp.) mają właściwości falowe, co w szczególności powinno objawiać się zjawiskiem dyfrakcji.

W 1927 roku K. Davisson i L. Germer po raz pierwszy zaobserwowali dyfrakcję elektronów. Później odkryto właściwości falowe w innych cząstkach, a słuszność wzoru de Broglie'a potwierdzono eksperymentalnie

W 1926 roku E. Schrödinger zaproponował równanie opisujące zachowanie takich „fal” w zewnętrznych polach sił. W ten sposób powstała mechanika falowa. Równanie falowe Schrödingera jest podstawowym równaniem nierelatywistycznej mechaniki kwantowej.

W 1928 r. P. Dirac sformułował równanie relatywistyczne opisujące ruch elektronu w polu sił zewnętrznych; Równanie Diraca stało się jednym z podstawowych równań relatywistycznej mechaniki kwantowej.

Drugą linię rozwoju rozpoczynają prace Einsteina (1907), poświęcone teorii pojemności cieplnej ciał stałych (jest to jednocześnie uogólnienie hipotezy Plancka). Promieniowanie elektromagnetyczne, które jest zbiorem fal elektromagnetycznych o różnych częstotliwościach, jest dynamicznie równoważne pewnemu zestawowi oscylatorów (układów oscylacyjnych). Emisja lub absorpcja fal jest równoważna wzbudzeniu lub tłumieniu odpowiednich oscylatorów. Fakt, że emisja i absorpcja promieniowania elektromagnetycznego przez materię zachodzi w postaci kwantów energii H N. Einstein uogólnił tę ideę kwantowania energii oscylatora pola elektromagnetycznego na oscylator o dowolnym charakterze. Ponieważ ruch termiczny Ponieważ ciała stałe sprowadzają się do drgań atomów, wówczas ciało stałe jest dynamicznie równoważne zespołowi oscylatorów. Energia takich oscylatorów jest również kwantyzowana, tj. różnica pomiędzy sąsiednimi poziomami energii (energiami, jakie może posiadać oscylator) musi być równa H n, gdzie n jest częstotliwością drgań atomów.

Zagrała teoria Einsteina, udoskonalona przez P. Debye'a, M. Borna i T. Karmana wybitna rola w rozwoju teorii ciał stałych.

W 1913 r. N. Bohr zastosował ideę kwantyzacji energii do teorii budowy atomu, której model planetarny wynikał z wyników eksperymentów E. Rutherforda (1911). Według tego modelu w środku atomu znajduje się dodatnio naładowane jądro, w którym skoncentrowana jest prawie cała masa atomu; Ujemnie naładowane elektrony krążą wokół jądra.

Rozważanie takiego ruchu na gruncie klasycznych koncepcji doprowadziło do paradoksalnego rezultatu - niemożliwości stabilnego istnienia atomów: zgodnie z elektrodynamiką klasyczną elektron nie może poruszać się stabilnie po orbicie, gdyż wirujący ładunek elektryczny musi emitować fale elektromagnetyczne i dlatego , strać energię. Promień jego orbity powinien się zmniejszać iw czasie około 10 –8 sekund elektron powinien spaść na jądro. Oznaczało to, że prawa fizyki klasycznej nie mają zastosowania do ruchu elektronów w atomie, ponieważ atomy istnieją i są niezwykle stabilne.

Aby wyjaśnić stabilność atomów, Bohr zasugerował, że ze wszystkich orbit dozwolonych przez mechanikę Newtona dla ruchu elektronu w polu elektrycznym jądra atomowego, w rzeczywistości realizowane są tylko te, które spełniają określone warunki kwantyzacji. Oznacza to, że w atomie istnieją (podobnie jak w oscylatorze) dyskretne poziomy energii.

Poziomy te odpowiadają pewnemu wzorowi, wyprowadzonemu przez Bohra na podstawie połączenia praw mechaniki Newtona z warunkami kwantyzacji wymagającymi, aby wielkość działania na orbicie klasycznej była całkowitą wielokrotnością stałej Plancka.

Bohr postulował, że elektron znajdujący się na pewnym poziomie energii (tj. wykonujący ruch orbitalny, na jaki pozwalają warunki kwantyzacji), nie emituje fal świetlnych.

Promieniowanie zachodzi tylko wtedy, gdy elektron przemieszcza się z jednej orbity na drugą, czyli z jednego poziomu energetycznego mi ja, do innego o mniejszej energii mi k, w tym przypadku rodzi się kwant światła o energii równej różnicy energii poziomów, pomiędzy którymi następuje przejście:

H n= mi I- mi k. (1)

W ten sposób to powstaje widmo liniowe- główna cecha widm atomowych, otrzymana przez Bohra poprawna formuła dla częstotliwości linii widmowych atomu wodoru (i atomów wodoropodobnych), obejmujących zestaw odkrytych wcześniej wzorów empirycznych.

Istnienie poziomów energetycznych w atomach bezpośrednio potwierdziły eksperymenty Franka-Hertza (1913-14). Stwierdzono, że elektrony bombardujące gaz tracą podczas zderzenia z atomami tylko pewną część energii, równą różnicy poziomów energetycznych atomu.

N. Bohra, wykorzystując stałą kwantową H, odzwierciedlając dualizm światła, pokazało, że wielkość ta determinuje także ruch elektronów w atomie (i że prawa tego ruchu różnią się znacznie od praw Mechanika klasyczna). Fakt ten został później wyjaśniony na podstawie uniwersalności dualności falowo-cząsteczkowej zawartej w hipotezie de Broglie'a. Sukces teorii Bohra, podobnie jak poprzednie sukcesy teorii kwantów, został osiągnięty poprzez naruszenie logicznej integralności teorii: z jednej strony wykorzystano mechanikę Newtona, z drugiej zaś obce jej sztuczne zasady kwantyzacji, co zaprzeczało także klasycznej elektrodynamice. Ponadto teoria Bohra nie była w stanie wyjaśnić ruchu elektronów w złożonych atomach i powstawania wiązań molekularnych.

„Półklasyczna” teoria Bohra również nie była w stanie odpowiedzieć na pytanie, w jaki sposób elektron porusza się podczas przejścia z jednego poziomu energii na drugi.

Dalszy intensywny rozwój zagadnień teorii atomu doprowadził do przekonania, że ​​przy zachowaniu klasycznego obrazu ruchu elektronu na orbicie nie da się zbudować logicznie spójnej teorii.

Świadomość tego, że ruchu elektronów w atomie nie da się opisać w kategoriach (pojęciach) mechaniki klasycznej (jako ruch po określonej trajektorii), doprowadziła do wniosku, że kwestia ruchu elektronu pomiędzy poziomami jest nie do pogodzenia z charakteru praw rządzących zachowaniem elektronów w atomie i że potrzebna jest nowa teoria, która obejmowałaby jedynie wielkości związane z początkowym i końcowym stanem stacjonarnym atomu.

W 1925 roku W. Heisenbergowi udało się skonstruować formalny schemat, w którym zamiast współrzędnych i prędkości elektronu pojawiały się pewne abstrakcyjne wielkości algebraiczne - macierze; związek między macierzami a obserwowalnymi wielkościami (poziomami energii i intensywnościami przejść kwantowych) został określony za pomocą prostych, spójnych reguł. Prace Heisenberga opracowali M. Born i P. Jordan. W ten sposób powstała mechanika macierzowa. Wkrótce po pojawieniu się równania Schrödingera wykazano matematyczną równoważność fali (w oparciu o równanie Schrödingera) i mechaniki macierzowej. W 1926 roku M. Born przedstawił probabilistyczną interpretację fal de Broglie'a (patrz poniżej).

Pochodzące z tego samego okresu prace Diraca odegrały ważną rolę w powstaniu mechaniki kwantowej. Ostateczne ukształtowanie się mechaniki kwantowej jako spójnej teorii fizycznej o jasnych podstawach i harmonijnym aparacie matematycznym nastąpiło po pracy Heisenberga (1927), w której sformułowano relację niepewności - najważniejsza zależność rzucająca światło na fizyczne znaczenie równań mechaniki kwantowej, jej powiązanie z mechaniką klasyczną i innymi podstawowymi zagadnieniami oraz jakościowymi wynikami mechaniki kwantowej. Prace te były kontynuowane i uogólnione w pracach Bohra i Heisenberga.

Szczegółowa analiza widm atomów doprowadziła do koncepcji (po raz pierwszy wprowadzonej przez J. Yu. Uhlenbecka i S. Goudsmita i rozwiniętej przez W. Pauli) że elektronowi oprócz ładunku i masy należy przypisać jeszcze jedną cechę wewnętrzną (liczbę kwantową) - kręcić się.

Ważną rolę odegrała tzw. zasada wykluczenia odkryta przez W. Pauliego (1925), która ma fundamentalne znaczenie w teorii atomu, cząsteczki, jądra i ciała stałego.

W krótkim czasie mechanikę kwantową z powodzeniem zastosowano do szerokiego zakresu zjawisk. Powstały teorie widm atomowych, budowy molekularnej, wiązań chemicznych, układu okresowego D.I. Mendelejewa, przewodnictwa metali i ferromagnetyzmu. Te i wiele innych zjawisk stało się (przynajmniej jakościowo) jasne.

Mechanika kwantowa odnosi się do fizycznej teorii dynamicznego zachowania form promieniowania i materii. Na tej podstawie zbudowana jest współczesna teoria ciał fizycznych, cząsteczek i cząstek elementarnych. W ogóle, mechanika kwantowa został stworzony przez naukowców, którzy starali się zrozumieć strukturę atomu. Przez wiele lat legendarni fizycy badali cechy i kierunki chemii oraz śledzili historyczny czas wydarzeń.

Taka koncepcja jak mechanika kwantowa, powstało podczas przez długie lata. W 1911 r. zaproponowali naukowcy N. Bohr model nuklearny atom, który przypominał model Kopernika z jego układem słonecznym. Mimo wszystko Układ Słoneczny miał w środku rdzeń, wokół którego obracały się elementy. W oparciu o tę teorię obliczenia fizyczne i właściwości chemiczne niektóre substancje zbudowane z prostych atomów.

Jednym z ważnych zagadnień w takiej teorii jest mechanika kwantowa- taka jest natura sił, które wiążą atom. Dzięki prawu Coulomba E. Rutherford wykazał, że prawo to obowiązuje na ogromną skalę. Następnie należało określić, w jaki sposób elektrony poruszają się po swojej orbicie. Pomógł w tym momencie

W rzeczywistości, mechanika kwantowa często stoi w sprzeczności z pojęciami takimi jak zdrowy rozsądek. Wraz z tym, że nasz zdrowy rozsądek działa i pokazuje tylko takie rzeczy, które można wynieść z codziennego doświadczenia. A z kolei codzienne doświadczenie zajmuje się wyłącznie zjawiskami makroświata i duże obiekty, podczas gdy cząstki materialne na poziomie subatomowym i atomowym zachowują się zupełnie inaczej. Przykładowo w makrokosmosie jesteśmy w stanie łatwo określić lokalizację dowolnego obiektu za pomocą przyrządów i metod pomiarowych. A jeśli mierzymy współrzędne mikrocząstki elektronowej, to po prostu niedopuszczalne jest zaniedbanie interakcji obiektu pomiarowego i urządzenia pomiarowego.

Inaczej mówiąc, możemy tak powiedzieć mechanika kwantowa to teoria fizyczna ustalająca prawa ruchu różnych mikrocząstek. Z mechaniki klasycznej, która opisuje ruch mikrocząstek, mechanika kwantowa różni się pod dwoma względami:

Prawdopodobnego charakteru niektórych wielkości fizycznych, na przykład prędkości i położenia mikrocząstki, nie można dokładnie określić, można jedynie obliczyć prawdopodobieństwo ich wartości;

Dyskretna zmiana, na przykład energia mikrocząstki, ma tylko określone wartości.

Mechanika kwantowa jest również kojarzony z takim pojęciem jak kryptografia kwantowa, czyli szybko rozwijająca się technologia, która może zmienić świat. Kryptografia kwantowa ma na celu ochronę komunikacji i prywatności informacji. Kryptografia ta opiera się na pewnych zjawiskach i uwzględnia takie przypadki, w których można przekazać informację za pomocą obiektu mechaniki kwantowej. To tutaj proces odbierania i wysyłania informacji determinowany jest za pomocą elektronów, fotonów i innych środków fizycznych. Dzięki kryptografia kwantowa możliwe jest stworzenie i zaprojektowanie systemu komunikacji wykrywającego podsłuch.

W tej chwili istnieje sporo materiałów oferujących badanie takiej koncepcji jak podstawy mechaniki kwantowej i kierunki oraz działania kryptografii kwantowej. Aby zdobyć wiedzę w tej złożonej teorii, konieczne jest dokładne przestudiowanie i zgłębienie tego obszaru. W końcu mechanika kwantowa nie jest koncepcją łatwą, którą od wielu lat badają i udowadniają najwięksi naukowcy.

Mechanika kwantowa to mechanika mikroświata. Badane przez nią zjawiska wykraczają w dużej mierze poza naszą percepcję zmysłową, dlatego nie należy dziwić się pozornemu paradoksowi praw rządzących tymi zjawiskami.

Podstawowych praw mechaniki kwantowej nie można sformułować jako logicznej konsekwencji wyników pewnego zbioru zasad podstawowych eksperymenty fizyczne. Innymi słowy, sformułowanie mechaniki kwantowej oparte na systemie eksperymentalnie sprawdzonych aksjomatów jest nadal nieznane. Co więcej, niektóre podstawowe zasady mechaniki kwantowej zasadniczo na to nie pozwalają badania eksperymentalne. Nasza wiara w słuszność mechaniki kwantowej opiera się na fakcie, że wszystko rezultaty fizyczne teorie zgadzają się z eksperymentem. Zatem eksperymentalnie testuje się jedynie konsekwencje podstawowych zasad mechaniki kwantowej, a nie jej podstawowe prawa. Najwyraźniej główne trudności pojawiające się w początkowych badaniach mechaniki kwantowej są związane z tymi okolicznościami.

Trudności tego samego rodzaju, choć oczywiście znacznie większe, stanęły przed twórcami mechaniki kwantowej. Eksperymenty wyraźnie wykazały istnienie specjalnych praw kwantowych w mikroświecie, ale w żaden sposób nie sugerowały formy teorii kwantowej. To może wyjaśniać prawdziwie dramatyczną historię powstania mechaniki kwantowej, a w szczególności fakt, że początkowe sformułowania mechaniki kwantowej miały charakter wyłącznie receptowy. Zawierały one pewne reguły, które umożliwiały obliczanie wielkości mierzonych eksperymentalnie, a fizyczna interpretacja teorii pojawiła się po zasadniczym stworzeniu jej matematycznego formalizmu.

Konstruując mechanikę kwantową w tym kursie, nie będziemy się nią kierować ścieżka historyczna. Opiszemy serię bardzo krótko zjawiska fizyczne, próby wyjaśnienia, co na gruncie praw fizyki klasycznej doprowadziło do trudności nie do pokonania. Następnie spróbujemy dowiedzieć się, które cechy schematu mechaniki klasycznej opisanego w poprzednich akapitach należy zachować w mechanice mikroświata, a co można i należy porzucić. Zobaczymy, że odrzucenie tylko jednego twierdzenia mechaniki klasycznej, a mianowicie twierdzenia, że ​​obserwable są funkcjami w przestrzeni fazowej, pozwoli nam na skonstruowanie schematu mechaniki opisującego układy o zachowaniu znacząco odbiegającym od klasycznego. Na koniec w kolejnych akapitach upewnimy się, że skonstruowana teoria jest bardziej ogólna niż mechanika klasyczna i zawiera tę ostatnią jako przypadek ograniczający.

Historycznie rzecz biorąc, pierwszą hipotezę kwantową wysunął Planck w 1900 roku w związku z teorią promieniowania równowagowego. Planckowi udało się uzyskać zgodny z eksperymentem wzór na rozkład widmowy energii promieniowania cieplnego, wysuwając założenie, że promieniowanie elektromagnetyczne jest emitowane i pochłaniane w dyskretnych porcjach – kwantach, których energia jest proporcjonalna do częstotliwości promieniowania

gdzie jest częstotliwością oscylacji fali świetlnej i jest stałą Plancka.

Hipoteza Plancka dotycząca kwantów światła pozwoliła Einsteinowi na niezwykle proste wyjaśnienie praw efektu fotoelektrycznego (1905). Zjawisko efektu fotoelektrycznego polega na tym, że jest pod wpływem Strumień świetlny Elektrony są wybijane z metalu. Głównym zadaniem teorii efektu fotoelektrycznego jest znalezienie zależności energii wyrzucanych elektronów od charakterystyki strumienia świetlnego. Niech V będzie pracą, jaką należy wykonać, aby wybić elektron z metalu (funkcja pracy). Wtedy prawo zachowania energii prowadzi do zależności

gdzie T jest energią kinetyczną wyrzuconego elektronu. Widzimy, że energia ta zależy liniowo od częstotliwości i nie zależy od natężenia strumienia światła. Ponadto przy częstotliwości (czerwona granica efektu fotoelektrycznego) zjawisko efektu fotoelektrycznego staje się niemożliwe, ponieważ . Wnioski te, oparte na hipotezie kwantów światła, są całkowicie zgodne z eksperymentem. Jednocześnie, zgodnie z teorią klasyczną, energia wyrzucanych elektronów powinna zależeć od natężenia fal świetlnych, co stoi w sprzeczności z wynikami eksperymentalnymi.

Einstein rozszerzył ideę kwantów światła wprowadzając pęd kwant światła według formuły

Tutaj k jest tzw. wektorem falowym, który ma kierunek propagacji fal świetlnych; długość tego wektora k jest powiązana z długością fali, częstotliwością i prędkością światła za pomocą zależności

Dla kwantów światła obowiązuje następujący wzór:

co jest szczególnym przypadkiem wzoru teorii względności

dla cząstki o masie spoczynkowej .

Należy zauważyć, że historycznie pierwsze hipotezy kwantowe dotyczyły praw promieniowania i absorpcji fal świetlnych, czyli elektrodynamiki, a nie mechaniki. Szybko jednak stało się jasne, że nie tylko promieniowanie elektromagnetyczne, ale także układy atomowe charakteryzują się dyskretnymi wartościami szeregu wielkości fizycznych. Doświadczenia Franka i Hertza (1913) wykazały, że podczas zderzeń elektronów z atomami energia elektronów zmienia się w dyskretnych fragmentach. Wyniki tych eksperymentów można wytłumaczyć faktem, że energia atomów może mieć tylko pewne dyskretne wartości. Później, w 1922 roku, eksperymenty Sterna i Gerlacha wykazały, że rzut pędu układów atomowych na określony kierunek ma podobną właściwość. Obecnie powszechnie wiadomo, że dyskretność wartości szeregu obserwabli jest wprawdzie charakterystyczną, ale nie obowiązkową cechą systemów mikroświatów. Na przykład energia elektronu w atomie wodoru ma wartości dyskretne, a energia swobodnie poruszającego się elektronu może przyjąć dowolną wartości dodatnie. Aparat matematyczny mechanikę kwantową należy dostosować do opisu obserwabli, które przyjmują zarówno wartości dyskretne, jak i ciągłe.

W 1911 roku odkrył Rutherford jądro atomowe oraz zaproponowano planetarny model atomu (eksperymenty Rutherforda dotyczące rozpraszania cząstek alfa na próbkach różnych pierwiastków wykazały, że atom ma jądro naładowane dodatnio, którego ładunek jest równy numerowi pierwiastka w układzie okresowym, a jest ładunkiem elektronu, wymiary jądra nie przekraczają samych atomów, a wymiary liniowe wynoszą około cm). Planetarny model atomu zaprzecza podstawowym zasadom elektrodynamiki klasycznej. Rzeczywiście, poruszając się po jądrze po klasycznych orbitach, elektrony, jak wszelkie przyspieszone ładunki, powinny emitować fale elektromagnetyczne. W takim przypadku elektrony muszą stracić swoją energię i ostatecznie wpaść do jądra. Dlatego taki atom nie może być stabilny, co oczywiście nie jest prawdą. Jednym z głównych zadań mechaniki kwantowej jest wyjaśnienie stabilności i opisanie struktury atomów i cząsteczek jako układów składających się z dodatnio naładowanych jąder i elektronów.

Zjawisko dyfrakcji mikrocząstek wydaje się całkowicie zaskakujące z punktu widzenia mechaniki klasycznej. Zjawisko to przewidział de Broglie w 1924 roku, który zasugerował, że swobodnie poruszająca się cząstka o pędzie p

a energia E w pewnym sensie odpowiada fali o wektorze falowym k i częstotliwości , i

czyli zależności (1) i (2) obowiązują nie tylko dla kwantów światła, ale także dla cząstek. Fizyczną interpretację fal de Broglie'a podał później Born i na razie nie będziemy się nią zajmować. Jeśli poruszająca się cząstka odpowiada fali, to niezależnie od dokładnego znaczenia nadawanego tym słowom, naturalne jest oczekiwanie, że przejawi się to w istnieniu zjawisk dyfrakcyjnych dla cząstek. Dyfrakcję elektronów po raz pierwszy zaobserwowano w eksperymentach Davissona i Germera w 1927 r. Następnie zaobserwowano zjawiska dyfrakcyjne dla innych cząstek.

Pokażmy, że zjawiska dyfrakcyjne są niezgodne z klasycznymi koncepcjami ruchu cząstek po trajektoriach. Najwygodniej jest przeprowadzić argumentację na przykładzie eksperyment myślowy poprzez dyfrakcję wiązki elektronów na dwóch szczelinach, której schemat pokazano na ryc. 1. Niech elektrony ze źródła A przeniosą się na ekran B i przechodząc przez szczeliny i w nim, spadną na ekran B.

Nas interesuje rozkład elektronów wzdłuż współrzędnej y padającej na ekran B. Zjawisko dyfrakcji na jednej i dwóch szczelinach zostało dobrze zbadane i możemy stwierdzić, że rozkład elektronów ma postać a, pokazaną na rys. 2, jeśli otwarta jest tylko pierwsza szczelina, widok (rys. 2), - jeśli druga jest otwarta i widok c, - jeśli obie szczeliny są otwarte. Jeśli założymy, że każdy elektron poruszał się po określonej klasycznej trajektorii, to wszystkie elektrony, które trafiły na ekran B, można podzielić na dwie grupy w zależności od tego, przez którą szczelinę przeszły. W przypadku elektronów pierwszej grupy jest całkowicie obojętne, czy druga przerwa jest otwarta, a zatem one

rozkład na ekranie powinien być przedstawiony krzywą a; podobnie elektrony drugiej grupy muszą mieć rozkład. Zatem w przypadku, gdy obie szczeliny są otwarte, należy otrzymać rozkład na ekranie, będący sumą rozkładów a i b. Taka suma rozkładów nie ma nic wspólnego z wzorcem interferencji. Ta sprzeczność pokazuje, że podział elektronów na grupy w oparciu o szczelinę, przez którą przeszły, jest w warunkach opisywanego eksperymentu niemożliwy, co oznacza, że ​​zmuszeni jesteśmy porzucić koncepcję trajektorii.

Od razu pojawia się pytanie: czy można zaprojektować doświadczenie w taki sposób, aby dowiedzieć się, przez którą szczelinę przeszedł elektron? Oczywiście taki układ eksperymentalny jest możliwy, wystarczy w tym celu umieścić źródło światła pomiędzy ekranami a B i obserwować rozpraszanie kwantów światła na elektronach. Aby uzyskać wystarczającą rozdzielczość, musimy zastosować kwanty o długości fali rzędu rzędu wielkości nieprzekraczającej odległości między szczelinami, czyli o odpowiednio dużej energii i pędzie. Obserwując kwanty rozproszone przez elektrony, możemy faktycznie określić, przez którą szczelinę przeszedł elektron. Jednakże oddziaływanie kwantów z elektronami spowoduje niekontrolowaną zmianę ich pędów, w związku z czym rozkład elektronów uderzających w ekran powinien się zmienić. Dochodzimy zatem do wniosku, że na pytanie, przez którą szczelinę przeszedł elektron, można odpowiedzieć jedynie zmieniając zarówno warunki, jak i końcowy wynik eksperymentu.

W tym przykładzie mamy do czynienia z następującą ogólną cechą zachowania układów kwantowych. Eksperymentator nie ma możliwości monitorowania przebiegu eksperymentu, gdyż prowadzi to do zmiany jego końcowego wyniku. Ta cecha zachowania kwantowego jest ściśle powiązana z cechami pomiarów w mikroświecie. Jakikolwiek pomiar jest możliwy tylko wtedy, gdy system współpracuje z przyrząd pomiarowy. Interakcja ta prowadzi do zaburzenia ruchu układu. W fizyce klasycznej zawsze tak się zakłada

zakłócenie to może być tak małe, jak jest to pożądane, podobnie jak czas trwania procesu pomiarowego. Dlatego zawsze możliwy jest jednoczesny pomiar dowolnej liczby obserwowalnych.

Szczegółowa analiza procesu pomiaru niektórych obserwabli dla mikrosystemów, którą można znaleźć w wielu podręcznikach mechaniki kwantowej, pokazuje, że wraz ze wzrostem dokładności pomiaru obserwabli wpływ na układ wzrasta, a pomiar wprowadza niekontrolowane zmiany wartości liczbowych innych obserwacji. Prowadzi to do tego, że jednocześnie precyzyjny pomiar niektórych obserwowalnych staje się zasadniczo niemożliwe. Na przykład, jeśli do pomiaru współrzędnych cząstki stosuje się rozpraszanie kwantów światła, wówczas błąd takiego pomiaru jest rzędu długości fali światła. Dokładność pomiaru można zwiększyć wybierając kwanty o krótszej długości fali, a co za tym idzie, o większym impulsie. W tym przypadku do wartości liczbowych pędu cząstki wprowadzana jest niekontrolowana zmiana kolejności pędu kwantowego. Dlatego błędy pomiaru współrzędnych i pędu są powiązane zależnością

Bardziej precyzyjne rozumowanie pokazuje, że relacja ta łączy tylko tę samą współrzędną i rzut pędu. Relacje, które wiążą zasadniczo możliwą dokładność jednoczesnego pomiaru dwóch obserwowalnych, nazywane są relacjami niepewności Heisenberga. Ich dokładne sformułowanie zostanie podane w kolejnych akapitach. Obserwowalne, na które relacje niepewności nie nakładają żadnych ograniczeń, są jednocześnie mierzalne. Zobaczymy później, że oba są mierzalne współrzędne kartezjańskie cząstki czyli rzuty pędu, a jednocześnie niezmierzalne - współrzędne o tej samej nazwie i rzut pędu lub dwa kartezjańskie rzuty pędu. Konstruując mechanikę kwantową, musimy pamiętać o możliwości istnienia jednocześnie wielkości niemierzalnych.

Teraz, po krótkim wstępie fizycznym, spróbujemy odpowiedzieć na postawione już pytanie: jakie cechy mechaniki klasycznej należy zachować, a jakie w sposób naturalny porzucić przy konstruowaniu mechaniki mikroświata. Podstawowymi pojęciami mechaniki klasycznej były pojęcia obserwowalnego i stanu. Zadaniem teorii fizycznej jest przewidywanie wyników eksperymentów, a eksperyment jest zawsze pomiarem jakiejś cechy układu lub obserwowalnej w określonych warunkach, które określają stan układu. Dlatego muszą pojawić się pojęcia obserwowalnego i stanu

w dowolnej teorii fizycznej. Z punktu widzenia eksperymentatora zdefiniowanie obserwowalnego oznacza określenie metody jego pomiaru. Obserwable będziemy oznaczać symbolami a, b, c,... i na razie nie będziemy robić na ich temat żadnych założeń. charakter matematyczny(przypomnijmy, że w mechanice klasycznej obserwable są funkcjami w przestrzeni fazowej). Tak jak poprzednio, zbiór obserwabli będziemy oznaczać przez .

Rozsądne jest założenie, że warunki eksperymentalne determinują przynajmniej rozkłady prawdopodobieństwa wyników pomiarów wszystkich obserwabli, zatem zasadne jest zachowanie definicji stanu podanej w § 2. Tak jak poprzednio, stany będziemy oznaczać poprzez miarę prawdopodobieństwa odpowiadającą obserwowalnemu a na osi rzeczywistej poprzez funkcję rozkładu obserwowalnego a w stanie poprzez i wreszcie średnią wartość obserwowalnego a w stanie do .

Teoria musi zawierać definicję funkcji obserwowalnego. Dla eksperymentatora stwierdzenie, że obserwowalne b jest funkcją obserwowalnego a, oznacza, że ​​aby zmierzyć b wystarczy zmierzyć a, a jeśli wynikiem pomiaru obserwowalnego a jest liczba , to wartość liczbowa obserwowalnego b wynosi . Dla odpowiednich miar a i prawdopodobieństwa równość

na jakiekolwiek warunki.

Należy zauważyć, że wszystkie możliwe funkcje jednego obserwowalnego a są mierzalne w tym samym czasie, gdyż aby zmierzyć te obserwable wystarczy zmierzyć obserwowalne a. Później zobaczymy, że w mechanice kwantowej ten przykład wyczerpuje przypadki jednoczesnej mierzalności obserwabli, czyli jeśli obserwable są mierzalne w tym samym czasie, to istnieje obserwowalne a i taka funkcja, że ​​.

Wśród wielu funkcji obserwowalnych a są oczywiście zdefiniowane, gdzie jest liczba rzeczywista. Istnienie pierwszej z tych funkcji pokazuje, że obserwowalne można pomnożyć przez liczby rzeczywiste. Z stwierdzenia, że ​​obserwowalna jest stała wynika, że ​​jej wartość liczbowa w dowolnym stanie pokrywa się z tą stałą.

Spróbujmy teraz dowiedzieć się, jakie znaczenie można nadać sumie i iloczynowi obserwabli. Operacje te byłyby zdefiniowane, gdybyśmy mieli definicję funkcji dwóch obserwabli, tu jednak pojawiają się zasadnicze trudności związane z możliwością istnienia jednocześnie niemierzalnych obserwabli. Jeśli a i b

są jednocześnie mierzalne, to definicja jest całkowicie podobna do definicji . Aby zmierzyć obserwable, wystarczy zmierzyć obserwable a i b, a taki pomiar doprowadzi do wartości liczbowej , gdzie są odpowiednio wartości liczbowe obserwabli a i b. W przypadku niemierzalnych, jednocześnie obserwowalnych a i b, nie ma rozsądnej definicji funkcji. Okoliczność ta zmusza nas do porzucenia założenia, że ​​obserwable są funkcjami w przestrzeni fazowej, gdyż mamy fizyczne podstawy, aby uważać q i p za jednocześnie niemierzalne i szukać obserwabli wśród obiektów matematycznych o różnym charakterze.

Widzimy, że możliwe jest określenie sumy i iloczynu za pomocą pojęcia funkcji dwóch obserwowalnych tylko wtedy, gdy są one jednocześnie mierzalne. Możliwe jest jednak inne podejście, które pozwala wprowadzić sumę w przypadku ogólnym. Wiemy, że wszelkie informacje o stanach i obserwabliach uzyskujemy w wyniku pomiarów, zatem zasadnym jest założenie, że stanów jest wystarczająco dużo, aby odróżnić od nich obserwabli, i podobnie jest wystarczająco dużo obserwabli, aby odróżnić od nich stany.

Dokładniej, zakładamy to z równości

obowiązuje dla dowolnego stanu a, wynika, że ​​obserwacje aib pokrywają się i z równości

ważne dla dowolnego obserwowalnego a, wynika z tego, że STANY i .

Pierwsze z przyjętych założeń pozwala zdefiniować sumę obserwabli jako taką, dla której zachodzi równość

w każdym stanie Zauważmy od razu, że równość ta jest wyrazem znanego twierdzenia teorii prawdopodobieństwa o wartości średniej sumy tylko w przypadku, gdy obserwacje a i b mają wspólną dystrybuantę. Taki funkcja ogólna rozkłady mogą istnieć (a w mechanice kwantowej faktycznie istnieją) tylko dla wielkości jednocześnie mierzalnych. W tym przypadku określenie kwoty za pomocą wzoru (5) pokrywa się z wcześniejszym. Podobna definicja produktu jest niemożliwa, ponieważ jest to średni produkt

nie jest równy iloczynowi średnich nawet dla jednocześnie mierzalnych obserwowalnych.

Definicja sumy (5) nie zawiera żadnego wskazania sposobu pomiaru obserwowalnego przy wykorzystaniu znanych metod pomiaru obserwowalnych aib iw tym sensie ma charakter dorozumiany.

Aby dać wyobrażenie o tym, jak pojęcie sumy obserwowalnych może różnić się od zwykłego pojęcia sumy zmienne losowe, podamy przykład obserwowalnego, który zostanie szczegółowo zbadany później. Pozwalać

Obserwowane H (energia jednowymiarowa Oscylator harmoniczny) jest sumą dwóch obserwacji, proporcjonalną do kwadratów pędu i położenia. Zobaczymy, że te ostatnie obserwable mogą przyjmować dowolne nieujemne wartości liczbowe, natomiast wartości obserwowanego H muszą pokrywać się z liczbami, gdzie, tj. obserwowany H z dyskretnym wartości liczbowe jest sumą obserwacji o wartościach ciągłych.

Właściwie wszystkie nasze założenia sprowadzają się do tego, że przy konstruowaniu mechaniki kwantowej zasadne jest zachowanie struktury algebry obserwowalnych mechaniki klasycznej, lecz należy zrezygnować z realizacji tej algebry funkcjami na przestrzeni fazowej, gdyż pozwalają na istnienie jednocześnie niemierzalnych obiektów obserwacyjnych.

Naszym bezpośrednim zadaniem jest sprawdzenie, czy istnieje realizacja algebry obserwacji odmienna od realizacji mechaniki klasycznej. W kolejnej części podamy przykład takiej realizacji poprzez zbudowanie skończenie wymiarowego modelu mechaniki kwantowej. W tym modelu algebra obserwabli jest algebrą operatorów samosprzężonych w -wymiarowej przestrzeni zespolonej. Studiując ten uproszczony model, będziemy w stanie prześledzić główne cechy teorii kwantowej. Jednocześnie po dokonaniu fizycznej interpretacji skonstruowanego modelu zobaczymy, że jest on zbyt ubogi, aby odpowiadał rzeczywistości. Dlatego modelu skończenie wymiarowego nie można uważać za ostateczną wersję mechaniki kwantowej. Jednak udoskonalenie tego modelu – zastąpienie go złożoną przestrzenią Hilberta – będzie wydawać się bardzo naturalne.