Pierwszy zsyntetyzowany pierwiastek chemiczny. Które pierwiastki chemiczne są dziełem człowieka? ZSRR i USA

Spośród 26 obecnie znanych pierwiastków transuranowych 24 nie występują na naszej planecie. Zostały stworzone przez człowieka. Jak syntetyzowane są pierwiastki ciężkie i superciężkie?
Pierwsza lista trzydziestu trzech domniemanych elementów, Tabela substancji należących do wszystkich królestw natury, które można uznać za najprostsze składniki ciał, została opublikowana przez Antoine'a Laurenta Lavoisiera w 1789 roku. Wraz z tlenem, azotem, wodorem, siedemnastoma metalami i kilkoma innymi prawdziwymi pierwiastkami pojawiło się w nim światło, kaloryczne i niektóre tlenki. A kiedy 80 lat później Mendelejew wymyślił układ okresowy, chemicy znali 62 pierwiastki. Na początku XX w. wierzono, że w przyrodzie występują 92 pierwiastki – od wodoru po uran, choć niektórych z nich jeszcze nie odkryto, niemniej jednak już pod koniec XIX w. naukowcy przyjęli istnienie pierwiastków podążały za uranem w układzie okresowym (transurany), ale nie można było ich znaleźć. Obecnie wiadomo, że skorupa ziemska zawiera śladowe ilości pierwiastków 93 i 94 - neptunu i plutonu. Ale historycznie rzecz biorąc, pierwiastki te najpierw uzyskano sztucznie, a dopiero potem odkryto w składzie minerałów.
Spośród 94 pierwszych pierwiastków 83 ma stabilne lub długo żyjące izotopy, których okresy półtrwania są porównywalne z wiekiem Układu Słonecznego (przybyły na naszą planetę z obłoku protoplanetarnego). Życie pozostałych 11 pierwiastków naturalnych jest znacznie krótsze, dlatego pojawiają się one w skorupie ziemskiej dopiero w wyniku rozpadu radioaktywnego na krótki czas. Ale co ze wszystkimi pozostałymi elementami, od 95 do 118? Nie ma ich na naszej planecie. Wszystkie zostały uzyskane sztucznie.
Pierwszy sztuczny
Tworzenie sztucznych elementów ma długą historię. Zasadnicza możliwość tego stała się jasna w 1932 r., kiedy Werner Heisenberg i Dmitrij Iwanenko doszli do wniosku, że jądra atomowe składają się z protonów i neutronów. Dwa lata później grupa Enrico Fermiego podjęła próbę wytworzenia transuranów poprzez napromieniowanie uranu powolnymi neutronami. Zakładano, że jądro uranu wychwyci jeden lub dwa neutrony, po czym ulegnie rozpadowi beta, tworząc pierwiastki 93 lub 94. Pośpieszyli nawet z ogłoszeniem odkrycia transuranów, które Fermi w swoim przemówieniu noblowskim w 1938 roku nazwał ausonium i hesperium. Jednak niemieccy radiochemicy Otto Hahn i Fritz Strassmann wraz z austriacką fizyką Lise Meitner szybko wykazali, że Fermi się mylił: nuklidy te były izotopami znanych już pierwiastków, powstałymi w wyniku rozszczepienia jąder uranu na pary fragmentów o mniej więcej tej samej masie . To właśnie odkrycie dokonane w grudniu 1938 r. umożliwiło stworzenie reaktora jądrowego i bomby atomowej.Pierwszym zsyntetyzowanym pierwiastkiem wcale nie był transuran, ale przepowiadany przez Mendelejewa ekmangan. Szukano go w różnych rudach, ale bezskutecznie. A w 1937 roku ekmangan, później nazwany technetem (od greckiego ??? - sztuczny), otrzymano poprzez wystrzelenie jąder deuteru w tarczę molibdenową, przyspieszaną w cyklotronie w Lawrence Berkeley National Laboratory.
Lekkie pociski
Pierwiastki od 93 do 101 otrzymano w wyniku oddziaływania jąder uranu lub kolejnych jąder transuranu z neutronami, deuteronami (jądra deuteru) lub cząstkami alfa (jądra helu). Pierwszy sukces odnieśli tu Amerykanie Edwin McMillan i Philip Abelson, którzy w 1940 roku zsyntetyzowali neptun-239, pracując nad pomysłem Fermiego: wychwytywanie wolnych neutronów przez uran-238 i późniejszy rozpad beta uranu-239. 94. pierwiastek - pluton - został odkryty po raz pierwszy podczas badań rozpadu beta neptunu-238 otrzymanego w wyniku bombardowania uranu deuteronem w cyklotronie Uniwersytetu Kalifornijskiego w Berkeley na początku 1941 roku. Wkrótce stało się jasne, że pluton-239 pod wpływem wolnych neutronów jest rozszczepialny nie gorzej niż uran-235 i może służyć jako wypełnienie bomby atomowej. Dlatego wszelkie informacje na temat produkcji i właściwości tego pierwiastka zostały utajnione, a artykuł MacMillana, Glenna Seaborga (za swoje odkrycia podzielili się Nagrodą Nobla w 1951 r.) i ich współpracowników z wiadomością o drugim transuranie ukazał się drukiem dopiero w 1946 r. Władze amerykańskie przez prawie sześć lat opóźniały się także z publikacją odkrycia 95. pierwiastka, ameryku, który pod koniec 1944 roku został wyizolowany przez grupę Seaborga z produktów bombardowania plutonu neutronami w reaktorze jądrowym. Kilka miesięcy wcześniej fizycy z tego samego zespołu uzyskali pierwszy izotop pierwiastka 96 o masie atomowej 242, zsyntetyzowany poprzez bombardowanie uranu-239 przyspieszonymi cząstkami alfa. Nadano mu nazwę kurium w uznaniu osiągnięć naukowych Piotra i Marii Curie, otwierając tym samym tradycję nadawania nazw transuranom na cześć klasyków fizyki i chemii. 60-calowy cyklotron na Uniwersytecie Kalifornijskim stał się miejscem powstania jeszcze trzy elementy: 97, 98 i 101. Pierwsze dwa otrzymały nazwy od miejsca urodzenia – berkelium i kalifornium. Berkeley został zsyntetyzowany w grudniu 1949 r. poprzez bombardowanie celu amerykowego cząstkami alfa, a kaliforn dwa miesiące później w wyniku tego samego bombardowania kiuru. 99. i 100. pierwiastek, einstein i ferm, odkryto podczas analizy radiochemicznej próbek pobranych w rejonie atolu Eniwetak, gdzie 1 listopada 1952 roku Amerykanie zdetonowali dziesięciomegatonowy ładunek termojądrowy „Mike”, którego skorupa została wykonana z uranu-238. Podczas eksplozji jądra uranu pochłonęły do ​​piętnastu neutronów, po czym uległy łańcuchom rozpadów beta, co doprowadziło do powstania tych pierwiastków. Pierwiastek 101, mendelew, został odkryty na początku 1955 roku. Seaborg, Albert Ghiorso, Bernard Harvey, Gregory Choppin i Stanley Thomson poddali bombardowaniu cząstkami alfa około miliarda (to bardzo mało, ale po prostu nie było więcej) atomów einsteinu osadzonych elektrolitycznie na złotej folii. Pomimo wyjątkowo dużej gęstości wiązki (60 bilionów cząstek alfa na sekundę) uzyskano jedynie 17 atomów mendelewium, ale określono ich właściwości radiacyjne i chemiczne.
Ciężkie jony
Mendelew był ostatnim transuranem wyprodukowanym przy użyciu neutronów, deuteronów lub cząstek alfa. Do otrzymania następujących pierwiastków potrzebne były tarcze z pierwiastka nr 100 – ferm, którego wówczas nie można było wyprodukować (nawet obecnie w reaktorach jądrowych ferm otrzymuje się w ilościach nanogramowych).Naukowcy poszli inną drogą: wykorzystali zjonizowane atomy, których jądra zawierają więcej niż dwa protony do bombardowania celów. Nazywa się je ciężkimi jonami). Aby przyspieszyć wiązki jonów, potrzebne były specjalistyczne akceleratory. Pierwszą taką maszynę, HILAC (Heavy Ion Linear Accelerator), uruchomiono w Berkeley w 1957 r., drugą, cyklotron U-300, uruchomiono w Laboratorium Reakcji Jądrowych Wspólnego Instytutu Badań Jądrowych w Dubnej w 1960 r. Później w Dubnej oddano do użytku mocniejsze jednostki U-400 i U-400M. Inny akcelerator UNILAC (Universal Linear Accelerator) działa od końca 1975 roku w niemieckim Centrum Badań Ciężkich Jonów Helmholtza w Wickhausen, jednej z dzielnic Darmstadt. Podczas bombardowania celów wykonanych z ołowiu, bizmutu, uranu lub transuranu ciężkie jony, silnie wzbudzone (gorące) jądra, które albo się rozpadają, albo uwalniają nadmiar energii poprzez emisję (parowanie) neutronów. Czasami jądra te emitują jeden lub dwa neutrony, po czym ulegają innym przemianom - na przykład rozpadowi alfa. Ten rodzaj syntezy nazywa się zimną. W Darmstadt za jego pomocą uzyskano pierwiastki o liczbach od 107 (bor) do 112 (kopernik). W ten sam sposób w 2004 roku japońscy fizycy stworzyli jeden atom 113. pierwiastka (rok wcześniej uzyskano go w Dubnej). Podczas gorącej syntezy nowonarodzone jądra tracą więcej neutronów - od trzech do pięciu. W ten sposób Berkeley i Dubna zsyntetyzowali pierwiastki od 102 (nobelium) do 106 (seaborgium, na cześć Glenna Seaborga, pod którego przewodnictwem powstało dziewięć nowych pierwiastków). Później w Dubnej powstało w ten sposób sześć najmasywniejszych superciężkich - od 113 do 118. Międzynarodowa Unia Chemii Czystej i Stosowanej (IUPAC) zatwierdziła jak dotąd jedynie nazwy 114. (flerow) i 116. (liwermorium).
Tylko trzy atomy
118. pierwiastek o tymczasowej nazwie ununoctium i symbolu Uuo (zgodnie z zasadami IUPAC tymczasowe nazwy pierwiastków powstają z łacińskiego i greckiego korzenia nazw cyfr ich liczby atomowej, un-un-oct (ium) - 118) powstał dzięki wspólnym wysiłkom dwóch grup naukowych: Dubnej pod przewodnictwem Jurija Oganesjana i Laboratorium Narodowego Livermore pod przewodnictwem Kentona Moody'ego, ucznia Seaborga. Ununoctium znajduje się poniżej radonu w układzie okresowym i dlatego może być gazem szlachetnym. Nie ustalono jednak jeszcze jego właściwości chemicznych, gdyż fizycy stworzyli jedynie trzy atomy tego pierwiastka o liczbie masowej 294 (118 protonów, 176 neutronów) i okresie półtrwania około milisekundy: dwa w 2002 r. i jeden w 2005. Uzyskano je poprzez bombardowanie tarczy wykonanej z California-249 (98 protonów, 151 neutronów) jonami ciężkiego izotopu wapnia o masie atomowej 48 (20 protonów i 28 neutronów), przyspieszanych w akceleratorze U-400. Całkowita liczba „pocisków” wapniowych wyniosła 4,1 x 1019, więc wydajność „generatora ununoctium” Dubnej jest wyjątkowo niska. Jednak zdaniem Kentona Moody’ego U-400 to jedyna maszyna na świecie, na której udało się zsyntetyzować pierwiastek 118. „Każda seria eksperymentów nad syntezą transuranu dodaje nowych informacji o strukturze materii jądrowej, co służy do modelowania właściwości jąder superciężkich. W szczególności prace nad syntezą 118. pierwiastka umożliwiły odrzucenie kilku poprzednich modeli, wspomina Kenton Moody. - Tarczę wykonaliśmy z kalifornu, ponieważ cięższe pierwiastki nie były dostępne w wymaganych ilościach. Wapń-48 zawiera osiem dodatkowych neutronów w porównaniu do swojego głównego izotopu wapnia-40. Kiedy jego jądro połączyło się z jądrem kalifornu, powstały jądra zawierające 179 neutronów. Znajdowały się w stanie silnie wzbudzonym, a zatem szczególnie niestabilnym, z którego szybko się wydostały, wydzielając neutrony. W rezultacie otrzymaliśmy izotop pierwiastka 118 o 176 neutronach. A to były naprawdę neutralne atomy z pełnym zestawem elektronów! Gdyby żyły trochę dłużej, można byłoby ocenić ich właściwości chemiczne.
Metuszelach numer 117
Pierwiastek 117, zwany także ununseptem, uzyskano później – w marcu 2010 roku. Pierwiastek ten wytworzono na tej samej maszynie U-400, gdzie podobnie jak poprzednio, jony wapnia-48 wystrzelono w tarczę wykonaną z berkelu-249, syntetyzowanego w Narodowym Laboratorium w Oak Ridge. Kiedy zderzyły się jądra berkelium i wapnia, pojawiły się silnie wzbudzone jądra ununseptium-297 (117 protonów i 180 neutronów). Eksperymentatorom udało się uzyskać sześć jąder, z których pięć wyparowało po cztery neutrony i zamieniło się w ununseptium-293, a reszta wyemitowała trzy neutrony i dała początek ununseptium-294. W porównaniu z ununoctium ununseptium okazało się prawdziwym Metuszelachem. Okres półtrwania lżejszego izotopu wynosi 14 milisekund, a cięższego aż 78 milisekund! W 2012 roku fizycy z Dubnej uzyskali pięć kolejnych atomów ununseptu-293, a później kilka atomów obu izotopów. Wiosną 2014 roku naukowcy z Darmstadt donieśli o syntezie czterech jąder pierwiastka 117, z których dwa miały masę atomową 294. Okres półtrwania tego „ciężkiego” ununseptium, zmierzony przez niemieckich naukowców, wyniósł około 51 milisekund ( zgadza się to z szacunkami naukowców z Dubnej) Teraz w Darmstadt przygotowują projekt nowego liniowego akceleratora ciężkich jonów na magnesach nadprzewodzących, który umożliwi syntezę pierwiastków 119 i 120. Podobne plany realizowane są w Dubnej, gdzie powstaje nowy cyklotron DS-280. Możliwe, że już za kilka lat możliwa stanie się synteza nowych superciężkich transuranów. A powstanie 120., a nawet 126. pierwiastka ze 184 neutronami i odkrycie wyspy stabilności stanie się rzeczywistością.
Długie życie na wyspie stabilności
Wewnątrz jąder znajdują się powłoki protonowe i neutronowe, nieco podobne do powłok elektronowych atomów. Szczególnie odporne na spontaniczne przemiany są jądra z całkowicie wypełnionymi powłokami. Liczby neutronów i protonów odpowiadające takim powłokom nazywane są magią. Część z nich została wyznaczona eksperymentalnie – są to 2, 8, 20 i 28.Modele powłokowe umożliwiają teoretyczne obliczenie „magicznych liczb” superciężkich jąder – jednak bez całkowitej gwarancji. Istnieją podstawy, aby oczekiwać, że liczba neutronów 184 będzie magiczna. Może odpowiadać numerom protonów 114, 120 i 126, a ten drugi znowu musi być magiczny. Jeśli tak jest, to izotopy 114., 120. i 126. pierwiastka, zawierające po 184 neutrony każdy, będą żyły znacznie dłużej niż ich sąsiedzi w układzie okresowym - minuty, godziny, a nawet lata (ten obszar układu to zwana zwykle wyspą stabilności). Największe nadzieje naukowcy pokładają w ostatnim izotopie z podwójnie magicznym jądrem.
Metoda Dubninskiego

Kiedy ciężki jon dostanie się w obszar sił jądrowych tarczy, może powstać jądro złożone w stanie wzbudzonym. Albo rozpada się na fragmenty o w przybliżeniu równej masie, albo emituje (odparowuje) kilka neutronów i przechodzi do stanu podstawowego (niewzbudnego).
„Elementy od 113 do 118 powstały w oparciu o niezwykłą metodę opracowaną w Dubnej pod przewodnictwem Jurija Oganesjana” – wyjaśnia członek zespołu w Darmstadt Aleksander Jakuszew. - Zamiast niklu i cynku, którymi strzelano do celów w Darmstadcie, Oganesyan wziął izotop o znacznie niższej masie atomowej - wapń-48. Faktem jest, że zastosowanie lekkich jąder zwiększa prawdopodobieństwo ich fuzji z jądrami docelowymi. Jądro wapnia-48 jest również podwójnie magiczne, ponieważ składa się z 20 protonów i 28 neutronów. Dlatego wybór Oganesyana w ogromnym stopniu przyczynił się do przetrwania jąder złożonych, które powstają, gdy cel zostanie ostrzelany. Przecież jądro może wyrzucić kilka neutronów i dać początek nowemu transuranowi tylko wtedy, gdy zaraz po urodzeniu nie rozpadnie się na fragmenty. Aby w ten sposób zsyntetyzować pierwiastki superciężkie, fizycy z Dubnej wykonali tarcze z produkowanego w USA transuranu – najpierw plutonu, potem ameryku, kiuru, kalifornu i wreszcie berkelu. Wapń-48 w naturze wynosi tylko 0,7%. Ekstrahuje się go za pomocą separatorów elektromagnetycznych, co jest kosztowną procedurą. Jeden miligram tego izotopu kosztuje około 200 dolarów. Taka ilość wystarcza na godzinę lub dwie ostrzału celu, a eksperymenty trwają miesiącami. Same cele są jeszcze droższe, ich cena sięga miliona dolarów. Płacenie rachunków za prąd również kosztuje całkiem sporo – akceleratory ciężkich jonów zużywają megawaty energii. Generalnie synteza pierwiastków superciężkich nie jest tanią przyjemnością.”

  • 7. Przyrodoznawstwo jako fenomen uniwersalnej kultury człowieka. Podstawowe kierunki nauk przyrodniczych: przedmiot i metody badań.
  • 8. Powody, dla których wiedzy zgromadzonej przez starożytne cywilizacje Babilonu, Egiptu i Chin nie można uznać za naukową.
  • 9. Katastrofy naturalne i społeczne, które przyczyniły się do powstania wiedzy naukowej w starożytnej Grecji.
  • 10.Zasady i reguły prawdziwej wiedzy ustalone przez Talesa z Miletu. Poszukiwanie zasad i koncepcja atomizmu (Leucippus i Demokryt).
  • 12.Podstawy nauki o ruchu ciał według Arystotelesa. Pierwszy system wszechświata Arystotelesa – Ptolemeusz.
  • 14. Przyczyny spadku zainteresowania wiedzą naukową, powstanie religii monoteistycznych, rola ludów arabskich i wschodnich w zachowaniu i rozwoju wiedzy starożytnej Grecji
  • 15. Przyczyny rozwoju kryteriów wiedzy naukowej w średniowieczu. Kolejne kamienie milowe w rozwoju metody naukowej, jej elementów składowych i twórców
  • 20.Rodzaje i mechanizmy podstawowych oddziaływań w przyrodzie.
  • 21. Przejawy podstawowych oddziaływań w mechanice, termodynamice, fizyce jądrowej, chemii, kosmologii.
  • 22. Przejawy podstawowych oddziaływań i strukturalne poziomy organizacji materii.
  • 26.Specyfika praw przyrody w fizyce, chemii, biologii, geologii, kosmologii.
  • 27.Podstawowe zasady leżące u podstaw obrazów wszechświata od Arystotelesa do czasów współczesnych.
  • 32.Nowoczesna realizacja atomistycznej koncepcji Leukipposa – Demokryta. Pokolenia kwarków i leptonów. Bozony pośrednie jako nośniki oddziaływań fundamentalnych.
  • 34.Budowa pierwiastków chemicznych, synteza pierwiastków transuranowych.
  • 35. Atomowo-molekularny „konstruktor” struktury materii. Różnica między podejściem fizycznym i chemicznym w badaniu właściwości materii.
  • 40.Główne zadania kosmologii. Rozwiązywanie problemu pochodzenia Wszechświata na różnych etapach rozwoju cywilizacji.
  • 41.Teorie fizyczne, które posłużyły jako podstawa do stworzenia teorii „gorącego” Wszechświata przez G.A. Gamowa.
  • 42. Przyczyny krótkiego trwania w początkowych „erach” i „epokach” w historii Wszechświata.
  • 43. Główne wydarzenia, które miały miejsce w epoce grawitacji kwantowej. Problemy „modelowania” tych procesów i zjawisk.
  • 44.Wyjaśnij z energetycznego punktu widzenia, dlaczego Era Hadronów poprzedziła Erę Leptonów.
  • 45. Energie (temperatury), przy których nastąpiło oddzielenie promieniowania od materii i Wszechświat stał się „przezroczysty”.
  • 46.Materiał budowlany do formowania wielkoskalowej struktury Wszechświata.
  • 49. Właściwości czarnych dziur i ich wykrywanie we Wszechświecie.
  • 50. Zaobserwowane fakty potwierdzające teorię „gorącego” Wszechświata.
  • 51.Metody określania składu chemicznego gwiazd i planet. Najczęstsze pierwiastki chemiczne we Wszechświecie.
  • 34.Budowa pierwiastków chemicznych, synteza pierwiastków transuranowych.

    W 1861 roku wybitny rosyjski chemik A.M. Butlerov

    stworzył i uzasadnił teorię budowy chemicznej materii wg

    w którym właściwości substancji są określone przez kolejność wiązań atomów

    cząsteczki i ich wzajemne oddziaływanie. W 1869 roku odkrył D.I. Mendelejew9

    jednym z podstawowych praw nauk przyrodniczych jest prawo okresowości

    pierwiastki chemiczne, których nowoczesne sformułowanie jest następujące:

    właściwości pierwiastków chemicznych okresowo zależą od ładunku elektrycznego ich jąder.

    35. Atomowo-molekularny „konstruktor” struktury materii. Różnica między podejściem fizycznym i chemicznym w badaniu właściwości materii.

    Atom to najmniejsza cząsteczka danego pierwiastka chemicznego. Wszystkie atomy istniejące w przyrodzie są reprezentowane w okresowym układzie pierwiastków Mendelejewa.

    Atomy łączą się w cząsteczkę poprzez wiązania chemiczne oparte na oddziaływaniu elektrycznym. Liczba atomów w cząsteczce może się różnić. Cząsteczka może składać się z jednego atomu, dwóch, trzech, a nawet kilkuset atomów.

    Przykładami cząsteczek dwuatomowych są CO, NO, O 2, H 2, cząsteczki trójatomowe - CO 2, H 2 O, SO 2, cząsteczki tetraatomowe - NH 3. Zatem cząsteczka składa się z jednego lub więcej atomów jednego lub różnych pierwiastków chemicznych.

    Cząsteczkę można zdefiniować jako najmniejszą cząsteczkę danej substancji, która ma jej właściwości chemiczne. Pomiędzy cząsteczkami dowolnego ciała istnieją siły interakcji - przyciąganie i odpychanie. Siły przyciągania zapewniają istnienie ciała jako całości. Aby podzielić ciało na części, należy podjąć znaczny wysiłek. Istnienie sił odpychających pomiędzy cząsteczkami ujawnia się przy próbie ściśnięcia ciała.

    40.Główne zadania kosmologii. Rozwiązywanie problemu pochodzenia Wszechświata na różnych etapach rozwoju cywilizacji.

    Kosmologia to nauka o właściwościach fizycznych Wszechświata jako całości. W szczególności jego celem jest stworzenie teorii całego obszaru przestrzeni objętego obserwacjami astronomicznymi, zwanego potocznie Metagalaktyką.

    Jak wiadomo, teoria względności prowadzi do wniosku, że obecność dużych mas wpływa na właściwości czasoprzestrzeni. Właściwości zwykłej przestrzeni euklidesowej (na przykład suma kątów trójkąta, właściwości linii równoległych) zmieniają się w pobliżu dużych mas lub, jak mówią, „krzywych” przestrzeni. Ta krzywizna przestrzeni tworzona przez pojedyncze masy (na przykład gwiazdy) jest bardzo mała.

    Należy zatem spodziewać się, że ze względu na krzywiznę przestrzeni promień światła w pobliżu Słońca powinien zmienić swój kierunek. Dokładne pomiary położenia gwiazd w pobliżu Słońca oraz czasu całkowitych zaćmień Słońca pozwalają uchwycić ten efekt jednak na granicy dokładności pomiaru.

    Jednak całkowity efekt grawitujących (tj. posiadających przyciąganie) mas wszystkich galaktyk i supergalaktyk może spowodować pewne zakrzywienie przestrzeni jako całości, co znacząco wpłynie na jej właściwości, a w konsekwencji na ewolucję całego Wszechświata.

    Już samo sformułowanie problemu wyznaczenia (na podstawie praw względności) właściwości przestrzeni i czasu przy dowolnym rozkładzie mas jest niezwykle trudne. Dlatego zwykle rozważa się pewne przybliżone schematy zwane modelami Wszechświata.

    Najprostsze z nich opierają się na założeniu, że materia we Wszechświecie w dużych skalach rozkłada się równomiernie (jednorodność), a właściwości przestrzeni są takie same we wszystkich kierunkach (izotropia). Taka przestrzeń musi mieć pewną krzywiznę i nazywane są odpowiednie modele

    jednorodne izotropowe modele Wszechświata.

    Rozwiązania równań grawitacyjnych Einsteina dla przypadku jednorodnego izotropu

    modele pokazują, że odległości pomiędzy poszczególnymi heterogenicznościami, jeśli

    wykluczyć ich indywidualne chaotyczne ruchy (osobliwe prędkości), nie mogą pozostać stałe: Wszechświat musi albo się skurczyć, albo

    zgodne z obserwacjami, rozwiń. Jeśli zignorujemy osobliwe prędkości

    galaktyk, wówczas prędkość wzajemnego usuwania dowolnych dwóch ciał we Wszechświecie jest tym większa, im większa jest odległość między nimi. Dla stosunkowo małych odległości zależność ta ma charakter liniowy, a współczynnikiem proporcjonalności jest stała Hubble'a. Z powyższego wynika, że ​​odległość pomiędzy dowolną parą ciał jest funkcją czasu. Postać tej funkcji zależy od znaku krzywizny przestrzeni. Jeśli krzywizna jest ujemna, wówczas „Wszechświat” cały czas się rozszerza. Przy zerowej krzywiźnie odpowiadającej; W przestrzeni euklidesowej ekspansja następuje ze spowolnieniem, a tempo ekspansji dąży do zera. Wreszcie ekspansja „Wszechświata”, który ma dodatnią krzywiznę, w pewnym momencie musi ustąpić miejsca kompresji.

    W tym drugim przypadku, ze względu na geometrię nieeuklidesową, przestrzeń musi być

    ostateczny, tj. mieć pewną skończoną objętość w dowolnym momencie,

    skończona liczba gwiazd, galaktyk itp. Jednakże „granice” Wszechświata w sposób naturalny

    w żadnym wypadku nie może być.

    Dwuwymiarowym modelem takiej zamkniętej przestrzeni trójwymiarowej jest

    powierzchni nadmuchanego balonu. Galaktyki w tym modelu są przedstawione jako płaskie

    postacie narysowane na powierzchni. W miarę rozciągania piłki zwiększa się powierzchnia i odległość między kształtami. Chociaż w zasadzie taka kula może rosnąć bez ograniczeń, jej powierzchnia jest w danym momencie skończona.

    Jednak w jego dwuwymiarowej przestrzeni (powierzchni) nie ma granic. Krzywizna przestrzeni w jednorodnym modelu izotropowym zależy od wartości średniej gęstości substancji.Jeżeli gęstość jest mniejsza od pewnej wartości krytycznej, to krzywizna jest ujemna i zachodzi przypadek pierwszy. Drugi przypadek (zerowa krzywizna) występuje przy wartości gęstości krytycznej. Wreszcie, gdy gęstość jest większa niż krytyczna ¾, krzywizna jest dodatnia (trzeci przypadek). W procesie rozprężania może zmieniać się bezwzględna wartość krzywizny, ale jej znak

    pozostaje stała.

    Wartość gęstości krytycznej wyraża się poprzez stałą Hubble'a H i stałą grawitacji f w następujący sposób: przy H = 55 km/s × Mpc, r cr = 5 × 10-30 g/cm3 Biorąc pod uwagę wszystkie masy znane w odprowadzeniach metagalaktyki do szacunkowej średniej gęstości około 5× 10-31 g/cm3

    Jest to jednak oczywiście dolna granica, ponieważ masa niewidzialnego ośrodka pomiędzy galaktykami nie jest jeszcze znana. Zatem istniejące oszacowanie gęstości nie daje podstaw do oceny znaku krzywizny przestrzeni rzeczywistej.

    W zasadzie możliwe są inne sposoby empirycznego wybrania najbardziej realistycznego modelu Wszechświata, polegające na wyznaczeniu przesunięcia ku czerwieni najbardziej odległych obiektów (z których światło, które do nas docierało, zostało wyemitowane setki milionów i miliardów lat temu) i porównaniu tych prędkości z odległościami do obiektów znalezionych innymi metodami. W rzeczywistości w ten sposób na podstawie obserwacji określa się zmianę tempa ekspansji w czasie. Współczesne obserwacje nie są jeszcze tak dokładne, aby można było śmiało ocenić znak krzywizny przestrzeni. Można jedynie powiedzieć, że krzywizna przestrzeni we Wszechświecie jest bliska zeru.

    Stała Hubble'a, która odgrywa tak ważną rolę w teorii jednorodnej izotropii

    Wszechświat ma ciekawe znaczenie fizyczne. Aby to wyjaśnić, powinieneś

    zwróć uwagę, że wielkość odwrotna 1/H ma wymiar czasu i

    równy 1/H = 6 × 1017 sekund lub 20 miliardów lat. Łatwo się domyślić, co to jest

    okres czasu wymagany do ekspansji metagalaktyki do jej obecnego stanu, pod warunkiem, że tempo ekspansji nie uległo zmianie w przeszłości. Jednakże kwestia stałości tej prędkości, poprzednich i kolejnych (w odniesieniu do współczesnych) etapów ekspansji Wszechświata jest wciąż słabo poznana.

    Potwierdzeniem, że Wszechświat rzeczywiście znajdował się kiedyś w jakimś szczególnym stanie, jest odkryta w 1965 roku kosmiczna emisja radiowa, zwana promieniowaniem reliktowym (tj. szczątkowym). Jego widmo ma charakter termiczny i odtwarza krzywą Plancka dla temperatury około 3 ° K. [Zauważmy, że zgodnie ze wzorem maksimum takiego promieniowania występuje przy długości fali około 1 mm, bliskiej zakresowi widma elektromagnetycznego dostępnego dla obserwacji z Ziemi.

    Charakterystyczną cechą kosmicznego mikrofalowego promieniowania tła jest jego jednorodność

    intensywność we wszystkich kierunkach (izotropia). To właśnie umożliwiło wyizolowanie tak słabego promieniowania, że ​​nie dało się go powiązać z żadnym obiektem ani obszarem na niebie.

    Nazwę „promieniowanie reliktowe” podano, ponieważ promieniowanie to musi być pozostałością

    promieniowanie Wszechświata, które istniało w epoce jego dużej gęstości, kiedy to

    był nieprzezroczysty dla własnego promieniowania. Obliczenia pokazują, że tak powinno być

    miało miejsce przy gęstości r > 10-20 g/cm3 (średnie stężenie atomów

    około 104 cm -3), tj. kiedy gęstość była miliard razy większa niż obecnie.

    Ponieważ gęstość zmienia się odwrotnie proporcjonalnie do sześcianu promienia, to zakładając

    ekspansja Wszechświata w przeszłości jest taka sama jak obecnie, otrzymujemy to w epoce

    nieprzezroczystości, wszystkie odległości we Wszechświecie były 1000 razy mniejsze. Długość fali l była tyle samo razy mniejsza. Dlatego kwanty, które obecnie mają długość fali 1 mm, miały wcześniej długość fali około 1 μ, co odpowiada maksymalnemu promieniowaniu w temperaturze około 3000 ° K.

    Zatem istnienie kosmicznego mikrofalowego promieniowania tła świadczy nie tylko o dużej gęstości Wszechświata w przeszłości, ale także o jego wysokiej temperaturze (tzw. „gorący” model Wszechświata).

    O tym, czy Wszechświat znajdował się w jeszcze gęstszych stanach, towarzyszyły

    znacznie wyższe temperatury, w zasadzie można by to ocenić

    w oparciu o podobne badania neutrin reliktowych. Dla nich nieprzejrzystość

    Wszechświat powinien występować przy gęstościach r" 107 g/cm3, co może mieć tylko miejsce

    na stosunkowo wczesnych etapach rozwoju Wszechświata. Jak w tym przypadku

    kosmiczne mikrofalowe promieniowanie tła, kiedy w wyniku ekspansji Wszechświat wchodzi

    w stanie o mniejszej gęstości, neutrina przestają oddziaływać z resztą materii, jakby „odrywając się” od niej, a następnie w wyniku ekspansji ulegają jedynie kosmologicznemu przesunięciu ku czerwieni. Niestety wykrycie takich neutrin, które obecnie muszą mieć energię zaledwie kilku dziesięciotysięcznych elektronowoltów, jest mało prawdopodobne w najbliższej przyszłości.

    Kosmologia w zasadzie pozwala nam uzyskać pojęcie o najbardziej ogólnym

    prawa budowy i rozwoju Wszechświata. Łatwo zrozumieć, jak ogromne

    Ta część astronomii jest ważna dla prawidłowego kształtowania się

    materialistyczny światopogląd. Badając prawa całego Wszechświata jako całości, jeszcze głębiej rozumiemy właściwości materii, przestrzeni i czasu. Niektórzy z nich,

    na przykład właściwości rzeczywistej przestrzeni fizycznej i czasu w ogóle

    skale można badać jedynie w ramach kosmologii. Dlatego jego wyniki mają ogromne znaczenie nie tylko dla astronomii i fizyki, które zyskują możliwość wyjaśnienia swoich praw, ale także dla filozofii, która zdobywa obszerny materiał do uogólniania praw świata materialnego.


    Synteza pierwiastków

    Już na początku lat 40. próbowano wykorzystać koncepcję Wielkiego Wybuchu do wyjaśnienia pochodzenia pierwiastków chemicznych. Amerykańscy badacze R. Alpher, G. Gamow i R. Herman sugerowali, że Wszechświat na najwcześniejszych etapach swojego istnienia był skupiskiem supergęstego gazu neutronowego (lub, jak to nazywali, „ilema”). Później jednak wykazano, że we wnętrzach gwiazd może powstawać wiele ciężkich pierwiastków w wyniku cykli reakcji jądrowych, więc wydawało się, że zapotrzebowanie na „ilem” zniknęło.

    Wyjaśnienie składu chemicznego Kosmosu wkrótce wywołało kontrowersje. Jeśli obliczymy, ile wodoru w gwiazdach naszej Galaktyki w czasie swojego istnienia (10 miliardów lat) powinno było „spalić” się w hel, to okaże się, że zaobserwowana ilość helu jest 20 razy większa od tej otrzymanej z obliczeń teoretycznych. Oznacza to, że źródłem powstawania helu powinna być nie tylko jego synteza w głębinach gwiazd, ale także inne, bardzo potężne procesy. Ostatecznie musieliśmy ponownie zwrócić się do idei Wielkiego Wybuchu i poszukać w nim źródła nadmiaru helu. Tym razem sukces przypadł w udziale słynnym radzieckim naukowcom, akademikowi Ya. B. Zeldovichowi i I. D. Novikovowi, którzy w serii szczegółowych prac szczegółowo uzasadnili teorię Wielkiego Wybuchu i rozszerzającego się Wszechświata ( Ya V. Zeldovich, I. D. Novikov. Struktura i ewolucja Wszechświata. M., Nauka, 1975). Główne założenia tej teorii są następujące.

    Ekspansja Wszechświata rozpoczęła się od bardzo dużej gęstości i bardzo wysokiej temperatury. Wszechświat u zarania swego istnienia przypominał laboratorium wysokich energii i wysokich temperatur. Ale to było oczywiście laboratorium, które nie miało ziemskich analogii.

    Sam „początek” Wszechświata, czyli jego stan odpowiadający, według obliczeń teoretycznych, promieniowi bliskiemu zeru, wymyka się na razie nawet teoretycznemu przedstawieniu. Faktem jest, że równania astrofizyki relatywistycznej obowiązują aż do gęstości rzędu 10 93 g/cm3. Wszechświat skompresowany do takiej gęstości miał kiedyś promień około jednej dziesięciomiliardowej centymetra, czyli był porównywalny wielkością do protonu! Temperatura tego mikrowszechświata, który, nawiasem mówiąc, ważył nie mniej niż 10 51 ton, była niewiarygodnie wysoka i najwyraźniej bliska 10 32 stopni. Tak wyglądał Wszechświat na znikomy ułamek sekundy po rozpoczęciu „eksplozji”. Na samym „początku” zarówno gęstość, jak i temperatura dążą do nieskończoności, czyli tym „początkiem”, używając terminologii matematycznej, jest ten szczególny „osobliwy” punkt, dla którego równania współczesnej fizyki teoretycznej tracą swoje fizyczne znaczenie. Ale to nie znaczy, że przed „początkiem” nie było nic: po prostu nie możemy sobie tego wyobrazić Co było przed konwencjonalnym „początkiem” Wszechświata.

    W naszym życiu sekunda to nieistotny odstęp. Już w pierwszych chwilach życia Wszechświata (konwencjonalnie liczonych od „początku”) wiele wydarzeń rozegrało się w ciągu pierwszej sekundy. Termin „ekspansja” wydaje się tu zbyt słaby i dlatego nieodpowiedni. Nie, to nie była ekspansja, ale potężna eksplozja.

    Pod koniec stu tysięcznej sekundy po „początku” Wszechświat w swojej mikroobjętości zawierał mieszaninę cząstek elementarnych: nukleonów i antynukleonów, elektronów i pozytonów, a także mezonów, kwantów światła (fotonów). W tej mieszaninie, zdaniem Ya. B. Zeldovicha, prawdopodobnie znajdowały się hipotetyczne (na razie) grawitony i kwarki ( Grawitony i kwarki są cząstkami hipotetycznymi; oddziaływanie grawitonów z innymi cząstkami wyznacza pole grawitacyjne (są to kwanty pola grawitacyjnego); kwarki są „podstawowymi cegiełkami”, z których kombinacji powstają najróżniejsze cząstki. Wiele wysiłku i pieniędzy włożono w wykrywanie kwarków, ale jeszcze ich nie znaleziono), ale najwyraźniej nadal główną rolę odgrywały neutrina.

    Kiedy „wiek” Wszechświata wynosił jedną dziesięciotysięczną sekundy, jego średnia gęstość (10 14 g/cm3) była już bliska gęstości jąder atomowych, a temperatura spadła do około kilku miliardów stopni. Do tego czasu nukleony i antynukleony zdążyły już anihilować, czyli wzajemnie się niszczyć, zamieniając się w kwanty twardego promieniowania. Utrzymano i zwiększono jedynie liczbę neutrin powstałych podczas oddziaływania cząstek, gdyż neutrina oddziałują najsłabiej z innymi cząstkami. To rosnące „morze” neutrin odizolowało od siebie najdłużej żyjące cząstki – protony i neutrony, powodując wzajemne przekształcenie protonów i neutronów oraz narodziny par elektron-pozyton. Nie jest jasne, co powoduje późniejszą dominację cząstek i małą liczbę antycząstek w naszym świecie. Być może z jakiegoś powodu występowała początkowa asymetria: liczba antycząstek była zawsze mniejsza od liczby cząstek lub, jak uważają niektórzy naukowcy, dzięki nieznanemu jeszcze mechanizmowi separacji, cząstki i antycząstki były sortowane, koncentrując się w różnych częściach ciała. Wszechświat, a antycząstki gdzieś tam dominują (podobnie jak cząstki dominują w naszym świecie), tworząc antyświat.

    Według Ya. B. Zeldovicha „w tej chwili we Wszechświecie pozostały kwanty, które obserwujemy, a także neutrina i grawitony, których nie możemy obserwować nowoczesnymi środkami i prawdopodobnie nie będziemy w stanie obserwować przez wiele lat lat.”

    Kontynuujmy cytat:

    „Tak więc z biegiem czasu wszystkie cząstki we Wszechświecie „wymierają”, pozostają tylko kwanty. Jest to poprawne z dokładnością do stu milionowych. Ale w rzeczywistości na każde sto milionów kwantów przypada jeden proton lub neutron. Cząstki te zostają zachowane, ponieważ one – pozostałe cząstki – nie mają z czym anihilować (najpierw nukleony, protony i neutrony anihilowane są wraz ze swoimi antycząstkami). Jest ich niewiele, ale to z tych cząstek, a nie z kwantów, składa się Ziemia i planety, Słońce i gwiazdy” ( Ziemia i Wszechświat, 1969, nr 3, s. 23-30. 8 (Ya. B. Zeldovich. Gorący wszechświat)).

    Kiedy wiek Wszechświata osiągnął jedną trzecią sekundy, gęstość spadła do 10,7 g/cm3, a temperatura spadła do 30 miliardów stopni. W tej chwili, zdaniem akademika V.L. Ginzburga, neutrina oddzielają się od nukleonów i nie są już przez nie absorbowane. Obecnie te „pierwotne” neutrina podróżujące w przestrzeni kosmicznej powinny mieć energię zaledwie kilku dziesięciotysięcznych elektronowoltów. Nie wiemy, jak wykryć takie neutrina: aby to zrobić, czułość nowoczesnego sprzętu trzeba zwiększyć setki tysięcy razy. Jeśli kiedykolwiek uda się to zrobić, „pierwotne” neutrina dostarczą nam cennych informacji na temat pierwszej sekundy życia Wszechświata.

    Pod koniec pierwszej sekundy Wszechświat rozszerzył się do rozmiarów około sto razy większych niż rozmiar współczesnego Układu Słonecznego, którego średnica wynosi 15 miliardów km. Obecnie gęstość jego substancji wynosi 1 t/cm3, a temperatura wynosi około 10 miliardów stopni. Nic tu jeszcze nie przypomina nowoczesnej przestrzeni. Nie ma znanych nam atomów i jąder atomowych, nie ma też stabilnych cząstek elementarnych.

    Zaledwie 0,9 sekundy wcześniej, w temperaturze 100 miliardów stopni, było tyle samo protonów i neutronów. Jednak wraz ze spadkiem temperatury cięższe neutrony rozpadły się na protony, elektrony i neutrina. Oznacza to, że liczba protonów we Wszechświecie stale rośnie, a liczba neutronów maleje.

    Wiek Wszechświata wynosi trzy i pół minuty. Obliczenia teoretyczne ustalają temperaturę w tym momencie na 1 miliard stopni, a gęstość jest już sto razy mniejsza niż gęstość wody. Rozmiar Wszechświata w ciągu zaledwie trzech i pół minuty wzrósł z prawie zera do 40 sv. lata ( W przypadku ekspansji przestrzeni prędkość światła nie jest granicą). Stworzono warunki, w których protony i neutrony zaczęły łączyć się w jądra najlżejszych pierwiastków, głównie wodoru. Następuje pewna stabilizacja i pod koniec czwartej minuty od początku „pierwszej eksplozji” Wszechświat składał się masowo w 70% z wodoru i 30% helu. Taki był prawdopodobnie pierwotny skład najstarszych gwiazd. Cięższe pierwiastki powstały później w wyniku procesów zachodzących w gwiazdach.

    Dalsza historia Wszechświata jest spokojniejsza niż jego burzliwy początek. Tempo ekspansji stopniowo zwalniało, temperatura, podobnie jak średnia gęstość, stopniowo spadała, a gdy Wszechświat miał milion lat, jego temperatura stała się tak niska (3500 stopni Kelvina), że protony i jądra atomów helu mogły już wychwytywać wolne elektrony i zamieniają się w neutralne atomy. Od tego momentu w zasadzie rozpoczyna się nowoczesny etap ewolucji Wszechświata. Pojawiają się galaktyki, gwiazdy, planety. Ostatecznie, po wielu miliardach lat, Wszechświat stał się taki, jakim go widzimy.

    Być może część czytelników, zdumiona kolosalnymi liczbami, odległymi od zwykłej rzeczywistości, pomyśli, że historia Wszechświata, narysowana w najbardziej ogólny sposób, jest jedynie teoretyczną abstrakcją, odległą od rzeczywistości. Ale to nieprawda. Teoria rozszerzającego się wszechświata wyjaśnia recesję galaktyk. Potwierdza to wiele współczesnych danych o kosmosie. Wreszcie niedawno odkryto kolejne bardzo przekonujące eksperymentalne potwierdzenie supergorącego stanu starożytnego Wszechświata.

    Pierwotna plazma, która początkowo wypełniała Wszechświat, składała się z cząstek elementarnych i kwantów promieniowania, czyli fotonów – był to tzw. gaz fotonowy. Początkowo gęstość promieniowania w „mikrowszechświecie” była bardzo wysoka, ale w miarę rozszerzania się „gaz fotonowy” stopniowo się ochładzał. To ochłodziłoby gorące powietrze wewnątrz stale rozszerzającej się zamkniętej objętości.

    Obecnie z pierwotnego „ciepła” powinny pozostać jedynie subtelne ślady. Energia kwantów pierwotnego „gazu fotonowego” spadła do wartości odpowiadającej temperaturze zaledwie kilka stopni powyżej zera absolutnego. Obecnie pierwotny „gaz fotonowy” powinien emitować najintensywniej w zakresie radiowym centymetrowym.

    To są przewidywania teoretyczne. Ale potwierdzają je obserwacje. W 1965 roku amerykańscy radiofizycy odkryli szumową emisję radiową na fali 7,3 cm, która pochodziła równomiernie ze wszystkich punktów na niebie i wyraźnie nie była powiązana z żadnym dyskretnym kosmicznym źródłem radiowym. Nie można winić ziemskich stacji radiowych ani zakłóceń generowanych przez urządzenia radiowe.

    W ten sposób odkryto kosmiczne mikrofalowe promieniowanie tła Wszechświata, pozostałość po jego pierwotnej, niewyobrażalnie wysokiej temperaturze. W ten sposób potwierdzono „gorący” model pierwotnego Wszechświata, teoretycznie obliczony przez Ya. B. Zeldovicha i jego uczniów.

    Najwyraźniej Wszechświat narodził się w wyniku potężnej „pierwszej eksplozji”. Z nieznacznie małej objętości, ale superciężkiej, supergęstej, supergorącej skrzepu materii i promieniowania, w ciągu kilku miliardów lat powstało to, co obecnie nazywamy Przestrzenią.

    Kiedy Wszechświat rozszerzył się z bardzo małej, ale niewyobrażalnie gęstej grudki materii do wymiarów kosmicznych, jego gigantyczna, wciąż bardzo gorąca i supergęsta kula prawdopodobnie rozpadła się na wiele „fragmentów”. Może to wynikać np. z niejednorodności kuli i odmiennego tempa procesów w niej zachodzących.

    Każdy z „fragmentów”, składający się z materii przedgwiazdowej posiadającej ogromne rezerwy energii, z czasem ulegał rozpadowi. Możliwe, że produktami rozpadu były kwazary – zarodki galaktyk. Jak uważa akademik V.A. Ambartsumyan i inni badacze, jądra kwazarów (a także jądra galaktyk) zawierają materię przedgwiazdową, której właściwości nie możemy jeszcze określić, a ich zewnętrzne warstwy składają się z plazmy i gazów, których gęstość wynosi tylko kilka razy większa niż gęstość materii w galaktykach. Jeśli tak jest, to trzeba przyznać, że „pierwsza eksplozja” i kolejne wtórne eksplozje wyrzuciły w przestrzeń kosmiczną nie tylko „fragmenty” materii przedgwiazdowej, ale także materię rozproszoną – plazmę, gazy, z których powstała materia pyłowa. Jednocześnie należy sądzić, że początkowa zawartość materii gazowej i pyłowej we Wszechświecie była znacznie wyższa niż obecnie.

    Tak czy inaczej, zgodnie z naszymi współczesnymi ideami, aż do etapu pojawienia się galaktyk, we Wszechświecie panowały procesy wybuchowe. Ale jak widzieliśmy, procesy wybuchowe są również charakterystyczne dla etapu galaktyk, chociaż ich intensywność maleje w procesie ewolucji galaktyk - od gwałtownych przejawów energii w galaktykach Markariana i Seyferta po spokojny wypływ materii z jąder galaktyk takie jak nasze. Tym samym teoria rozszerzającego się Wszechświata może być zgodna z koncepcją akademika Ambartsumyana, który w oparciu o własne odkrycia i odkrycia swoich współpracowników, a także prace zagranicznych astronomów rozszerza ideę twórczego eksplozja do procesów powstawania gwiazd. Zgodnie z tą koncepcją wszystkie znane nam obiekty kosmiczne (galaktyki, gwiazdy, mgławice gazowo-pyłowe) powstają w wyniku eksplozji z supergęstych skupisk materii przedgwiazdowej wypełnionych ogromnymi zapasami energii. Dlatego gwiazdy pojawiają się w postaci rozszerzającej się, początkowo zwartej grupy składającej się z wielu tysięcy lub milionów gwiazd. Hipoteza ta wydaje się autorowi najbardziej prawdopodobna ze wszystkich i dlatego proponuje następujący „rodowód” wszystkich obiektów kosmicznych.

    „Atom pierwotny”, czyli Wszechświat w pierwotnym stanie supergęstym, oraz pierwotna kula ognia to jego najdalsi przodkowie, którzy oczywiście dali, oprócz planet, prawie niezliczone potomstwo wszystkich obiektów kosmicznych.

    Jakiś fragment kuli ognia mógł stać się embrionalnym jądrem naszej Galaktyki i z czasem zgromadzić gwiezdną populację. To embrionalne jądro galaktyczne i prawdopodobnie wywodzące się z niego stowarzyszenie gwiezdne, w tym Słońce, są kolejnymi „krewnymi” Ziemi, bliższymi nam czasowo.

    Proponowany schemat ewolucji kosmosu od „pierwszego atomu” do gwiazd jest jedynie hipotezą, która podlega dalszemu rozwojowi i testowaniu. Jak dotąd nie istnieje teoria transformacji hipotetycznej „materii przedgwiazdowej” w obserwowalne obiekty kosmiczne i ta okoliczność jest jednym ze słabych punktów koncepcji V. A. Ambartsumyana.

    Z drugiej strony narodzin gwiazd w wyniku kondensacji rozrzedzonego gazu i pyłu nie można uznać za całkowicie niemożliwe, wręcz przeciwnie, większość astronomów nadal wyznaje taką hipotezę „kondensacji”. Gigantyczne nagromadzenia gazów i pyłów mogły powstać na etapie wybuchów „wtórnych” lub „fragmentów wybuchu pierwotnego”. Można przypuszczać, że rozkład w nich materii był początkowo nierównomierny. Jakiś ogólny obrót takich gromad prawdopodobnie generuje w nich silne pola magnetyczne, dzięki którym struktura obłoków gazu i pyłu może stać się włóknista. Pod wpływem sił grawitacyjnych w ekspansjach (węzłach) tych „włókien” może rozpocząć się koncentracja materii, prowadząca do powstania całych rodzin gwiazd.

    Koncepcja ta jest nadal wyznawana przez większość badaczy, choć ma też swoje słabe strony. Jest całkiem możliwe, że oba pojęcia („wybuch” i „kondensacja”) nie wykluczają się, ale uzupełniają: w końcu podczas rozpadu materii przedgwiazdowej pojawiają się nie tylko gwiazdy, ale także mgławice. Być może materia tych mgławic posłuży kiedyś (lub służyła już wielokrotnie) jako materiał wyjściowy do kondensacji gwiazd i planet? Całkowitą jasność w tej kwestii mogą przynieść dopiero przyszłe badania.

    Teoria Wielkiego Wybuchu, opracowana przez Ya. B. Zeldovicha i N. D. Novikova, doskonale wyjaśniła „nadmiar” helu we Wszechświecie. Według ich ostatnich obliczeń już 100 sekund po rozpoczęciu ekspansji Wszechświat zawierał 70% wodoru i około 30% helu. Reszta helu i cięższych pierwiastków pojawiła się podczas ewolucji gwiazd.

    Pomimo tego wielkiego sukcesu, perspektywy teorii Wielkiego Wybuchu nie są wcale czarne. Ostatnio odkryto szereg faktów, które nie mieszczą się w ramach tej teorii ( Więcej szczegółów można znaleźć w książce: V. P. Chechev, Ya. M. Kramarovsky. Radioaktywność i ewolucja wszechświata. M., Nauka, 1978). Znane są na przykład galaktyki, które są ze sobą wyraźnie fizycznie połączone i znajdują się w równej odległości od nas, ale jednocześnie mają znacząco różne (czasami 13-krotne!) „przesunięcia ku czerwieni”. Inną niejasną rzeczą jest to, dlaczego w tej samej odległości galaktyki spiralne zawsze mają większe „przesunięcia ku czerwieni” niż galaktyki eliptyczne. Według niektórych danych okazuje się, że w różnych kierunkach tempo ekspansji, „pęcznienia” Wszechświata nie jest takie samo, co zaprzecza wcześniej panującym wyobrażeniom o ściśle „kulistym” kształcie rozszerzającego się świata?

    Wreszcie ostatnio stało się jasne, że prędkości galaktyk względem tła KMPT są bardzo małe. Mierzy się je nie w tysiącach i dziesiątkach tysięcy kilometrów na sekundę, jak wynika z teorii rozszerzającego się Wszechświata, ale jedynie w setkach kilometrów na sekundę. Okazuje się, że galaktyki są praktycznie w spoczynku względem reliktowego tła Wszechświata, które z wielu powodów można uznać za absolutny układ odniesienia ( Więcej szczegółów można znaleźć w książce: Rozwój metod badań astronomicznych (A. A. Efimov. Astronomia i zasada względności). M., Nauka, 1979, s. 23. 545).

    Wciąż nie jest jasne, jak pokonać te trudności. Jeśli okaże się, że „przesunięcie ku czerwieni” w widmach galaktyk spowodowane jest nie efektem Dopplera, a jakimś innym, nieznanym nam jeszcze procesem, narysowany schemat pochodzenia pierwiastków chemicznych może okazać się błędny. Jednak najprawdopodobniej Wielki Wybuch nie jest iluzją, ale rzeczywistością, a teoria „gorącego” rozszerzającego się Wszechświata jest jednym z najważniejszych osiągnięć nauki XX wieku.

    Podsumowując, zauważamy, że niezależnie od tego, jakie poglądy na ewolucję Wszechświata się wyznaje, bezsporny fakt pozostaje niepodważalny – żyjemy w chemicznie niestabilnym Świecie, którego skład stale się zmienia.

    Podczas bombardowania uranu neutronami termicznymi powstają z niego lżejsze pierwiastki o numerach seryjnych 35-65: rodziło to nadzieję, że wśród szczątków znajdą się także izotopy pierwiastków 43 i 61. Jeśli przypomnimy sobie stan problemu pozyskiwania elementy 43, 61 oraz 85 i 87 w roku 1930 można było zauważyć zauważalny postęp. Przede wszystkim potwierdziło się podejrzenie, że pierwiastki 43 i 61 to substancje niestabilne, które „wymarły”. Jeśli chodzi o pierwiastki 85 i 87, od dawna uznawano je za rozpadające się substancje radioaktywne.
    W 1934 roku fizyk Joseph Mattauch odkrył empiryczną regułę pozwalającą oszacować stabilność jąder izotopowych. Zgodnie z regułą Mattaucha drugi stabilny izotop nie może istnieć, jeśli ładunek jego jądra różni się tylko o jeden od ładunku jądra znanego stabilnego izotopu o tej samej liczbie masowej. Ten wzór uzupełnia regułę Harkinsa, zgodnie z którą pierwiastki o nieparzystym numerze seryjnym (czyli nieparzystej liczbie protonów i elektronów) są znacznie mniej powszechne na Ziemi, ponieważ stabilność ich jąder jest niska.
    W odniesieniu do elementów 43 i 61 regułę Mattaucha można sformułować następująco. Bazując na ich położeniu w układzie okresowym, liczba masowa pierwiastka 43 powinna wynosić około 98, a dla pierwiastka 61 około 147. Znane były jednak już stabilne izotopy pierwiastków 42 i 44, a także pierwiastków 60 i 62 o masy od 94 do 102 i odpowiednio od 142 do 150. Ponieważ drugi stabilny izotop o tej samej liczbie masowej nie może istnieć, pierwiastki 43 i 61 muszą mieć tylko niestabilnych przedstawicieli. Nie ma wątpliwości, że pierwiastki 43 i 61 były kiedyś obecne na Ziemi w wystarczających ilościach. Kiedy powstał nasz Układ Słoneczny, wszystkie pierwiastki powstały w wyniku połączenia protonów i neutronów. Jednak w ciągu istnienia Ziemi - 4,6 miliarda lat - ich niestabilni przedstawiciele stopniowo całkowicie zniknęli. Jedynymi wyjątkami są pierwiastki promieniotwórcze, które można stale uzupełniać w ramach naturalnego szeregu promieniotwórczego, ponieważ ich substancje macierzyste – uran lub tor – nadal istnieją na Ziemi dzięki okresowi półtrwania wynoszącemu miliardy lat. Pierwiastki 43 i 61 nie należą do tych naturalnych serii radioaktywnych. Jedynie w przypadku dostępności długożyciowego izotopu tych pierwiastków można było mieć nadzieję na wykrycie jego śladów radiochemicznych.
    Podczas gdy niektórym naukowcom nadal poszukiwano fałszywych transuranów, innym udało się znaleźć pożądane pierwiastki 43 i 87. Oto historia ich odkrycia... W 1936 roku Emilio Segre po ślubie opuścił Fermiego i jego współpracowników i udał się do Palermo, miasta dawna stolica Sycylii. Na tamtejszym uniwersytecie zaproponowano mu katedrę fizyki. W Palermo, ku swemu wielkiemu żalowi, Segre nie mógł kontynuować badań rozpoczętych z Fermim. Uczelnia nie posiadała sprzętu do badań radioaktywnych. Podjąwszy szybko decyzję, włoski naukowiec wyjechał do Ameryki, aby zapoznać się z Uniwersytetem Kalifornijskim w Berkeley, który słynął z najlepszego sprzętu. Znajdował się tam wówczas jedyny na świecie cyklotron. „Źródła promieniotwórczości, które widziałem, były naprawdę niesamowite jak na osobę, która wcześniej pracowała wyłącznie ze źródłami Ra-Be” – wspomina fizyk.
    Segrè był szczególnie zainteresowany płytą odchylającą cyklotron. Miał on kierować przepływ przyspieszonych cząstek w wymaganym kierunku. W wyniku zderzeń z cząstkami wysokoenergetycznymi – deuteronami zostały przyspieszone – płyta ta bardzo się nagrzała. Dlatego musiał być wykonany z ogniotrwałego metalu - molibdenu. Gość z Włoch zwrócił swoją uwagę na ten metaliczny molibden, bombardowany deuteronami. Segre zasugerował, że być może izotopy nieznanego jeszcze pierwiastka 43 mogłyby powstać z molibdenu, pierwiastka 42, w wyniku bombardowania deuteronami. Być może zgodnie z równaniem:
    Mo + D = X + n
    Naturalny molibden jest mieszaniną sześciu stabilnych izotopów. Segre zasugerował: co by było, gdyby jeden z sześciu możliwych radioaktywnych izotopów pierwiastka 43, w który teoretycznie mógłby zamienić się molibden – przynajmniej jeden – okazał się na tyle długowieczny, że wytrzyma podróż morską na Sycylię. Włoski fizyk zamierzał bowiem szukać pierwiastka 43 dopiero w instytucie w swojej ojczyźnie.
    Badacz wyruszył w drogę powrotną, mając w kieszeni kawałek płytki molibdenowej z cyklotronu w Berkeley. Pod koniec stycznia 1937 roku rozpoczął badania przy wsparciu mineraloga i chemika analitycznego Perriera. Rzeczywiście obaj odkryli radioaktywne atomy, których właściwości chemiczne można umieścić pomiędzy manganem i renem. Ilości ekmanganu, które dzięki odkrywczemu geniuszowi człowieka ponownie zostały sztucznie wskrzeszone na Ziemi, były niewyobrażalnie małe: od 10-10 do 10-12 g 43-go pierwiastka!
    Kiedy w lipcu 1937 roku Segret i Perrier donieśli o syntezie pierwszego sztucznego pierwiastka, dawno wymarłego na Ziemi, był to dzień, który przeszedł do historii. Dla pierwiastka 43 znaleziono później bardzo precyzyjną nazwę: technet, wywodzącą się od greckiego technetos – sztuczny. Czy kiedykolwiek będzie możliwe zdobycie go w znacznych ilościach i trzymanie go w rękach? Wkrótce można było odpowiedzieć pozytywnie na to pytanie, gdy odkryto, że w wyniku rozszczepienia uranu powstają izotopy 43 ze stosunkowo dużą wydajnością. Szczególną uwagę przykuł izotop o liczbie masowej 101 i okresie półtrwania wynoszącym 14 minut. Założono, że substancja Fermiego o okresie półtrwania wynoszącym 13 minut, pierwiastek urojony 93, miała być izotopem pierwiastka 43.
    Naturalne szeregi radioaktywne mają ostateczną formę – nikt inny nie odważył się w to wątpić, zwłaszcza po identyfikacji uranu-235 za pomocą spektrografii masowej przez Dempstera. Jednakże szereg uran-aktyn miał słaby punkt. Minęło ponad dwadzieścia lat, odkąd zauważono „nieścisłość” w tej serii, która została niemal skazana na zapomnienie. W latach 1913/1914 angielski chemik Cranston oraz austriaccy badacze radioaktywności Mayer, Hess i Paneth natknęli się na tę rozbieżność podczas badania aktynu. Wiadomo, że aktyn, jako emiter beta, przekształca się w radioaktyn, to znaczy w izotop toru. Kiedy naukowcy badali proces transformacji, zawsze obserwowali słabe promieniowanie alfa. Tę resztkową aktywność (około 1%) odkrył również Otto Hahn w eksperymentach nad produkcją czystego aktynu. „Nie mogłem się zdobyć na to, by nadać znaczenie tej małej kwocie” – powiedział później Khan. Uważał, że najprawdopodobniej była to nieczystość.
    Wiele lat później. Francuska naukowiec Marguerite Perey, pracownica słynnego Instytutu Radowego w Paryżu, ponownie poszła tym tropem, bardzo dokładnie oczyściła frakcje aktynu i we wrześniu 1939 roku doniosła o udanej izolacji nowego izotopu promieniotwórczego. Był to dawno brakujący pierwiastek 87, produkt uboczny emitujący cząstki alfa, który daje resztkową jednoprocentową aktywność aktynu. Madame Perey znalazła odgałęzienie w już ukończonym szeregu, gdyż izotop pierwiastka 87 zamienia się w aktyn X w taki sam sposób, jak dobrze znany radioaktyn. Zgodnie z sugestią Perey pierwiastek 87 został nazwany fransem na cześć jej ojczyzny.
    To prawda, że ​​chemicy do dziś nie odnieśli dużego sukcesu w badaniu pierwiastka 87. W końcu wszystkie francuskie izotopy są krótkotrwałe i rozpadają się w ciągu milisekund, sekund lub minut. Z tego powodu pierwiastek pozostał „nieciekawy” dla wielu badań chemicznych i zastosowań praktycznych. W razie potrzeby uzyskuje się go sztucznie. Oczywiście frans można też „uzyskać” ze źródeł naturalnych, ale jest to przedsięwzięcie wątpliwe: 1 g uranu naturalnego zawiera tylko 10[-18] g fransu!
    Kiedy odkryto układ okresowy, brakowało 23 pierwiastków, teraz brakuje tylko dwóch: 61 i 85. Jak przebiegało polowanie na pierwiastki? Latem 1938 roku Emilio Segra ponownie wyjechał do Berkeley. Zamierzał zbadać krótkotrwałe izotopy pierwiastka 43. Oczywiście takie badania trzeba było przeprowadzić na miejscu. Izotopy o krótkim okresie półtrwania nie „przetrwałyby” podróży do Włoch. Zaraz po przybyciu do Berkeley Segre dowiedział się, że powrót do faszystowskich Włoch stał się dla niego niemożliwy z powodu terroru rasowego. Segrè pozostał w Berkeley i tam kontynuował swoją pracę.
    W Berkeley dzięki mocniejszemu cyklotronowi możliwe było przyspieszenie cząstek alfa do wysokich energii. Po przekroczeniu tzw. progu oddziaływania kulombowskiego, te cząstki alfa były w stanie przeniknąć nawet do jąder ciężkich atomów. Teraz Segre dostrzegł możliwość przekształcenia bizmutu, pierwiastka 83, w nieznany pierwiastek 85. Razem z Amerykanami Corsonem i Mackenziem bombardował jądra bizmutu cząstkami alfa o energii 29 MeV, aby przeprowadzić następujący proces:
    Bi + He = X + 2n
    Reakcja się sprawdziła. Kiedy 1 marca 1940 roku badacze zakończyli swoją pierwszą wspólną pracę, jedynie ostrożnie wyrazili pomysł „możliwej produkcji radioaktywnego izotopu pierwiastka 85”. Niedługo potem byli już pewni, że pierwiastek 85 został sztucznie wytworzony, zanim znaleziono go w naturze. Tego ostatniego udało się dokonać dopiero kilka lat później Angielce Leigh-Smith i szwajcarskiemu Minderowi z Instytutu w Bernie. Udało im się wykazać, że pierwiastek 85 powstaje w szeregu radioaktywnym toru w wyniku procesu ubocznego. Na element otwarty wybrali nazwę Anglo-Helvetius, którą krytykowano jako słowny nonsens. Austriacka badaczka Karlik i jej współpracownik Bernert wkrótce odkryli pierwiastek 85 w innych seriach naturalnej promieniotwórczości, również jako produkt uboczny. Jednak prawo do nazwania tego pierwiastka, spotykanego jedynie śladowo, pozostało przy Segrè i jego współpracownikach: obecnie nazywa się go astat, co po grecku oznacza niestabilny. Przecież najbardziej stabilny izotop tego pierwiastka ma okres półtrwania wynoszący zaledwie 8,3 godziny.
    W tym czasie profesor Segre również próbował zsyntetyzować pierwiastek 61. W międzyczasie stało się jasne, że obaj sąsiedzi tego pierwiastka w układzie okresowym, neodym i samar, są słabo radioaktywne. Początkowo wydawało się to zaskakujące, ponieważ wówczas wierzono, że radioaktywność jest nieodłączną cechą najcięższych pierwiastków. Neodym, pierwiastek 60, emitował promienie beta i dlatego musiał zostać przekształcony w pierwiastek 61. Fakt, że tego nieznanego pierwiastka chemicznego nie udało się jeszcze wyizolować, wynikał prawdopodobnie z jego szybkiego rozpadu radioaktywnego. Co robić? Tutaj rozwiązaniem ponownie było sztuczne uzyskanie pożądanego pierwiastka. Ponieważ pierwiastka 61 nie można było znaleźć w przyrodzie, fizycy próbowali go zsyntetyzować.
    W latach 1941/42 naukowcy Lowe, Poole, Quill i Kurbatov z Ohio State University zbombardowali neodym, pierwiastek ziem rzadkich, deuteronami przyspieszanymi w cyklotronie. Odkryli radioaktywne izotopy nowego pierwiastka, który nazwali cyklonem. Jednak na filmie pozostał tylko ślad.
    Jakie były sukcesy Emilio Segry? Napromieniował promieniami alfa prazeodym, pierwiastek 59. Jednakże przetwarzanie izotopów pierwiastka 61, które z pewnością zsyntetyzował, okazało się zbyt trudne. Ich izolacja od innych pierwiastków ziem rzadkich nie powiodła się.
    Zgłoszono jedno niejednoznaczne badanie z Finlandii. Już w 1935 roku chemik Eremetse rozpoczął analizę koncentratów mieszaniny tlenków samaru i neodymu pod kątem naturalnej zawartości 61. pierwiastka. W tym celu przetworzono kilka ton apatytu.
    Pierwsza faza zmagań o 61. element zakończyła się remisem. Nie można było nawet zaakceptować proponowanej nazwy „cyklon”.

    Syntetyzowane (sztuczne) pierwiastki chemiczne- pierwiastki zidentyfikowane po raz pierwszy jako produkt sztucznej syntezy. Niektóre z nich (ciężkie pierwiastki transuranowe, wszystkie transaktynoidy) najwyraźniej nie występują w przyrodzie; inne pierwiastki odkryto później w śladowych ilościach w skorupie ziemskiej (technet, promet, astat, neptun, pluton, ameryk, kiur, berkel, kaliforn), w fotosferach gwiazd (technet i prawdopodobnie promet), w powłokach supernowych ( kaliforn i prawdopodobnie produktami jego rozpadu są berkel, kiur, ameryk i lżejsze).

    Ostatnim pierwiastkiem występującym w przyrodzie przed sztuczną syntezą był frans (1939). Pierwszym zsyntetyzowanym pierwiastkiem chemicznym był technet w 1937 roku. Od 2012 r. Pierwiastki aż do ununoctium o liczbie atomowej 118 zostały zsyntetyzowane w drodze syntezy jądrowej lub rozszczepienia i podjęto próby syntezy następujących superciężkich pierwiastków transuranowych. Synteza nowych transaktynoidów i superaktynoidów trwa.

    Najbardziej znanymi laboratoriami, które zsyntetyzowały kilka nowych pierwiastków i kilkadziesiąt lub setki nowych izotopów, jest Laboratorium Krajowe. Lawrence Berkeley i Livermore National Laboratory w USA, Joint Institute for Nuclear Research w ZSRR/Rosja (Dubna), Europejskie Centrum Badań nad Ciężkimi Jonami im. Helmholtza w Niemczech, Cavendish Laboratory na Uniwersytecie w Cambridge w Wielkiej Brytanii, Instytut Badań Fizyko-Chemicznych w Japonii i niedawne Od kilkudziesięciu lat międzynarodowe zespoły pracują nad syntezą pierwiastków w ośrodkach amerykańskich, niemieckich i rosyjskich.

    • 1 Otwieranie syntetyzowanych elementów według kraju
      • 1.1 ZSRR, Rosja
      • 1.2 Stany Zjednoczone
      • 1.3 Niemcy
      • 1.4 Kwestionowane priorytety i wspólne wyniki
        • 1.4.1 USA i Włochy
        • 1.4.2 ZSRR i USA
        • 1.4.3 Rosja i Niemcy
        • 1.4.4 Rosja i Japonia
    • 2 Uwagi
    • 3 linki

    Odkrycie syntetyzowanych pierwiastków według krajów

    ZSRR, Rosja

    Pierwiastki nobelium (102), flerow (114), ununpentium (115), Livermorium (116), ununseptium (117), ununoctium (118) zsyntetyzowano w ZSRR i Rosji.

    USA

    W USA pierwiastki promet (61), astat (85), neptun (93), pluton (94), ameryk (95), kiur (96), berkel (97), kaliforn (98), einstein (99) , ferm (100), mendelew (101), seaborg (106).

    Niemcy

    Pierwiastki has (108), meitner (109), darmsztadt (110), roentgen (111) i kopernik (112) zsyntetyzowano w Niemczech.

    Kwestionowane priorytety i wspólne wyniki

    W wielu elementach priorytet jest w równym stopniu zatwierdzony zgodnie z decyzją wspólnej komisji IUPAC i IUPAP lub pozostaje kontrowersyjny:

    USA i Włochy

    Technet (43) – wspólny wysiłek wyprodukowany w akceleratorze w Berkeley w Kalifornii i zidentyfikowany chemicznie w Palermo na Sycylii.

    ZSRR i USA

    Wawrzyniec (103), rutherford (104), dubn (105).

    Rosja i Niemcy

    Boriusz (107).

    Rosja i Japonia

    Nieporządny (113).

    Notatki

    1. Emsleya Johna. Klocki natury: przewodnik po elementach od A do Z. – Nowy Jork – Nowy Jork: Oxford University Press, 2011. – ISBN 978-0-19-960563-7.
    2. Instytut w Dubnej stał się czwartym na świecie pod względem liczby odkrytych izotopów
    3. Ranking izotopów ujawnia wiodące laboratoria inż.
    4. http://flerovlab.jinr.ru/rus/elements.html
    5. Tymczasowa nazwa dla 115. elementu; zaproponowano nazwę Langevinia.
    6. Tymczasowa nazwa 117. elementu;
    7. Tymczasowa nazwa 118. elementu; Zaproponowano nazwę Moscovian.
    8. RC Barber i in. Odkrycie pierwiastków transfermowych (angielski) // Chemia czysta i stosowana. - 1993. - T. 65. - Nr 8. - P. 1757-1814.
    9. Ostatnio wielokrotnie musiałem pisać o sytuacji związanej z naruszeniem priorytetu radzieckich naukowców w syntezie superciężkiej
    10. O ochronie priorytetowej
    11. Chemia: Układ okresowy: darmstadt: informacje historyczne
    12. http://element114.narod.ru/Projects/ao-iupac.html
    13. O ochronie priorytetowej
    14. Tymczasowa nazwa 113. elementu; Zaproponowano nazwy becquerelia, japonium, rykenium i nihonium.