Promienie pokazane na rysunku są dokładnie prześledzone, ale układ jest narysowany w większej skali w Y niż w X, aby wyraźniej pokazać separację promieni. Oczywiście promienie nie skupiają się ostro. ABERRACJA KULISTA SA na rysunku jest widoczna w ognisku osiowym. Promienie zewnętrzne skupiają się jako pierwsze i już się rozchodzą tam, gdzie skupiają się inne promienie. COMA jest również widoczna na rysunku w obrazie pozaosiowym. Promień przechodzący przez środek APERTURY wejściowej, zwany promieniem głównym, jest przesunięty w bok od ogniska promieni zewnętrznych. Obraz ma wygląd komety z głównym promieniem na czele. Jest również oczywiste, że oba ogniska nie znajdują się w tej samej płaszczyźnie, co jest ABERRACJĄ zwaną krzywizną Petzvala. Kolejną aberracją jest ASTIGMATYZM, w którym promienie zewnętrzne, prostopadłe do płaszczyzny rysunku, skupiają się dalej od obiektywu, ale nie są one widoczne. Poradnik na temat aberracji można znaleźć w katalogu Mellesa Griota: http://www.mellesgriot.com. Dla danej Ogniskowej aberracja sferyczna jest proporcjonalna do sześcianu średnicy apertury. Koma jest proporcjonalna do kwadratu apertury i wprost proporcjonalna do kąta pola. Astygmatyzm jest proporcjonalny do kwadratu kąta pola i jest wprost proporcjonalny do przysłony. Barwa osiowa jest wprost proporcjonalna do apertury, natomiast barwa boczna jest niezależna od apertury i jest wprost proporcjonalna do kąta pola. W przypadku soczewki singletowej aberracja sferyczna jest mniejsza, jeśli szkło ma wysoki współczynnik załamania światła, N, ponieważ dla danej ogniskowej potrzebna jest mniejsza krzywizna. Jednakże okulary o wyższym indeksie mają zwykle wyższą dyspersję, która zwiększa ABERRACJĘ CHROMATYCZNĄ. Jednowarstwowa powłoka przeciwodblaskowa na soczewce wykonanej ze szkła o wysokim współczynniku odbicia ma mniejszy współczynnik odbicia szczątkowego przy jednej długości fali, ale większe średnie straty niż w przypadku szkła o niskim współczynniku w szerokim paśmie długości fal. Zatem soczewka singletowa o wysokim współczynniku jest optymalna dla efektów monochromatycznych, ale szkło o niskim współczynniku i niskiej dyspersji jest lepsze dla szerokiego zakresu widma. Kolejnym czynnikiem branym pod uwagę przy wyborze szkła jest ciemnienie radiacyjne i fluorescencja
W porównaniu z teleskopem z dwoma zwierciadłami, który ma odległą źrenicę wyjściową nad zwierciadłem wtórnym, NGST ma swoją końcową źrenicę znacznie bliżej ogniska i dlatego jest mniej telecentryczny niż większość teleskopów. Celem odkształcalnego zwierciadła DM na NGST jest kompensacja resztkowych niedoskonałości kształtu aktywnego zwierciadła głównego. Jeśli teleskop kosmiczny ma ograniczoną dyfrakcję, wówczas kamery w instrumentach mogą być mniejsze i mieć dłuższe ogniskowe niż odpowiedniki w dużym teleskopie naziemnym, którego rozdzielczość jest ograniczona przez turbulencje atmosferyczne, zwane WIDZENIEM. Spektrograf przeznaczony dla małego teleskopu naziemnego będzie dobrze współpracował z dużym teleskopem kosmicznym.
Składa się z dziewięciu elementów: dubletu sprzężonego z cieczą, singletu, trójki sprzężonej z cieczą, dubletu i wreszcie soczewki spłaszczającej pole singletowe w pobliżu ogniska. Pokazano także filtr i okno Dewara. Największy element ma średnicę 36 cm i wykonany jest z fluorku wapnia. Dla porównania, jeśli teleskop znajduje się w kosmosie, minimalny rozmiar obrazu gwiazdy można ograniczyć jedynie poprzez dyfrakcję, a zatem w ognisku na detektorze jego rozmiar jest taki sam, niezależnie od średnicy teleskopu, dla danej liczby F. Zatem na przykład prosta kamera spektrografowa zaprojektowana dla teleskopu o średnicy 1 m będzie działać z pełną wydajnością, jeśli zostanie użyta w połączeniu z teleskopem kosmicznym o średnicy 8 m. Dzięki temu bardziej wykonalne staje się wykorzystanie wydajnych spektrografów w gigantycznych teleskopach kosmicznych przyszłości, takich jak być może 100-metrowy teleskop zwierciadła ciekłego na Księżycu.
W przypadku obserwacji satelitów przywracane jest zerowe zniekształcenie poprzez usunięcie decentracji i pochylenia elementów. Gdyby teleskop został przeniesiony do Obserwatorium Cloudcroft na 31° szerokości geograficznej, zmniejszenie zniekształceń gwiazdowych w tym miejscu można by osiągnąć poprzez odpowiednią zmianę położenia elementów. Zaletą skanowania dryftu jest to, że różnice w czułości detektora piksel po pikselu są zmniejszone, ponieważ odpowiedź jest uśredniana dla wszystkich pikseli CCD w kolumnie. Sterowane teleskopy są czasami używane do skanowania dryfu poprzez śledzenie po wielkim okręgu z szybkością inną niż gwiazdowa i obracanie detektora. W tym przypadku efekty nieliniowe są zminimalizowane bez konieczności stosowania korektora asymetrycznego. Jednakże, ze względu na fizyczny ruch wymagany od kamery, długość toru wielkiego koła jest ograniczona. Obserwacje musiałyby zostać przerwane, gdy pozycja kamery jest ustawiona tak, aby podążała za różnymi torami wielkiego okręgu. Dla porównania LMT, czyli dowolny teleskop zatrzymany w zenicie, może integrować się w sposób ciągły z detektorem stacjonarnym.
Widmo widzialne każdego składnika (środkowa krzywa, górne panele) uzyskano poprzez obrotowe wygładzenie śladu słonecznego za pomocą odpowiedniego v sin i; cecha absorpcji w pobliżu 6339 Å jest nierozwiązanym bliskim połączeniem. Pionowa linia przerywana oznacza położenie spoczynkowe środkowej ostrej absorpcji. Dla przejrzystości przyjęto, że widmo pierwotne jest o 10% jaśniejsze niż widmo wtórne przy tej długości fali czerwonej (co odpowiada V ∿ 0,1 mag); widmo wtórne jest zacienione. Zwróć uwagę na wyblakły wygląd tego ostatniego. Kiedy oba widma zostaną połączone w celu uzyskania kompozytu na górze każdego panelu, ostre linie pierwotnego rozmywają się we względnym strumieniu około 2 razy i opadają na falujące tło zapewniane przez rozmazany obrotowo element wtórny. Nic dziwnego, że tak trudno było wyizolować wtórny udział w historycznych, zaszumionych widmach fotograficznych.
61 Cygni
Gwiazda 61 Cygni jest ważna ze względu na jej duży ruch własny, po raz pierwszy zmierzony w Obserwatorium w Palermo przez Giuseppe Piazziego (1746-1826). Gwiazda stała się popularnie nazywana "latającą gwiazdą Piazziego". Jej zmierzony roczny ruch własny wynosi 5,23″ jest nadal siódmą co do wielkości znaną gwiazdą i największą gwiazdą widzianą gołym okiem (pozorna jasność 4,8 mag). Ta gwiazda była również pierwszą, której roczna paralaksa została wiarygodnie określona przez Friedricha Bessela (1784-1846). Pomiar Bessela wynoszący 0,314″, wykonany w Königsberg za pomocą 6,25-calowego heliometru Fraunhofera w 1838 r., całkiem dobrze wypada w porównaniu ze współczesną wartością 0,286″. Oznaczenia paralaksy gwiazd wykonane w tym samym roku przez innych obserwatorów były znacznie mniej dokładne. Jest to jedenasta najbliższa gwiazda, znajdująca się w odległości 11,4 lat świetlnych. 61 Cygni jest również dobrze znanym systemem podwójnym, którego okres wynosi 653,3 lat. Jego składniki są
obecnie oddzielone o 30,3″ przy kącie położenia 150°. Główna gwiazda 61 Cyg A to pomarańczowy karzeł typu widmowego K5V o pozornej wielkości 5,20 i bezwzględnej 7,5. Jego towarzysz 61 Cyg B jest również pomarańczowym karłem typu widmowego K7V, o jasności pozornej 6,05 i jasności bezwzględnej 8,3. Układ ten jest uważany za najszerzej obserwowaną gwiazdę podwójną, uzupełnioną o kilka tysięcy obserwacji wizualnych ponad 34 000 klisz fotograficznych. Precyzyjne pomiary astrometryczne tych płyt wykazały, że układ ma co najmniej jeden niewidoczny składnik, uważany za planetę o masie podobnej do Jowisza i być może aż trzy, z okresami orbitalnymi od 5 do 12 lat.
Gromady Abella
Gromady Abella to najbardziej rzucające się w oczy skupiska galaktyk zidentyfikowane przez George′a Abella na płytach z pierwszego przeglądu fotograficznego wykonanego za pomocą TELESKOPU SCHMIDT na Mount Palomar w latach pięćdziesiątych XX wieku. Czasami termin gromady Abella jest używany jako synonim pobliskich, optycznie wybranych gromad galaktyk. George Abell stworzył katalog zawierający 2712 najbogatszych takich zgrupowań na niebie północnym, który później rozszerzono na niebo południowe. Nie będzie przesadą stwierdzenie, że całkowita próbka 4076 kandydatów na gromady na całym niebie zrewolucjonizowała badania wielkoskalowej struktury we Wszechświecie. Katalog Abella stworzył podstawę do pierwszych badań ilościowych najgęstszego składnika wielkoskalowej struktury we wszechświecie lokalnym. W ostatnich latach definicja próbek klastrów kandydujących z płyt do badań szerokiego pola została powtórzona za pomocą automatycznych maszyn do skanowania płyt. Pokazało to obiektywnie, że subiektywny czynnik
wizualnej selekcji Abella jest dość mały, przynajmniej dla bogatszych i bliższych gromad. Rzeczywistość kandydatów na gromady w katalogu Abella była przedmiotem pewnej debaty, dopóki obserwacje spektroskopowe dużej liczby galaktyk w kierunkach gromad Abella nie wykazały przekonująco, że tylko niewielka część bogatych gromad jest wynikiem przypadkowych superpozycji. Oznacza to, że bardzo duża część kandydatów na bogate gromady w katalogu sporządzonym przez Abella (lub, włączając gromady południowe, przez Abella, Corwina i Olowina) reprezentuje zwarte, zlokalizowane piki w przestrzennym rozmieszczeniu galaktyk, głównie z przesunięciami ku czerwieni mniejszym niż 0,2 i utrzymywane razem grawitacyjnie. Już w latach trzydziestych XX wieku Fritz ZWICKY doszedł do wniosku, że świetlista materia (tj. galaktyki) w gromadach stanowi tylko około 10% całkowitej masy gromady, z czego większość można zatem wykryć jedynie za pomocą jej grawitacji. Doprowadziło to do oszacowania całkowitej masy (zarówno widocznej, jak i
ciemnej materii) na różne sposoby. Najczęstsze z nich to prędkości galaktyk w gromadzie, ilość i temperatura gorącego (emitującego promieniowanie rentgenowskie) gazu oraz zniekształcenie obrazów galaktyk w odległości znacznie większej niż gromada przez soczewkowanie grawitacyjne. Przez długi czas kilka lepiej znanych gromad Abell, takich jak te w konstelacjach COMA BERENICES i PERSEUS, kształtowało naszą wizję klas bogatych, zaludnionych gromad. W tym schematycznym widoku bogate gromady są gładkimi, okrągłymi i zwirializowanymi strukturami. Ten wyidealizowany obraz współistniał ze świadomością, że istnieją znaczne różnice w różnych właściwościach gromad Abella. Doprowadziło to do wielu badań tych właściwości i korelacji między nimi, a także do kilku prób opisania powstawania i ewolucji bogatych klastrów. Obecnie zdano sobie sprawę, że klastry nadal tworzą się i ewoluują w obecnej epoce. Wśród właściwości gromad, które można badać i dla których dokonano teoretycznych przewidywań, są kształt 3D (a raczej
osiowe proporcje rozkładu galaktyk), skład populacji galaktyk (tj. frakcje galaktyk o różnych typach morfologicznych ), rozkłady jasności galaktyk, szczegółową dynamikę różnych klas galaktyk, dynamiczną podstrukturę i segregację oraz ułamek masy całkowitej składający się z materii barionowej (tj. "zwykłej" materii nukleonowej). Ważnym niedawnym osiągnięciem jest poszukiwanie i badanie gromad galaktyk w bardzo dużych odległościach (tj. przy dużych przesunięciach ku czerwieni), które są "przodkami" lokalnych bogatych gromad w katalogu Abella. W przypadku tych młodszych gromad z dużymi przesunięciami ku czerwieni gromady Abella służą jako lokalna, współczesna populacja referencyjna. Gromady Abella jako podzbiór całej populacji gromad Podczas poszukiwania kandydatów na gromady na płytach Palomar Sky Survey, Abell nie miał informacji o odległościach (lub przesunięciach ku czerwieni) galaktyk. Dlatego wykorzystał rozkład galaktyk w pozornej wielkości, aby wybrać te piki w rzutowanym rozkładzie galaktyk, które naj
prawdopodobniej odpowiadają przestrzennie zwartej strukturze. Przyjmując wielkość 10. najjaśniejszej galaktyki jako przybliżoną "świecę standardową", oszacowano przesunięcie ku czerwieni; daje to kąt określony przez ustalony rozmiar liniowy 1,5h-1 Mpc w odległości gromady (gdzie h jest wartością obecnego parametru Hubble′a, wyrażoną w jednostkach 100 km s-1 Mpc-1). W okrągłej aperturze o promieniu równym temu kątowi zliczono liczbę galaktyk o wielkości nie większej niż dwie magnitudo słabszej niż trzecia pod względem jasności galaktyka. Ostatecznie liczbę niepowiązanych galaktyk w aperturze (i do tej samej granicy jasności) oszacowano na podstawie gęstości galaktyk w polach tła bez oczywistych kandydatów na gromady. Skorygowana liczba galaktyk (liczba bogactw, tj. szacowana liczba członków w aperturze powyżej granicy jasności) ma niepewność około 17. Dlatego Abell uznał, że tylko gromady ze skorygowaną liczbą galaktyk wynoszącą co najmniej 50 zostały pobrane w obiektywny sposób z przesunięciami ku czerwieni wynoszącymi 0,1-0,2. W oryginalnym ("północnym") katalogu Abella 1682 z 2712 kandydatów na klastry ma liczbę co najmniej 50. Dolna granica bogactwa musi być stosowana, jeśli korzysta się z katalogu Abella do celów statystycznych. Oczywiście istnieje wiele mniej bogatych klastrów, ale przy większych odległościach przesunięcia ku czerwieni ich kontrast w stosunku do pola jest zbyt niski, aby umożliwić solidne zdefiniowanie statystycznie wiarygodnej próbki. W ostatnich latach obszerne badanie przesunięcia ku czerwieni (ESO Nearby Abell Cluster Survey) zostało przeprowadzone na blisko 6000 galaktyk w około 100 kandydatach na gromady (głównie z południowej części katalogu Abell, Corwin i Olowin) o bogactwie wynoszącym co najmniej 50 i szacowane przesunięcia ku czerwieni mniejsze niż 0,1. Zanieczyszczenie w tych przeglądach przesunięcia ku czerwieni przez galaktyki, które nie należą do głównej gromady, jest dalekie od pomijalnego, tj. około 25%. Jednak większość przeglądów przesunięć ku czerwieni zawiera przestrzennie zwartą gromadę, do której należy co najmniej 50% galaktyk ze zmierzonymi przesunięciami ku czerwieni. Tylko około 10% kandydujących gromad wydaje się być superpozycją dwóch prawie równie bogatych (ale stosunkowo ubogich) systemów przy różnych przesunięciach ku czerwieni wzdłuż tej samej linii widzenia. W przypadku systemów zwartych przestrzennie dyspersja prędkości wykazuje globalną korelację z liczbą bogactw (klastry o większej liczbie bogactw mają średnio większe dyspersje prędkości), ale korelacja jest bardzo szeroka (co najmniej współczynnik 2 w obu wielkościach). Można by sądzić, że niepewność oszacowanych wizualnie zliczeń bogactwa jest za to odpowiedzialna, ale szerokość relacji nie zmniejsza się, jeśli użyje się zliczeń bogactwa opartych na skanowaniu maszynowym zamiast oryginalnych. Dla próbki około 150 gromad Abella z przesunięciami ku czerwieni mniejszymi niż 0,15, masy klastrów obliczono na podstawie względnych prędkości i pozycji galaktyk, zakładając, że twierdzenie wirialne zachodzi w centralnych obszarach gromad. Masy klastrów dość dobrze korelują z dyspersją prędkości, ale rozkłady mas w różnych przedziałach zliczeń bogactwa wydają się w znacznym stopniu pokrywać. Dlatego zastosowanie limitu zliczania bogactwa do próbki gromad Abella (co jest konieczne ze względów praktycznych) indukuje dość rozproszony limit masy. Gromady, a raczej kandydaci na klastry, w katalogu Abella o bogactwie co najmniej 50, są zatem podzbiorem wszystkich klastrów w zakresie mas od około 4×1013 do 2×1015MM⊙. Jednak dla klastrów o rozkładzie prędkości co najmniej 800 km s-1 zasadniczo wszystkie zliczenia bogactwa są większe niż 50. Innymi słowy, wszystkie klastry o rozkładzie prędkości co najmniej 800 km s-1 są zawarte w próbce z graniczna liczba 50, a oszacowanie ich gęstości przestrzennej jest bezstronne. Gromady z pozornymi dyspersjami prędkości większymi niż około 1200 km s-1 okazują się albo superpozycjami, albo mają dużo dynamicznej podstruktury. Wraz z pojawieniem się przeglądów rentgenowskich całego nieba, takich jak te z misji EINSTEIN (HEAO-2) i ROSAT, stało się możliwe konstruowanie kompletnych próbek gromad, dla których strumień promieniowania rentgenowskiego z gorącego gazu w studni potencjału klaster jest większy niż wartość progowa. W ten sposób powstają katalogi klastrów, które zasadniczo różnią się od katalogu Abell, a tym samym są do niego komplementarne, chociaż w pewnym stopniu się pokrywają. Masa gazu rentgenowskiego jest na ogół co najmniej tak duża, jak masa gromad galaktyk, ale łączna masa tych dwóch składników barionowych wynosi zazwyczaj tylko 10-15% masy całkowitej. Kiedy całkowitą masę gromady można oszacować zarówno na podstawie kinematyki galaktyk, jak i temperatury i jasności w promieniach rentgenowskich, te dwa oszacowania ogólnie dość dobrze się zgadzają.
Właściwości populacji galaktyk w gromadach Abella
W przeszłości zaproponowano kilka schematów klasyfikacji klastrów Abella. Wszystkie z nich podsumowują w taki czy inny sposób rozmieszczenie galaktyk w gromadzie pod względem pozycji, wielkości lub typu morfologicznego lub dowolnej ich kombinacji. Przewidywany rozkład galaktyk ma wiele form i waha się między następującymi skrajnościami. Może występować centralna koncentracja jasnych galaktyk, na ogół wczesnego typu, tj. eliptycznych, a często jedną z nich jest galaktyka cD, tj. gigantyczna eliptyczna otoczona rozciągniętą otoczką. Na drugim biegunie znajdują się klastry, które nie mają wyraźnej koncentracji centralnej. W niektórych gromadach rozkład galaktyk jest dość gładki i generalnie gromady te zawierają stosunkowo niewiele galaktyk spiralnych. Kiedy frakcja galaktyk spiralnych jest duża, rozkład galaktyk jest generalnie mniej regularny. Względne frakcje galaktyk wczesnego i późnego typu są skorelowane z liczbą bogactw, co jest przejawem relacji morfologia-gęstość. Ta ostatnia pokazuje wyraźną korelację między względnymi frakcjami galaktyk eliptycznych, soczewkowatych (S0s) i spiralnych, a (lokalną) rzutowaną gęstością galaktyk (a zatem odległością promieniową). S0 mogą stanowić do 50% w centrum, z galaktykami eliptycznymi tuż za nimi i galaktykami spiralnymi około 10%. W zewnętrznych częściach galaktyki eliptyczne są prawie nieobecne, podczas gdy galaktyki spiralne mogą stanowić do 60%. Należy zauważyć, że są to wartości globalne: poszczególne klastry wykazują znaczny rozrzut wokół nich. Chociaż w znacznej części gromad Abell rozkład galaktyk nie jest bardzo regularny lub kołowo-symetryczny, zawsze można wyprowadzić uśredniony azymutalnie rzutowany profil gęstości liczbowej Σ(R), w którym R jest rzutowaną odległością od centrum gromady, tj. najkrótsza odległość między linią widzenia przez galaktykę a centrum gromady. Zaproponowano kilka wyrażeń do matematycznego opisu Σ(R), z których wszystkie mają trzy parametry. Są to centralna wartość Σ(R), tj. ΣR = 0), charakterystyczna długość Rc (odległość, przy której Σ(R) zmniejszyła się o zadany współczynnik, powiedzmy 2) i miarę spadku Σ(R) w częściach zewnętrznych (ogólnie nachylenie logarytmiczne ? Σ(R)). Ostatnio Σ(R) została wyprowadzona dla galaktyk o różnych typach morfologicznych w około 70 bogatych gromadach Abella. W poszczególnych gromadach liczba galaktyk określonego typu jest generalnie niewystarczająca, aby umożliwić dokładne oszacowanie trzech parametrów Σ(R). Odpowiednio łącząc dane dla wielu gromad można porównać reprezentacje Σ(R) dla galaktyk eliptycznych, S0, spiralnych i galaktyk z liniami emisyjnymi (głównie bardzo 'późne' spirale, takie jak Sc i S d, ze zjonizowanym gazem w ośrodku międzygwiazdowym). Innymi słowy, poświęcając szczegółowe właściwości poszczególnych klastrów, uzyskuje się obraz średnio bogatej gromady Abella. Wydaje się, że istnieje wyraźna korelacja między typem galaktyki a Σ(R): charakterystyczna długość Rc znacznie wzrasta od wczesnego do późnego typu galaktyki (od około 0,1 do 0,5 Mpc). Pokazuje to, że galaktyki eliptyczne są rzeczywiście znacznie bardziej skoncentrowane centralnie niż galaktyki spiralne, podczas gdy galaktyki linii emisyjnych tworzą najbardziej rozległą populację. Tym różnicom muszą towarzyszyć różnice w kinematyce galaktyk różnych typów, ponieważ wszystkie klasy galaktyk poruszają się w tym samym potencjale gromady, który w większości determinowany jest przez ciemną materię. Takie różnice kinematyczne są rzeczywiście obserwowane: eliptyczne i S0 wykazują najmniejsze rozproszenie składowej ich prędkości w linii wzroku, a rozproszenie to zmienia się nieznacznie wraz z rzutowaną odległością od środka. Spirale, a w szczególności galaktyki z liniami emisyjnymi, mają większą dyspersję prędkości (nawet o 20-30%), która wyraźnie maleje wraz z większymi rzutowanymi odległościami. Właściwie kinematyka linii emisji galaktyk wskazuje, że nie przeszły one jeszcze przez gęste jądra centralne, co jest prawdopodobnie powodem, dla którego nie straciły one jeszcze gazu emitującego linie w spotkaniach z innymi galaktykami. Łącząc przewidywane rozkłady galaktyk z kinematyką, można oszacować rozkład masy całkowitej (widocznej i ciemnej) za pomocą równania dynamiki gwiazd Jeansa. Porównując rozkład ciemnej materii z jasnością galaktyk, można w zasadzie badać zmiany tak zwanego stosunku masy do światła wraz z odległością od centrum gromady. Może to dać wskazówki dotyczące szczegółów procesu powstawania, takich jak skutki zderzeń galaktyk, rola halo ciemnej materii w galaktykach itp.
Gromady Abella jako sondy kosmologiczne
Kilka właściwości obserwacyjnych gromad Abell zostało wykorzystanych do ograniczenia teorii powstawania wielkoskalowych struktur we Wszechświecie i parametrów w tych teoriach. Właściwości te obejmują rozkład przestrzenny klastrów Abella, ich kształty i masy. Wszystkie one na różne sposoby niosą ze sobą informacje o tym, w jaki sposób największe, dobrze rozwinięte struktury we wszechświecie powstały poprzez wzrost początkowych fluktuacji gęstości materii. Przestrzenny rozkład klastrów Abella przeanalizowano za pomocą dwupunktowej funkcji korelacji ξ(r), tj. ułamka par klastrów z pewną separacją, przekraczającą oczekiwaną liczbę par dla rozkładu losowego, którą wyprowadzono dla skupiska o różnym bogactwie. Ogólnie rzecz biorąc, funkcja korelacji ma postać potęgową: ξ(r) = (r/r0)-γ ; wykładnik γ (około 2) nie wydaje się zależeć od granicznej liczby bogactw, ale wartość długości korelacji r0 tak, i jest większa dla bogatszych klastrów (z charakterystyczną wartością około 20 Mpc). W zasadzie dane te pozwalają wyprowadzić wartość gęstości kosmologicznej, jak również amplitudę widma fluktuacji. Innym aspektem rozmieszczenia bogatych gromad Abella jest to, że generalnie znajdują się one w wierzchołkach, w których spotykają się arkusze i włókna w ogólnym rozmieszczeniu galaktyk. Dlatego rozkład bogatych klastrów był czasami porównywany z rozkładem wierzchołków w tak zwanych teselacjach Woronoja, które są geometrycznymi podziałami przestrzeni. Kształty gromad Abella zostały wyprowadzone z przewidywanych rozkładów galaktyk. Korzystając z pozycji galaktyk niezależnie od typu galaktyk, można obliczyć pozorną eliptyczność gromady. Ogólnie rzecz biorąc, bogatsze klastry są mniej wydłużone niż mniej bogate. Pozorne eliptyczności dla próbki gromady około 100 północnych gromad Abella sugerują, że wydłużone gromady są raczej wydłużone (podobne do cygar) niż spłaszczone. Porównanie tych danych z wynikami numerycznych obliczeń N-ciałowych może zawęzić teorie powstawania struktur. Pełny rozkład mas ograniczonej objętościowo próbki klastrów Abella (tj. jej kształtu i normalizacji) może również dostarczyć informacji dla teorii tworzenia struktur kosmologicznych. Ponieważ próbka gromad Abella o granicznej liczbie bogactw wynoszącej 50 ma raczej źle zdefiniowaną kompletność przy mniejszych masach, należy ograniczyć porównanie między obserwacjami i przewidywaniami do najbardziej masywnych gromad, dla których katalog Abella jest kompletny. Uzyskanie niezależnych informacji dla kilku parametrów w teoriach formacji, które wpływają na właściwości najbardziej masywnych struktur, nie jest wcale trywialne. Wydaje się jednak, że istnieje ogólna zgoda co do tego, że te ostatnie są bardziej zrozumiałe we wszechświecie, w którym gęstość materii jest znacznie mniejsza niż gęstość krytyczna.
Widmo absorpcyjne
Wzór ciemnych linii lub pasm nałożonych na widmo ciągłe. Kiedy ciągłe widmo promieniowania (szeroki zakres długości fal) przechodzi przez ośrodek materialny (na przykład chłodny gaz o niskim ciśnieniu), przy pewnych określonych długościach fal zachodzi selektywna absorpcja. Prowadzi to do serii spadków intensywności (linii absorpcyjnych), które w widocznym obszarze widma wyglądają jak ciemne linie na jasnym tle "tęczowego" pasma kolorów, które obejmuje widmo ciągłe. Fotony promieniowania elektromagnetycznego mogą być pochłaniane przez wzbudzenie radiacyjne, proces, który zachodzi, gdy elektron na jednym z niższych poziomów energetycznych atomu lub jonu absorbuje foton o energii dokładnie równej różnicy energii między tym poziomem a jednym z wyższych poziomów dozwolonych poziomów i w rezultacie przeskakuje (dokonuje "przejścia w górę") z poziomu niższego na wyższy. Ponieważ energia fotonu jest odwrotnie proporcjonalna do długości fali, im większa przerwa energetyczna, tym krótsza długość fali promieniowania,
które jest absorbowane, gdy elektron dokonuje określonego przejścia. Elektron zwykle nie pozostaje długo na poziomie wzbudzonym (zwykle 10-8 s). Kiedy spada ponownie, emituje foton lub fotony, które mogą mieć taką samą długość fali jak ta, która została pierwotnie wchłonięta, ale nie muszą (w zależności od tego, czy spada bezpośrednio do swojego pierwotnego poziomu, czy też opada w serii mniejszych kroków). Jeśli spada w serii kroków, z których każdy odpowiada emisji fotonu o niższej energii (i większej długości fali) niż ten, który został pierwotnie zaabsorbowany, całkowita liczba fotonów pierwotnej energii zostanie zmniejszona, a widmo zostanie wyczerpany przy długości fali wejściowej. Co więcej, chociaż wszystkie fotony wejściowe poruszały się zasadniczo w tym samym kierunku (od źródła do obserwatora), ponownie wyemitowane fotony oddalają się w przypadkowych kierunkach. W konsekwencji do obserwatora dociera znacznie mniej fotonów o długości fali absorpcji niż fotonów o innych długościach fal. Powstała
linia absorpcyjna jest ciemniejsza niż sąsiednia część widma ciągłego, ale ponieważ niektóre fotony o tej długości fali docierają do obserwatora, nie jest całkowicie czarna. Ponieważ każde dozwolone przejście odpowiada pochłanianiu światła o określonej długości fali, atomy lub jony określonego pierwiastka wytwarzają linie absorpcyjne przy wielu różnych długościach fal, przy czym każdy pierwiastek chemiczny ma swój własny charakterystyczny wzór linii absorpcyjnych "odcisków palców". Linie o najkrótszej długości fali odpowiadają największym przerwom energetycznym (tj. przejściom z najniższego, "podstawowego" poziomu atomu lub jonu). Jeśli elektron pochłonie foton o energii przekraczającej energię jonizacji (lub "potencjał jonizacji"), zostanie usunięty z atomu. Widmo absorpcyjne określonego rodzaju atomu składa się z kilku serii linii odpowiadających różnym dozwolonym przemianom, przy czym granica krótkofalowa szeregu odpowiada energiom fotonów, powyżej których zachodzi jonizacja. Ponieważ fotony jonizujące
mogą w zasadzie mieć dowolną wartość energii powyżej energii jonizacji, absorpcja może zachodzić w ciągłym zakresie długości fal, krótszym niż granica serii. Absorpcja tego rodzaju nazywana jest kontinuum absorpcji. Wyraźność ("siła") danej linii zależy od liczby atomów odpowiedniego pierwiastka chemicznego, które mają elektrony rezydujące na poziomie energii, od którego następuje odpowiednie przejście w górę (stopień wzbudzenia). To z kolei zależy od obfitości danego pierwiastka chemicznego (względny udział tego pierwiastka w substancji pochłaniającej) oraz od szeregu innych czynników, w szczególności od temperatury (im wyższa temperatura, tym większy udział elektronów w stanach wzbudzonych). Oprócz wytwarzania absorpcji poprzez przemiany elektronowe (takie jak atomy i jony), cząsteczki mogą również absorbować (lub emitować) promieniowanie, zmieniając swoje stany wibracyjne (ich składowe atomy wibrują względem siebie) lub obracając się (cząsteczka mająca kształt fizyczny , może obracać się wokół określonej
osi). Widma absorpcji molekularnej są złożone, a ich różne linie często łączą się w szersze pasma.
Akrecja
Proces, w którym ciało niebieskie zwiększa swoją masę poprzez agregację mniejszych obiektów, które się z nim zderzają. Kilka typów obiektów rośnie przez akrecję. W gwiazdach podwójnych, w których zachodzi wymiana masy, jeden członek rośnie kosztem drugiego; czarne dziury, w tym supermasywne czarne dziury, o których uważa się, że są obecne w aktywnych jądrach galaktyk, również zwiększają swoją masę poprzez akrecję. W obu przypadkach materia gromadzi się poprzez dysk akrecyjny krążący wokół obiektu akrecyjnego. Proces ten jest szczególnie ważny w procesie formowania się planet. Ziarna pyłu w dysku protoplanetarnym (lub proplydzie) wokół młodej gwiazdy zderzają się i łączą, stopniowo budując większe obiekty, które z kolei zderzają się i łączą. Obiekty akreowane w tej początkowej fazie formowania się planet, a ich rozmiary mieszczą się w przedziale od milimetrów do dziesiątek kilometrów, nazywane są planetozymalami. Gdy rozmiar obiektu można zmierzyć w kilometrach, jego własna grawitacja staje się czynnikiem akrecji. Kolizyjne łączenie się planetozymali umożliwia budowanie większych ciał, które nazywane są protoplanetami, obiektami o długości co najmniej tysiąca kilometrów. Późniejsza ewolucja protoplanet przebiega przez wzajemne zderzenia o wzrastającej sile i narastanie fragmentów powstałych w tych zderzeniach. Ciała pozostawione na orbicie gwiazdy po zakończeniu tej ostatniej fazy bombardowania nazywane są planetami.
Dyski akrecyjne
Przez akrecję rozumie się w astrofizyce akumulację materii na ciężki obiekt pod wpływem jego grawitacji. Obiektem może być na przykład gwiazda, czarna dziura lub gwiazda neutronowa. Większość obiektów tego typu jest dość odizolowana, bez dużej ilości gazu wokół, który mógłby zostać wciągnięty przez ich grawitację. W związku z tym zdecydowana większość gwiazd nie wykazuje żadnych oznak akrecji, podczas gdy większość gwiazd neutronowych i czarnych dziur w naszej galaktyce jest z tego powodu nieobserwowalna. Dyski akrecyjne, choć nieco egzotyczne w porównaniu ze zwykłymi gwiazdami lub galaktykami, przyciągają uwagę, ponieważ biorą udział w wielu bardzo widocznych zjawiskach. Obejmują one formowanie się naszego układu planetarnego i pierścieni Saturna, rentgenowskie układy podwójne w naszej galaktyce i skolimowane dżety z protogwiazd i akreujących czarnych dziur. Obserwowalne efekty akrecji mogą wahać się od skromnych do dość dramatycznych. Zależy to od ilości masy narastającej w jednostce czasu, ale jeszcze bardziej od głębokości studni potencjału pola grawitacyjnego akretora. Najprostszym modelem akrecji byłaby swobodna cząstka spadająca promieniowo do akretera z dużej odległości. Jeśli zaczyna się od spoczynku w nieskończoności, dociera do powierzchni R akretera o masie M z prędkością ucieczki ve = (GM/R)1/2. Możemy to również zapisać jako ve/c = (rg/2R)1/2, gdzie rg = 2GM/c2 = 2,8M/M⊙ km to promień Schwarzschilda o masie M. Dla gwiazdy neutronowej o M = 1,4M⊙ i R = 10 km, na przykład cząstka dotarłaby do powierzchni z prędkością około 30% prędkości światła. Akrecji na obiekty zwarte, w których M/R jest duże, towarzyszy zatem uwolnienie dużych ilości energii. Cząstka swobodna przyciągana do zwartego obiektu z dużej odległości ma tylko niewielką szansę na trafienie. Jeśli jego początkowy ruch nie jest skierowany bardzo dokładnie na obiekt, po prostu zatoczy orbitę i powróci na tę samą dużą odległość. Innymi słowy, przekrój poprzeczny dla akrecji przez wolne cząstki jest mały. Ten sam efekt odgrywa rolę, gdy rozważamy bardziej realistyczny przypadek akrecji gazu i nazywa się go "problemem momentu pędu", omówionym poniżej. Gaz akrecyjny może być na przykład dostarczany przez obłok protogwiazdy w przypadku rosnącej protogwiazdy lub przez gwiazdę towarzyszącą w układzie podwójnym. Jeśli gwiazda akreująca jest gwiazdą neutronową lub czarną dziurą, taki układ podwójny nazywa się UKŁADEM DWUKŁADOWYM PROMIENIOWANIEM RENTGENOWSKIM; jeśli jest to biały karzeł, układ podwójny nazywa się KATAKLIZMOWYM BINARNYM. Wreszcie akrecja jakiejś formy materii międzygwiezdnej na masywną czarną dziurę w jądrze galaktyki tworzy AKTYWNE JĄDRO GALAKTYCZNE (AGN). Prawie wszystkie dyski są tak małe, jak widać z Ziemi, że ich geometrię można wywnioskować jedynie pośrednio. Dyskami, które można obserwować bezpośrednio, są nasz układ planetarny, pierścienie Saturna i galaktyki spiralne. Żaden z nich nie jest jednak typowy dla gazowych dysków akrecyjnych. Nasz Układ Słoneczny jest tylko stałą pozostałością dysku akrecyjnego, który istniał podczas jego formowania. W przypadku pierścieni Saturna cząsteczki tworzące pierścienie również zachowują się bardziej jak cząstki swobodne niż jak gaz. Dyski w galaktykach spiralnych są znacznie bardziej skomplikowane niż dyski gazowe. Ponadto dyski galaktyczne nie są wystarczająco stare, aby od czasu ich powstania nagromadziły się w galaktycznym jądrze. Najlepszą perspektywą na bezpośrednie obserwowanie dysków akrecyjnych są protogwiazdy. Są to największe dyski pod względem średnicy kątowej widziane z Ziemi, a dzięki obecnie rozwijającym się obrazom w podczerwieni i falach milimetrowych o wysokiej rozdzielczości możliwe będą szczegółowe obserwacje ich struktury. Duże "proplydy" (dyski protoplanetarne) zostały sfotografowane w zakresie optycznym przez Kosmiczny Teleskop Hubble′a;. W przypadku układów podwójnych, informacji o rozmiarze, grubości i temperaturze dysku dostarczają zaćmienia. Jeśli układ podwójny jest zorientowany w taki sposób, że Ziemia znajduje się blisko swojej płaszczyzny orbity, dysk i dostarczająca masy gwiazda wtórna zaćmiewają się regularnie, gdy składniki krążą wokół siebie. Kształt krzywej blasku przy różnych długościach fal można następnie wykorzystać do określenia właściwości dysku, takich jak jego rozmiar i temperatura
Temperatury akrecji
Charakterystyczną temperaturą w problemach akrecyjnych jest temperatura wirialna,
Tv = |Φ |/R (1)
gdzie R = 8,314 × 107 erg g-1 K-1 mol-1 jest molową stałą gazową Φ głębokością studni potencjału. W odległości r od masy punktowej w grawitacji newtonowskiej Φ = ?GM/r. Gdyby cała energia kinetyczna uzyskana podczas wpadania do studni potencjału została rozproszona w energię wewnętrzną (ciepło), gaz osiągnąłby temperaturę rzędu Tv. Dla gwiazdy neutronowej Tv ∼2×1012 K, co odpowiada średniej energii cieplnej protonu rzędu 1GeV. Promieniowanie faktycznie obserwowane z systemów akrecyjnych wskazuje na znacznie niższe temperatury. Dzieje się tak dlatego, że plazma termiczna w tej temperaturze emituje energię z ogromną szybkością, znacznie większą niż może być dostarczona przez opadający gaz. Zamiast Tv gaz osiada w niższej temperaturze, tak że rozproszona energia jest z grubsza równoważona przez energię traconą przez promieniowanie. Drugą charakterystyczną temperaturę uzyskuje się przy założeniu, że promieniowanie emitowane jest jakby przez ciało doskonale czarne z powierzchni akreującego obiektu. Przyrównując jasność L = 4πr2σT4 ciała doskonale czarnego o promieniu R i temperaturze TB do energii generowanej przez akrecję z szybkością ˙M (masa na jednostkę czasu) otrzymujemy
gdzie σ = 5,6692 × 10?5 erg cm?2 K?4 s?1 jest stałą w prawie Stefana-Boltzmanna. Rzeczywiste temperatury różnią się od tego, ponieważ emitowane widmo różni się od widma ciała doskonale czarnego, powierzchnia emitująca nie jest równa powierzchni obiektu akrecyjnego lub, w przypadku czarnych dziur, większość energii akrecyjnej jest pochłaniana przez dziurę, a nie niż być napromieniowanym. Mimo to T>B często zapewnia dobrą kolejność i wielkość dla obserwowanych temperatur. Powodem jest to, że w takich przypadkach gaz akrecyjny jest optycznie gęsty, więc w wyniku powtarzających się procesów emisji i absorpcji fotonów energia akrecji jest ponownie przetwarzana na coś w rodzaju widma ciała doskonale czarnego. Dla zmiennych kataklizmicznych, protogwiazd i AGN, T>B ∼ 104-105 K, dla rentgenowskich układów podwójnych około 107K, co odpowiada energii fotonów odpowiednio 1-10 eV i 1 keV. Mogą jednak również zachodzić optycznie cienkie procesy akrecji , wytwarzające fotony o znacznie wyższych energiach.
Ciśnienie promieniowania i granica Eddingtona
Fotony uwalniane przez akreujący obiekt wywierają siłę na akreujący gaz. Poprzez rozpraszanie (lub absorpcję i reemisję) na atomie, jonie lub elektronie, zewnętrzny kierunek fotonu zmienia się na bardziej losowy. Pęd fotonów na zewnątrz jest w ten sposób przenoszony na gaz: promieniowanie wywiera siłę skierowaną na zewnątrz. Jeśli F = L/4π?r2 jest strumieniem energii radiacyjnej w odległości r, a κ nieprzezroczystością gazu (rozpraszanie plus absorpcja), przyspieszenie wywołane tą siłą wynosi grad = Fκ/c. Ta siła jest po prostu równoważona przez przyspieszenie grawitacyjne w kierunku g = GM/r2, gdy jasność L ma wartość zwaną granicą Eddingtona lub jasnością Eddingtona:
LE = 4πGMc/κ. (3)
Stałe źródło fotonów, związane grawitacją, nie może mieć jasności znacznie przekraczającej tę granicę. Przy większej jasności atmosfera źródła jest wydmuchiwana przez promieniowanie (dzieje się tak np. podczas wybuchu NOVA). Wartość jasności Eddingtona zależy od nieprzezroczystości gazu, a tym samym od jego stanu jonizacji. To zależy od masy źródła, ale nie od jego wielkości. W pobliżu zwartego obiektu w rentgenowskim układzie podwójnym gaz jest prawie całkowicie zjonizowany, zwykle o normalnym składzie gwiazdowym, a dominującym procesem promieniowania jest rozpraszanie elektronów, z nieprzezroczystością κ ∼ 0,3 cm2g-1. Granica Eddingtona wynosi zatem
LE ≈ 1,5 × 1038M/M⊙ erg s-1 (4)
W przypadku gwiazdy neutronowej o wielkości 1,4 M⊙ jest to jasność około 50 000 razy większa od Słońca. Jeśli ta jasność jest generowana przez akrecję, przyrównanie jej do energii akrecji określa współczynnik akrecji Eddingtona ˙
ME = 4πcR/κ (5)
lub około 1,5 × 10-8M⊙ yr-1 dla gwiazdy neutronowej o promieniu 10 km. Gwiazda neutronowa nie może akreować znacznie więcej. Narastające ciśnienie promieniowania zapobiegłoby dalszej akrecji, a gaz gromadziłby się w rozszerzonej atmosferze wokół gwiazdy, zamiast osiadać na powierzchni gwiazdy neutronowej. (Przy założeniu, że promieniowanie pochodzi tylko od fotonów: przy dostatecznie wysokiej temperaturze i gęstości straty energii przez neutrina stają się istotne.) Szybkość akrecji na czarną dziurę może być znacznie większa niż ˙ME. Atmosfera otaczająca dziurę nie jest podtrzymywana u podstawy, ale przepływa przez horyzont. W procesie zabiera ze sobą fotony uwięzione w gazie. W zależności od gęstości takiej atmosfery tempo akrecji może być dowolnie wysokie. Jasność widziana z Ziemi nie staje się jednak dużo większa niż LE.
Dyski
Transfer masy w systemie binarnym
Jako przykład formowania się dysku akrecyjnego rozważ układ podwójny, w którym jedna z gwiazd jest wystarczająco duża, aby wypełnić płat Roche′a, a druga jest gwiazdą zwartą (biały karzeł, gwiazda neutronowa lub czarna dziura). Gwiazda wypełniająca płat Roche′a nazywana jest drugorzędną, ponieważ jest mniej masywną gwiazdą w takich układach podwójnych. Masa wypływa z wtórnego w wewnętrznym punkcie Lagrange′a L1. Orbita hipotetycznej swobodnej cząstki z tego punktu jest pokazana na rycinie 3. Z wyjątkiem punktu bezpośrednio w L1, prędkość orbitalna jest bardzo duża w porównaniu z prędkością dźwięku gazu. W konsekwencji jego tor jest prawie balistyczny, tj. zbliżony do toru cząstki swobodnej. Ponieważ jednak chmury gazu nie mogą przepływać przez siebie, przepływ balistyczny ustaje w pierwszym punkcie przecięcia orbity. Naddźwiękowy względny ruch dwóch części strumienia gazu jest tutaj rozpraszany przez fale uderzeniowe, które ogrzewają gaz i odchylają strumień. Dalsza ewolucja strumienia zależy od dodatkowych czynników fizycznych, takich jak szybkość, z jaką gaz może się ochładzać. Przykład tego, jak może wyglądać strumień po kilku okresach orbitalnych układu podwójnego, pokazano na rycinie 4. Gaz na orbicie zgromadził się w pierścieniu; nowo przybywający gaz jest wprowadzany do pierścienia przez system fal uderzeniowych. Silnie niekołowy ruch gazu ustabilizował się na spokojniejszej orbicie kołowej; większość energii rozproszonej w procesie została wypromieniowana. Pomijając zakłócenia powodowane przez uderzający strumień i przy braku sił lepkości, gaz może krążyć po takich okrągłych orbitach w nieskończoność.
"Problem momentu pędu"
W procesie osadzania się na orbicie kołowej duża część energii jest rozpraszana, ale moment pędu gazu wokół pierwotnego nie zmienił się (pomijając poprawki spowodowane przyciąganiem grawitacyjnym wtórnego). Ponieważ orbita kołowa ma najniższą energię dla danego momentu pędu, gaz może zanurzyć się głębiej w potencjale grawitacyjnym i akreować na pierwotną tylko wtedy, gdy może stracić trochę momentu pędu. Znalezienie procesu, w którym odbywa się to w rzeczywistych układach, nazywa się problemem momentu pędu. Zilustrowaliśmy to tutaj na przykładzie transferu masy w układzie podwójnym, ale ten sam problem pojawia się w przypadku formowania się gwiazd z obłoków międzygwiazdowych lub akrecji gazu na masywnych czarnych dziurach w AGN. W tych przypadkach początkowy moment pędu spowodowany przypadkowy ruch obłoków gazu jest o wiele rzędów wielkości większy, niż może pomieścić akreujący obiekt. Zamiast akrecji bezpośrednio, gaz tworzy dysk, działając jak tymczasowa "orbita parkingowa". Orientacja dysku jest określona przez kierunek wektora całkowitego momentu pędu chmur, podczas gdy czas potrzebny na spiralne przejście gazu przez dysk zależy od procesów rozwiązujących problem momentu pędu.
Lepkie dyski
W wielu przypadkach (nowe karłowate i transjenty rentgenowskie) akrecja na zwarty obiekt ma charakter epizodyczny, w postaci rozbłysków. Rozpad takiego wybuchu dostarcza pewnych informacji na temat czasu akrecji, to znaczy czasu, jaki zajmuje gazowi spiralne przejście od gwiazdy drugorzędnej do akrecyjnej gwiazdy pierwotnej. Na przykład w przypadku nowych karłowatych czas ten wynosi kilka dni, co pokazuje, że proces przenoszenia momentu pędu pozwala na akrecję w ciągu kilku dni lub mniej masy, która jest zaangażowana w wytwarzanie wybuchu. Chociaż rzeczywiste liczby zależą od modelu, obserwacje te wskazują, że transport momentu pędu jest o 12-15 rzędów wielkości bardziej wydajny niż oczekiwano na podstawie naturalnej lepkości gazu. Proces odpowiedzialny za przenoszenie momentu pędu w dyskach nie jest do końca znany. W obliczu tej niepewności teoria dysków akrecyjnych przyjmuje arbitralne założenie dotyczące procesu transportu momentu pędu. Zakłada się, że dysk zachowuje się w efekcie jak płyn o bardzo dużej
lepkości. Taka zwiększona lepkość rzeczywiście rozwiązuje problem momentu pędu. Jako eksperyment myślowy rozpocznij od pierścienia gazu krążącego w pewnej odległości od źródła potencjału grawitacyjnego. Lepkie naprężenie między sąsiednimi orbitami obracającymi się z nieco inną prędkością powoduje, że pierścień rozszerza się zarówno na zewnątrz, jak i do wewnątrz, tworząc dysk. To rozprzestrzenianie się ma niezwykłą właściwość: jeśli jest wystarczająco dużo czasu, prawie cała masa gromadzi się na centralnym obiekcie. Niewielka ilość masy w zewnętrznych częściach dysku rozszerza się w nieskończoność, przenosząc prawie cały moment pędu pierwotnego pierścienia. Czas rozprowadzenia na określoną odległość jest odwrotnie proporcjonalny do lepkości. Charakterystyczną prędkością w dysku jest izotermiczna prędkość dźwięku cs = (RT )1/2, gdzie T jest temperaturą w płaszczyźnie środkowej dysku (powierzchnie są chłodniejsze). Częstotliwością charakterystyczną jest częstotliwość orbitalna Ω.
Nieznaną lepkość dysku ν można następnie zmierzyć za pomocą bezwymiarowej lepkości α, określonej przez
ν = αc2s/Ω . (6)
Tam, gdzie dostępne są wskazania obserwacyjne, takie jak czas zaniku wybuchu, wskazują one lepkości w zakresie α = 10-3-1. Takie wartości są następnie wykorzystywane przy dokonywaniu teoretycznych szacunków struktury dysków akrecyjnych. Założenie, że procesy transportu momentu pędu można przedstawić równaniem (6), gdzie α jest czymś rzędu jedności, nazywa się α-lepkością założenia.
Cienkie dyski
Dyski akrecyjne są zwykle chłodne, ponieważ czasy akrecji są długie i jest wystarczająco dużo czasu, aby wypromieniować rozproszoną energię grawitacyjną. Jeśli są chłodne, wpływ ciśnienia gazu jest niewielki. Aby to zobaczyć, rozważmy równanie ruchu gazu doskonałego w potencjale grawitacyjnym o masie punktowej M, Φ = ?GM/r:
gdzie v to prędkość, ρ gęstość masy, a p ciśnienie gazu. W odległości r0 charakterystyczna skala czasu t0 jest odwrotnością częstotliwości Keplera, t0 = Ω
gdzie jest wektorem jednostkowym w kierunku promieniowym, a Tv temperaturą wirialną wprowadzoną powyżej. Dla procesów zachodzących w skali długości r0 i skali czasu t0 wyrazy w tym równaniu są rzędu jedności, z wyjątkiem członu ciśnienia, który obejmuje współczynnik T/Tv. T/Tv jest rzędu jedności, jeśli cała rozproszona energia pozostaje w gazie, ale gdy chłodzenie jest skuteczne, może być bardzo mała. Składnik ciśnienia jest wtedy mały, a gaz przepływa balistycznie w potencjale . Dysk z T/Tv << 1 obraca się w przybliżeniu po kołowych orbitach Keplera. Ruch orbitalny jest naddźwiękowy, z liczbą Macha M = Ωr/cs ∼ (Tv/T )1/2. Grubość dysku oblicza się, biorąc pod uwagę pionowy rozkład gazu na pewnej odległości r0, zakładając, że znajduje się on w równowadze hydrostatycznej w ramie obracającej się z prędkością keplerowską Ω(r0). Gaz izotermiczny j∼est następnie rozprowadzany na wysokości z nad płaszczyzną orbity jako ρ ˜ exp[?1/2(z/H)2], gdzie H jest wysokością skali, H = r0(T /Tv)1/2 = cs/Ω . Jeśli straty promieniowania są małe, dysk jest gorący, a współczynnik kształtu H/r0 jest rzędu jedności. Z drugiej strony wydajnie promieniujące dyski są chłodne i geometrycznie cienkie, H/r << 1. Przy założeniu H/r << 1 równania hydrodynamiczne dla osiowosymetrycznego, płaskiego, lepkiego dysku są proste. Do najniższego rzędu radialne równanie ruchu redukuje się do v? = Ωr. Azymutalne równanie ruchu można połączyć z równaniem ciągłości w jedno równanie rządzące gęstością powierzchniową
(9)
Zgodnie z oczekiwaniami równanie to jest typu dyfuzyjnego. Pokazuje, że dla chłodnego dysku wszystkie czynniki fizyczne wpływające na ewolucję dysku wchodzą tylko przez lepkość ?. Ta lepkość zawiera oczywiście również większość założeń dotyczących nieznanych procesów. Zwykle potrzebne są dodatkowe równania, aby określić, w jaki sposób chłodzenie radiacyjne wpływa na strukturę temperatury dysku, od której zależy ?. Dla stałej akrecji i niezbyt blisko centralnego obiektu, szybkość akrecji jest związana z lepkością o ˙
M ≈ 3πνΣ . (10)
Wysoka lepkość implikuje niską gęstość powierzchniową, ponieważ masa akrecyjna spędza niewiele czasu w dysku. Charakterystyczny czas ta dla gazu orbitującego w odległości r do akrecji to lepka skala czasu,
W przypadku chłodnych dysków jest to dużo w porównaniu z orbitalną skalą czasu. Z drugiej strony, długa skala czasowa oznacza, że dysk ma dużo czasu na ochłodzenie przez promieniowanie, więc w mechanizmie, który ustala temperaturę dysku, występuje pewna kolistość. W danej sytuacji (masa centralna, odległość) o temperaturze dysku decyduje szybkość przyrostu masy i dominujący proces chłodzenia. W niektórych przypadkach dyski mogą istnieć w jednym z dwóch stabilnych, stale akreujących stanów: chłodnego z długimi czasami akrecji i gorącego z krótkimi czasami akrecji. W innych przypadkach okazuje się, że modele dysków są niestabilne dla pewnych szybkości przenoszenia masy, oscylując między stanami wysokiej i niskiej akrecji. Szczegóły procesów chłodzenia określają, kiedy takie wielokrotne stany akrecji istnieją (patrz "Procesy radiacyjne, akrecja dwutemperaturowa" poniżej).
Niestabilność dysku
Pionowa struktura dysku jest zdeterminowana potrzebą transportu lepko rozproszonej energii do powierzchni promieniujących. Dla danej gęstości powierzchniowej Σ ta struktura określa temperaturę i lepkość dysku. W warunkach, w których proces transportu energii zmienia się szybko wraz z temperaturą, naprężenie lepkie ?Σ może zależeć niemonotycznie od powierzchniowej gęstości masy, w postaci "krzywej S", jak pokazano na rycinie 5. Jeśli średnia szybkość akrecji, która jest narzucona (na przykład przez gwiazdę wtórną przenoszącą masę) mieści się w zakresie, w którym Σ maleje wraz ze wzrostem v Σ (porównaj równanie (10)), dysk jest niestabilny. Zamiast równomiernej akrecji, wykonuje cykl graniczny, naprzemiennie między stanami wysokiej i niskiej akrecji. Zwykle warunki takie jak na rycinie 5 występują tylko w ograniczonych obszarach dysku, na przykład w obszarze częściowej jonizacji wodoru. Jeśli jednak ten region zawiera wystarczającą masę, cykl graniczny wpłynie na cały dysk. Uważa się, że jest to przyczyną wybuchów nowych karłowatych w zmiennych kataklizmicznych.
Procesy przenoszenia momentu pędu
Historycznie pomysł, że w dyskach istnieje jakaś forma turbulencji hydrodynamicznych, odegrał znaczącą rolę. Było to już częścią koncepcji Kanta i Laplace′a, którzy sugerowali, że Układ Słoneczny powstał z początkowo gazowej chmury przypominającej dysk. Jeśli ?m jest mikroskopową lepkością gazu, liczba Reynoldsa r2/?m w dysku akrecyjnym jest bardzo duża, co w mechanice płynów nazywa się sytuacją "gwałtownej turbulencji" (gdzie wysokie liczby Reynoldsa i turbulencje są uważane za równoważne). Zakłada się, że przepływ ścinający w dysku byłby niestabilny i przekształciłby się w turbulencję, jak w przepływach ścinających w laboratorium. Zostało to zakwestionowane w społeczności astrofizycznej ze względu na fakt, że przepływ w chłodnym dysku jest zbliżony do orbit Keplera, które są bardzo stabilne. W chwili pisania tego tekstu kwestia ta jest nadal kontrowersyjna, ale wydaje się całkiem możliwe, że przepływ gazów keplerowskich w rzeczywistości nie powoduje turbulencji hydrod∼ynamicznych. Ściśle analogicznym przypadkiem laboratoryjnym jest wirujący przepływ Couette′a. Co istotne, ten eksperyment nie wykazał turbulencji dla warunków odpowiadających dyskowi akrecyjnemu, w którym częstotliwość rotacji maleje wraz z odległością, ale właściwy moment pędu wzrasta (chociaż turbulencje obfitują w inne wartości parametrów). Próby wykazania turbulencji w tym przypadku za pomocą badań analitycznych lub symulacji numerycznych eksperymentu również zakończyły się niepowodzeniem. Wśród procesów, o których wiadomo, że działają, są spiralne fale uderzeniowe. W dużym dysku (w tym sensie, że promień zewnętrzny jest znacznie większy niż promień wewnętrzny) małe zaburzenie ściskające rozchodzące się do wewnątrz zmienia się w słabą falę uderzeniową. Rozproszenie podczas wstrząsu tłumi falę, ale ponieważ fala rozchodzi się również w przepływ o rosnącej prędkości, interakcja między falą a średnim przepływem przez wstrząs zwiększa jego amplitudę. W przypadku braku innych procesów tłumiących falę, szok o skończonej sile rozwija się dzięki równowadze między rozproszeniem wstrząsu a pobraniem energii ze średniego przepływu. Proces ten wytwarza niewielką ilość transportu momentu pędu, odpowiadającą α = 0,01(H/r)3/2. W przypadku dysków protogwiazdowych mieści się to w zakresie wartości wywnioskowanych z obserwacji, ale jest zbyt niskie dla zmiennych kataklizmicznych i rentgenowskich układów podwójnych. Jeśli dysk jest na tyle masywny, że grawitacja własna jest ważna, możliwy jest transport momentu pędu przez niestabilność grawitacyjną. Wewnętrzne tempo wzrostu niestabilności grawitacyjnej jest rzędu (2πG?)1/2. Jeśli jest większa niż szybkość ścinania ?Ω, niestabilność dysku może wzrosnąć; jeśli jest mniejszy, potencjalne perturbacje zostają rozerwane, zanim będą mogły się rozrosnąć. W odniesieniu do charakterystycznej masy dysku Md = 2π?r2ρH warunek ten można zapisać jako Md > MH/r. Takie dyski nazywane są samograwitującymi. Własna grawitacja jest ważniejsza w chłodnych dyskach o małym współczynniku proporcji H/r. Przy przyjętych lepkościach można oszacować masy dysków w obserwowanych układach. W przypadku rentgenowskich układów podwójnych i zmiennych kataklizmicznych okazują się one dość małe, mniejsze niż 10-8 M⊙ , a grawitacja własna nie ma znaczenia. Natomiast w zewnętrznych częściach dysków w AGN, a w szczególności w dyskach protogwiazdowych, istotna może być grawitacja własna. W takim przypadku rozważmy chłodzenie dysku przez promieniowanie, tak że H/r maleje z czasem. Po osiągnięciu progu niestabilności powstają nieosiowosymetryczne nieregularności o skalach długości rzędu H, które wywierają na siebie siły. Przepływ ścinający działający na te siły rozprasza energię, która z kolei ogrzewa dysk. Równowaga zostaje osiągnięta w temperaturze tuż powyżej progu niestabilności grawitacyjnej, a moment pędu jest przenoszony przez siły grawitacji i ciśnienia między zaburzeniami. Proces ten prawdopodobnie będzie ważny w przypadku młodych dysków protogwiazd, o masach rzędu kilku procent masy Słońca. Obecnie ulubiony proces dysków niegrawitujących polega na tym, że większość dysków jest częściowo lub całkowicie zjonizowana, a zatem wspiera pola magnetyczne. Możliwość, że rzeczywisty transport momentu pędu w dyskach jest wykonywany przez jakąś formę pola magnetycznego o małej skali, została już zaproponowane przez Shakura i Sunyaev wraz z wprowadzeniem przez nich założenia α-lepkości. Można wykazać, że początkowo słabe pole magnetyczne w dysku akrecyjnym jest niestabilne, a jego gęstość energii rośnie poprzez pobieranie energii z przepływu ścinającego. Matematyka tego procesu została obliczona około 1960 roku przez Velikhova i Chandrasekhara, jego fizyczną interpretację podali Fricke w 1972 roku, a jego znaczenie dla dysków akrecyjnych ostatecznie zrealizowali Balbus i Hawley w 1992 roku. Liczne trójwymiarowe symulacje numeryczne od tego czasu pokazały, jak ta niestabilność daje powstanie postulowanej wcześniej turbulencji magnetycznej. Dla wystarczająco zjonizowanych dysków proces daje efektywną lepkość α ˜ 0,1. Jest to pole magnetyczne o małej skali, ze skalą długości w kierunku promieniowym rzędu grubości dysku H i wydaje się zachowywać z grubsza zgodnie z oczekiwaniami procesu lepkiego. Wydaje się, że pole magnetyczne przełamuje ograniczenia dynamiczne, które zapobiegają turbulencji przepływu keplerowskiego za pomocą środków czysto hydrodynamicznych. Pod pewnymi względami proces ten przypomina zaproponowaną wcześniej turbulencję hydrodynamiczną, ale różni się też w ważnych aspektach. Na przykład transport momentu pędu jest zdominowany przez naprężenia magnetyczne (Maxwella), a nie przez ruchy płynu.
Planety wewnątrz dysków
Planety wyrastają z dysku protogwiazdy w tym samym czasie, w którym powstaje gwiazda . Planeta taka jak Jowisz jest wystarczająco masywna, aby znacząco wpłynąć na dynamikę tego dysku. Dzięki efektowi pływowemu usuwa szczelinę, obszar o niskiej gęstości gazu wokół swojej orbity, jak pokazano na rycinie 6. Siła pływowa wzbudza fale w dysku, które rozchodzą się z dala od planety. Poprzez siły pływowe, planeta przyciąga gaz z boków szczeliny, który gromadzi się na niej w postaci dwóch strumieni. Z drugiej strony dysk wywiera również na planetę moment grawitacyjny. Pod wpływem tej siły zmienia się moment pędu planety. Porusza się na inną orbitę, zwykle bliżej gwiazdy. Planety w naszym Układzie Słonecznym prawdopodobnie nie znajdują się zatem w odległościach, w których rozpoczęło się ich formowanie. Ekstremalnym przykładem tego procesu "dryfujących planet" mogą być masywne planety obserwowane na bardzo ciasnych orbitach wokół niektórych pobliskich gwiazd
Procesy radiacyjne, akrecja dwutemperaturowa
Promieniowanie wytwarzane przez dysk zależy od jego grubości optycznej τ . Energia uwolniona w dysku w wyniku rozpraszania lepkości, na jednostkę powierzchni i czasu, w odległości r od centralnej masy M jest rzędu W = GMM˙/r3. Ciepło to rozprasza się przez promieniowanie. Jeśli τ (dokładniej grubość optyczna dla procesów absorpcji) jest duże, promieniowanie emitowane na powierzchnię jest w przybliżeniu widmem ciała doskonale czarnego. Przybliżona temperatura powierzchni Ts chłodnego optycznie grubego dysku jest następnie określona równaniem (2), gdzie R zastąpiono odległością r. Jeśli akrecja jest stała, tak że ˙M jest niezależne od r, przewidywana temperatura zmienia się jako r-3/4. W przypadku dysków protogwiazdowych i dysków w zmiennych kataklizmicznych temperatury te są zbliżone do normalnych powierzchni gwiazd, a te same procesy promieniowania decydują o szczegółach emitowanego widma. Podczas akrecji czarnych dziur i gwiazd neutronowych przewidywane temperatury s∼∼ą rzędu 1 keV (107 K). Rzeczywiście, widma rentgenowskie tych obiektów często pokazują składową, która zgadza się z tą prognozą. Zwykle jednak występuje dodatkowy twardy składnik znacznie bardziej energetycznych fotonów, około 100 keV. Często dominuje w promieniowanej energii. W tych układach podwójnych znajduje się dodatkowy składnik plazmy akrecyjnej, który zachowuje się inaczej niż optycznie gruby dysk. Dokładna natura tej plazmy jest jednym z klasycznych problemów astronomii rentgenowskiej, który w chwili pisania tego tekstu nie został całkowicie rozwiązany. Z obserwowanego widma wydaje się, że jest to plazma termiczna o niewielkiej grubości optycznej (τ ˜) i temperaturze około 100 keV, znacznie wyższej niż chłodny dysk. Głównym procesem wytwarzania twardych fotonów w takich warunkach jest odwrotne rozpraszanie Comptona miękkich fotonów przez gorące elektrony. W sąsiedztwie czarnych dziur i gwiazd neutronowych akrecja jest możliwa nie tylko przez chłodny optycznie gruby dysk. Teoria przewiduje również możliwość akrecji poprzez stan gorący (por. omówienie powyżej w części "Cienkie dyski"). W tym stanie protony mają temperaturę zbliżoną do temperatury wirialnej, podczas gdy elektrony są znacznie chłodniejsze. Przepływ akrecyjny jest geometrycznie gruby (H/r ˜ 1), ale optycznie cienki. W tych warunkach oddziaływania kulombowskie między jonami i elektronami mogą być powolne w porównaniu z czasem akrecji (w zależności od szybkości akrecji i parametru lepkości). Ponieważ elektrony promieniują znacznie wydajniej i są nieefektywnie ogrzewane przez jony, pozostają znacznie chłodniejsze niż jony: plazma akrecyjna nie jest w równowadze termicznej. Szybkość interakcji Coulomba maleje wraz ze wzrostem temperatury elektronu, podczas gdy straty promieniowania przez odwrotny Compton i promieniowanie synchrotronowe rosną. W przepływie o niewielkiej głębokości optycznej odwrotne straty Comptona rosną wykładniczo powyżej około 100 keV, więc jest to nieco naturalna temperatura aby spodziewać się emitowanego promieniowania. Możliwość takiego dwutemperaturowego przepływu akrecyjnego w celu wyjaśnienia twardych widm rentgenowskich układów podwójnych została już zaproponowana na początku ery astronomii rentgenowskiej. Geometria takiego przepływu i charakter jego interakcji z komponentem chłodnego dysku są jednak nadal niepewne.
Dżety z dysków
Wydaje się, że większość systemów z dyskami akrecyjnymi jest zdolna do wytwarzania silnie skolimowanych wypływów zwanych dżetami, przynajmniej w niektórych okresach swojego istnienia . Dżety z relatywistyczną prędkością przepływu są znane z akrecyjnych czarnych dziur, zarówno dziur o masie gwiazdowej w rentgenowskich układach podwójnych, jak i masywnych dziur w AGN. Dżety o mniejszych prędkościach są wytwarzane przez protogwiazdy. Są również znane z co najmniej jednej akrecyjnej gwiazdy neutronowej (Cir X-1) i akrecyjnego białego karła (R Aqr). Związek między dyskami i dżetami jest zatem sugestywny, ale jednocześnie zagadkowy. Chociaż dżety zawsze wydają się być kojarzone z systemami akrecyjnymi, w których istnieją bezpośrednie lub pośrednie dowody na istnienie dysku, nie wszystkie systemy z dyskami wytwarzają dżety lub nie zawsze. Dobrym przykładem są OBIEKTY HERBIG-HARO wytwarzane przez dżety z protogwiazd, które wyraźnie pokazują, że dżety w tym przypadku są epizodyczne lub wysoce zmienne w czasie.
Podsumowanie typów dysków
W skali gwiezdnej dyski są wytwarzane w układach podwójnych przez przelewanie się gazu z jednego ze składników na drugi. Rozmiary tych dysków są tak duże, jak normalne gwiazdy, od kilku dziesiątych do kilku promieni słonecznych. Jeśli gwiazda pierwotna (gwiazda odbierająca masę) jest białym karłem, tak jak w zmiennych kataklizmicznych, wewnętrzne części dysku promieniują głównie w zakresie UV, a zewnętrzne w świetle widzialnym. Przenoszenie masy przez te dyski jest często niestabilne, powodując wybuchy nowych karłowatych. Jeśli pierwotną jest gwiazda neutronowa lub czarna dziura o masie gwiazdowej, wewnętrzny dysk promieniuje w promieniach rentgenowskich. Transfer masy w tych dyskach jest również niestabilny przy niskich szybkościach transferu, powodując tak zwane miękkie transjenty rentgenowskie. Czasami wytwarzają dżety z relatywistycznymi prędkościami. Dyski wokół gwiazd w procesie formowania, dyski protogwiazdowe, są znacznie większe (około 100 jednostek astronomicznych). Ich wewnętrzne regiony promieniują w zakresie widzialnym, a zewnętrzne w zakresie fal radiowych i podczerwonych. Prawdopodobnie są również niestabilne, powodując wybuchy FU Ori i są związane z dżetami i obiektami Herbiga-Haro. Dyski w AGN obracają się wokół masywnych ((106-109)M ) czarnych dziur w centrach aktywnych galaktyk. Ich centralne obszary promieniują zarówno w zakresie UV, jak i rentgenowskim i często wytwarzają relatywistyczne dżety obserwowane w dwupłatowych źródłach radiowych. Ich rozmiary są nieco niepewne, ale prawdopodobnie rzędu parseka lub większe. Dyski są również widoczne wokół BE STARS. Uważa się, że masa w tych dyskach jest powoli wyrzucana przez szybko obracającą się gwiazdę. Niektóre z ich właściwości są podobne do dysków akrecyjnych, ale z masą raczej odpływającą niż akrecyjną na gwiazdę. Czasami nazywane są dyskami wydalającymi lub wydalającymi.
Aktywne jądra galaktyczne: zmienność
Badania zmienności miały zasadnicze znaczenie dla zrozumienia fizyki AKTYWNYCH JĄDR GALAKTYCZNYCH, AGN, ponieważ rozmiar obszaru emitującego ogromną ilość energii charakterystycznej dla AGN jest zbyt mały, aby można go było rozdzielić nawet za pomocą istniejących lub planowanych INTERFEROMETRÓW optycznych/podczerwonych (IR). AGN emitują promieniowanie kontinuum pochodzące z okolic CZARNA DZIURA. Emitują również intensywne i szerokie linie emisyjne pochodzące z szybko poruszających się chmur gazu znajdujących się w małym obszarze wokół źródła kontinuum: regionie szerokich linii lub BLR. Poziom strumienia kontinuum i intensywność widmowych linii emisyjnych emitowanych przez AGN podlegają zmianom w skali czasowej od godzin do lat, w zależności od zakresu energii i wewnętrznej jasności AGN. Kiedy strumień emitowany przez źródło energii zmienia się znacząco (powiedzmy o współczynnik 2) w skali czasu t, ta zmiana strumienia wyznacza granicę rozmiaru R obszaru emitującego, tak że R ≤ ct. W AGN połączenie ogromnej ilości emitowanej energii i bardzo małych rozmiarów obszarów emisji określonych przez krótką skalę czasową zmienności nie jest zgodne z energią wytwarzaną w normalnych procesach gwiezdnych. Najpopularniejszym modelem produkcji energii w AGN i podstawą obecnego paradygmatu jest to, że AGN/kwazary są zasilane przez akrecję materii na SUPERMASYWNĄ CZARNA DZIURĘ. Przy wyższych energiach fotonów obserwuje się szybszą i większą zmienność amplitudy, m.in. zdjęcia rentgenowskie są różne niż optyczne. Skale czasowe zmienności są zwykle dłuższe w obiektach z natury rzeczy jaśniejszych. Skale czasowe oraz korelacje i opóźnienia między zmianami strumienia kontinuum i różnymi intensywnościami linii widmowych dostarczają informacji o naturze procesów fizycznych emitujących linie i kontinuum oraz o lokalizacji regionów, z których one pochodzą. Termin AGN jest tutaj używany niezależnie od przesunięcia ku czerwieni i jasności, a zatem obejmuje terminy Seyfert 1 i QSO lub kwazar, które są często używane do oddzielnego oznaczania AGN o średniej i wysokiej jasności. Ogólnie rzecz biorąc, dla 1 Seyferta dostępnych jest więcej danych o wyższej jakości niż dla kwazarów. Powodem jest to, że jest ich wiele, a całkiem sporo znajduje się w odległości 100 Mpc od Ziemi i można je łatwo zaobserwować za pomocą obecnego instrumentarium. Natomiast kwazary są rzadkie, a nawet te najbliższe znajdują się w tak dużych odległościach od nas, że strumień odbierany na Ziemi jest znacznie mniejszy niż z 1s Seyferta (jest jeden wyjątek, 3C 273). Podsumowując, zasób wiedzy o zmienności AGN jest zdominowany przez obserwacje Seyferta 1s, które doprowadziły do modeli fizycznych, które w zadowalający sposób wyjaśniają obserwowane zjawiska. Pozostaje zbadać, w jaki sposób modele te odnoszą się do znacznie jaśniejszego i znacznie słabszego AGN. AGN, które są przedmiotem tego artykułu, to te, w których centralne źródło promieniowania optycznego, UV i rentgenowskiego jest obserwowane bezpośrednio i gdzie zmiany nie są wzmacniane przez efekty relatywistyczne . W przypadku prawie tuzina Seyferta 1, a zwłaszcza trzech z nich (NGC 4151, NGC 5548 i NGC 7469) oraz kwazara 3C 273, duża międzynarodowa współpraca zorganizowała długie, spójne kampanie obserwacyjne, niektóre obejmujące jednoczesne obserwacje w zakresie optycznym, Zakresy promieniowania UV i rentgenowskiego, generujące duże ilości danych o jednolitej jakości i gromadzonych z optymalnym czasem próbkowania. Szereg 1 Seyferta (∿30) było monitorowanych mniej intensywnie, ale wciąż wystarczająco, aby ustalić, że wyniki z najlepiej zbadanych 1 Seyferta są reprezentatywne.
Zmienność strumienia kontinuum
Widmo elektromagnetyczne (widmo kontinuum) radio-cichego AGN, po odjęciu kontinuum gwiazd emitowanego przez galaktykę macierzystą, rozciąga się od ∿1 mm do ∿100 keV z wyraźnym szerokim pikiem w zakresie ekstremalnego UV (EUV) i drugorzędny pik w IR . Emisja promieniowania rentgenowskiego jest zdominowana przez składową prawa mocy (1-10 keV; α ≃ 0,9 gdzie f? ∝ ? ? α), która narasta w zakresie twardego promieniowania rentgenowskiego (> 50 keV), prawdopodobnie z odcięciem około 100 keV. Przypomnijmy tutaj, że w teorii dysków akrecyjnych, narosła materia wiruje w kierunku centrum pod wpływem przyciągania grawitacyjnego czarnej dziury. Sprawa jednak nie toczy się swobodnie. Ma wewnętrzne naprężenie (najprawdopodobniej pochodzenia magnetycznego), którego rozpraszanie wytwarza ciepło, a także wyznacza skalę czasową propagacji narosłej materii w kierunku centrum. Astronomowie mówią o ogrzewaniu dysku przez lepkość i o lepkich skalach czasowych, a teoretycy mogą obliczyć energię wytwarzaną przez lepkość, wynikające z tego widmo emitowane przez dysk oraz skale czasowe, w których zmienia się promieniowanie z dysku w odpowiedzi na zmieniającą się szybkość akrecji (DYSK AKRECJI). Obserwowany kształt widmowy kontinuum AGN w zakresie 1200-5000 Å (lub 10-2,5 eV) jest z grubsza zgodny z emisją termiczną z dysku akrecyjnego. Jednak wahania strumienia kontinuum UV występują w skalach czasowych dni, tygodni lub miesięcy, które są o wiele rzędów wielkości krótsze niż skale czasowe oczekiwane na podstawie zmian tempa narastania. Co ciekawe, w NGC 4151 i NGC 5548 strumień promieniowania rentgenowskiego o średniej energii (2-10 keV) oraz strumień optyczny/UV zmieniają się jednocześnie , przy czym wahania wysokoenergetyczne są znacznie większe niż wahania niskoenergetyczne. Podsumowując, obserwacje te sugerują model, w którym powierzchnia dysku jest naświetlana przez centralne zmienne źródło promieniowania rentgenowskiego. Uważa się, że sama zmienność źródła promieniowania rentgenowskiego jest spowodowana wybuchowymi ponownymi połączeniami linii pola magnetycznego przenikających dysk akrecyjny i koronę (gaz gorących elektronów otaczający centralne części dysku) poprzez zjawisko przypominające rozbłyski słoneczne w korona słoneczna. Znaczna część energii akrecji jest zużywana w ten sposób na ogrzewanie korony. Gorące elektrony przenoszą część swojej energii na otaczające fotony UV (emitowane przez dysk) i miękkie fotony rentgenowskie oraz wytwarzają fotony rentgenowskie o średniej i twardej energii poprzez odwrotną emisję Comptona. Ten "model komtonizacji i ponownego przetwarzania" wyjaśnia prostą korelację między promieniowaniem rentgenowskim a emisją UV w krótkich skalach czasowych w NGC 4151 i NGC 5548, a także wyjaśnia średnie nachylenie widma rentgenowskiego, granica wysokoenergetyczna i inne cechy widm rentgenowskich AGN. Ale życie nie jest takie proste, a dobra korelacja między promieniowaniem rentgenowskim a strumieniem UV obserwowana w NGC 4151 i NGC 5548 mogła być szczęśliwym zbiegiem okoliczności w skomplikowanej interakcji między gorącym gazem elektronowym, fotonami UV i fotonami rentgenowskimi ("który jest kurczakiem, a który jajkiem?"). W rzeczywistości, w trzecim jądrze Seyferta 1 intensywnie obserwowanym jednocześnie w promieniach UV i rentgenowskim, NGC 7469, zmiany UV czasami pozostają w tyle za zmianami rentgenowskimi, a czasami są jednoczesne ze zmianami rentgenowskimi. Ten przypadek stawia poważne wątpliwości co do przedstawionego wcześniej obrazu ponownego przetwarzania. Bliższe przyjrzenie się danym ujawnia jednak uderzające podobieństwo zmian w dwóch zakresach energii, co sugeruje podstawowy związek między emisją w dwóch zakresach energii, np. jak ogólnie zapewnia Comptonization. Najbardziej ekstremalna zmienność miękkiego promieniowania rentgenowskiego występuje w wąskich galaktykach Seyferta 1 (NLS1), podzbiorze AGN z bardzo intensywną emisją miękkiego promieniowania rentgenowskiego i bardzo stromymi widmami miękkiego promieniowania rentgenowskiego, wąskimi optycznymi liniami emisyjnymi i wyraźną optyczną emisją Fe II . Aby wyjaśnić brak szerokich linii w NLS1, zaproponowano, że intensywne miękkie promieniowanie rentgenowskie może zdmuchnąć wewnętrzny obszar szerokich linii (BLR) lub zjonizować go do stanów obecnie niewykrywalnych. Strome widmo miękkiego promieniowania rentgenowskiego NLS1 może wskazywać na dużą szybkość akrecji lub małą masę czarnej dziury. Przechodząc teraz do zakresu podczerwieni, zmiany, jeśli w ogóle zostaną wykryte, mają mniejszą amplitudę i dłuższą skalę czasową niż w zakresie optycznym i są zgodne z opóźnioną reakcją pyłu wokół centralnego źródła na długoterminowe zmiany promieniowania UV i strumień kontinuum rentgenowskiego.
Zmiany linii emisji
Metoda szacowania masy czarnej dziury
Monitorowanie zmian strumienia kontinuum i intensywności linii widmowych kilku jedynk Seyferta wykazało, że intensywności linii widmowych naśladują zmiany kontinuum optycznego/UV, ale z pewnym opóźnieniem czasowym τ. Opóźnienie to jest interpretowane jako czas potrzebny, aby światło ze źródła centralnego kontinuum znajdującego się w bezpośrednim sąsiedztwie czarnej dziury dotarło do obłoków gazowych emitujących linie widmowe (i znajdujących się wokół źródła centralnego kontinuum) i zwiększyło lub zmniejszyło emisyjność gaz . Opóźnienie czasowe τ jest miarą odległości d ∿ cτ chmur gazu emitującego linie od centralnego źródła kontinuum. Metodę tę można rozszerzyć, aby mapować obszar emisji liniowej i jest ona znana jako "mapowanie pogłosu". Zgrubne oszacowanie masy centralnej czarnej dziury można następnie obliczyć na podstawie zmian zmiennej składowej linii emisyjnej, łącząc szerokość składowej (która daje prędkość wirialną obłoków gazu) i τ (co jest opóźnieniem o w którym zmiany
składników następują po zmianach kontinuum). Założenie, że ruchy chmur są ruchami orbitalnymi w polu grawitacyjnym czarnej dziury, jest mocno poparte faktem, że niebieskie i czerwone skrzydło dowolnej linii lub składowej linii zmieniają się razem (tzn. jedno skrzydło nie zmienia się przed ani po drugim jeden, na pierwsze zamówienie; patrz poniżej). Ta metoda wyznaczania masy centralnej czarnej dziury została zastosowana do kilkunastu AGN i daje wartości w przedziale od kilku 106M⊙ do kilku 108M⊙ . Pole prędkości gazu Jednym z kluczowych elementów wniesionych przez badania lotności jest to, że najszersze linie emisyjne zmieniają się z największą amplitudą iw najkrótszej skali czasowej, co wskazuje, że najszybciej poruszający się gaz znajduje się najbliżej środka. Szczegółowe zmiany intensywności i profilu linii dostarczają odpowiedzi na kluczowe dla określenia masy pytanie, czy obłoki są związane grawitacyjnie z centralną czarną dziurą: Zmiany profilu
linii nie pokazują systematycznego wpływu jednej skrzydło reaguje przed drugim, czego można by się spodziewać w przypadku przepływów promieniowych: zaobserwowano, że niebieskie skrzydło zmienia się jako pierwsze w przypadku przepływów na zewnątrz i wiatrów kulistych, a skrzydło czerwone byłoby obserwowane jako pierwsze w przypadku akrecji sferycznej. To oraz fakt, że najszybciej poruszający się gaz znajduje się najbliżej środka, mocno sugeruje, że chmury o wysokiej jonizacji znajdują się w ruchu orbitalnym (ruchy chaotyczne lub rotacyjne) w polu grawitacyjnym czarnej dziury, z jedynie niewielkimi składnikami opadania netto lub odpływ. Ruchy chaotyczne są wykluczone, ponieważ chmury gazu zostałyby zniszczone podczas przechodzenia przez dysk akrecyjny. Najbardziej szczegółowe wyniki dotyczące pola prędkości w BLR pochodzą z intensywnego monitorowania profilu linii C IV podczas miesiąca życia NGC 4151′, z prawie całkowitym próbkowaniem 1 d w odstępie 35 dni. Analiza zmian w każdym przedziale prędkości w profilu linii C IV pokazuje, że zmiany są zgodne z ruchami grawitacyjnymi wokół masy około 107 M . Wartość ta zgadza się z wartością wynikającą z obserwacji całego widma UV NGC 4151 w innych epokach, które wykazują liniową zależność między czasem odpowiedzi linii a odwrotnością kwadratu szerokości linii. Podobne badanie NGC5548 daje masę (5 ± 3) × 107 M⊙ . Należy zauważyć, że zarówno w NGC 5548, jak i NGC 4151 istnieje prawdopodobnie słaba sygnatura składnika opadającego. Inne AGN dają spójne wyniki (choć mniej szczegółowe) i wstępnie stwierdza się, że szerokość linii jest zdominowana przez rotację. Stanowi to podstawę oszacowania masy czarnej dziury na podstawie odpowiedzi intensywności linii emisyjnych na zmiany strumienia kontinuum. Niepewność związana z tą metodą jest trudna do oszacowania i prawdopodobnie jest mniejsza niż współczynnik 10.
Model "dysku i wiatru".
W widmach AGN występują linie niskojonizacyjne, takie jak linie Balmera i linie Fe II i Mg II oraz linie highionizacji (najsilniejsze są linie C IV, N V, He II, Si IV). Z interpretacji obserwacji wynika, że linie o niskiej jonizacji pochodzą od płaskiego skupiska bardzo gęstych chmur (Ne ≥ 1011 cm-3 i całkowitej grubości optycznej 1024 cm-2), które utożsamiane są z częścią stosunkowo chłodną (temperatura powierzchni 5000 K) dysku akrecyjnego. Natomiast linie o wysokiej jonizacji pochodzą ze stosunkowo bardziej rozcieńczonego ośrodka, powyżej i poniżej dysku, przy czym linie najbardziej zjonizowanych pierwiastków są najszersze. Wskazuje to, że stopień jonizacji jest skorelowany z prędkością gazu. Co ciekawe, linie o wysokiej jonizacji nie znajdują się dokładnie na przesunięciu ku czerwieni linii o niskiej jonizacji (emitowanych przez dysk akrecyjny), które same znajdują się na przesunięciu ku czerwieni galaktyki macierzystej. Są przesunięte w kierunku błękitu (od 0 do ∿ 1500 km s-1) w stosunku do dysku i galaktyki macierzystej, co wskazuje, że silnie zjonizowany gaz płynie w naszą stronę. (Dzięki symetrii przepływ prawdopodobnie oddala się od nas, po drugiej stronie dysku, ale jest niewidoczny, ponieważ dysk jest nieprzezroczysty). Połączenie rotacji i wypływu z dysku sugeruje i jest zgodne z modelem, w którym linie o wysokiej jonizacji są emitowane przez chmury gazu wyłaniające się z dysku, wciąż zachowując dużą część momentu pędu, który gaz miał w dysku. Takie ruchy są przewidywane przez magnetohydrodynamiczny model dysków akrecyjnych, w których wiatry przyspieszone magnetycznie powstają z włókien wyciągniętych z pierwotnie gęstego, nisko zjonizowanego materiału dysku akrecyjnego i poddanych intensywnemu centralnemu polu jonizującemu. Tworzy to silnie zjonizowany wiatr nad i pod dyskiem. Fizyka tych zjawisk jest jednak skomplikowana i wiele cech tego obiecującego modelu pozostaje obecnie nieokreślonych.
Bieżące problemy i przyszły rozwój
Pozostaje wiele pytań i ekscytujących dróg dochodzenia. Po pierwsze, należy energicznie kontynuować teoretyczne badania efektów magnetohydrodynamicznych, które wraz z polem grawitacyjnym czarnej dziury dominują w fizyce w jej otoczeniu. Po drugie, zjawisko zmienności zostało najlepiej zaobserwowane i najlepiej zrozumiane w przypadku średniej jasności AGN (jasność całkowita L ∿ 1042 - 1045 erg s-1), ale dane zmienności dotyczące potężnych kwazarów (do 1049 erg-1) i przy bardzo małej jasności AGN (1039 erg s-1) jest wciąż bardzo mało. Na szczęście trwają stosowne obserwacje. Umożliwią one zbadanie całej przestrzeni parametrów definiowanej masą czarnej dziury i szybkością akrecji oraz zrozumienie specyfiki procesu akrecji w różnych obszarach tej przestrzeni parametrów (np. adwekcji, akrecji pojedynczych gwiazd, super- współczynnik akrecji Eddingtona). Wreszcie, chociaż ten artykuł koncentruje się na bezpośrednio obserwowalnej zmienności AGN, tj. występującej w skali czasowej od godzin do lat, wskazuje się, że inne zjawiska zmienności muszą zachodzić w dłuższych skalach czasowych, powiedzmy 102, 106 lub 109 lat. Szczególnie istotne w tym kontekście jest niedawne odkrycie (na podstawie pomiarów prędkości gwiazd w jądrach pobliskich galaktyk), że czarne dziury prawdopodobnie znajdują się w centrach nieaktywnych galaktyk, w tym w naszej Galaktyce, o masach mniej więcej w ten sam zakres wartości, co te określone w badaniach AGN. W naturalny sposób powstaje wtedy wiele pytań, takich jak to, czy AGN mogą być powtarzającymi się zjawiskami z fazami uśpienia i czy mogą być napędzane gazem wytwarzanym w wyniku ewolucji gwiazd w galaktyce macierzystej, czy też akreowana materia zawsze pochodzi spoza galaktyki macierzystej .
Aktywne galaktyki: Obserwacje
"Galaktyka aktywna" to ogólny termin odnoszący się do każdej galaktyki, która wytwarza znaczną emisję poza emisją swoich gwiazd składowych, gwiezdnych pozostałości i ośrodka międzygwiazdowego. Charakterystyka takich galaktyk jako "aktywnych" wynika z tego, że zazwyczaj zakłada się, że niezwykłe właściwości emisji są związane z wysokoenergetycznymi zjawiskami erupcyjnymi. Najwcześniejszy konsekwentny użytkownik wydaje się, że słowo "aktywność" w odniesieniu do jąder galaktyk pochodziło z V A Ambartsumian. W większości przypadków ta niegwiazdowa emisja wydaje się pochodzić z samego centrum lub jądra galaktyki, a źródła te są ogólnie znane jako "aktywne jądra galaktyczne" (AGN). Galaktyka zawierająca takie źródło jest znana jako host AGN. Historycznie rzecz biorąc, niektóre inne rodzaje źródeł, takie jak GALAXY STARBURST, które mają pewne fenomenologiczne podobieństwa do AGN (np. silna emisja bliskiego UV), były również znane jako aktywne galaktyki, chociaż w tych przypadkach aktywność może nie ograniczać się do regionów jądrowych . AGN to najjaśniejsze źródła o długiej żywotności wszechświata. Emitują silne promieniowanie w całym obserwowalnym zakresie długości fal, od promieniowania rentgenowskiego i promieniowania γ po fale radiowe o dużej długości. Pełen obraz emisji AGN można uzyskać jedynie obserwując go na wielu długościach fal, najlepiej jednocześnie w całym widmie, ponieważ są to źródła zmienne. Istnieje wiele różnych klas AGN; GALAKTYKI SEYFERTA stanowią niskojasny koniec zjawiska AGN, czyli ich jasność jąder jest z grubsza porównywalna z całkowitym światłem gwiazd z galaktyki macierzystej. AGN o wyższej jasności są znane jako "kwazary" lub "obiekty quasi-gwiazdowe" (QSO), przy czym te pierwsze są zarezerwowane (pierwotnie) dla silniejszych źródeł radiowych, a te drugie słabsze; w takich przypadkach światło optyczne z AGN może przekraczać, czasami ponad 100-krotnie, światło gwiazdowe z galaktyki macierzystej na wszystkich długościach fal. W ramach tych grup istnieje wiele różnych podklas, opartych na względnym znaczeniu optycznych linii emisyjnych UV, właściwościach radiowych i polaryzacji. W razie potrzeby zostaną one wymienione poniżej. W tej sekcji omówiony zostanie aktualny stan obserwacji w widmie elektromagnetycznym. Najpierw omówimy ciągłą emisję AGN pod względem ich "widmowych rozkładów energii" (SED), tj. ilości energii emitowanej w różnych pasmach fal. Następnie skupiamy się na widocznych liniach emisyjnych, które są wykrywane w widmach UV-optycznych (a ostatnio rentgenowskich) większości AGN, a następnie z krótkim opisem cech absorpcji w widmach AGN. Omówiono również przestrzennie rozdzielone struktury w AGN.
Widmowe rozkłady energii
SED normalnych gwiazd (i galaktyk) są dobrze przybliżone jako ciała doskonale czarne w zakresie temperatur . Dane Elvisa i innych, a zatem ich emisja jest silnie skoncentrowana w części widma od ultrafioletu (UV) do bliskiej podczerwieni (IR). W przeciwieństwie do tego, AGN emitują porównywalną energię (na jednostkę szerokości pasma logarytmicznego) w większości obserwowalnego widma. Jedynym wyjątkiem jest region radiowy, w którym AGN "radioloud" (RL) mają około 3 rzędów wielkości jaśniejszy niż ich "ciche radiowo" odpowiedniki (RQ). Te RLAGN stanowią ∼10% populacji. Rysunek
przedstawia medianę SED niskiego przesunięcia ku czerwieni dla obiektów RL i RQ z próbki ponad 40 AGN. Jest on wykreślany jako log (νLν ) w funkcji log ν, co pokazuje moc wyjściową energii w każdym paśmie fal, a także podkreśla ważną strukturę w SED. Nasza wiedza na temat tych SED jest ograniczona przez obecną technologię obserwacyjną do jasnych źródeł o dość niskim przesunięciu ku czerwieni i obejmuje (jak widać na rysunku ) ważne luki w różnych pasmach fal.
1. Brak obserwacji przy wysokich energiach (promienie γ) wynika z obecnych ograniczeń technicznych; detektory o wyższej energii nie są wystarczająco czułe, aby wykryć większość AGN. Te, które zostały wykryte do tej pory, to na ogół rdzeniowe (CD) RL AGN, tj. te, których emisja jest wzmacniana przez relatywistyczny przepływ wzdłuż naszej linii wzroku.
2. Luka EUV między obszarami dalekiego UV i miękkiego promieniowania rentgenowskiego widma (tj. między 912Å a około 0,1 keV, obejmująca około 10-krotny współczynnik energii fotonów) wynika z dużej nieprzezroczystości ośrodka międzygwiazdowego w naszą własną Galaktykę fotonom jonizującym wodór. Fotony w tym zakresie energii są szczególnie ważne, ponieważ napędzają silne linie emisyjne widoczne w widmie UV i optycznym AGN.
3. Przepaść między radiem submilimetrowym a krótkofalowym ponownie wynika z ograniczeń technologicznych. Nowe detektory i satelity ostatnio znacznie zmniejszyły te ograniczenia i ujawniły ostre przerwy widmowe w dalekiej podczerwieni dla wszystkich oprócz CD RL AGN.
Najbardziej widoczną cechą AGN SED jest silny pik w widmie UV. Cecha, często nazywana "dużym niebieskim guzem" (BBB), zaczyna się w bliskiej podczerwieni i może rozciągać się aż do energii miękkiego promieniowania rentgenowskiego. Obserwuje się go za pomocą kombinacji niskorozdzielczej spektroskopii optycznej i ultrafioletowej oraz/lub wielobarwnej fotometrii optycznej. Można wiarygodnie zidentyfikować, że powstaje w dysku akrecyjnym (AD) zawierającym materię o szerokim zakresie temperatur i krążącym wokół supermasywnej czarnej dziury. BBB osiąga szczyt w ekstremalnym UV, co jest zgodne z oczekiwaną emisją z AD wokół czarnej dziurya ∼108M⊙, która akreuje materię z szybkością Eddingtona. Emisja IR z RQ AGN jest obserwowana głównie za pomocą fotometrii wielokolorowej, chociaż spektroskopia IR jest szybko rozwijającą się dziedziną. Uważa się, że widmo IR jest zdominowane przez emisję termiczną z pyłu w galaktyce macierzystej lub torusa molekularnego otaczającego AGN. Najbardziej przekonujące dowody przemawiające za tą interpretacją są następujące.
1. W AGN SED występuje lokalne minimum przy długości fali około 1 μm. To prawdopodobnie reprezentuje emisję z najwyższej temperatury (około 1500 K) ziarna, które mogą istnieć w pobliżu AGN; w wyższych temperaturach, tj. mniejszych odległościach od centralnego źródła, pył będzie sublimował.
2. W niektórych AGN zaobserwowano, że kontinuum w podczerwieni zmienia się, najwyraźniej w odpowiedzi na wcześniejsze, podobne zmiany kontinuum w widmie optycznym UV. Wywnioskowany czas podróży światła jest zgodny z maksymalną odległością, na jaką ziarna wystawione na działanie pola promieniowania AGN powinny sublimować.
3. Ostra przerwa w submilimetrowym obszarze dalekiej podczerwieni SED we wszystkich AGN oprócz CD RL jest generalnie zbyt stroma, aby można ją było przypisać optycznie grubej emisji synchrotronowej lub emisji ciała doskonale czarnego w jednej temperaturze, ale jest zgodna z emisją termiczną z ziaren (w zależności od nieznanego prawa emisyjności ziarna).
W RL AGN IR jest prawdopodobnie mieszanką izotropowej emisji termicznej i wiązki nietermicznej. Emisja wiązki dominuje w CD RL AGN, ponieważ jest wzmacniana przez relatywistyczny odpływ wzdłuż naszej linii wzroku. Mocnych dowodów na tę interpretację dostarcza skoordynowana zmienność obserwowana w kilku z tych źródeł, w szczególności 3C 273, który jest najjaśniejszym pobliskim QSO i w konsekwencji był szeroko monitorowany. Wstępne wyniki w średniej i dalekiej podczerwieni z ISO satelitarnego ESA pokazują postęp od emisji nietermicznej do termicznej w małej próbce CD i RLAGN i RQAGN zdominowanej przez płatki, potwierdzając ten ogólny obraz. Podczas gdy emisja UV-optyczna-IR z AGN wydaje się być głównie pochodzenia termicznego, uważa się, że zarówno ekstremalne, jak i niskoenergetyczne obserwowalne SED są wytwarzane przez procesy nietermiczne. Obserwacje rentgenowskie AGN są w dużej mierze ograniczone do spektroskopii o bardzo niskiej rozdzielczości, która daje kształt globalnego kontinuum. Główną cechą widm
rentgenowskich RQ AGN jest kontinuum potęgowe (Fν ∝ ν-α, z α ≈ 0,9) w zakresie ∼1-100 keV. Widmo generalnie odwraca się przy energiach ≳ 100 keV i uważa się, że powstaje w wyniku powtarzającego się rozpraszania Comptona fotonów termicznych lub nietermicznych. RLAGN wykazują twardsze widmo rentgenowskie niż ich odpowiedniki RQ. Względna siła tego twardego komponentu wzrasta wraz z dominacją rdzenia źródła radiowego, co sugeruje, że emisja jest emitowana podobnie do radia i potwierdza pochodzenie fotonów radiowych synchrotronowych w rozpraszaniu w górę Comptona. CD RLAGN są jak dotąd jedynymi AGN wykrytymi w wysokoenergetycznych promieniach γ, co sugeruje, że promienie są kluczowym czynnikiem. Dokonano kilku bardzo wysokoenergetycznych obserwacji, w tym naziemne wykrycie pęków Czerenkowa, które występują, gdy fotony o energii TeV uderzają w ziemską atmosferę. Jak dotąd wszystkie AGN wykryte tą metodą to wszystkie obiekty BL Lac. Podobnie jak w przypadku CD RL AGN, obserwowana emisja z tych źródeł jest najwyraźniej zdominowana przez relatywistyczną wiązkę lub dżet skierowaną w stronę obserwatora. Przy energiach około 10 keV i wyższych widma RQ AGN mają również "twardy ogon" powyżej prawa mocy promieniowania rentgenowskiego, który jest silniejszy w źródłach o niższej jasności. Uważa się, że powstaje to w wyniku "odbicia Comptona" (połączenie nieelastycznego rozpraszania fotonów o wyższej energii i fotoelektrycznej absorpcji fotonów o niższej energii fotonów) ze stosunkowo chłodniejszego materiału. Cecha ta jest na tyle silna, że chłodniejszy materiał musi pokrywać około połowy nieba widzianego z samego źródła promieniowania rentgenowskiego, co doprowadziło do spekulacji, że odbijającym obiektem musi być sama AD, ze źródłem promieniowania rentgenowskiego znajdującym się gdzieś powyżej To. Przykład takiego widma pokazano na rysunku 2.
Zmienność widmowa
Jedną z najbardziej niezwykłych cech AGN jest ich silna zmienność strumienia. Rzeczywiście, samo istnienie zmienności kontinuum w ciągu dnia nakłada surową górną granicę (ustaloną przez argumenty dotyczące czasu podróży światła i spójności źródła) na rozmiar źródła kontinuum, a tym samym dostarcza jednego z najsilniejszych argumentów za identyfikacją AD wokół supermasywnej czarnej dziury jako źródło promieniowania ciągłego. Na poziomie podstawowym przyczyna zmienności kontinuum nie jest zrozumiała, chociaż AD niestabilności są czasami przywoływane jako mechanizm napędowy. Ogólnie rzecz biorąc, najszybsza i najwyższa amplituda zmian jest widoczne przy najwyższych energiach fotonów. Zmiany strumienia promieniowania rentgenowskiego wykryto w galaktykach Seyferta w skalach czasowych rzędu kilku minut. Dla celów fenomenologicznych możemy scharakteryzować siłę zmian jako funkcję czasu częstotliwości f przez ich "spektra gęstości mocy", które są konwencjonalnie modelowane jako prawo potęgowe, tj.
P(f) ∝ f-α, gdzie α zwykle mieści się w zakresie 1-2 dla większości AGN. Przypadek α = 0 to "biały szum", tj. amplituda zmienności jest niezależna od skali czasu, a α = 1 odpowiada zmianom, które można opisać jako błądzenie losowe. Większe wartości ? odpowiadają zwiększonym amplitudom zmienności w dłuższych skalach czasowych (niższe częstotliwości f ). W niektórych przypadkach, np. NGC 4151 i 3C 390.3, najbardziej widoczne zmiany wydają się zachodzić quasi-jednocześnie (tj. jednocześnie z dokładnością do mniej niż jednego dnia) od promieni rentgenowskich (lub nawet promieni γ dla NGC 4151) do pasm fal optycznych. Struktury o mniejszej amplitudzie na krzywych blasku różnią się w całym spektrum, z niższymi amplitudami i mniejszymi strukturami widocznymi przy niższych energiach fotonów. Niemal jednoczesność zmian wymaga, aby zmiany były napędzane przez promieniowanie, a nie na przykład propagację zaburzeń przez AD w znacznie dłuższej lepkiej skali czasu. Obserwacje te, wraz z wykryciem twardego ogona promieniowania rentgenowskiego i linii emisyjnej FeKα, wskazują na modele "ponownego przetwarzania", w których zmienne źródło promieniowania rentgenowskiego oświetla AD z góry, przy czym zaobserwowano zmiany w pochłoniętej energii promieniowania rentgenowskiego przy niższych energiach fotonów. Jednak w co najmniej jednym przypadku (galaktyka Seyferta NGC 7469) zmiany rentgenowskie nie korelują dobrze ze zmianami optycznymi UV; zmiany podobnej amplitudy ułamkowej są widoczne zarówno w obszarach rentgenowskich, jak i UV-optycznych, ale nie ma między nimi wyraźnego związku przyczynowego. Jednak to w tym samym obiekcie wykryto opóźnienie czasowe między zmianami UV i optycznymi. Jest to jedyna galaktyka Seyferta, która została wystarczająco dobrze monitorowana, aby wykryć takie zależne od długości fali opóźnienia czasowe kontinuum. W stosunku do zmian w UV o najkrótszej długości fali, zmiany przy dłuższych falach są opóźnione o wartość τ ∝? γ4/3, co jest dokładnie taką zależnością od długości fali oczekiwaną, jeśli zmiany pojawiają się w cienkim AD, który jest napromieniowany zmiennym promieniowaniem rentgenowskim źródło. Oczywiście ta interpretacja całkowicie nie wyjaśnia obserwowanego braku korelacji między zmianami UV-optycznymi i rentgenowskimi. Obecnie wydaje się, że NGC 7469 stwarza poważne trudności w ponownym przetwarzaniu modeli, chociaż nie pojawiło się żadne inne wyjaśnienie sprzężenia (lub braku sprzężenia) między zmianami rentgenowskimi i UV-optycznymi. Ekstremalne zmiany strumienia obserwuje się również w obiektach BL Lac. Jednak w tym przypadku fundamentalne pochodzenie zmian jest prawdopodobnie związane z propagacją wstrząsów przez strumień relatywistyczny. W przeciwieństwie do Seyfertów, chociaż istnieje ścisła zgodność między zmianami w różnych pasmach, nie pojawił się jeszcze całkowicie spójny związek między opóźnieniem czasowym a długością fali; to samo źródło może najwyraźniej wykazywać różne zachowania w różnych momentach, a przyczyna tego nie jest zrozumiała.
Linie emisyjne
Podstawowe właściwości linii UV-optycznych
Silne szerokie linie emisyjne są cechą charakterystyczną wszystkich typów AGN, z wyjątkiem obiektów BL Lacertae, w których przypuszczalnie obecne linie emisyjne są zalane przez emisję kontinuum o wysokim promieniu z dżetu. W części widma UV-optyczne-IR najbardziej widoczne linie emisyjne (te o równoważnych szerokościach większych niż kilkadziesiąt Å) to zwykle Lyαλ 1215, C IV λ 1549, C III] λ 1909, Mg II λ 2798, Hβ λ 4861, Hα λ 6563 i Pα λ 1,88 μm . W większości Seyfertów i kwazarów obserwowana emisja powstaje w dwóch fizycznie odrębnych obszarach, przestrzennie zwartym (1015-1017 cm) "obszarze szerokoliniowym" (BLR) o stosunkowo dużej gęstości cząstek (ne ≈ 1011 cm-3) i dużej prędkości dyspersje (vFWHM ≈ 1000-10 000 km s-1) oraz przestrzennie rozciągnięty (100 pc-1 kpc) "region wąskoliniowy" (NLR) o stosunkowo małych gęstościach cząstek (ne ≈ 103 cm-3) i mniejszej prędkości dyspersji (vFWHM < 1000 km s-1). Pewne mgławicowe "zakazane" linie, takie jak [O III] λλ 4959, 5007, są wyróżniającymi się cechami w widmach wąskoliniowych, ale nie obserwuje się ich w widmach szerokoliniowych. W NIR o małej gęstości, zarówno linie Balmera, jak i [O III] znajdują się w granicy małej gęstości, w której emisyjność jest proporcjonalna do n2e. Jednak w gęstszym, ale o znacznie mniejszej masie BLR, linie Balmera nadal mieszczą się w granicy małej gęstości, ale linie [O III] znajdują się w granicy dużej gęstości, w której emisyjność jest proporcjonalna tylko do ne. Linie [O III] z regionu szerokich linii są zatem bardzo słabe w stosunku do linii Balmera, a linie zakazane są często określane jako "kolizyjnie stłumione". Galaktyki Seyferta tradycyjnie dzieli się na dwie podklasy spektroskopowe: Seyfert typu 1 ma emisję zarówno szerokoliniową, jak i wąskoliniową, podczas gdy Seyfert typu 2 ma tylko wąskie linie. W niektórych, a być może we wszystkich przypadkach, obiekty typu 2 to te, których BLR są zasłonięte przed naszym bezpośrednim widzeniem przez kurz. Widma kwazarów są zawsze podobne do widm Seyferta typu 1. Kwestia, czy istnieją jakieś prawdziwe "kwazary typu 2", pozostaje otwarta. Niedawna polarymetria ujawniła szerokie linie w niektórych ultrajasnych galaktykach podczerwonych: spektroskopowo można je czasami sklasyfikować jako nieuchwytne kwazary typu 2, ale zasadniczo są to wciąż zaciemnione kwazary typu 1. Poza semantyką pytanie brzmi, czy ujednolicone modele wyjaśniają wszystkie obiekty typu 2.
Zmienność linii emisji
Szerokie składowe linii emisyjnych AGN zmieniają strumień w odpowiedzi na zmiany strumienia kontinuum, z opóźnieniami czasowymi, które, jak się przyjmuje, są spowodowane efektami czasu podróży światła w BLR. Rzeczywiście, pomiar rozmiaru BLR opiera się na pomiarze średnich opóźnień czasowych (lub "opóźnień") między zmianami kontinuum i linii emisyjnych. Ten proces, znany jako "mapowanie pogłosu", został pomyślnie przeprowadzony przez ponad dwa tuziny AGN. Rozmiary BLR w galaktykach Seyferta mieszczą się w przedziale od kilku do około 100 dni świetlnych (tj. rBLR ≈ 1015-17 cm), a skala jasności w przybliżeniu wynosi rBLR ∝ L1/2, zgodnie z najprostszą teorią. Różne linie w danym AGN reagują z różnymi opóźnieniami czasowymi, zwykle w tym sensie, że linie o wyższej jonizacji reagują szybciej niż linie o niższej jonizacji; wskazuje to, że BLR ma radialnie uwarstwioną strukturę jonizacji i że maksymalna zmienność różnych linii występuje przy różnych
promieniach. Zakres odpowiedzi czasowych jest taki, że zewnętrzna krawędź BLR jest co najmniej 10 razy większa niż wewnętrzna krawędź. Zasadniczo mapowanie pogłosu powinno być w stanie określić pole prędkości BLR, ponieważ szerokie linie są rozdzielone w prędkości w linii wzroku (Doppler). Na przykład, gdyby obłoki BLR przemieszczały się promieniowo na zewnątrz od centralnego źródła, wówczas zewnętrzny obserwator zobaczyłby, że gaz o krótkiej długości fali (względnie przesunięty w kierunku błękitu) po bliższej stronie jądra reaguje na zmiany kontinuum, zanim zobaczy stosunkowo przesunięte ku czerwieni długie fale ) gaz po drugiej stronie jądra. Brak tak silnej sygnatury wskazuje, że dominujące ruchy gazu nie są promieniowe. Jednak obecne obserwacje nie są wystarczająco obszerne, aby określić, czy gaz BLR jest ograniczony do dysku, czy też ma inną geometrię. Niezależnie od szczegółów, jeśli przyjmiemy, że ruchy gazu BLR są głównie orbitalne wokół źródła centralnego, masę źródła centralnego
(Mblack hole) można zmierzyć łącząc pomiary wielkości obszaru z szerokością linii emisyjnej, tj. w obrębie pewnego zależnego od geometrii współczynnika jedności porządku, Mblack hole ≈ rBLRv2FWHM. Dla około dwóch tuzinów AGN o niskiej jasności, dla których to zrobiono, wywnioskowano masy w zakresie (106 -108)M⊙. Wąskie linie emisyjne na ogół nie zmieniają się w skalach czasowych wynoszących lata lub mniej, ponieważ dłuższe czasy podróży światła i rekombinacji mają tendencję do zacierania skutków wszelkich zmian kontinuum. Doniesienia o wąskiej zmienności są rzadkie. Prawdopodobnie najlepszym przypadkiem rzeczywistej zmienności wąskiej linii jest przypadek radiogalaktyki szerokopasmowej 3C 390.3, która wydaje się mieć nienormalnie zwarty NLR o dużej gęstości. Szerokości wąskich linii wydają się dobrze korelować z centralnymi masami galaktyki macierzystej AGN w skalach porównywalnych z rozmiarem NLR (tj. asymetrie wynikają z interakcji z dżetami.
Rentgenowska linia żelaza (Fe) Kα
W widmach o niskiej rozdzielczości zwykle uzyskiwanych w obszarze rentgenowskim przez satelity, takie jak ASCA (Japonia), SAX (Włochy) i RXTE (USA), powszechnie obserwuje się fluorescencyjną linię emisyjną Fe K?. Ta linia emisji jest zwykle silniejsza w źródłach o niższej jasności. Energia, przy której obserwuje się linię, z grubsza wskazuje na stan jonizacji emitującego materiału. Szeroki zakres zachowań jest widoczny z nierozwiązanych, chłodnych linii (tj. z materiału lowionizacyjnego), zgodnych z pochodzeniem materiału pochłaniającego wzdłuż naszej linii wzroku przez kwazar, np. torusa molekularnego, do gorących, rozdzielczych linii o szerokościach, vFWHM ≳ 10 000 km s-1, co implikuje materię znacznie bliższą centralnej AGN niż linie optyczne UV i omówione powyżej. W kilku z nich, w szczególności w MCG-6-30-15, obserwuje się złożone profile linii, które sugerują emisję z bardzo bliskiej odległości od centralnego AGN. Ta interpretacja jest bardzo atrakcyjna, ponieważ linia zapewnia wtedy naszą jedyną bezpośrednią obserwację wewnętrznej AD i jest niezwykle ważna dla diagnozowania i ograniczania zarówno modeli AD, jak i modeli centralnego źródła. Satelity rentgenowskie, takie jak XMM (ESA) i Obserwatorium Rentgenowskie Chandra (NASA), oba wystrzelone w 1999 r., będą w stanie obserwować emisję Fe Kα w większej części populacji AGN. Ich siatki zapewnią również niezwykle wysoką rozdzielczość widmową (E/ΔE > 100-1000), umożliwiając bardziej szczegółowe badania profilu, a także wykrywanie większej liczby i słabszych linii w jasnym, pobliskim AGN.
Struktury przestrzennie rozdzielcze w AGN
Region wąskiej linii
Podczas gdy rozmiar i strukturę BLR należy wywnioskować pośrednio za pomocą procesów takich jak mapowanie pogłosu, NLR jest wystarczająco rozszerzony, aby w bliższym AGN można go było przestrzennie rozdzielić za pomocą Kosmicznego Teleskopu Hubble′a lub, w niektórych przypadkach, nawet za pomocą naziemnego obserwacje oparte na NLR jest zwykle w przybliżeniu osiowosymetryczny, a jego długa oś pokrywa się z osią radiową w tych źródłach, w których wykryto rozszerzoną emisję radiową. W niektórych przypadkach wydaje się, że na granicy między plazmą emitującą promieniowanie radiowe a ośrodkiem międzygwiazdowym w galaktyce macierzystej występują fronty uderzeniowe. Podczas gdy emisja wąskoliniowa jest najwyraźniej napędzana głównie przez fotojonizację przez centralne źródło, wykryto również silną emisję z obszarów ochładzających się po wstrząsie. W niektórych przypadkach emisja wąskoliniowa wydaje się być ograniczona do "stożków jonizacyjnych" w kształcie klina, które emanują z jądra. Kąty otwarcia tych stożków wynoszą zwykle 30°-100°. Uważa się, że te stożki są wynikiem anizotropii w polu promieniowania AGN, która jest wprowadzana w znacznie mniejszych skalach przez zaciemniający torus otaczający centralne źródło.
Galaktyki macierzyste AGN
We współczesnym wszechświecie AGN stanowią mniej niż 5-10% wszystkich jasnych galaktyk. Dlaczego niektóre galaktyki są "aktywne", a inne nie? Czy zjawisko AGN reprezentuje przejściową fazę w ewolucji galaktyk (zauważając, że w odległej przeszłości było ich znacznie więcej niż obecnie? Próby rozwiązania tych problemów doprowadziły do badań "galaktyk macierzystych" AGN. Często jest to trudne przedsięwzięcie, ponieważ AGN zwykle znajdują się w dużych odległościach, więc galaktyki macierzyste są słabe i mają małe rozmiary kątowe, a zwłaszcza w przypadku kwazarów, większość światła galaktyki macierzystej jest po prostu tracona w blasku kwazara. Oryginalna lista galaktyk emisyjnych o wysokiej jasności powierzchniowej sporządzona przez Carla Seyferta składała się prawie wyłącznie z galaktyk spiralnych. Z biegiem czasu definicja "AGN" stała się przede wszystkim spektroskopowa (oparta na obecności silnych linii emisyjnych, z wyjątkiem obiektów BL Lac). AGN o wysokiej jasności znajdują się zarówno w galaktykach
eliptycznych, jak i spiralnych, chociaż przy niskim przesunięciu ku czerwieni RLAGN znajdują się preferencyjnie w galaktykach eliptycznych. Do niedawna powszechnie uważano, że istnieje korelacja między AGN a jasnością galaktyki macierzystej: jaśniejsze AGN znajdują się w jaśniejszych galaktykach. Istnieją jednak silne efekty selekcji, które mogą prowadzić do takiego wniosku. Niedawne obserwacje kwazarów za pomocą Kosmicznego Teleskopu Hubble′a (w celu pomocy w wykrywaniu słabych galaktyk macierzystych z AGN o wysokiej jasności) i nie tylko poprzez prace badawcze na pobliskich galaktykach (w celu znalezienia słabego AGN w jasnych hostach) nie potwierdziły istnienia silnej korelacji między AGN a jasnością galaktyki macierzystej. Słabe AGN znajdują się zarówno w galaktykach macierzystych o niskiej, jak i wysokiej jasności, podczas gdy AGN o wysokiej jasności występują tylko w jaśniejszych galaktykach macierzystych. W wyniku dużej części obserwacji za pomocą Kosmicznego Teleskopu Hubble′a wydaje się
obecnie, że praktycznie wszystkie galaktyki zawierają w swoich jądrach supermasywne czarne dziury. Identyfikacja obiektów supermasywnych wymaga pomiaru dyspersji dużych prędkości w małych skalach przestrzennych (a tym samym wymaga wysokiej rozdzielczości kątowej możliwej do uzyskania przy obrazowaniu kosmicznym), co prowadzi do pomiarów masy wirialnej. Najciekawsze wydaje się teraz przejście od "czy supermasywne czarne dziury istnieją?" do "dlaczego niektóre supermasywne czarne dziury gromadzą masę (AGN), podczas gdy inne nie są (normalnymi galaktykami)"? To, czy jądro jest zasilane, czy nie, może być związane z tym, jak łatwo jest wprowadzić gaz do jądra galaktyki, a to z kolei może zależeć od charakterystyki galaktyki macierzystej.
Rozszerzona emisja promieniowania rentgenowskiego
Wysoka (jak na promieniowanie rentgenowskie) rozdzielczość przestrzenna High Resolution Imager na satelicie rentgenowskim ROSAT (∼5″ ) ułatwiła obrazowanie jasnych, pobliskich galaktyk Seyferta, takich jak NGC 1068 i NGC 4151. że znaczna część (do ∼50%) emisji promieniowania rentgenowskiego może pochodzić z rozszerzonego obszaru wokół centralnego AGN. W kilku źródłach ta emisja promieniowania rentgenowskiego jest przestrzennie skorelowana z NLR. Źródłem rozszerzonej emisji promieniowania rentgenowskiego może być rozpraszanie elektronów centralnej emisji promieniowania rentgenowskiego lub emisja promieniowania rentgenowskiego z gorącego, wiejącego wiatru. Obserwatorium Rentgenowskie Chandra (NASA) ze swoją bezprecedensową rozdzielczością przestrzenną (∼0,5″) pozwoli na wykonanie znacznie większej liczby takich badań przestrzennych.
Emisja megamasera
Do najbardziej ekscytujących obserwacji AGN w ostatnich latach należy emisja maserów wodnych w reżimie radiowym. Obserwacje radiowe, ze względu na długie fale i odpowiednio większe teleskopy, które można zbudować lub zsyntetyzować, są obecnie niedoścignione pod względem rozdzielczości przestrzennej, jaką mogą uzyskać, zwykle do poziomu milisekundy kątowej (mas). Niedawne obserwacje emisji masera wody w słabo jasnej galaktyce Seyferta 1,9 NGC 4258 wykazały kilka składowych, których prędkości dokładnie odpowiadają krzywej rotacji Keplera. W połączeniu z ich pozycjami kątowymi, te źródła maserowe wskazują na wypaczony, nachylony, geometrycznie cienki dysk molekularny w skali poniżej parseka i prowadzą do oszacowania (3,5 ± 0,1) × 107 M⊙ dla masy centralnej czarnej dziury, pierwszy bezpośredni i precyzyjny taki pomiar. Obserwacje masera z innych źródeł również dostarczyły informacji w podobnej skali, ale jak dotąd żadne nie były tak szczegółowe jak NGC 4258.
Linie absorpcyjne
Optyczne i UV
Widma optyczne i UV AGN zawierają cechy absorpcji ze względu na materiał wzdłuż linii wzroku między nami a źródłem kontinuum optyczno-UV, zarówno w samym AGN, jak iw przestrzeni pośredniej. Interweniujące absorbery, których przesunięcia ku czerwieni są zawsze niższe niż przesunięcia ku czerwieni QSO w tle, są najliczniejsze w QSO z wysokim przesunięciem ku czerwieni z odpowiednio dłuższą linią wzroku. Dominują w nich linie z podstawowego przejścia obojętnego wodoru, Lyα λ 1215. Linie te, znane jako "las Lymana α", dostarczają wielu informacji na temat rozmieszczenia zimnej materii we wszechświecie. Zakres gęstości kolumn w tych układach absorbujących jest szeroki, NH ≈ 1013-1021 cm-2, tak że cechy metali, Mg II λ 2798, C IV λ 1549 i przerwy graniczne Lymana są obserwowane w podzbiorze. Przy wysokim przesunięciu ku czerwieni, gdzie tylko najjaśniejsze źródła, głównie QSO, są dla nas widoczne, las Lyman α zapewnia nam jedyny widok na zimną materię i dlatego jest bardzo ważnym oknem na wczesny Wszechświat dla badań kosmologicznych. Najciekawsza klasa absorberów, jeśli chodzi o badania QSO, jest związany z wewnętrznymi absorberami. Są to systemy linii metalowych o dużej gęstości kolumn, które występują w ponad 50% wszystkich AGN i których przesunięcie ku czerwieni jest bliskie, a czasem nawet nieco większe niż QSO tła. W widmach optycznych UV o wystarczająco wysokiej rozdzielczości (≲ 5Å) linie są często widoczne w szerokich profilach linii emisyjnych. Utrudnia to ich badanie, ponieważ ani ich profile, które często obejmują wiele składników, ani linie emisyjne, które pochłaniają, nie są znane. Wymagane są dane o wysokiej rozdzielczości i stosunku sygnału do szumu, a nawet wtedy niepewność jest zwykle wysoka. Uważa się, że absorpcja pochodzi z materiału znajdującego się blisko jądra QSO i poruszającego się względem niego, zwykle w kierunku na zewnątrz. Wykazują one zakres jonizacji od niskiego, gdzie dominuje Mg II, do wysokiego, gdzie przeważa C IV lub nawet O VI λ 1034. Uważa się, że te pochłaniacze o wysokiej jonizacji również odpowiedzialne za omówione poniżej pochłaniacze ciepła promieniowania rentgenowskiego.
Ciepłe pochłaniacze promieniowania rentgenowskiego
Obszar widmowy miękkiego promieniowania rentgenowskiego jest silnie uzależniony od absorpcji atomowej z powodu dowolnego materiału wzdłuż linii wzroku między nami a źródłem promieniowania rentgenowskiego w samym AGN. Nasza Galaktyka ma znaczną gęstość kolumn neutralnej (zimnej) materii, której sygnatura jest obecna w widmach miękkiego promieniowania rentgenowskiego AGN (w zakresie 0,1-5 keV). Galaktyka gospodarza AGN tworzy podobny podpis. Oprócz tej zimnej absorpcji, w miękkich widmach rentgenowskich często obserwuje się absorpcję przez zjonizowany (ciepły) materiał. Na ogół świadczy o tym obecność silnej absorpcji na krawędzi (krawędziach) silnie zjonizowanego tlenu (O VII lub O VIII) lub, w przypadku danych o niższej rozdzielczości, "wyciek" miękkich fotonów powyżej oczekiwań dotyczących zimnej absorpcji od nieprzezroczystość niskoenergetyczna zmniejsza się wraz ze wzrostem jonizacji. Wszystko wskazuje na to, że wszystkie lub prawie wszystkie QSO wykazujące ciepłą absorpcję promieniowania rentgenowskiego
mają również powiązane linie absorpcyjne w UV, które obejmują linie o wysokiej jonizacji, takie jak OVI i NV λ 1240. Niedawne prace wykazały, że wypływający materiał o dużej gęstości kolumn może wytwarzać zarówno właściwości rentgenowskie, jak i UV takich absorberów. Wynikająca z tego kombinacja ograniczeń związanych z promieniowaniem UV i promieniowaniem rentgenowskim nałożonym na materiał pochłaniający zapewniła nam bezprecedensowo skuteczną diagnostykę absorbera. Wydaje się, że jest to materiał o dużej gęstości kolumnowej (NH ≈ 1020-22 cm-2), wypływający z regionu centralnego przy prędkościach ∼100-1000 km s-1, położone między BLR i NLRat ≈1017 cm i często zawierające kilka odrębnych składników w ramach pojedynczego systemu.
Szerokie linie absorpcyjne
Najbardziej dramatycznymi cechami absorpcji widocznymi w widmach UV-optycznych QSO są szerokie linie absorpcyjne (BAL) . Są to wewnętrzne absorbery o wysokiej gęstości kolumnowej (NH ≈ 1020-23 cm-2) wypływające z jądra QSO. Mają zakres jonizacji (stąd C IV lub Mg II BAL) i szeroki zakres prędkości, czasami zbliżający się do ∼10% prędkości światła. Absorpcja generalnie zawiera dużo struktury, chociaż niewielki podzbiór ma gładkie profile typu P-Cygni, co wskazuje na gładki, kulisty odpływ. Ponieważ pochłaniają tak dużo kontinuum QSO i emisji liniowej, bardzo trudno jest je badać ilościowo. Widma o wysokiej rozdzielczości i wysokim stosunku sygnału do szumu są niezbędne wraz ze szczegółowym modelowaniem zarówno cech emisji, jak i absorpcji w celu uzyskania informacji o gęstościach kolumn w funkcji prędkości dla tego materiału. Interpretacja generalnie dotyczy turbulentnego, odpływającego wiatru w pobliżu jądra QSO i obejmującego znaczną część centralnego źródła
kontinuum i BLR. Źródła te są powszechnie emiterami słabego promieniowania rentgenowskiego, w większości niewykrywanymi do granic znacznie niższych niż inne QSO. Silna absorpcja obserwowana w tych nielicznych wykrytych do tej pory prowadzi do interpretacji w kategoriach absorpcji emisji promieniowania rentgenowskiego przez ten sam, wypływający wiatr i sugeruje, że gęstość kolumn jest na górnym końcu podanego zakresu.
Aktywne galaktyki: obserwacja ich zmienności przez amatorów
Amatorzy zaczęli interesować się obserwacjami jaśniejszych aktywnych jąder galaktycznych (AGN) stosunkowo wkrótce po ich odkryciu pod koniec lat 60. XX wieku, chociaż niewielką ich liczbę zaobserwowano tak, jakby wcześniej obserwowano gwiazdy zmienne. Czołowi amatorzy obserwowali zatem jaśniejszych AGN od ponad pięciu dekad monitorują zmiany ich jasności. Ponadto wielu obserwatorów rekreacyjnych wyśledziło wizualnie te słabe plamki, szczególnie 3C273 w Pannie, i zdumiało się tym widokiem, chociaż nie tyle ich wyglądem, ile ich niezwykłą naturą. Pierwszy formalny skoordynowany program dla amatorów monitorowania AGN rozpoczął się w Wielkiej Brytanii pod koniec lat 70-tych. Sekcja Gwiazd Zmiennych Brytyjskiego Stowarzyszenia Astronomicznego dodała do swojego programu 3C273, NGC 4151 i Markarian 421. Były one monitorowane wizualnie, jak słabe gwiazdy zmienne. Wraz ze wzrostem apertury teleskopowej w latach 80. do programu dodano więcej AGN. Zainteresowaniem zainteresowała się organizacja Astronomer, która dodała tę klasę obiektów do swojego programu, który pozostaje aktywny - obserwacje do dziś publikowane są w miesięczniku The Astronomer. Potencjał poważnych prac fotograficznych odkryto pod koniec lat 80. XX wieku, a technika umożliwiła dodanie kilku słabszych przykładów, które były zbyt słabe dla większości obserwatorów wizualnych. Był to ograniczony sukces, trudności w patrolowaniu fotograficznym ograniczały popularność. Dopiero pojawienie się URZĄDZENIA CHARGE-COUPLED DEVICE (CCD) i jego dostępność dla amatorów umożliwiły kolejny impuls do obserwacji AGN. Nie ma wątpliwości, że interesuje się zawodowo obserwacjami amatorskimi - wsparcie i zachętę udzieliło kilku międzynarodowych astronomów, CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW. Ogólne cele amatorskich obserwacji AGN są trojakie:
• monitorowanie widocznych zmian jasności dostępnych AGN ;
• zmierzyć takie zmiany i zbudować możliwie najdokładniejszą krzywą blasku w zakresie widzialnych długości fal;
• ostrzeganie zawodowych astronomów o niezwykłej i przewidywanej aktywności będącej przedmiotem zainteresowania oraz regularne przeprowadzanie rutynowych obserwacji.
W celu możliwie częstego monitorowania jak największej liczby AGN stworzono skoordynowany program. Obecnie dla dobrze wyposażonego amatora dostępnych jest ponad 20 AGN. Chociaż większość z nich jest stosunkowo słaba, kilka jest dostępnych wizualnie dla skromnych teleskopów i wszystkie powinny być dość proste cele dla użytkowników CCD. Zachęca się obserwatorów do prowadzenia obserwacji tak regularnie, jak pozwala na to niebo i warunki. Prawie wszystkie AGN w programie są wykreślone w Uranometria 2000, chociaż niektóre mają alternatywne oznaczenia w stosunku do bardziej popularnych terminów. Jednakże użycie współrzędnych powinno umożliwić identyfikację bez trudności. Po zlokalizowaniu jasność AGN można oszacować lub zmierzyć wizualnie, fotograficznie lub za pomocą CCD. Każdy ma swoje zalety i problemy. Na korzyść podejścia wizualnego przemawia możliwość obserwacji kilku obiektów w sesji; wyniki uzyskuje się szybko, a sprzęt jest stosunkowo niedrogi, chociaż realistycznie rzecz biorąc, w przypadku tak słabych
obiektów potrzebna jest większa apertura. Jednakże teleskop nie musi być montowany równikowo. Naprzeciw tym zaletom stoją problemy związane ze znalezieniem stosunkowo słabych obiektów z miejsc odbiegających od idealnych, przy problematycznych warunkach nieba, spowodowanych zanieczyszczeniem światłem, bimberem, wysokimi cirrusami i tak dalej. Niezbędne jest doświadczenie w pracy z gwiazdami zmiennymi. Nieuchronnie pojawia się pewna stronniczość obserwatora, chociaż można to skompensować, podobnie jak w przypadku innych obserwacji gwiazd zmiennych. Nawet jeśli sama AGN nie stanowi większego problemu, słabsze gwiazdy porównania mogą okazać się trudne. Choć liczba dostępnych AGN jest ograniczona, posiadacze teleskopu o średnicy 16 cali lub większej mogą obserwować ich jeszcze kilkanaście. Wydaje się, że fotografia zmniejsza niektóre z tych barier. Można osiągnąć słabsze jasności, dzięki czemu dostępne będą bardziej aktywne galaktyki i łatwiej będzie uzyskać porównania. Osobiste uprzedzenia są zmniejszone, a
wyniki można łatwo wyświetlić i odtworzyć. Jednakże niezbędny staje się teleskop równikowy lub napędzany, co zwiększa zaangażowanie finansowe. Aby uzyskać dokładne wyniki, na które zasługuje czas i nakłady finansowe, konieczna staje się standaryzacja i formalny pomiar. Wymagałoby to od obserwatora użycia standardowej kliszy (w przeszłości zalecano Kodak 103aB, ale jest on trudno dostępny i trzeba testować inne emulsje). Pożądane są również filtrowane obrazy, a do dokładnego oszacowania wielkości idealne są pomiary mikrodensytometryczne. Dodaj do tego żmudny proces samej fotografii i pracę w ciemni, a być może zrozumiałe jest, że programy fotograficzne końca lat 80. tak naprawdę nigdy nie doszły do skutku. Szansa na odkrycie nowej lub supernowej często stanowi odpowiednią zachętę do zaangażowania się w prace patrolowe, ale monitorowanie istniejącego obiektu rok po roku jest być może mniej kuszące. Odpowiedzią na to pytanie wydaje się być rewolucja CCD. Obrazy wykonane przy użyciu matryc CCD mogą sięgać bardzo
głęboko, nawet przy niewielkich przysłonach. Wiele AGN jest dostępnych dla posiadaczy 10 teleskopów wyposażonych w matrycę CCD. Znalezienie obiektów z mniejszymi chipami CCD było kiedyś niezwykle trudne, ale nowoczesne udogodnienia GoTo w wielu nowoczesnych teleskopach oznaczają, że można z pewnością znaleźć pole, a następnie zidentyfikować AGN na mapach i sfotografować go naprawdę dość szybko oraz wykonać pomiar. Oprogramowanie komputerowe staje się coraz bardziej wyrafinowane i przy zachowaniu ostrożności powinna być możliwa fotometria z dokładnością do około 0,1 magnitudo. Dane można łatwo przechowywać na dysku i odtwarzać w dowolnym czasie. Dzięki szybkiemu porównaniu z obrazem wzorcowym możliwe jest wykazanie znaczących zmian jasności. Ten szczęśliwy stan rzeczy łagodzony jest koniecznością wydania sporej sumy pieniędzy na sprzęt. Oprócz teleskopu napędzanego na wyposażeniu znajduje się kamera CCD i komputer oraz niezbędne oprogramowanie. Zatem uzyskanie pierwszego znaczącego obrazu CCD AGN może
kosztować obserwatora kilka tysięcy dolarów. Ponadto nie wszystkie matryce CCD mają tę samą czułość. Większość z nich ma odchylenie czerwone, co zniekształca wyniki, ale różne aparaty mają różne profile, więc aby fotometria była naprawdę użyteczna dla profesjonalistów, coraz wyraźniej widać, że potrzebna jest filtracja (patrz CCDS, FILTRY I FOTOMETRIA CCD DLA AMATORÓW, FILTRY ). Ostatecznie dopuszczalne może być użycie tylko filtrów B i V, nawet jednego z nich. Jednak proste monitorowanie bez fotometrii nie wymaga obrazów z filtrem, co może być nadal przydatne, nawet jeśli obserwator nie ma dostępu do żadnych filtrów. Obecnie większość obserwacji ma charakter wizualny, z pewnymi obrazami CCD, ale w miarę zwiększania się liczby użytkowników CCD poszukujących poważnych projektów, nacisk może się zmienić. AGN stanowią wspaniałe wyzwanie dla poważnego obserwatora-amatora, który pragnie wnieść swój niewielki wkład w dziedzinę nauki, w której profesjonaliści chętnie przyjmą pomoc, jeśli zostanie ona udzielona
ostrożnie. Choć nie zapewniają zbyt wielu spektakularnych widoków, AGN pobudzają wyobraźnię w sposób równie satysfakcjonujący dla dociekliwego umysłu. Techniki są udoskonalane, jakość wyników będzie coraz bardziej udoskonalona, a badania najgłębszych obiektów głębokiego nieba wkrótce nabiorą tempa.
Aktywne galaktyki: Przegląd
Zdefiniowanie "AKTYWNEGO JĄDRA GALAKTYCZNEGO" (AGN) może być trudne. Ostatnie dwa słowa są stosunkowo proste, ponieważ AGN jest wydarzeniem energetycznym, którego nigdy nie można znaleźć nigdzie we wszechświecie, z wyjątkiem centralnych parseków galaktyki. Nie jest to zaskakujące, ponieważ jakiekolwiek tarcie dynamiczne powinno wkrótce zmusić bardzo masywny, zwarty obiekt do osadzenia się w centrum galaktycznego pola grawitacyjnego ma potencjał. Mówi się, że JĄDRO AGALAKTYCZNE jest "aktywne", jeśli generuje "znaczną" (lub wykrywalną) ilość energii w wyniku procesów innych niż te występujące gdziekolwiek indziej w galaktykach. Oznacza to, że energia "aktywności" nie jest wytwarzana w wyniku ewolucji gwiazd i materii międzygwiazdowej. Definicja ta jest czysta, ponieważ jest teoretyczna. Rzeczywiste zadanie obserwacyjne polegające na identyfikacji AGN może być trudne, zwłaszcza gdy aktywność gwiazd pozagwiazdowych jest słaba w porównaniu z tłem normalnych procesów gwiezdnych, w tym narodzin i śmierci. Znacząca klasyfikacja AGN jest trudniejsza. Zrozumienie ich fizycznej natury jest jeszcze trudniejsze. Problemy są jeszcze bardziej skomplikowane, ponieważ aktywność niegwiazdowa uwalnia energię w wielu postaciach i przy długościach fal fotonów obejmujących prawie całe widmo elektromagnetyczne. Ponieważ instrumenty i metody obserwacyjne różnią się znacznie w zależności od pasma fal, zaproponowano wiele nakładających się schematów i modeli klasyfikacji specyficznych dla długości fali. Nic dziwnego, że astronomowie jako pierwsi dowiedzieli się o bardziej spektakularnych i świetlistych przykładach AGN. Jądra te były na tyle jasne, że mogły przyćmić całą galaktykę, w której się znajdowały. Były też bardzo odległe i często nie było możliwe, zanim bardzo czułe obrazowanie wykryło otaczającą galaktykę, odróżnienie ich wyglądu optycznego od wyglądu gwiazdy. Doprowadziło to do określenia ich jako obiektów quasi-gwiazdowych. Niektóre z pierwszych z nich były także potężnymi źródłami radiowymi i wkrótce termin ten został skrócony do "kwazaru", który obecnie ogólnie odnosi się do wszystkich AGN o dużej jasności. Ich wyjątkowa natura stała się bardziej oczywista, gdy badano ich widma, w niemal każdym obszarze długości fali. Te unikalne właściwości odkryto obecnie w aktywnych jądrach o niezwykłym zakresie jasności1. Istnieją jedynie zaskakująco subtelne różnice spektroskopowe pomiędzy kwazarem o jasności 1048erg s-1 a tym, co wcześniej zidentyfikowano jako "jądro galaktyki Seyferta" o jasności 1042erg s-1. Dowody są przytłaczające, że te dwie kategorie astronomiczne muszą mieć jedno wspólne wyjaśnienie fizyczne. Dlatego dzisiaj prawie nie dokonuje się rozróżnienia między "kwazarem" a "jądrem Seyferta 1", ponieważ ich główna różnica polega (nieco arbitralnie) na ich jasności.
Zrozumienie silnika centralnego w AGN
Istnieje kilka kluczowych pomysłów, które są wykorzystywane do organizowania i nadania sensu naszym obszernym i rosnącym informacjom obserwacyjnym na temat AGN.
Ujednolicone modele
Od najwcześniejszych badań AGN uznano, że mogą one wykazywać silne różnice obserwacyjne pomimo wielu innych podobieństw. Wydaje się, że dwie cechy mają wystarczająco bimodalny rozkład, aby uzasadnić użycie ich do podziału AGN na dwie pary klas: silna emisja radiowa (która odróżnia radiogłośną (RL) od radiosłabej (RW)AGN) i szeroko dozwoloną emisję liniową (która odróżnia jądra Seyferta typu 1 od typu 2). Większość kwazarów to jedynie umiarkowanie silniejsze źródła radiowe niż zwykłe galaktyki. (Czasami określa się je jako ciche radiowo (RQ) AGN, choć ściśle mówiąc szczerze, emitują pewien strumień radiowy, więc RW jest dokładniejszym opisem.) Ważna mniejszość kwazarów jest dobrze znana z wiązek wysokoenergetycznych cząstek, które przyspieszają. Emisja radiowa z tych odrzutowców jest prawie zawsze dwubiegunowa, co jest kluczowym wskaźnikiem tego, że silnik centralny może mieć symetrię osiową. W wielu modelach ta oś dżetu jest osią obrotu centralnej masywnej czarnej dziury. Najbardziej dramatyczna podpróbka RLAGN, "blazary" (luźno nazwana na cześć prototypowego obiektu BL Lacertae), silnie spolaryzowane, gwałtownie zmienne, strome czerwone kontinuum, została zidentyfikowana jako nietermiczna emisja synchrotronowa. Blazar to nieformalny termin używany do określenia prototypowych nietermicznych obiektów BL Lacertae (z bardzo słabymi liniami emisyjnymi), a także gwałtownie zmiennych optycznie kwazarów. Mapy interferometryczne pokazały, że emisja radiowa zdominowana przez jądro generalnie miała jednostronny dżet, który często wydaje się rozszerzać z pozornymi prędkościami poprzecznymi kilka razy większymi niż ok. Najbardziej ekstremalne z tych obiektów wydają się emitować znaczną część swojej energii w postaci promieni gamma, a być może nawet do energii TeV. Wszystkie te niezwykłe (i wyraźnie niegwiazdowe) właściwości blazarów zostały wkrótce zrozumiane jako wynik obserwacji relatywistycznego strumienia (elektronów i protonów lub pozytonów), który wyłania się z aktywnego jądra blisko naszej linii wzroku. Ten niemal "biegunowy" kąt widzenia powoduje kilka efektów relatywistycznych, takich jak wzmocnienie Dopplera "wiązki" emisji synchrotronowej i kompresja pozornych skal czasowych, co uwzględnia "ruch nadświetlny" bez naruszania szczególnej teorii względności. Jednostronny charakter najbardziej wewnętrznych dżetów przypisuje się zwykle "faworyzowaniu Dopplera". Jeśli obecnie występuje wypływ w przeciwnym kierunku (co przewidują niektóre modele teoretyczne, ale jeszcze nie zostało potwierdzone), jest on niewidoczny, ponieważ dewzmocnienie Dopplera powoduje, że jest on tysiące razy słabszy. Bezpośrednią konsekwencją wyjaśnienia RL AGN zdominowanego przez jądro jest to, że więcej AGN ze strumieniami radiowymi musi być skierowanych w stronę od Ziemi. Muszą one być wykrywalne na podstawie ich emisji izotropowej (linie lub rozległe płatki radiowe) jako RLAGN zdominowane przez płatki lub być może "radiogalaktyki" (których właściwości optyczne mogą obejmować obszary linii emisyjnych Sefyert 2 lub nawet obszary linii emisyjnych o niskiej jonizacji (LINER)). Linie emisyjne (niepromieniowane) mogą być wykrywalne lub nie, ale są trudniejsze do wykrycia w świetle wzmocnionego kontinuum nietermicznego strumienia. Badania te wykazały, że centralny silnik w AGN (przynajmniej RL) ma silną symetrię bipolarną, która została zachowana przez miliony lat lub dłużej w największych dwupłatowych źródłach radiowych. Udowodnili także, że obserwacyjny wygląd RLAGN może w ogromnym stopniu zależeć od kąta patrzenia. Jednakże nie jest jeszcze pewne, w jakim stopniu te same spostrzeżenia można przenieść do większości AGN, którymi są RW. Szerokie dozwolone linie emisyjne są zwykle uważane za jedną z cech charakterystycznych AGN. Powstają z fotojonizowanego gazu o dużej gęstości. Ich wysoki stan jonizacji i duży zakres prędkości wskazują, że powstają one w "obszarze szerokiej linii" (BLR) stosunkowo blisko centralnego silnika. Jednakże na każdą szerokoliniową AGN o danej jasności (sklasyfikowaną jako "Seyfert 1") przypada co najmniej jedno jądro galaktyczne, które w innym przypadku mogłoby zostać sklasyfikowane jako Seyfert, ale które nie ma emisji szerokoliniowych i jest klasyfikowane jako "Seyferta 2". W Seyfert 2 bezpośrednie oglądanie centralnego silnika i otaczającego go BLR jest trudne lub niemożliwe. W niewielkiej liczbie przypadków występują mocne dowody na istnienie silnika centralnego w postaci silnie pochłoniętego (NH ∼ 1023 cm-2) źródła kontinuum twardego promieniowania rentgenowskiego lub szerokich skrzydeł linii emisyjnej Balmera widocznych w widmie liniowym polaryzowane światło. Mniej bezpośrednim dowodem jest wykrycie emisji fluorescencyjnej z linii rentgenowskiej K? przy 6,4 keV. W niektórych Seyfertach 2 bardzo duża równoważna szerokość tej linii (około rząd wielkości większa niż w niezasłoniętych Seyfertach 1) jest interpretowana jako zasilana przez jądrowe źródło twardego promieniowania rentgenowskiego, z którego praktycznie nic nie jest widoczne wzdłuż naszej bezpośredniej odległości. linii wzroku do jądra. Podobny argument wysunięto na podstawie spektroskopii UV: zsumowanie wszystkich fotonów jonizujących wywnioskowanych z kontinuum UV wydaje się niewystarczające, aby uwzględnić cały wykryty strumień linii emisyjnej Seyferta, a zwłaszcza kontinuum podczerwieni powiązane z aktywnym jądrem. Zakładając, że kontinuum 2-10 μm w Seyfercie 1s i 2s to energia AGN, która została ponownie wypromieniowana przez ziarna pyłu (patrz sekcja "Przetwarzanie" poniżej), w Seyfercie 2 sugeruje się jeszcze więcej niewidocznej mocy niegwiazdowej. Ten "deficyt energii" przemawia za wysokoenergetycznym źródłem energii, które jest obecne, ale nie jest bezpośrednio obserwowalne. Jednakże argumenty te nie są rozstrzygające. Rachunek energii obarczony jest wieloma dużymi niepewnościami i istnieją inne wiarygodne wyjaśnienia linii emisyjnej K?, które nie wymagają istnienia zakopanego źródła promieniowania rentgenowskiego AGN. Chociaż trudno jest uzyskać bardzo czułe obserwacje wymagane w tych testach, wiele dokładnych obserwacji nie ujawniło żadnych bezpośrednich dowodów na niegwiazdowe kontinuum z centralnego silnika. Bardziej rozbudowane wskazania widoczne w tych Seyfertach 2 - linie wąskoemisyjne i źródła radiowe - mogły zostać wygenerowane przez AGN, który "wyłączył się" wieki temu. Rodzi to empiryczne pytanie, czy większość jąder Seyferta może włączać się i wyłączać na przestrzeni wieków. Chociaż żadnej nie obserwowano przez tak długi czas2, w ciągu dziesięcioleci obserwacji zaobserwowano bardzo niewiele kompletnych przejść Seyferta 2 ⟷ Seyferta 1. Niemniej jednak założenie ujednolicenia jest takie, że wszystkie Seyferty 2 mają obecnie aktywny silnik centralny, który jest po prostu bardzo zasłonięty. Nawet jeśli ujednolicenie jest ogólnie prawidłowe, wymaga po prostu optycznie gęstego gazu, co wiąże się z bardzo dużą ekstynkcją pyłu, pomiędzy nami a jądrami galaktyk Seyferta 2. Wiadomo jedynie, że ten zasłaniający obszar musi być wystarczająco duży, aby zakryć szeroki obszar linii emisyjnej, widziany przez znaczną część linii wzroku centralnego silnika3. Podobnie ziarna pyłu muszą przechwycić znaczną część centralnego kontinuum i ponownie je napromieniować, aby wytworzyć silną emisję w bliskiej do średniej podczerwieni, charakterystyczną dla jąder Seyferta 1 i 2. Popularna specjalna wersja unifikacji proponuje, aby ta pochłaniająca materia była silnie niesferyczna i rozmieszczona w grubym torusie (o charakterystycznej średnicy od parseków do dziesiątek parseków), który jest współosiowy z centralnym silnikiem. W modelu grubego torusa brak materiału zasłaniającego nad biegunami torusa umożliwia fotonom z centralnego silnika jądrowego rozproszenie się w wyraźnej linii wzroku do Ziemi. Rezultatem byłoby rozproszone widmo jądrowe - szerokie linie emisyjne i kontinuum niegwiazdowe - które obserwujemy tylko w świetle spolaryzowanym. Ponieważ torus ma być ustawiony w jednej linii z osią centralnego silnika, wektor polaryzacji E powinien być równoległy do osi radiowej. Ta ostatnia jest trudna do zmierzenia, ale jest w przybliżeniu równoległa do polaryzacji w niektórych z najlepiej zmierzonych Seyferta 2. Kolejnym słabym dowodem na preferowaną "oś ucieczki" dla jonizujących fotonów AGN jest luźna tendencja do tego, że rozszerzone zjonizowane linie emisyjne w Seyfercie 2 pochodzą z dwubiegunowych "stożków". Jednakże w wielu Seyfert 2 istnieją dowody (np. z obrazowania HST), że zamiast tego dużo zaciemnienia występuje w galaktycznych pasach pyłowych. Zaobserwowano, że mają one rozmiary setek parseków i w ogóle nie są powiązane z centralnym silnikiem, z wyjątkiem tego, że zdarza się, że zasłaniają nam widok. Nadal nie jest jasne, ile, jeśli w ogóle, Seyfertów 1 i 2 rzeczywiście zawiera kompletne, grube tori owinięte wokół centralnych silników.
Emisja cieplna z przepływu akrecyjnego
Uważa się, że ogromne ilości energii wytworzonej z bardzo małych objętości, które obserwuje się w świecących kwazarach, powstają w wyniku akrecji czarnych dziur. Aby uniknąć znacznego przekroczenia granicy Eddingtona, akreujące czarne dziury muszą mieć masy kilku 106 -109 Słońc. Jednak konwersja potencjalnej energii grawitacyjnej napływającej materii na promieniowanie nie jest wcale wydajna, jeśli występuje opad czysto promieniowy. Również ogólne rozważania na temat momenut pędu gazu głęboko w jądrze galaktycznym silnie sugeruje, że przepływ akrecyjny musi w końcu szybko się obracać, ponieważ zbliża się do czarnej dziury. Wtedy możeakreować i zasilać AGN tylko wtedy, gdy doświadcza tarcia. Choć nie jest to jeszcze dobrze poznane, ten kluczowy proces przenosi moment pędu na zewnątrz, umożliwiając zasilenie czarnej dziury. Akrecji tej towarzyszy duże uwolnienie energii radiacyjnej, która zasila AGN. Fakt, że moment pędu jest ważny w przepływie akrecyjnym, potwierdza obserwacja, że silnik centralny jest dwubiegunowy. Jej oś symetrii jest naturalnie zidentyfikowana z osią wirowania przepływu akrecyjnego i jest kierunkiem najbardziej prawdopodobnych wypływów. Istnieją również dowody obserwacyjne na to, że obserwujemy bezpośrednio promieniowanie emitowane termicznie z tego strumienia akrecyjnego, gdy spiralnie wpada on do czarnej dziury. Jedną z charakterystycznych cech widma centralnego źródła kontinuum AGN jest szeroki garb, który wydaje się osiągać szczyt gdzieś w zakresie UV. To przegięcie, określane jako "nadmiar ultrafioletu" lub "duży niebieski guz", często zawiera największą część całkowitej jasności AGN.
Główne argumenty przemawiające za termicznym pochodzeniem tego kontinuum niebieskiego - UV są następujące.
• Jego kształt widmowy. Szeroki pik w zakresie UV można dopasować poprzez sumę obszarów emitujących ciepło w zakresie temperatur, ze środkiem w okolicach ∼30 000 K. W prostym, optycznie grubym dysku akrecyjnym, jakiego można by się spodziewać w przypadku większości świecących AGN, temperatura termiczna przepływ akrecyjny jest proporcjonalny do r-3/4. Po uwzględnieniu poprawek relatywistycznych suma emisji cieplnej z pierścieni o różnych promieniach daje widmo z szerokim pikiem, które jest płaskie w jednostkach gęstości strumienia (F? = stała) i ma obrót o wysokiej częstotliwości. Modele, które traktują dysk jako sumę ciał doskonale czarnych, zapewniają wyjątkowo dobre dopasowanie do wszystkich rozkładów energii widmowej optycznej i UV obserwowanych w AGN.
• Częstotliwość szczytowa. Efektywna temperatura przepływu akrecyjnego jest w przybliżeniu określona przez równowagę pomiędzy grawitacyjną energią potencjalną uwolnioną w wyniku akrecji lepkiej a emitowanym promieniowaniem4. W cienkim dysku warunek ten wynosi Tackrecja = (3GMbhM˙/8πr3)1/4 = (30 000K) (M8)1/4(L/LEddington)1/2. Jasności i częstotliwości szczytowe obserwowane w widmach kontinuum jąder Seyferta 1 i kwazarów są zgodne z temperaturami równowagi przewidywanymi dla akrecji dysku. Wymagane odpowiednie szybkości opadania masy wynoszą ∼ kilka procent i ∼ dziesiątki procent wartości granicznej Eddingtona dla wywnioskowanych mas czarnych dziur
Nawet w przypadku najwyższych możliwych wartości lepkości (odpowiadających najszybszemu dopływowi) akrecji. W rzeczywistości momenty lepkie transportują część tej energii potencjalnej na zewnątrz, ale większość z niej powinna ostatecznie wyłonić się w postaci fotonów. Powyżej szybkości akrecji Eddingtona dysk powinien nieco pogrubić, ale jego ogólne właściwości obserwacyjne mogą nie ulec znaczącym zmianom. nadal oczekuje się, że przepływ będzie bardzo nieprzezroczysty dla rozpraszania elektronów i prawdopodobnie będzie faktycznie gruby optycznie (τefektywny = (τesτff)1/2 > 1). Najlepszym obserwacyjnym dowodem na to jest wysoka wnioskowana emisyjność gazu emitującyego kontinuum UV. Prawdą jest, że optycznie cienkie modele termiczne mogą również pasować do obserwowanego kontinuum optyczno-UV. Charakterystyczne temperatury emisji bremstrahlung musiałyby wynosić 100 000 K lub więcej, ponieważ szczyty emisji wolnych i wolnych gazów osiągają przy około νthin = kT /h, a nie wyższej wartości dla funkcji Plancka: νthick = 3kT /h. Linie emisji EUV, których można się spodziewać z tak jasnej plazmy jeszcze nie zaobserwowano. Najpoważniejszą trudnością związaną z hipotezą free-free jest wyjaśnienie, w jaki sposób bardzo duża jasność kontinuum kwazara jest emitowana z małego obszaru. Aby jasność UV świecącego kwazara, takiego jak 3C 273, zmieniała się w wielomiesięcznych skalach czasowych, potrzebny jest mały obszar emitujący ciepło o wysokiej emisyjności, w rzeczywistości tak wysokiej, że emiter musi mieć głębokość optyczna przekraczająca 1. W tym momencie emitowane widmo będzie bardziej przypominało emisję optycznie gęstą niż optycznie cienkie widmo Lν ∝ exp(?h?/kT ). Główne ograniczenia lub niekompletność modelu cienkiego dysku akrecyjnego to słabość wszelkich obserwowanych cech widmowych na granicy Lymana, mała ilość polaryzacji liniowej oraz dowody monitorowania wielofalowego dotyczące ponownego przetwarzania, omówione w następnej sekcji. Widmo wychodzące z dysku akrecyjnego przy danym promieniu zależy od pionowej struktury "atmosfery" dysku. Pierścień dysku akrecyjnego różni się radykalnie od atmosfery jakiejkolwiek gwiazdy, ale ostatnio stało się możliwe obliczeniowo stworzenie realistycznych modeli widma wschodzącego innego niż LTE. Wiele pierścieni dysku emitujących promieniowanie UV ma wystarczająco niskie temperatury, aby nadal zawierać pewną część obojętnego wodoru. Powinno to prowadzić do gwałtownego wzrostu nieprzezroczystości wolnej od wiązań wzdłuż krawędzi Lymana. Niektóre modele przewidują, że doprowadzi to do skoku widmowego, przy czym strumień powyżej granicy Lymana będzie wyższy lub niższy niż strumień poniżej. Nieciągłości tych na ogół nie obserwuje się. Nieprzezroczystość dysku akrecyjnego jest prawdopodobnie zdominowana przez rozpraszanie elektronów. Czysta atmosfera rozpraszająca elektrony o nieskończonej głębokości optycznej, oglądana przy średnim nachyleniu cos i = 0,5, powinna emitować kontinuum termiczne, które jest spolaryzowane liniowo prawie 3%. Kąt położenia wektora elektrycznego powinien być równoległy do rzutowanej głównej osi dysku - prostopadły do osi obrotu dysku. Jednakże obserwacje pokazują, że większość polaryzacji AGN wynosi poniżej 0,5% w zakresie UV. Ponadto w przypadkach, w których można zdefiniować "oś" radiową, zazwyczaj nie jest ona prostopadła do wektora E strumienia spolaryzowanego. Największą niepewnością w tym teście są założenia, że powierzchnia dysku jest idealnie płaska i że pola magnetyczne w dysku są na tyle małe, że nie powodują zauważalnej rotacji Faradaya. Jedną z wad prostych modeli cienkiego dysku akrecyjnego, która może być powiązana z tymi konfliktami obserwacyjnymi, jest prawdopodobna obecność gorącej, optycznie cienkiej korony nad fotosferą powierzchni dysku. Szybkie elektrony w tym gazie o małej gęstości mogą komptonizować fotony termiczne uciekające z gęstego dysku, modyfikując ich widmo i polaryzację.
Utylizacja
W najprostszych modelach dysku akrecyjnego cała energia cieplna emitowana przez dysk pochodziła bezpośrednio z energii potencjalnej grawitacji, która jest transportowana na zewnątrz przez lepkie momenty obrotowe. Wiemy jednak, że AGN emituje również do 10% lub 20% swojej jasności przy częstotliwościach rentgenowskich. Te energie fotonów są zbyt wysokie, aby można je było łatwo wytłumaczyć paradygmatem termicznego dysku akrecyjnego, a ich strumień w pobliżu centrum jest bardzo duży. W zależności od geometrii część promieni rentgenowskich może zostać ponownie wchłonięta przez gęsty optycznie gaz akrecyjny, zanim uda im się uciec. Aby wyjaśnić garb "odbicia Comptona" obserwowany wokół 10-30 keV, prawdopodobnie wymagana jest pewna absorpcja promieni rentgenowskich. Przypuszcza się, że przyczyną powstania silnej linii emisyjnej Fe K? obserwowanej w wielu AGN jest ponowne przetwarzanie promieni rentgenowskich. Ponowne przetwarzanie fotonów o promieniach znacznie większych niż te, z których pochodzą, ma tendencję
do degradacji energii uciekających fotonów. W najprostszym przypadku, gdy równowaga temperatury ciała doskonale czarnego materii poddawanej ponownemu przetworzeniu spada jako Tequil &prop L1/4r-1/2 (gdzie L jest jasnością centralnego źródła punktowego), powstałe widmo kontinuum termicznego ma tendencję do stromego opadania do nachylenia Lν ∝ ν?-1. Musi nastąpić pewne ponowne przetwarzanie; główne pytania brzmią: gdzie i za ile? Odpowiedź na pierwsze pytanie jest łatwa, zakładając, że zaabsorbowane fotony ulegają termizacji: promień ponownego przetwarzania określa poziom Tequil powstającego promieniowania, który powinien wynosić około kilku hν/kTequil. Na drugie pytanie można odpowiedzieć, jeśli potrafimy zmierzyć ułamek całkowitej ilości energii, która została pochłonięta. Jeśli założymy, że materia powtórna (gaz i pył, jeśli Tequil ma temperaturę poniżej 1000 K) jest nieprzezroczysta dla przychodzących fotonów o
wysokiej energii, wówczas budżet energii może nam powiedzieć, jaki jest jej całkowity ułamek pokrycia nieba, tj. ułamek nieba widziany przez centralne kontinuum "źródło punktowe", które jest pokryte absorberami. Z definicji przetworzona jasność nie może przekraczać jasności pierwotnego źródła kontinuum wysokiej energii w centrum. W rzeczywistości jest mało prawdopodobne, aby ich jasność była w ogóle równa, ponieważ oznaczałoby to, że 100% linii wzroku prowadzących do środka jest zablokowanych, a w takim przypadku nie powinniśmy w ogóle widzieć tego bezpośrednio. Najlepszym obserwacyjnym dowodem ponownego przetwarzania jest wykazanie, że zmienność czasowa w pierwotnym paśmie fali jest następnie powielana przez te same zmiany strumienia na długości fali poddanej ponownemu przetwarzaniu, z wyjątkiem opóźnienia. Czas opóźnienia w tym "pogłosie" powinien być równy czasowi potrzebnemu światłu na podróż przez obszar, którego promień jest określony przez wartość Tequila oczekiwaną dla długości fali ponownie
przetworzonego kontinuum. Najlepszym dowodem na ponowne przetwarzanie jest kontinuum bliskiej podczerwieni, które niesie ze sobą znaczną część (20% lub więcej) całkowitego budżetu energetycznego większości AGN. W kilku przypadkach jednoczesne monitorowanie bliskiej podczerwieni i kontinuum optycznego lub UV wykazało oczekiwane skorelowane rozjaśnianie i blaknięcie. Opóźnienie krzywej blasku w podczerwieni w stosunku do krzywej blasku przy krótszych falach jest zgodne z reemisją termiczną przez ziarna gorącego pyłu w ciągu roku świetlnego (lub nawet miesiąca świetlnego) centralnej elektrowni. Reakcją są głównie najgorętsze ziarna, które przeżywają w temperaturze tuż poniżej temperatury sublimacji wynoszącej około 1000-1500 K. Odległość od centralnego silnika, w której pył osiąga tę temperaturę, jest proporcjonalna do pierwiastka kwadratowego z centralnej jasności, co wyjaśnia zakres oczekiwanego promienia pogłosu pyłu. Mniej zdecydowane dowody sugerują, że część kontinuum optycznego, a być może nawet
kontinuum UV, w niektórych jądrach Seyferta 1, może mieć wymierny udział ponownie przetworzonych promieni rentgenowskich. Dzieje się tak na kilku dobrze próbkowanych krzywych rentgenowskich i optycznych-UV, w których wykryto korelację i opóźnienie. Opóźnienia są tak małe, że sugerują, że wpływ fotonów o wysokiej energii rozprzestrzenia się na zewnątrz, do obszaru emitującego niską energię, z bardzo dużą prędkością. Opóźnienia są zgodne z tą prędkością wynoszącą c, tak jak powinno być, jeśli wpływ przenoszą fotony, które są następnie ponownie przetwarzane. Jednakże zmienność promieni rentgenowskich (w innych galaktykach, a także w niektórych galaktykach Seyferta 1 w innych epokach) często nie jest skorelowana ze zmianami na innych długościach fal, co budzi wątpliwości, czy duża część światła optyczno-UV w większości AGN jest w rzeczywistości przetwarzany na podstawie promieni rentgenowskich.
Wpływ galaktyk macierzystych
Galaktyki posiadające jądra Seyferta stanowią jedynie ułamek wszystkich galaktyk. Oszacowanie to komplikuje trudność zidentyfikowania AGN przy bardzo niskich jasnościach gwiazd niegwiazdowych. Na przykład wiele galaktyk ma słabe widma linii emisyjnych ze stosunkami linii pośrednimi pomiędzy widmami obszarów HII i jąder Seyferta, które określa się mianem galaktyk typu "LINER". Chociaż widma LINER można wytłumaczyć szybkimi wstrząsami, nadal można je uwzględnić jako posiadające aktywne jądra (a przypadek staje się coraz silniejszy w przypadku przynajmniej niektórych członków tej heterogenicznej klasy). Jeśli tak, to jest nawet możliwe, że większość galaktyk jest w pewnym sensie "aktywna". Najbardziej ostatecznym dowodem na istnienie prawdziwie niegwiazdowego jądra jest prawdopodobnie zwarte centralne źródło twardego promieniowania rentgenowskiego, najlepiej zmiennego. Jednakże zostałoby to przesłonięte przez gaz o gęstości kolumny 1025 cm-2, który jest optycznie gruby w porównaniu z rozpraszaniem elektronów Thomsona twardych promieni rentgenowskich. Może nie być całkowicie zaskakujące, że poza jądrem "galaktyki macierzyste" same w sobie prawie nie różnią się od galaktyk pozbawionych oczywistego AGN. Bardzo silny AGN może mieć ograniczony wpływ na ośrodek międzygwiazdowy swojej galaktyki, np. jonizując go, szokując i ściskanie go, a w niektórych szczególnych przypadkach nawet wywoływanie formowania się gwiazd, na przykład w pobliżu wypływającego strumienia. Głębszą tajemnicą jest przede wszystkim to, jakie właściwości galaktyki powodują AGN. Dwa najbardziej oczywiste to pochodzenie masywnej czarnej dziury i zdolność do dostarczenia wystarczającej ilości paliwa blisko jądra, aby ją "zasilić". Powstawanie masywnej czarnej dziury prawdopodobnie wymaga dynamicznego zapadnięcia się gęstej gromady gwiazd w gęstym centrum galaktyki. Ponieważ uważa się, że pierwsze gęste struktury, które łączą się w młodym wszechświecie, to wybrzuszenia protogalaktyczne, istnieje słaba teoretyczna motywacja do łączenia masywnych czarnych dziur ze współczesnymi wybrzuszeniami. Dramatycznie wyższa (o rzędy wielkości) właściwa gęstość przestrzeni świecącego AGN we wczesnym Wszechświecie wymaga, aby wiele pozornie "normalnych" dzisiejszych galaktyk musiało kiedyś posiadać centralny silnik AGN. Jeśli była to czarna dziura, powinna nadal być obecna i może zostać wykryta na podstawie przyspieszenia grawitacyjnego gwiazd i gazu w ciągu kilkuset parseków. (Grawitacja czarnej dziury o masie Mbh dominuje w promieniu w przybliżeniu GMbh/σ2, gdzie σ jest charakterystycznym rozproszeniem prędkości w układzie gwiazdowym). Obszar ten jest na tyle mały, że można go rozróżnić optycznie jedynie w najbliższych galaktykach z najlepszymi spektrografami (Kosmiczny Teleskop Hubbl′a lub teleskopy naziemne o doskonałym widzeniu). Kinematyczne poszukiwania pobliskich masywnych czarnych dziur (przy użyciu spektroskopii Dopplera do pomiaru prędkości orbitalnych wokół jądra) są wciąż w początkowej fazie i dokonano mniej niż kilkudziesięciu odkryć . Dają one wstępną sugestię, że masa centralnej czarnej dziury może korelować liniowo z całkowitą masą wybrzuszenia galaktycznego, przy stałej normalizacji wynoszącej około pół procent. Jednakże ta rzekoma korelacja może mieć ogromny rozrzut lub nawet może nie okazać się znacząca, jeśli intensywnie bada się bezstronną próbkę galaktyk i uwzględni się wszystkie górne granice Mbh. W niedalekiej przyszłości zbiór galaktyk o wiarygodnych masach centralnych czarnych dziur będzie niestety w bardzo niewielkim stopniu przecinał się ze zbiorem aktywnych jąder, dla których można będzie podjąć próbę oszacowania masy. Dzieje się tak, ponieważ tę drugą mierzy się na podstawie emisji niegwiazdowej, podczas gdy ta pierwsza pochodzi z emisji nieaktywnej. Jeśli jeden z nich dominuje i można go łatwo zbadać, drugi nie będzie dobrze mierzony. Niemniej jednak obecne dowody na temat czarnych dziur, głównie w nieaktywnych galaktykach, sugerują, że jest to kluczowy potencjał i składnik centralnego silnika - masywna czarna dziura - może występować w wielu, a nawet w większości galaktyk. Fakt, że większość z nich dzisiaj nie jest Seyfertami, należy zatem przypisać brakowi paliwa. Nawet zakładając najbardziej wydajne znane modele, dyski akrecyjne czarnych dziur, energetyka najpotężniejszych kwazarów wymaga dostarczenia dziesiątek mas Słońca rocznie do centralnego parseka galaktyki. Aby osiągnąć tak mały promień, paliwo - prawdopodobnie gaz - musi zasadniczo stracić cały swój orbitalny moment pędu. Z podstaw teoretycznych wymagane momenty obrotowe mogą być zapewnione przez zniekształcenia i asymetrie potencjału grawitacyjnego galaktyki macierzystej, takiej jak słupki. Niestety, trudno było wykazać duży związek pomiędzy obecnością bliskich towarzyszy a aktywnym jądrem. Nie ma również korelacji między słupkami a aktywnością Seyferta. Jedną z możliwości jest to, że kraty i/lub spotkania wzmagają aktywność jądrową jedynie z dużym opóźnieniem (być może o miliard lat), ponieważ mogłoby to spowodować aby zająć tyle orbit, aby gaz ostatecznie opadł do jądra. Jedną z możliwych oznak tego jest odkrycie, że galaktyki Seyferta częściej wykazują pierścienie, które mogą być długowiecznymi reliktami poprzeczek, które już się rozproszyły. Prawdopodobnym powiązaniem pomiędzy aktywnością Seyferta a wcześniejszą aktywnością gwiazdotwórczą jest obserwacja, że dyski galaktyk macierzystych Seyferta mają zwykle wyższą jasność powierzchniową niż galaktyki inne niż Seyfert.
Perspektywy na przyszłość
Zrozumienie AGN jest problemem poważnie ograniczonym w zakresie danych. Jej typowa zmienność świadczy o tym, że silnik centralny nie jest w stanie ustalonym. Próbując to zrozumieć, możemy przekształcić to w atut, ale tylko wtedy, gdy uda nam się uzyskać obszerne, prawie ciągłe historie czasowe emisji z poszczególnych AGN. Oprócz ograniczonego próbkowania w czasie istnieją dwa najpoważniejsze ograniczenia obserwacyjne.
• Nieodpowiednie obserwacje wielu obszarów długości fal, w których emituje AGN. AGN należą do najbardziej szerokopasmowych emiterów we wszechświecie i wiele długości fal, przy których emitują, jest blokowanych przez atmosferę ziemską lub, co bardziej istotne, przez absorpcję H I w ośrodku międzygalaktycznym (krótko od długości fali spoczynkowej wynoszącej 912 Å).
• Nieodpowiednia rozdzielczość przestrzenna. Największe odpowiednie skale dla większości interesujących i ekstremalnych zjawisk AGN są rzędu 10 szt. lub nawet mniej.
Na szczęście oba te ograniczenia szybko znikają wraz z pojawieniem się nowych detektorów i obserwatoriów. Kluczowe obserwacje AGN w ciągu następnej dekady skorzystają z nowych i planowanych obserwatoriów kosmicznych oraz nowych technik naziemnych, takich jak interferometria. Ponadto, maksymalna rozdzielczość przestrzenna staje się dostępna dzięki intensywnemu monitorowaniu w celu wykrycia opóźnień w przejściu światła, jak w przypadku mapowania pogłosu.
Aktywne galaktyki: model ujednolicony
Obiekty znane jako "AKTYWNE JĄDRO GALAKTYCZNE" (AGN) można pogrupować w szeroką gamę fenomenologicznych podklas, które mają wiele nakładających się lub podobnych właściwości. Pierwszymi znanymi "galaktykami aktywnymi" były galaktyki spiralne o dużej jasności powierzchniowej, zidentyfikowane przez Carla Seyferta w 1943 r. Prawie dwie dekady później pierwsze radiowe przeglądy nieba doprowadziły do identyfikacji innych obiektów (galaktyk radiowych, takich jak Centaurus A i kwazary, takie jak 3C 48), które obecnie również uważamy za galaktyki aktywne, chociaż w momencie odkrycia podobieństwa między źródłami radiowymi a spiralami Seyferta nie były oczywiste. Wczesne niepowodzenia w rozpoznaniu podstawowych podobieństw tych obiektów wynikały głównie z zastosowania różnych technik identyfikacji izolowanych, ekstremalnych członków populacji aktywnych galaktyk: identyfikacja źródeł radiowych zwykle dawała kwazary o stosunkowo dużej jasności i dużym przesunięciu ku czerwieni (skrót od "kwazigwiazdowych źródeł radiowych" ), często należący do klasy "blazarów", w której większość obserwowanego widma dominuje emisja promieni z relatywistycznego dżetu. Z drugiej strony identyfikacja jasnych jąder galaktycznych doprowadziła do identyfikacji przestrzennie powszechnych, stosunkowo cichych radiowo jąder Seyferta o stosunkowo niskiej jasności . Dopiero pod koniec lat sześćdziesiątych i siedemdziesiątych XX wieku optyczne kryteria detekcji oparte na kolorze (albo wielokolorowa fotometria szerokopasmowa, albo spektroskopia niskodyspersyjna) zaczęły dostarczać wystarczająco duże próbki AGN zarówno o wysokiej, jak i niskiej jasności, że podstawowe podobieństwa zaczęły się ujawniać. jasne. Rzeczywiście, selekcja AGN na podstawie koloru doprowadziła do odkrycia, że większość AGN o dużej jasności nie należy do odmiany kwazarów "głośnych radiowo", ale są to źródła "ciche radiowo", które zaczęto nazywać "OBIEKTAMI KWASISTELLARNYMI" (QSO). ). Pomimo pojawiających się podobieństw pomiędzy galaktykami Seyferta i QSO, zidentyfikowano także istotne różnice pomiędzy typami AGN, co doprowadziło do szerokiej i dość złożonej taksonomii AGN. Porównanie różnych typów AGN powinno pomóc nam zrozumieć, które zjawiska mają fundamentalne znaczenie dla aktywności jądrowej, a które są w jakiś sposób przypadkowe lub wtórne. W niektórych przypadkach, jak zobaczymy poniżej, różnice między różnymi typami można wykorzystać do wnioskowania o strukturze źródła w skali zbyt małej, aby można ją było bezpośrednio określić. Niektóre z ważnych pytań, które pojawiają się w tym kontekście, są następujące. Dlaczego tylko około 10% aktywnych galaktyk jest głośnych w trybie radiowym? Dlaczego szerokie linie emisyjne są słabe lub nieobecne w widmach UV-optycznych obiektów BL Lac? Dlaczego niektóre galaktyki Seyferta nie mają szerokich linii emisyjnych?
Zjednoczenie
Zasady
Próbując wyjaśnić różnice pomiędzy różnymi klasami AGN, naszym celem jest wyjaśnienie jak najszerszej gamy zjawisk przy użyciu najprostszego modelu zgodnego z danymi. Prostą hipotezą wyjaśniającą znaczną część fenomenologii AGN jest to, że różnice między różnymi typami AGN wynikają z zależności orientacji; najprościej mówiąc, staramy się "ujednolicić" różne typy AGN w oparciu o jedną podstawową strukturę źródła, której wygląd dla obserwatora w dużym stopniu zależy od kąta patrzenia. Rzeczywiście istnieje wiele bezpośrednich dowodów na to, że AGN mają strukturę osiowosymetryczną i dlatego promieniują anizotropowo; obserwowalne właściwości konkretnego źródła będą zatem zależeć od lokalizacji obserwatora. W takich schematach "unifikacji AGN" postuluje się, że odmienny wygląd jednej klasy w porównaniu z drugą jest wynikiem oglądania tego samego typu obiektu pod innym kątem. Właściwości, które mogą zależeć od kąta widzenia i w ten sposób przyczyniać się do wewnętrznej anizotropii w tych źródłach, obejmują absorpcję przez pył lub gęsty optycznie gaz w dowolnym niesferycznie symetrycznym rozkładzie oraz ruch relatywistyczny, który prowadzi do dopplerowskiego wzmocnienia emisji, które osiąga szczyt w kierunku tego ruch. Schematy unifikacji obejmujące jedną lub obie te wewnętrzne właściwości źródła mają na celu wyjaśnienie przynajmniej części szerokiej różnorodności, którą obserwujemy w AGN pod względem różnic w kącie widzenia. Istnieje kilka schematów unifikacji mających na celu ujednolicenie dwóch lub więcej klas AGN, które odniosły pewien sukces; Oczywistym kluczowym elementem każdego planu unifikacji jest dowód jego wiarygodności. Jeśli postawimy na przykład hipotezę, że pewien specyficzny typ AGN (powiedzmy obiekty BL Lacertae) należy do jakiejś określonej szerokiej klasy lub "populacji rodzicielskiej" (powiedzmy, źródła radiowe klasy I Fanaroffa-Rileya), wówczas gęstość przestrzenna obiektów podklasa musi być zgodna z gęstością przestrzeni populacji macierzystej pomnożoną przez prawdopodobieństwo zaobserwowania członka populacji macierzystej w odpowiedniej orientacji. Określenie gęstości przestrzennej populacji rodzicielskiej jest często zadaniem samym w sobie trudnym i musi opierać się na identyfikacji źródła w oparciu o jakąś właściwość, która ma być izotropowa. Uważa się na przykład, że emisja twardego promieniowania rentgenowskiego jest emitowana w przybliżeniu izotropowo przez nieblazarowy AGN i w zasadzie emisja twardego promieniowania rentgenowskiego może być najlepszym sposobem na znalezienie jednorodnej próbki AGN. Rzeczywiście, twarde promienie rentgenowskie są prawdopodobnie warunkiem sine qua non aktywnego jądra. W praktyce jednak, stosunkowo niska czułość na twarde promieniowanie rentgenowskie ogranicza wykrywanie AGN do tych, które są stosunkowo blisko, a zatem pozornie jasne. W przypadku źródeł radiowych (w tym blazarów) zakłada się, że promieniowanie z optycznie cienkich, wydłużonych płatków jest emitowane izotropowo i w zasadzie można je wykorzystać do identyfikacji obiektów o wewnętrznie podobnej jasności.
Podstawowy model
Obecny paradygmat AGN opiera się na osiowosymetrycznym silniku centralnym, który składa się z dysku akrecyjnego otaczającego supermasywną (≳106M⊙) czarną dziurę. Przypuszcza się, że kontinuum optyczne UV powstaje głównie w dysku akrecyjnym. Z tego układu wzdłuż osi dysku wyłaniają się dwukierunkowe dżety relatywistyczne, emitując promieniowanie wzmocnione Dopplerem za pośrednictwem synchrotronu i odwrotnego mechanizmu Comptona. Uważa się, że zarówno dżety, jak i struktura dysku akrecyjnego przyczyniają się do emisji promieniowania rentgenowskiego. Szerokie linie emisyjne (których szerokość można scharakteryzować jako pełną szerokość w połowie maksimum, FWHM ≈ 1500-10 000 km s-1), które są tak widoczne w widmach UV-optycznych AGN, powstają w stosunkowo gęstych ( gęstości elektronowe ne ≈ 1011cm?3) obłoki gazu w odległościach od czarnej dziury od kilkuset do kilku tysięcy promieni grawitacyjnych (Rgrav = GM/c2, gdzie M to masa centralnej czarnej dziury, G to stała grawitacyjna, oraz c jest prędkością światła). W skali parseków cały ten układ jest osadzony w zakurzonym torusie, który jest nieprzezroczysty w większości widma elektromagnetycznego; torus ten odgrywa kluczową rolę w modelach unifikacji AGN, ponieważ osłania zarówno dysk akrecyjny, obszar broadline, jak i strukturę wewnętrznego strumienia przed bezpośrednim widokiem zewnętrznych obserwatorów w płaszczyźnie torusa. Torus pochłania promieniowanie ze źródła centralnego i ponownie emituje tę energię w podczerwieni. Wąskie linie emisyjne (FWHM ≲ 300-800 km s-1) powstają w chmurach o małej gęstości w skali torusa i poza nią, w większości napędzane promieniowaniem ze źródła centralnego, a zatem w dużej mierze ograniczone do położenia wzdłuż osi układu.
Schematy unifikacji AGN
Typy Seyferta
Prawdopodobnie najbardziej znanym schematem unifikacji jest schemat połączenia dwóch typów GALAKTYK SEYFERTA. W połowie lat 70. Khachikian i Weedman odkryli, że galaktyki Seyferta można podzielić na dwie klasy spektroskopowe: te z wąskimi i szerokimi liniami emisyjnymi (typ 1 lub Sy1) oraz te z tylko wąskimi liniami (typ 2 lub Sy2). Widma wąskoliniowe typów 1 i 2 są statystycznie nie do odróżnienia od siebie, więc Sy2 wydają się być Sy1 bez szerokich linii. Co więcej, Sy2 są zazwyczaj mniej świecące niż Sy1 o około 1 magnitudo w optycznej części widma. Doprowadziło to do hipotez unifikacyjnych, w których Sy2 są z natury Sy1, których kontinuum i emisja szerokopasmowa są tłumione w kierunku obserwatora. Hipoteza ta, choć prosta i atrakcyjna, miała dwie główne trudności: po pierwsze, dlaczego źródło kontinuum AGN wygasa tylko o kilka razy, a szerokie linie o widocznie większy czynnik? Po drugie, kształt kontinuum Sy2 nie wygląda jak kontinuum Sy1 AGN osłabione przez pył, tj. kontinuum Sy2 nie wydaje się być
silnie zaczerwienione w wyniku przejścia przez ośrodek, w którym przekrój poprzeczny absorpcji lub rozpraszania maleje wraz ze wzrostem długości fali. Przełom nastąpił na początku lat 80., kiedy Antonucci i Miller odkryli, że widma polaryzacyjne niektórych galaktyk Sy2, takich jak NGC1068, zawierają szerokie linie emisyjne, podobne do tych widocznych w widmach Sy1. Przynajmniej niektóre galaktyki Sy2 zawierają szerokie linie emisyjne, ale ich siła jest znacznie zmniejszona, tak że dominują w nich kontinuum i wąskie linie, z wyjątkiem oglądania w świetle spolaryzowanym. Ponieważ najczęstszą przyczyną polaryzacji jest rozpraszanie światła przez pył lub elektrony, obserwacja ta doprowadziła do interpretacji galaktyk Sy2 jako galaktyk Sy1 skierowanych krawędzią, w których optycznie gruby materiał o spłaszczonej geometrii przypominającej dysk zasłania nasz bezpośredni widok na galaktykę. szeroki obszar linii emisyjnej, jak opisano powyżej . Szerokie linie są widoczne w świetle spolaryzowanym, gdy są rozproszone w
naszym polu widzenia przez pył lub elektrony powyżej i/lub poniżej tego materiału. W przypadku NGC1068 światło kontinuum AGN jest spolaryzowane w ∼16%, niezależnie od długości fali w widmie UV-optycznym, co dowodzi, że mechanizmem rozpraszania są elektrony, a nie pył, ponieważ przekrój poprzeczny rozpraszania Thomsona jest niezależny od długości fali, podczas gdy pył rozpraszanie jest silnie zależne od długości fali. Istnieją jednak dowody na to, że w przypadku innych spolaryzowanych Sy2 rolę odgrywa również rozpraszanie pyłu. Widma polaryzacyjne tych Sy2 pokazują również, że linie emisyjne są silniej spolaryzowane niż kontinuum. Najwyraźniej istnieje drugi niespolaryzowany składnik pozbawionego cech kontinuum AGN, który stanowi około 60-90% całkowitego kontinuum i ma w przybliżeniu taki sam kształt widmowy jak składnik spolaryzowany. Pochodzenie składnika niespolaryzowanego jest niejasne, chociaż może wynikać z emisji swobodnej w samym obszarze rozpraszania. W każdym razie istnienie tego składnika
wyjaśnia, dlaczego kontinuum niegwiazdowe w Sy2 nie jest tak całkowicie stłumione, jak szerokie linie. Przewidywania względnych liczb każdej klasy stanowią ważny test, ale są bardzo wrażliwe na założenia, takie jak kąt otwarcia torusa i kątowa zależność jasności. W ramach tych ograniczeń liczby względne są zgodne z oczekiwaniami i wskazują kąty półotwarcia torusa wynoszące ∼60?. W miarę jak coraz więcej galaktyk Sy2 i AGN o niższej jasności, takich jak LINER (galaktyki z regionem emisji jąder o niskiej jonizacji), obserwuje się w świetle spolaryzowanym, odkrywanych jest więcej galaktyk Sy1 skierowanych krawędziowo. Nie jest jednak jeszcze jasne, czy wszystkie AGN, a nawet wszystkie galaktyki Seyferta pasują do tego schematu. Obecne badania pokazują, że współczynnik wykrywalności spolaryzowanych szerokich linii w galaktykach Sy2 wynosi około ∼50%, co sugeruje, że wiele galaktyk Sy2 albo nie posiada obszaru rozpraszającego, albo nie ma obszaru szerokich linii. Obserwacje rentgenowskie AGN również
ogólnie potwierdzają ten obraz zjednoczenia. Jasność promieniowania rentgenowskiego galaktyk Sy2 jest niższa niż galaktyk Sy1. Co więcej, galaktyki Sy2 mają znacznie większą absorpcję miękkiego promieniowania rentgenowskiego, co odpowiada równoważnym kolumnom obojętnego wodoru, NH ≈ 1022-23cm-2, w porównaniu z NH ≈ 1020-21 cm-2 dla galaktyk Sy1. Jest to zgodne z tym, że nasza linia wzroku przez AGN przebiega przez optycznie gruby torus zimnej materii. Podobny schemat unifikacji prawdopodobnie wyjaśnia różnicę pomiędzy "szerokoliniowymi galaktykami radiowymi" (BLRG), które można opisać z dokładnością pierwszego rzędu jako radiogalaktyki Sy1, a "wąskoliniowymi galaktykami radiowymi" (NLRG), które mają strukturę podobną do Sy2 widma optyczne. Schemat geometrii mającej na celu ujednolicenie radiogalaktyk o silnych liniach. Pozostałą zagadką jest widoczny brak równoważnego rozwidlenia w QSO o wyższej jasności; nie ma ogólnie przyjętej
klasy "QSO 2", która odpowiadałaby galaktykom Sy2 o niskiej jasności. Najbardziej prawdopodobnymi kandydatami na przesłane przez pył QSO są AGN wybrane w pobliżu podczerwieni, z których niektóre rzeczywiście pokazują szerokie linie w świetle spolaryzowanym, lub chłodniejsze, ultrajasne galaktyki IR (ULIRG), których emisja może być głównie spowodowana ponownym przetwarzaniem przez chłodny pył. W chwili obecnej jest jasne, że niektóre ULIRG zawierają niewidoczne AGN, ale inne są zasilane przez wybuchy gwiazd, a nie przez wierne AGN.
Kwazary i galaktyki radiowe zdominowane przez jądra i płatki
Jak zauważono wcześniej, tylko około 10% AGN to silne źródła radiowe. W tym podzbiorze istnieje szeroka gama radiomorfologicznych struktur od klasycznych źródeł podwójnego radia w skalach tak dużych jak megaparseki po małe źródła zdominowane przez rdzeń z niewielką lub żadną rozbudowaną strukturą. Źródła zdominowane przez jądro zwykle wykazują ruch nadświetlny, wskazując relatywistyczne prędkości wypływu w pobliżu naszej linii wzroku. Klasyczne podwójne źródła często mają jednostronne, silnie skolimowane struktury strumieniowe rozciągające się od ich zwartego rdzenia w kierunku jednego z wydłużonych płatów. Jednostronny charakter dżetów można zrozumieć w scenariuszu relatywistycznym, w którym zbliżający się dżet i przeciwnie skierowany oddalający się dżet są odpowiednio wzmacniane i przyciemniane metodą Dopplera przez efekty relatywistyczne. Zatem obie te właściwości są zgodne z relatywistycznymi dżetami powstającymi w rdzeniu źródła radiowego i zasilającymi płaty zewnętrzne. Sugeruje to, że główną zmienną rządzącą obserwowaną morfologią radioAGN jest jego orientacja w stosunku do naszej linii wzroku. W źródłach zdominowanych przez jądro patrzymy w dół na relatywistyczny dżet, podczas gdy w źródłach podwójnych dżet jest rzutowany na płaszczyznę nieba. Podstawowym testem tego schematu unifikacji jest porównanie względnej liczby źródeł zdominowanych przez rdzeń i płatek oraz rozkładu przewidywanych rozmiarów dla radioAGN z przewidywaniami modelu. Dżet jest wysoce skolimowany, więc główną niepewnością jest wielkość wzmocnienia spowodowana relatywistycznym ruchem w strumieniu, określona przez masowy współczynnik Lorentza γ = (1?V2/c2)?1/2, gdzie V jest wypływem prędkość, a c prędkość światła. Jest to zatem trudne aby dopasować obiekty zdominowane przez rdzeń i płatki pod względem wewnętrznej jasności, a tym samym zapewnić, że relatywistyczne efekty promieni nie będą uwzględniane w żadnych badaniach porównawczych. Ogólnie rzecz biorąc, badania te pokazują, że istnieje zbyt wiele źródeł zdominowanych przez rdzeń w porównaniu ze źródłami zdominowanymi przez płaty i że te pierwsze są zbyt duże, gdy zostaną odrzucone w oparciu o zaobserwowany współczynnik Lorentza. Brakuje także dżetów dwustronnych, czyli źródeł ustawionych w jednej linii z płaszczyzną nieba. Wiele z tych niespójności można rozwiązać, jeśli zjednoczenie obejmie bardzo jasne galaktyki radiowe FR II (BLRG i NLRG). W tym przypadku zdominowane przez płatki, głośno radiowe QSO są oglądane pod kątem pośrednim pomiędzy kątami radiogalaktyk, a QSO i większy rozmiar radiogalaktyk odpowiada rozmiarowi odrzutowanych źródeł z dominacją rdzeniową. Rozwiązanie to wprowadza jednak nowy problem, a mianowicie, że wąska emisja linii [O III] λλ 4959, 5007 jest znacznie (4-10-krotnie) słabsza w radiogalaktykach niż w kwazarach, co wymaga, aby linie te były emitowane również anizotropowo aby zjednoczenie zadziałało. Podobna siła dolnej linii jonizacji [O II] λ 3727 w obu klasach potwierdza ten scenariusz, ponieważ powstaje ona w większych odległościach od rdzenia AGN, a zatem oczekuje się, że będzie emitowana bardziej izotropowo. W kontekście tego obrazu orientacyjnego nachylenie źródła radiowego jest powiązane ze stosunkiem jasności rdzenia do płatka, głównie w wyniku relatywistycznego zwiększenia jasności rdzenia. Parametr ten, znany jako dominacja rdzenia R, można następnie wykorzystać do badania zależności innych parametrów od nachylenia. Na przykład szerokości szerokich linii emisyjnych Hβ i C IV wskazują, że obiekty skierowane twarzą w twarz (zdominowane przez rdzeń) mają zwykle stosunkowo wąskie szerokie linie (FWHM ≈ 1000-5000 km s-1, gdy są skierowane krawędzią (zdominowane przez płatek) mają szerszy zakres szerokości linii (FWHM ≈ 1000-10000 km s-1), co sugeruje, że orientacje szerokiego obszaru linii emisyjnej i zasłaniającego torusa są podobne.
Blazary i źródła radiowe
Wraz z uznaniem, że emisja blazarów ma swoje źródło w relatywistycznych dżetach skierowanych w stronę obserwatora, radiogalaktyki z dżetami na płaszczyźnie nieba okazały się kandydatami na "niewłaściwie ustawione" blazary. Same Blazary dzielą się na dwie odrębne kategorie: "BL Lacs" i "optyczne" gwałtownych zmiennych (OVV), które wydają się pochodzić z różnych rozkładów macierzystych radiogalaktyk. Podstawową różnicą między OVV i BL Lacs jest to, że OVV mają silne linie emisyjne UV i optyczne, więc ich widma UV-optyczne przypominają widma AGN bez wiązki, podczas gdy w BL Lacs inne cechy widmowe są zatapiane przez emisję ze strumienia. OVV mają również wyższą jasność i wyższe wywnioskowane współczynniki Lorentza niż BL Lac. Można przedstawić dość przekonujący argument, że BL Lacs znajdują się w radiogalaktykach FR I. Pomijając przestrzennie nierozwiązaną emisję jądra blazara i biorąc pod uwagę jedynie jasność "rozszerzonego" źródła radiowego (prawdopodobnie "płatków" widzianych wzdłuż ich osi), stwierdzono, że galaktyki FR I i BL Lacs mają porównywalną jasność radiową, co potwierdza tezę że pochodzą z jednej populacji. Funkcje jasności i gęstości przestrzenne są również zgodne z unifikacją tych dwóch typów obiektów. Należy przynajmniej wspomnieć, że same BL Lacs czasami dzielono na podkategorie wybierane radiowo i rentgenowskie, a źródła w tych kategoriach przeciętnie mają rozkład widmowy energii, który - co nie jest zaskakujące - osiąga szczyt przy niskich i niskich temperaturach. odpowiednio wysokie częstotliwości. Niedawne prace sugerują, że w rzeczywistości nie są to odrębne klasy, ale raczej reprezentują skrajności ciągłego rozkładu szczytowych długości fal dla całej klasy BL Lac. Jaśniejsze galaktyki radiowe FR II zapewniają wiarygodną populację macierzystą OVV. W porównaniu ze schematem unifikacji FR I - BL Lac jest to trudniejsze do wykazania, przynajmniej częściowo, ponieważ populacja FRII jest stosunkowo mniej jednorodna.
"Wielkie zjednoczenie": głośna i cicha radiowo AGN
Jednym z najdłużej zadawanych pytań w astrofizyce AGN jest to, dlaczego pomimo podobieństwa optycznego niewielka mniejszość (10%) AGN jest głośna radiowo, podczas gdy reszta jest cicha radiowa? Każdy schemat unifikacji, który może wyjaśnić różnicę między tymi dwiema głównymi klasami AGN, w znacznym stopniu przyczyni się do ogólnego wyjaśnienia zjawiska AGN i dlatego czasami nazywany jest "wielkim zjednoczeniem". Istnieje wyraźna dychotomia pomiędzy źródłami generującymi głośno i cicho radiowo; dla danej podczerwieni w świetle miękkiego promieniowania rentgenowskiego, AGN o głośności radiowej są o 2-3 rzędy wielkości jaśniejsze w radiu niż obiekty ciche radiowo. Istnieje bardzo niewiele obiektów o pośredniej jasności radiowej, więc rozkład mocy radiowej w stosunku do mocy na krótszych falach jest wyraźnie bimodalny. Innymi słowy, dowody wyraźnie wskazują na dwie odrębne populacje AGN określone na podstawie względnej jasności radiowej. Wczesna sugestia wysunięta przez Scheuera i Readheada była taka, że obiekty
głośne i ciche radiowo stanowią pojedynczą populację, w której głośniki radiowe reprezentują źródła z osiami skierowanymi w stronę obserwatora. Nie uwzględniało to jednak braku przedłużonej emisji radiowej w ciszy radiowej. Ciche i głośne radiowo AGN różnią się między sobą wyrazy szacunku. Głośne radiowo AGN są średnio około 3 razy jaśniejsze w promieniach rentgenowskich o średniej energii (0,2-3,5 keV) z nieco bardziej płaskimi nachyleniami widma (tj. Stosunkowo więcej fotonów o wysokiej energii). Uważa się, że jest to spowodowane obecnością emisji wiązki promieniowania rentgenowskiego związanej ze strumieniem emitującym fale radiowe i dostarcza dowodów na ujednolicenie omówionych powyżej, zdominowanych przez rdzeń i płaty, głośnych radiowo AGN. Jednakże różnica w nachyleniu widma rentgenowskiego byłaby trudna do uwzględnienia w scenariuszu wielkiej unifikacji. Widma linii emisyjnych obu typów obiektów również wykazują różnice, przynajmniej w sensie statystycznym (np. silniejsze mieszanki optyczne Fe II,
słabsze wąskie linie i węższe szerokie linie w obiektach radiocichych). Do stosunkowo niedawna sądzono, że szerokie, stosunkowo przesunięte w stronę błękitu cechy linii absorpcji, które wskazują na wypływy mas, występują tylko w cichych radiowo AGN; jest teraz jasne, że występują one również w AGN o głuchym radiowym, chociaż obecnie wydaje się, że przepływy w obiektach o głuchym radiowym mają stosunkowo niższe prędkości końcowe. Ogólnie uważa się, że wypływający materiał odpowiedzialny za absorpcję jest przyspieszany od powierzchni torusa, w związku z czym oczekuje się, że będzie obecny w określonych orientacjach zarówno w AGN głośnym, jak i cichym radiowo. Nie pojawiło się jeszcze zadowalające wyjaśnienie różnic między źródłami generującymi głośno i cicho radiowo. Chociaż było to trudne do zrozumienia, przez długi czas uważano, że natura galaktyki macierzystej determinuje klasę radiową z cichymi radiowo AGN w galaktykach spiralnych i głośnymi radiowo AGN w galaktykach eliptycznych. Jednak ostatnie
obserwacje za pomocą Kosmicznego Teleskopu Hubble′a wykazały, że przy dużej jasności prawie wszystkie AGN leżą w galaktykach eliptycznych. Obecnie powszechnie podejrzewa się, że moment pędu centralnej czarnej dziury może być czynnikiem decydującym, ponieważ ruchy orbitalne naładowanych obiektów wokół czarnej dziury mogą decydować o tym, czy efekty elektromagnetyczne będą wystarczająco silne, aby wygenerować i skolimować dżety.
Poświata
Poświata składa się z nietermicznego promieniowania emitowanego przez ZIEMSKĄ ATMOSFERĘ. Emisja cieplna Ziemi, nagrzana przez światło słoneczne, a następnie wypromieniowana w przestrzeń kosmiczną, ma miejsce w podczerwonej części widma, przy długościach fal dłuższych niż 7 μm. W najprostszej postaci poświata powietrza powstaje w wyniku odwzbudzenia cząsteczek, atomów lub jonów wzbudzonych przez słoneczne fotony UV lub cząstki energetyczne, a powstałe w ten sposób emitowane fotony zazwyczaj, choć nie wyłącznie, znajdują się w zakresie widzialnym i UV widma. Istnienie łuny nocnego nieba długo po zachodzie słońca pokazuje, że mechanizmy pośrednie odgrywają ważną rolę w wytwarzaniu poświaty. W tym przypadku energia początkowa, przyniesiona przez fotony słoneczne, jest magazynowana w wysokiej atmosferze w postaci rodników lub cząsteczek zdolnych do rekombinacji w wyniku reakcji egzotermicznych w nocy i wytwarzania atomów lub cząsteczek w stanie wzbudzonym, z następczą emisją fotonów . Poświata nie obejmuje promieniowania wytwarzanego przez pioruny i meteoryty. Chociaż rozróżnienie to jest trudniejsze do ustalenia, zjawiska zorzowe występujące na dużych szerokościach geograficznych i wynikające z miejscowych, intensywnych opadów cząstek, których pochodzenie znajduje się poza atmosferą, nie są uważane za poświatę. W przeciwieństwie do AURORÓW i pomimo tego, że ogólny mechanizm emisji (wzbudzenie-odwzbudzenie) jest tej samej natury, poświata występuje o każdej porze i pod każdą szerokością geograficzną, w znacznie mniej sporadyczny sposób. Historycznie rzecz biorąc, istnienie ziemskiej składowej światła na nocnym niebie rozpoznano już około roku 1900. Yntenna, który jako pierwszy stwierdził metodami fotometrycznymi istnienie poświaty, zwrócił uwagę na dużą zmienność tego zjawiska z nocy na noc i wykazał że światło gwiazd rozproszone przez cząsteczki atmosfery było niewystarczające, aby wyjaśnić światło nocnego nieba. Techniki spektroskopowe wykazały, że zielona linia tlenu atomowego przy 558 nm była przez cały czas obecna na całym niebie, co potwierdziło istnienie "trwałej zorzy polarnej". Rayleigh (JOHN WILLIAM STRUTT) wykazał w latach dwudziestych XX wieku, że układ geograficzny zielonej linii tlenowej różni się od wzorca zorzy polarnej oraz że na nocnym niebie nie widać pasów N+2 widocznych w zorzach polarnych. Rayleigh najpierw wyraził jasność zielonej linii jako liczbę przejść atomowych na sekundę w kolumnie o jednostkowym polu przekroju poprzecznego wzdłuż linii wzroku. Nadał swoją nazwę jednostce fotometrycznej powszechnie stosowanej dziś w badaniach poświaty powietrza: jeden rayleigh (lub 1 R) reprezentuje dookólną szybkość emisji wynoszącą 106 fotonów na centymetr kwadratowy na sekundę. Przewidywano i obserwowano czerwone linie tlenu przy 630-636 nm około 1930 r., a także linię D sodu. Chociaż naziemne instrumenty spektrofotometryczne zapewniają wygodny sposób monitorowania przestrzennych i czasowych zmian poświaty powietrza, nie są one odpowiednie do wyszukiwania pionowych profili emisji. Jedną z możliwości jest wykorzystanie fotometrów zenitowych przelatujących przez warstwy poświaty na pokładzie rakiety. Zróżnicowanie sygnału ze względu na wysokość pozwala na uzyskanie lokalnego natężenia emisji objętościowej w funkcji wysokości. Innym sposobem postępowania jest wykonanie pomiarów poświaty powietrza z platformy orbitalnej w geometrii oglądania kończyn. Technika ta ma kilka zalet. Ponieważ sygnał jest całkowany wzdłuż stycznej ścieżki, intensywność mierzonego sygnału jest znacznie zwiększona. Dzięki temu słabe cechy, takie jak emisja kontinuum poświaty, są łatwiejsze do wykrycia i scharakteryzowania. Po drugie, widok styczny umożliwia oddzielenie sygnału galaktycznego tła od blasku atmosferycznego, ponieważ sygnał galaktyczny jest bezpośrednio dostarczany przez pomiary przeprowadzane na bardzo dużych wysokościach, gdzie gęstość atmosfery jest praktycznie zerowa. Pionowe profile kilku zidentyfikowanych linii nocnej poświaty, zaobserwowane podczas misji promu kosmicznego STS-37 krążącego na wysokości 267 km, przedstawiono na rysunku 1. Dobrze znana zielona linia tlenu przy 557,7 nm, wytwarzana przez O(1S) Przejście ?O(1D), obejmuje stosunkowo wąski obszar wysokościowy i osiąga silne szczyty na wysokości około 100 km. Pewną emisję rejestruje się również na czerwonej linii tlenu przy 630 nm, w wyniku przejścia O(11D) ? O(33P). Sygnał przy 762 nm wynika z radiacyjnego odwzbudzenia stanu wzbudzonego O
H+O3 -> OH* +O*2
gdzie OH* jest wzbudzonym rotacyjnie poziomem OH, z wibracyjną liczbą kwantową ? mniejszą niż 9 (nie wykrywa się żadnych pasm pochodzących od ? > 9) i mechanizmem recyklingu typu
OH + O ->H+O2.
Pasmo 527 nm jest wytwarzane przez odwzbudzenie ? = 6 -> 0 OH*. Należy zauważyć, że silny pik na małej wysokości w emisji 630 nm wynika z pasma (9-3) OH. Ponieważ w całym cyklu skład chemiczny sodu obejmuje także ozon (O3).
Na + O3 -> NaO + O23
NaO + O -> Na + O2
można spodziewać się sprzężenia pomiędzy intensywnością OH poświaty powietrza i gęstością Na (wyprowadzoną albo z pomiarów lidarowych, albo z pomiarów poświaty powietrza), i jest to zdecydowanie wykazane w pomiarach. Istnieje również jasna emisja rozciągająca się od 400 do 600 nm. Dzieje się tak za sprawą O2 w zakresie bliskiego ultrafioletu i światła niebieskiego, do 480 nm, oraz NO2 przy dłuższych falach. Emisja pasma O2 składa się głównie z pasm Herzberga I, Herzberga II i Chamberlaina, jak opisano szczegółowo w następnej sekcji. Cechę rozproszonego NO2 można przypisać radiacyjnej rekombinacji NO i O i stanowi ona prawdziwe kontinuum. Profil wykonany przy 527 nm pokazano na rysunku.
Zaznaczony pik poświaty powietrza na wysokości od 95 do 105 km dobrze zgadza się z pomiarami mikrofalowymi termosferycznego NO dokonanymi podczas tego samego cyklu słonecznego, co sugeruje obszar maksymalnego stężenia pomiędzy 100 a 110 km. W badaniach emisji poświaty powietrza z górnych warstw atmosfery (poświaty dziennej i nocnej) za pomocą spektrometrii naziemnej lub przy użyciu spektrometrów i kamer na pokładach satelitów, takich jak Dynamics Explorer i prom kosmiczny, odnotowano bardzo znaczny postęp w ciągu ostatnich 20 lat. Pomiary te umożliwiły scharakteryzowanie procesów termosferycznych i jonosferycznych, zarówno w dziedzinie aeronomii, jak i dynamiki, przy pomocy postępów laboratoryjnych i teoretycznych. Interpretacja pomiarów poświaty powietrza jest niezwykle skomplikowana i obejmuje szczegółową charakterystykę strumieni wzbudzenia (słoneczne UV/EUV, cząstki), mechanizmy interakcji (bezpośrednie wzbudzenie cząsteczek, atomów lub jonów, pośrednie wzbudzenie poprzez procesy dysocjacji i jonizacji, a także chemiczne reakcje chemiczne), cykle chemiczne, radiacyjne przenoszenie światła poświaty powietrznej. Linie emisji tlenu w poświacie nocnej są teraz szczegółowe.
Wzbudzenie emisji tlenu w nocnej poświacie Ziemi
Czerwony dublet tlenu przy 630 nm i 636,4 nm, powstający w wyniku przejścia O(1D) -> O(3), czyli z pierwszego poziomu wzbudzonego do stanu podstawowego, z prawdopodobieństwem przejścia odpowiednio 0,0069 i 0,0022 s?1, obserwuje się przez kilka godzin po zachodzie słońca. Ponieważ średni czas emisji O(1D) jest równy odwrotności prawdopodobieństwa przejścia, czyli kilku minut, bezpośrednie wzbudzenie atomów tlenu przez słoneczne fotony UV, po którym następuje odwzbudzenie, nie może wyjaśnić utrzymywania się czerwonej poświaty przez długo po zachodzie słońca. Źródłem O(1D) w porze nocnej jest rekombinacja dysocjacyjna jonów O+2 O+2 + e? -> O+O(1D). Jony O+2 powstają w wyniku nocnego zaniku jonizacji, kontrolowanego przez reakcje wymiany ładunku, które przekształcają jony O+ w jony O+2. Pionowy rozkład emisji czerwonej linii jest złożony i można wykazać, że zmienia się z czasem w różny sposób na różnych wysokościach. Poniżej 200 km emisja czerwonej linii jest słaba, ponieważ O? jest dezaktywowany (lub "gaszony") w wyniku zderzeń z cząsteczkami powietrza w czasie krótszym niż czas emisji. Powyżej 200 km połączone efekty szybkości wygaszania kolizyjnego, która maleje wraz z wysokością, oraz pionowej zmiany gęstości elektronowej, która wzrasta wraz z wysokością, powoduje silny wzrost, w przypadku rosnących wysokości, świecenia czerwonej linii. Ważnym zastosowaniem pomiaru emisji termosferycznej poświaty nocnej, takiej jak czerwona linia tlenowa, jest wnioskowanie o wiatrach i temperaturach na podstawie spektroskopii o wysokiej rozdzielczości. Korzystając z interferometrów Fabry′ego - Perota i Michelsona, z linii emisyjnej O(1D) 630 nm uzyskano termosferyczny wiatr neutralny na poziomie 250 km poprzez pomiar powiązanego przesunięcia Dopplera, co daje wektor wiatru w linii wzroku. Temperatury neutralne można wywnioskować z szerokości linii. Spektroskopia Dopplera linii poświaty powietrznej jest skuteczną metodą badania dynamiki termosfery, silnie kontrolowanej przez pływy termiczne i ogólną aktywność fal. Wiadomo, że zielona linia tlenu przy 558 nm, będąca wynikiem przejścia O(1S) -> O(1D) pomiędzy drugim i pierwszym stanem wzbudzonym, powstaje w sąsiedztwie 100 km, czyli zdecydowanie niższych poziomach atmosferycznych niż czerwone linie. Chociaż część zielonej linii może powstać w wyniku rekombinacji dysocjacyjnej O+2 w obszarze F O+2 + e? -> O? +O? należy powołać się na inny mechanizm, aby wyjaśnić wysokość niskiej emisji tej linii. Sydney Chapman zaproponował mechanizm "wzbudzenia fotochemicznego"
O+O+O -> O2 +O(1S)
gdzie jeden z atomów O jest wzbudzany przez część energii wyzwolonej w połączeniu dwóch atomów O. W wyniku tego procesu maksymalne stężenie O występuje w odległości około 100 km, co jest zgodne z lokalizacją emisji zielonej linii. Odwzbudzenie O(1S) do O(1D) następuje poprzez wygaszenie przez cząsteczki otaczającego powietrza (głównie azot cząsteczkowy). Tak zwany proces Chapmana, choć może mieć udział w emisji zielonej linii, obecnie uważa się, że ma to drugorzędne znaczenie. Na początku lat sześćdziesiątych Barth i Hildebrandt odkryli w laboratorium, że emisja wytwarzana w poprzednim procesie jest o wiele za mała, aby uwzględnić obserwowany blask. Wynik ten zainspirował Bartha do zaproponowania w 1964 roku następującego dwuetapowego mechanizmu:
O+O+M -> O- 2 +M
gdzie M jest cząsteczką powietrza, a O-2 stanem wzbudzonym cząsteczki O2, po którym następuje proces przeniesienia wzbudzenia O- 2 +O(3P) -> O2 +O(1S). Efekt netto tych dwóch reakcji, uzyskany przez ich dodanie, jest podobny do efektu pojedynczej reakcji Chapmana. Inne procesy utraty to dezaktywacja poprzez wygaszenie przez zderzenie z cząsteczką powietrza O- 2 +M -> O2 +M lub promieniowanie fotonu poprzez odwzbudzenie radiacyjne O- 2 -> O2 + hv. Dlatego proces Bartha może powodować jednocześnie emisję zarówno O(1S) (zielona linia), jak i O2 (linia 762 nm). Można wykazać, że porównanie dwóch odpowiednich profili na rysunku jest zgodne ze schematem dwuetapowym, pomimo 10-kilometrowej różnicy pomiędzy wysokościami szczytowymi.
Emisja światła dziennego i zmierzchowego
Emisje poświaty powietrza obserwuje się również w ciągu dnia i odzwierciedlają one głównie dobowe wahania stężenia emitujących gatunków. Widma zmierzchowe można obserwować na przejściu pomiędzy atmosferą ciemną i w pełni oświetloną, gdy wysokość cienia przesuwa się pionowo w całym zakresie warstw emisyjnych. W ciągu dnia kilka linii i pasm jest bardzo jasnych, głównie ze względu na wyższą wydajność produkcji. Rzeczywiście, emisje światła dziennego i zmierzchowego wynikają głównie z bezpośredniego wzbudzenia przez fotony ultrafioletowe Słońca, fotoelektrony wytwarzane w procesach jonizacji w jonosferze oraz przez rozpraszanie rezonansowe lub fluorescencję promieniowania słonecznego. Takie zjawiska energetyczne skutkują złożonym widmem światła dziennego w ultrafiolecie, jak pokazano na rysunku
Pomiary te wykonano z satelity krążącego wokół Ziemi (STP78-1), ponieważ fotony ultrafioletowe nie mogą przedostawać się do ziemi ze względu na efekt ekranowania atmosfera. Nawet przy długościach fal bliskich UV lub widzialnych trudno jest uchwycić poświatę dzienną za pomocą instrumentów naziemnych ze względu na wysoki poziom rozproszonego światła słonecznego w tle. W widmie ultrafioletu o krótkich falach dominują pojedynczo zjonizowane i obojętne linie tlenu (O I, O II) i azotu (NI, N II). Linie te powstają w wyniku fotonów ultrafioletowych i uderzeń fotoelektronów. Linie krótkofalowe powstają w wyniku odwzbudzenia wyższych stanów o wysokiej energii, których nie można wzbudzić w reakcjach chemicznych ani rekombinacji. Kilka linii atomowych i jonowych w widmie światła dziennego to także linie pojawiające się w widmie Słońca, jak na przykład linia He I przy 584 Å. W przypadku helu zjawisko to wynika z rozproszenia rezonansowego linii emisyjnej promieniowania słonecznego He. Podobne cechy obserwuje się przy długościach fali 834 Å (triplet O II), 1216 Å i 1025 Å (HI, Lγα i L&gammalβ), 1302-1306 Å (triplet O I) i innych. Są one spowodowane rozpraszaniem rezonansowym lub fluorescencją.
Emisje tlenu cząsteczkowego w poświatach Ziemi, Wenus i Marsa
O ile przypadek stanu O(1S) jest dobrze poznany, o tyle szczegółowy proces emisji O2 nie jest jeszcze dobrze poznany. Oprócz dyskretnego pasma O2 o długości fali 762 nm, istnieje rozszerzona emisja w kolorze bliskim UV-niebieskiego przypisywana pasmom Herzberga i Chamberlaina. W poprzednich reakcjach wzbudzony stan związany O-2 O2 może wynosić A3Σ+u, A′3Δu lub c1Σ-u. Głównym prekursorem O(1S) mógłby być O2(c 1Σ?u ), ale nadal nie jest pewne, jaka jest natura prekursora i jest to nadal aktywny obszar badań. W atmosferze ziemskiej układ Herzberg I jest główną przyczyną kontinuum niebieskiej poświaty nocnej, ze średnią emisją 400 R. Z kosmicznych obserwacji poświaty Wenus prowadzonych przez radzieckie sondy Venera wykryto podobne poświaty tlenowe, chociaż w zupełnie innych \
ilościach . Nocna poświata tlenu cząsteczkowego Wenus wykazuje silną przewagę układu Herzberga II (2700 R). Tak duże różnice wynikają z odmiennego składu chemicznego środowiska atmosferycznego Ziemi i Wenus. W warstwach świetlnych gęstość otaczającego powietrza (N2+O2 dla Ziemi, CO2 dla Wenus) jest prawie 100 razy większa na Wenus niż na Ziemi, odwrotna sytuacja ma miejsce w przypadku O (trzy razy mniej na Wenus niż na Ziemi). Ponieważ wygaszanie kolizyjne O2(A3Σ+u ) jest realizowane głównie przez cząsteczki powietrza, podczas gdy O2(c1Σ-u) jest preferencyjnie wygaszane przez zderzenia z O, pasma Herzberga I są słabe na Wenus, a pasma Herzberga II są silnie wzmocnione pod względem w przypadku Ziemi (2700 R na Wenus w porównaniu do 100 R na Ziemi). Inną interesującą cechą jest ekstremalna słabość zielonej linii tlenowej w nocnej poświacie Wenus (5R w porównaniu do 120R na Ziemi), co było ważnym elementem faworyzującym mechanizm Bartha zamiast procesu Chapmana. Oczekuje się świecenia układu atmosferycznego w podczerwieni o masie 1Δg -> X3Σ?g w podczerwieni przy długości fali 1,27 μm. Świecenie to, po raz pierwszy odkryte na Wenus przez francuskiego spektroskopistę Pierre′a Connesa i jego współpracowników pod koniec lat 70. XX wieku, jest dość intensywne (>1 MR, czyli 106 R). Tak silną emisję mierzy się także na Ziemi. Ze względu na długi czas życia radiacyjnego O2(a1 &Dellta;g) (1 h) analizę komplikuje transport przez terminator. Fotoliza O3 w warunkach nasłonecznienia zgodnie z następującą reakcją
O3 + hv -> O2(a1Δ g)+O(1D)
stanowi część źródła światła dziennego Ziemi i Marsa, ale na Wenus jest nieistotna. Głównym źródłem poświaty nocnej wszystkich planet lądowych, poświaty dziennej Wenus i części poświaty dziennej Ziemi i Marsa, jest rekombinacja atomów O powstałych w wyniku fotolizy O2 na Ziemi oraz CO2 na Wenus i Marsie. Connes oszacował poszczególne linie rotacyjne tego pasma w widmie Marsa za pomocą 5-metrowego teleskopu na górze Palomar w latach 1973 i 1975. Z widm uzyskano temperatury rotacyjne i intensywność poświaty powietrznej. W każdym widmie zmierzono równoważne szerokości około 30 linii, które zwykle wynosiły 0,005-0,01 nm. Racjonując szerokość równoważna wytrzymałości linii i badając zależność tego stosunku od energii górnego stanu rotacyjnego przejścia, wywnioskowano temperaturę obrotową 200 K, co odpowiada rzeczywistej temperaturze uśrednionej na profilu wysokości poświaty. Stwierdzono typowe natężenie poświaty od 3 do 30 MR, w zależności od szerokości geograficznej. Zakładając, że
współczynnik szybkości wygaszania przez cząsteczki powietrza (CO2 na Marsie) jest znany, ilość ozonu można wywnioskować na podstawie pomiarów poświaty powietrza o średnicy 1,27 μm, choć w dość niedokładny sposób.
AM Herkulis
AM Herculis (AM Her) to prototyp i najjaśniejszy z klasy krótkookresowych układów podwójnych kataklizmicznych (CB), w których silnie magnetyczny BIAŁY KARZEŁ akreuje gaz z Rochelobe wypełniający towarzysz masy podsłonecznej. Pole magnetyczne jest wystarczająco silne (B1 ≳ 20 MG; MG = 106 gausów), aby wpłynąć jakościowo na najbardziej podstawowe właściwości układu podwójnego: zapobiegać tworzeniu się dysku akrecyjnego i wymuszać przenoszenie masy całkowicie przez jeden lub więcej strumieni gazu; kierowanie przepływu w pobliżu białego karła do prawie promieniowego lejka, który uwalnia energię akrecji w wyniku wstrząsu nad biegunem magnetycznym; oraz synchronizowanie rotacji białego karła z ruchem orbitalnym towarzysza, tak że wszystkie podstawowe zjawiska są zorganizowane we wspólnym okresie Pspin = Porb. Ponieważ gaz dociera do powierzchni białego karła podczas wirtualnego swobodnego spadku, temperatura plazmy po szoku jest wysoka, a układy podwójne typu AM He∼∼r są silnymi emiterami promieniowania rentgenowskiego. Większość z obecnego katalogu około 50 takich układów wynika z satelitarnych badań całego nieba w zakresie promieni rentgenowskich. Sama AM Her została skatalogowana jako GWIAZDA ZMIENNA pół wieku przed tym, jak jej identyfikacja ze źródłem promieniowania rentgenowskiego 3U 1809+50 przyciągnęła uwagę obserwatorów. Przy typowych okresach w zakresie 1,5 ≲ Porb 4 h i masach gwiazd M1 ˜ 0,6M⊙ , M2 ˜ 0,2M⊙ , cały układ podwójny typu AM Her zwykle zmieściłby się w dysku Słońca. Systemy są zatem kompaktowymi laboratoriami do badania fizyki wysokotemperaturowych, namagnesowanych PLAZM, a także oddziaływań magnetycznych między gwiazdami
Miejsce akrecji
Tradycyjnie cechą charakterystyczną układu podwójnego AM Hertype była silna optyczna polaryzacja kołowa (∼5%-30%) emisji cyklotronu wypromieniowanej w przepływie po szoku tuż nad powierzchnią białego karła. Emisja cyklotronowa to promieniowanie szybkich (ale nierelatywistycznych) elektronów krążących spiralnie wokół linii pola magnetycznego i jeden z nielicznych procesów astrofizycznych, który powoduje tendencję wektora elektrycznego emitowanego promieniowania do oscylacji według wzoru składnik kołowy netto, w przeciwieństwie do zachowania czysto liniowego (polaryzacja liniowa) lub braku preferencyjnego wzoru (niespolaryzowany). Ta właściwość jest tak wyjątkowa dla zsynchronizowanych magnetycznie CB, że zyskała miano polarnych. Widmo emisyjne elektronu wirującego w polu magnetycznym występuje przy wielokrotnościach częstotliwości kątowej Larmora ωL = eB/mec.
Przez analogię do izolowanych białych karłów, początkowo zinterpretowano, że silna optyczna polaryzacja kołowa AM Her występuje w pobliżu podstawy cyklotronu ωC = ωL, co sugeruje natężenie pola magnetycznego B1 ∼ 200 MG. Jednakże obserwacje spektropolarymetryczne podczas przerwy w ACCRETION ujawniły sygnaturę Zeemana w postaci pola magnetycznego o wartości zaledwie 10-20 MG w liniach absorpcyjnych szeregu wodoru Balmera. Ponieważ gwiazda wtórna była również widoczna w tym niskim stanie, widmo Zeemana przypisano uśrednionej na dysku fotosferze magnetycznego białego karła, a światło spolaryzowane w stanie wysokim przypisano emisji cyklotronu w liczbach harmonicznych 5 ≲ m ≲10. Następnie, W widmach stanów wysokich rozpoznano indywidualne termicznie poszerzone harmoniczne cyklotronu i wywnioskowano, że natężenie pola polarnego wynosi 14 MG. Strumień akrecyjny uderza w białego karła z prędkością
Oprócz promieniowania cyklotronowego, przepływ poszokowy chłodzi się za pomocą bremsstrahlung (emisji swobodnej) promieni rentgenowskich o charakterystycznej temperaturze kTbrem ∼ 20-30 keV. Około 50% każdego z tych składników, skierowanego w dół, jest pochłaniane i ponownie wypromieniowywane przez białego karła, tworząc trzeci, "ciało doskonale czarne", składnik, którego jasność według oryginalnych modeli przewidywała LBB ∼ Lcyc + Lbrem i temperatura kTBB ∼ 20 eV (w miękkim promieniowaniu rentgenowskim). Idee te były w dużej mierze zgodne z wczesnymi obserwacjami. Jednakże później zaobserwowano "odwrócony" tryb promieniowania rentgenowskiego AM Her, w którym twarde i miękkie promieniowanie rentgenowskie było silnie modulowane w okresie podwójnym, ale były względem siebie przeciwfazowe. Szybko zdano sobie sprawę, że tryb ten oznacza chwilową aktywację przepływu gazu na przeciwny biegun magnetyczny. Tutaj, z jakiegoś powodu, akrecja
najwyraźniej zachodzi głównie w postaci gęstych skupisk o masie ∼1016 g, które odkładają swoją energię kinetyczną głęboko w atmosferze białego karła, ogrzewając otaczającą fotosferę od dołu do ∼105 K. Bezpośrednie dowody na to Narost "blobby" występuje w postaci migotania na krzywych blasku optycznego i rentgenowskiego nawet w "normalnym" trybie rentgenowskim; stąd zlepki muszą mieć mniejsze lub większe znaczenie we wszystkich przepływach, a jest to cecha, która zniekształca równowagę energetyczną w stosunku do przewidywanej przez prosty model. Dla parametrów gwiazdowych wymienionych w tabeli ,
obserwowana całkowita jasność AM Her, L ∼ 5 × 1032 erg s-1, w stanie wysokim, implikuje szybkość akrecji ˙M = LR1 / GM1 ≈ 1 × 10-10M⊙yr?1 przy spadku szybkości przenoszenia masy w stanie niskim o rząd wielkości lub więcej. Jest mało prawdopodobne, aby emisja była jednolita w całym strumieniu; rdzeń o dużej gęstości będzie stosunkowo skompresowany i będzie promieniował głównie w twardych promieniach rentgenowskich, podczas gdy bardziej rzadka osłona będzie miała większą wysokość wstrząsu odstającego i będzie sprzyjać chłodzeniu cyklotronu. Ze względu na znaczenie naświetlania z góry i ogrzewania subfotosferycznego, oczekuje się, że miękkie promieniowanie rentgenowskie będzie pochodzić z jeszcze większych obszarów. Pomysły te potwierdzają różnorodne obserwacje, które ujawniają, że obszar plamki jako ułamek powierzchni białego karła waha się od f < 10-4 dla emisji bremsstrahlunga do f ∼ 0,1 dla podgrzanej czapy polarnej w bliskim zakresie UV.
Strumień gazu
W układzie podwójnym akrecji wypełnienia ROCHE-LOBE transfer masy następuje przez wewnętrzny punkt Lagrangianu L1, gdzie wypadkowa siła grawitacji we współbieżnym układzie współrzędnych wynosi zero. Wystrzeliwane dzięki niewielkiej prędkości termicznej atomy są szybko jonizowane przez intensywne promieniowanie rentgenowskie/UV i przyspieszają w kierunku białego karła pod połączonym wpływem rosnącego pola grawitacyjnego i efekty Coriolisa. Rezultatem jest skierowanie strumienia w kierunku postępowym. W niemagnetycznym CB gaz krąży następnie wokół białego karła, zderza się z przepływem powyżej i dyfunduje do DYSKA AKRECJI otaczającego zwartą gwiazdę. W układach typu AM Her pole magnetyczne białego karła zaczyna dominować w kinematyce zjonizowanego strumienia przy mniej więcej promieniu Alfvena, określonym przez B2/ 8π ∼ρv2/ 2. To przejście z obszarów przepływu kontrolowanych balistycznie do obszarów kontrolowanych magnetycznie następuje w odległości ∼5-10R1 nad ∼∼∼∼∼∼powierzchnią białego karła. Poniżej "obszaru sprzęgania" grudki plazmy są mniej więcej całkowicie splatane przez szybko rosnące pole magnetyczne i w przybliżeniu podążają po trajektoriach dipolarnych. Ogólnie rzecz biorąc, obejmuje to odchylenie przepływu od płaszczyzny orbity. Ponieważ pierwotny strumień ma niemożliwy do pominięcia przekrój poprzeczny, a sprzęganie zachodzi na znacznej odległości liniowej, różne części strumienia ostatecznie wyznaczają różne linie pola prowadzące do powierzchni, a powstały punkt akrecji lepiej przypomina łuk niż okrąg. Rzeczywiście, gaz już porusza się z prędkością ˜1000 kmˇs-1, kiedy napotyka magnetosferę białego karła, zatem jest mało prawdopodobne, aby nawlekanie było procesem przypadkowym. Kiedy AM Her znajduje się w trybie dwubiegunowym, przepływ najwyraźniej rozgałęzia się z obszaru sprzęgania do drugiego strumienia, który uderza w gwiazdę magnetyczną w miejscu mniej więcej naprzeciw głównego bieguna. Bardziej znanym przykładem tej samej fizyki są bliźniacze strefy zorzowe powstałe w wyniku wychwytywania cząstek rozbłysków słonecznych przez ziemską magnetosferę. Strumień zjonizowanego radiacyjnie gazu jest także obfitym emiterem promieniowania rekombinacyjnego. Ze względu na dużą prędkość kolimowanego przepływu linie emisyjne są szerokie i bardzo zmienne pod względem prędkości radialnej, a także profilu na całej orbicie. W przeciwieństwie do typowej astrofizyki mgławicy strumień liniowy strumienia pokazuje FHγ ˜ FH? ˜FHα, co wskazuje na duże głębokości optyczne w gęstym przepływie (Ne ≳ 1013 cm-3).
Gwiezdne komponenty
Nieprzezroczystości cyklotronu przy dużej liczbie harmonicznych są silnie zależne od kierunku i wrażliwe na polaryzację. W przypadku punktów widzenia w pobliżu kierunku lokalnego pola magnetycznego emisja jest stosunkowo słaba i spolaryzowana kołowo ze zwrotem (+/-), który odzwierciedla polaryzację pola. Prostopadłe linie wzroku mierzą silną polaryzację liniową i źródło wzmocnione efektami "promieniowania cyklotronowego". Ponieważ lejek akrecyjny i wynikający z niego wstrząs są przymocowane do mniej więcej promieniowych linii pola magnetycznego na współwirującym białym karle, zmiany strumienia i polaryzacja cyklotronu zależą od szczegółowej geometrii układu podwójnego: nachylenia i, współszerokości geograficznej bieguna magnetycznego β i długości osi pola względem linii środków gwiazd Ψ. Kiedy fazowo-rozdzielcze obserwacje spolaryzowanego światła cyklotronowego zostaną połączone z badaniami prędkości radialnych linii emisyjnych lejka i linii absorpcji gwiazd, wielkości te można mniej lub bardziej
jednoznacznie określić i uzyskać niezwykle szczegółowe obrazy skonstruowanych układów. Co więcej, porównanie natężenia pola magnetycznego w przeciwległych obszarach akrecji układów dwubiegunowych można wykorzystać do wywnioskowania morfologii układu pola na białym karle (np. dipol, dipol offsetowy, kwadrupol). Praktycznie we wszystkich CB masa cząsteczki wtórnej jest na tyle niska, że czas życia gwiazdy w ciągu głównym przekracza wiek Galaktyki i zakłada się, że jest ona w dużej mierze niewyewoluowana. Kiedy gwiazdę można obserwować bezpośrednio, na przykład w stanie małej akrecji, zmierzony typ widma jest generalnie zgodny z wywnioskowaną masą i promieniem. Jednakże dla M2 < M1 kontakt między gwiazdą dawcą a jej powierzchnią Roche′a może zostać utrzymany w obliczu przenoszenia masy tylko wtedy, gdy z układu zostanie usunięty moment pędu. Oznacza to, że orbita musi zanikać z czasem - a okres się zmniejszać - przynajmniej do czasu, gdy element wtórny ulegnie całkowitej degeneracji.
Obecne koncepcje utożsamiają mechanizm utraty pędu z promieniowaniem grawitacyjnym oraz, w przypadku wyższych szybkości przenoszenia masy obiektów z P ≳ 3h, hamowaniem magnetycznym przez wiatr typu słonecznego wymiatany na zewnątrz wzdłuż linii pola magnetycznego powiązanej pływowo gwiazdy magnetycznej. Argumentowano, że sytuacja ta ulega zmianie, gdy obecna jest silnie magnetyczna, zsynchronizowana gwiazda pierwotna, ponieważ duża część linii pola wtórnego kończyłaby się wówczas na białym karle. Zmniejszona liczba "otwartych" linii gwiazdy wtórnej zmniejszyłaby skuteczność magnetycznego mechanizmu hamowania. Wydaje się, że zsynchronizowane systemy - w tym AM Her - rzeczywiście wykazują tempo akrecji, które jest systematycznie niższe niż niemagnetyczne CB w tym samym okresie orbitalnym, więc możliwe jest, że pole magnetyczne wpływa nawet na ewolucję okresową układu podwójnego. Jednocześnie nie jest jasne, czy nawet dwie dekady obserwacji to wystarczająco długa linia bazowa, aby ocenić świeckie tempo
przenoszenia masy bliskiego układu podwójnego, którego ewolucyjna skala czasowa waha się od ∼103 -104 lat (w przypadku erupcji nowych) do prawie 109 lat (dla zaniku okresu orbitalnego). Nieznana jest również przyczyna stanów niskiej akrecji, które obejmują nagłe odcięcie strumienia rentgenowskiego AM Her 7-krotnie w ciągu zaledwie 40 minut i które mogą utrzymywać się przez wiele miesięcy.
Synchronizacja spinu/orbity
Główna gwiazda AM Her podlega momentowi akrecji
Nacc ∼ 2π/P R2L1 ˙M ∼ 5 × 1033 dyn cm
gdzie RL1 jest odległością punktu L1 od białego karła. Pozostawione samemu sobie spowodowałoby to obrót białego karła w skali czasu τ ∼ 108 lat. Zatem moment akrecyjny musi być zrównoważony momentem równoważącym, który utrzymuje okres wirowania białego karła równy okresowi orbity towarzysza. Ponieważ wszelka interakcja magnetyczna musi być słabsza, gdy separacja składników jest większa (młodsza binarnie), często uważa się, że musi zadziałać dodatkowy, rozpraszający moment obrotowy, aby spowolnić prędkość wirowania białego karła i początkowo zsynchronizować ruchy. Wśród proponowanych możliwości znajdują się oddziaływania magnetostatyczne z wewnętrznie magnetycznymi lub niemagnetycznymi gwiazdami wtórnymi oraz efekty magnetohydrodynamiczne, w których prądy elektryczne przepływają przez rozrzedzony ośrodek plazmowy układu podwójnego. Chociaż prawdopodobnie nie jest możliwe uzyskanie jednoznacznej odpowiedzi w każdym indywidualnym przypadku, wskazówki empiryczne co do natury interakcji są potencjalnie dostępne w rozkładzie długości dipolowych φ dla konfiguracji równowagowych oraz w możliwych dryfach lub powolnych oscylacjach kątowych dipol w układach podwójnych. Obserwacje w czasie rzeczywistym resynchronizujących magnetycznych układów NOVA, które zostały oddzielone przez erupcje nowej, również są obiecujące w zakresie wyjaśnienia tego unikalnego aspektu fizyki systemów typu AM Her.
Amatorskie Towarzystwa Astronomiczne
Astronomia amatorska ma długą i wybitną historię. Na przykład William Herschel, odkrywca planety Uran i być może największy ze wszystkich obserwatorów, rozpoczął swoją karierę jako amator; w 1845 roku trzeci hrabia Rosse zbudował wówczas najpotężniejszy teleskop na świecie - zamek Birr 72 w reflektorze - i wykorzystał go do odkrycia spiralnych form obiektów, które obecnie wiemy, że są galaktykami. Współcześni amatorzy wykonują prace, na które profesjonaliści nie mają czasu, ochoty lub nie są do tego wyposażeni. Jednak obserwator pracujący samodzielnie może wnieść stosunkowo niewielką wartość - i właśnie w tym przypadku amatorskie towarzystwa astronomiczne odgrywają tak ważną rolę. Należy zauważyć, że w znacznym stopniu stowarzyszenia amatorskie i zawodowe w znacznym stopniu pokrywają się. Na przykład w Wielkiej Brytanii ROYAL ASTRONOMICAL SOCIETY, główna organizacja zawodowa, zrzesza wielu członków-amatorów, a całkiem niedawno niektórzy amatorzy pełnili nawet funkcję prezesów (na przykład WH Steavenson, lekarz medycyny). BRITISH ASTRONOMICAL ASSOCIATION (BAA) to głównie amatorskie stowarzyszenie, ale zrzesza także wielu profesjonalistów, a wśród jego poprzednich prezesów było kilku członków rodziny Astronomers Royal. Ta sama sytuacja ma miejsce w większości pozostałych krajów. Nawet MIĘDZYNARODOWA UNIA Astronomiczna, organ kontrolujący światową astronomię, ma kilku członków-amatorów. Wielka Brytania zawsze odgrywała znaczącą rolę w badaniach astronomicznych, warto więc przedstawić krótki opis rozwoju różnych tamtejszych społeczeństw. Początki Królewskiego Towarzystwa Astronomicznego sięgają oczywiście lat dwudziestych XIX wieku, a jednym z pierwszych prezesów był Sir William Hershel. Obowiązywały ograniczenia wjazdu; w szczególności kobietom nie pozwolono zostać towarzyszami dopiero znacznie później. Istniało wyraźne zapotrzebowanie na krajowe stowarzyszenie amatorskie, a w latach osiemdziesiątych XIX wieku powstało Liverpool Astronomical Society, które rozrosło się w organizację międzynarodową. Potem nagle upadł, częściowo z powodu problemów finansowych, a częściowo z powodu złej administracji. To wtedy powstało BAA; jego pierwsze spotkanie odbyło się w Londynie w 1890 r. Od samego początku BAA miało być stowarzyszeniem obserwacyjnym i utworzono różne sekcje, z których każda była kontrolowana przez doświadczonego dyrektora. Przykładowo jeden dział w całości poświęcono obserwacjom planety Jowisz i regularnie publikowano raporty, zarówno w miesięczniku Stowarzyszenia, jak i w specjalistycznych Memoirach . Prawdopodobnie prawdą jest stwierdzenie, że publikacje te stanowią najlepszą i najbardziej ciągłą dostępną serię obserwacji Jowisza, a prace trwają do dziś, chociaż prawdą jest, że wyniki badań sond kosmicznych w pewnym stopniu wyparły jakikolwiek ziemski program obserwacyjny. Inne sekcje dotyczyły Słońca, Księżyca, Marsa, komet, gwiazd zmiennych i tak dalej. Początkowo Królewskie Towarzystwo Astronomiczne patrzyło na BAA z dezaprobatą, ale szybko stało się jasne, że nie będzie konfliktu interesów i od wielu lat siedziby obu towarzystw mieszczą się w tym samym budynku w Burlington House na Piccadilly. Powstały różne oddziały BAA, choć jedna po drugiej decydowały się na oderwanie i uzyskanie całkowitej niezależności. Do dziś pozostał jedynie oddział w Nowej Południowej Walii w Australii. Nie było żadnych ograniczeń dotyczących wstępu, a było kilku bardzo młodych członków. Jednakże w pewnym momencie uznano, że może zaistnieć potrzeba stworzenia społeczeństwa skupiającego się wyłącznie na młodych ludziach. Propozycja utworzenia sekcji młodszej została skierowana do Rady BAA, ale nie została przyjęta. Doprowadziło to do powstania Junior Astronomical Society (JAS) i założono, że młodzi entuzjaści dołączą do JAS, a następnie przejdą do BAA. Na początku tak się działo, ale w latach sześćdziesiątych JAS zdecydował się stać się organizacją równoległą; obecnie jest znane jako Towarzystwo Astronomii Popularnej. Nie ma wątpliwości, że BAA jest organizacją odnoszącą ogromne sukcesy i to od wielu lat był klasą samą w sobie. W pewnym stopniu jest to nadal prawdą, ale skupiało się to głównie w Londynie, a potrzebne były także społeczności lokalne. Obecnie prawie każde większe miasto i miasteczko na Wyspach Brytyjskich ma swoje własne stowarzyszenie, a wiele z nich jest stowarzyszonych z BAA. Wielką zaletą społeczności lokalnej jest możliwość założenia obserwatorium. Obserwatoria publiczne w Wielkiej Brytanii są rzadkością, a społeczności lokalne okazały się nieocenione w wypełnieniu tej luki. Niektóre są wyjątkowo dobrze wyposażone i zdolne do wykonywania pracy na profesjonalnym poziomie. Co więcej, wielu młodych entuzjastów, którzy zaczynają od przyłączenia się do najbliższego stowarzyszenia, zostaje zawodowymi astronomami. Społeczności szkolne rozkwitają, choć prawdą jest, że ich funkcjonowanie zależy od obecności przynajmniej jednego oddanego personelu. Kilka szkół ma nawet własne obserwatoria radioastronomiczne (na przykład szkoła Taunton w Somerset). W Szkocji, a także w Irlandii istnieje wiele stowarzyszeń amatorskich. Aktywne społeczeństwa istnieją także na Wyspach Normandzkich i na Wyspie Man. Wszystkie te różne społeczeństwa są ze sobą powiązane i współpracują dla obopólnych korzyści. Ponadto wiele z nich wydaje własne, regularne czasopisma, a ich działalność i wyniki są relacjonowane w czasopismach ogólnopolskich, takich jak Modern Astronomer i Astronomy Now. Z punktu widzenia obserwatorium publicznego sytuacja w Stanach Zjednoczonych jest znacznie lepsza, a stowarzyszenia amatorskie są rzeczywiście bardzo liczne. Szczególne znaczenie ma AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH (AAVSO), które jest największą organizacją tego typu na świecie i która prowadzi ogromną liczbę ważnych obserwacji. Jak można się spodziewać, tworzą ją zarówno amatorzy, jak i profesjonaliści, ale w przypadku czystej pracy wizualnej to amatorzy są najbardziej płodni, zwłaszcza teraz, gdy mogą korzystać z urządzeń elektronicznych, takich jak matryce CCD, i mogą dawać wyniki, które zadowolą każdego zawodowego badacza. Wyliczenie wszystkich innych głównych stowarzyszeń zajęłoby wiele stron, ale należy szczególnie wspomnieć o Towarzystwie Astronomicznym Pacyfiku, które zrzesza wielu członków-amatorów. W Kanadzie działają dwa główne stowarzyszenia: Kanadyjskie Towarzystwo Astronomiczne (głównie zawodowe) i KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE KANADY (częściowo profesjonalista, częściowo amator). Taka sama sytuacja ma miejsce w Australii i Nowej Zelandii. Społeczeństwa amatorskie rozkwitają niemal we wszystkich krajach europejskich i w Rosji. Japonia ma oczywiście wielką tradycję amatorskiej pracy obserwacyjnej i tutaj także działają organizacje zarówno krajowe, jak i lokalne. Naturalnie wszystkie stowarzyszenia - krajowe i lokalne - odbywają regularne spotkania, a te są bezcenne, ponieważ często można zaprosić znanych prelegentów, którzy będą mogli udzielić rad i zachęty. Względy finansowe są zawsze na pierwszym planie. Stawki abonamentu są utrzymywane na możliwie najniższym poziomie, ale rachunki trzeba płacić, szczególnie jeśli w grę wchodzą wszelkiego rodzaju lokale. Władze lokalne często pomagają, choć inne są znacznie mniej skłonne do współpracy (w Wielkiej Brytanii jedno stowarzyszenie zostało niedawno zmuszone do opuszczenia swojego obserwatorium, ponieważ rada zdecydowała się podnieść czynsz za grunt do niemożliwej kwoty). Jednak nawet stowarzyszenie, które nie ma siedziby ani obserwatorium, prawie na pewno będzie miało członków posiadających własne teleskopy i udostępniających je nowicjuszom. Obecnie istnieją również ambitne stowarzyszenia, które zakładają własne planetaria - a planetarium jest z pewnością najlepszą możliwą pomocą edukacyjną. Jest ich mnóstwo w Stanach Zjednoczonych i kilka w Wielkiej Brytanii, zwłaszcza planetarium wznoszone obecnie w pobliżu Chichester w Sussex przez Towarzystwo Astronomiczne South Downs. W ostatnich latach doszło do jednego niepowodzenia. Proponowano utworzenie międzynarodowej organizacji amatorskiej, mającej na celu korelację prac towarzystw na całym świecie, i w latach 60. XX w. na Zgromadzeniu Ogólnym Międzynarodowej Unii Astronomicznej faktycznie powołano taką organizację: Międzynarodową Unię Astronomów Amatorów ( IUAA). Wydała kilka publikacji i odbyła kilka spotkań w różnych krajach, ale trzeba przyznać, że nigdy nie odniosła prawdziwego sukcesu, także ze względu na ograniczenia finansowe. Można mieć nadzieję, że w przyszłości zostanie on rozbudowany i odegra naprawdę pożyteczną rolę, jest jednak trudny do zorganizowania i wiele pozostaje do zrobienia. Tymczasem amatorskie stowarzyszenia astronomiczne istnieją praktycznie we wszystkich krajach. Ich wartość jest nie do przecenienia, a dziś, w epoce kosmicznej, ich rola jest jeszcze ważniejsza niż w latach ubiegłych.
Współpraca amatorsko-zawodowa w astronomii
Prawdopodobnie prawdą jest stwierdzenie, że w większości dziedzin nauki dzień amatora dobiegł końca. Żaden współczesny amator nie może spodziewać się podjęcia ważnych prac badawczych na przykład w fizyce, gdzie niezbędny jest skomplikowany i kosztowny sprzęt; nie może też spodziewać się wielkiego odkrycia teoretycznego, ponieważ potrzebne jest bardzo rygorystyczne szkolenie. To prawda, że nadal jest miejsce na dobrą amatorską pracę w geologii i paleontologii, ale to w astronomii amator naprawdę odnajduje się w swoich możliwościach. Sto lat temu istniały różne gałęzie astronomii, w których królował amator. Najlepszych obserwacji Księżyca i powierzchni planet dokonywali amatorzy i tak było jeszcze niedługo przed drugą wojną światową. Warto również pamiętać, że w 1845 roku 3. Hrabia ROSSE, bez żadnej pomocy eksperta, zbudował najpotężniejszy wówczas teleskop zwierciadlany 72-calowy w zamku Birr w Irlandii i użył go do odkrycia form obiekty zwane wówczas mgławicami spiralnymi, a obecnie znane jako galaktyki
zewnętrzne. (Miło jest zauważyć, że po długim okresie zaniedbań teleskop Birra został przywrócony do pełnej sprawności, choć oczywiście w żadnym wypadku nie dorównuje współczesnemu teleskopowi o tej samej aperturze.) Około 1900 r. fotografia przejęła kontrolę nad okiem w większości dziedzin astronomii. Obecnie sama fotografia jest wypierana przez pomoce elektroniczne, takie jak URZĄDZENIA ŁADUJĄCE (CCD), które są znacznie bardziej czułe. Astronom nie musi już spędzać godzin w zimnej, ciemnej kopule, upewniając się, że jego teleskop jest nadal dobrze zamocowany na docelowym obiekcie; wcale nie musi przebywać w kopule ani nawet w tym samym kraju. Wszystko wyświetla się na ekranie telewizora. Ma to oczywiste zalety, poza wygodą, ale oznacza, że zawodowy astronom rzadko lub wcale nie patrzy przez teleskop i nie musi posiadać praktycznej wiedzy o niebie. Prawie na pewno prawdą jest stwierdzenie, że niewielu zawodowych astronomów jest w stanie rozpoznać więcej niż pół tuzina konstelacji1. Niektórzy amatorzy
natomiast mają wręcz encyklopedyczną wiedzę o niebie i bez problemu potrafią zidentyfikować wiele setek gwiazd. Sprzęt amatorski zmienił się znacząco w niedawnej przeszłości. Pięćdziesiąt lat temu przeciętny amator używał teleskopu o umiarkowanej aperturze - powiedzmy do 18 cali w przypadku REFLEKTORA - i był bardziej zainteresowany pracą wizualną niż fotografią. Dziś dobrze wyposażony amator nabył umiejętności w elektronice. Używając matrycy CCD z, powiedzmy, 15-calowym teleskopem, współczesny amator może uzyskać wyniki porównywalne z wynikami uzyskanymi w głównych profesjonalnych obserwatoriach bezpośrednio po wojnie. Są oczywiście amatorzy, którzy w ogóle nie korzystają z teleskopów. Praca gołym okiem może być przydatna, szczególnie w przypadku meteorów i zorzy polarnej (zobacz artykuł na temat ASTRONOMII GOŁYM OKIEM). Jednak lornetka może być naprawdę bardzo cenna, zwłaszcza w rękach amatorów, którzy spędzają czas na poszukiwaniu komet i nowych. George Alcock, angielski nauczyciel, odkrył teraz cztery
komety i trzy nowe, a wszystko to przy pomocy potężnej lornetki. "Przeczesuje" niebo, a jego znajomość układów gwiazd jest tak dobra, że na pierwszy rzut oka rozpoznaje przybysza. Nie jest w tym osamotniony; amatorzy odkryli ostatnio wiele komet - w tym dwie najnowsze "wielkie" komety, Hyakutake z 1996 r. i Hale-Bopp z 1997 r. Jednym z wybitnych współczesnych amatorów jest australijski duchowny, wielebny Robert Evans. Używa przenośnego teleskopu i skanuje zewnętrzne galaktyki w poszukiwaniu supernowych. Jak dotąd odkrył ich ponad 20. Supernowa to kolosalny wybuch gwiazdowy, oznaczający śmierć gwiazdy; w naszej Galaktyce od roku 1604 nie zaobserwowano żadnych supernowych gołym okiem, ale rzeczywiście zdarzają się one w układach zewnętrznych, oddalonych o wiele milionów lat świetlnych. Nikt nie jest w stanie przewidzieć, kiedy wybuchnie supernowa, dlatego ważne jest, aby przeprowadzić obserwacje tak wcześnie, jak to możliwe, aby wcześniejsze ostrzeżenia podawane przez amatorów takich jak Evans miały ogromne
znaczenie. Poszukiwania tego rodzaju są obecnie prowadzone przez wielu amatorów z dużym sukcesem. Niektórzy obserwatorzy, tacy jak Evans, pracują wzrokowo; inni używają sprzętu fotograficznego lub CCD. Nie trzeba dodawać, że wkład tego rodzaju jest bardzo ciepło przyjęty przez zawodowych astronomów. Zwykłe nowe mogą być również identyfikowane przez amatorów, dzięki ich znajomości nieba, a w ostatnich latach w ten sam sposób odkryto także kilka mniejszych planet lub asteroid. Bez wątpienia konieczne jest niezwłoczne powiadomienie o odkryciu. Ośrodki znajdują się w wielu krajach, ale każde potwierdzone odkrycie ogłaszane jest przez usługę telegramową MIĘDZYNARODOWEJ UNII Astronomicznej (IAU), która ma zasięg ogólnoświatowy. Prawdą jest również, że wiele rzekomych "odkryć" okazuje się fałszywymi alarmami i dokładamy wszelkich starań, aby je odfiltrować, zanim zaczną marnować cenny czas obserwacji. Prace nad gwiazdami zmiennymi zawsze stanowiły główną część amatorskiej astronomii obserwacyjnej. GWIAZD ZMIENNYCH
jest wiele rodzajów. Niektóre, jak cefeidy, są regularne jak w zegarku; inne, takie jak gwiazdy Mira, różnią się zachowaniem w zależności od cyklu; jeszcze inne są całkowicie nieregularne, tak że nigdy nie wiadomo, co zrobią dalej. Jest tak wiele gwiazd zmiennych, że zawodowi astronomowie nie są w stanie śledzić ich wszystkich, dlatego też w dużym stopniu polega się na pracy amatorskiej. Większość z nich ma charakter czysto wizualny. Procedura polega na porównaniu zmiennej z pobliskimi gwiazdami, które nie podlegają wahaniom. Przy odrobinie praktyki dokonanie szacunków z dokładnością do jednej dziesiątej wielkości nie jest trudne i w większości przypadków jest to wystarczające. Za pomocą fotometrów można uzyskać znacznie dokładniejsze szacunki i prawdą jest, że większość współczesnych amatorów poważnie zainteresowanych badaniami gwiazd zmiennych posiada sprzęt fotometryczny. Naprawdę duży teleskop nie jest niezbędny; reflektor o, powiedzmy, aperturze 6-12, da właścicielowi więcej pracy, niż jest on w stanie
udźwignąć. Wyniki są korelowane przez organizacje takie jak Sekcja Gwiazd Zmiennych BRYTYJSKIEGO STOWARZYSZENIA ASTRONOMICZNEGO i AMERYKAŃSKIE STOWARZYSZENIE GWIAZD ZMIENNYCH OBSERWATORÓW. Istnieją pewne zmienne, które można dostrzec gołym okiem; taka jest GammaCassiopeiae w Wof Cassiopeia, która jest niestabilną gwiazdą "powłokową". Zwykle ma jasność nieco poniżej drugiej magnitudo, ale pod koniec lat trzydziestych XX wieku pojaśniała gwałtownie o ponad połowę magnitudo, a następnie spadła poniżej 3 magnitudo, zanim powróciła do normalnego stanu. Wczesne obserwacje wybuchu z lat trzydziestych XX wieku były amatorskie i nigdy nie wiadomo, kiedy to samo stanie się ponownie. Za pomocą lornetki można śledzić dziesiątki zmiennych i sporządzać dokładne krzywe blasku. Jeśli chodzi o Księżyc, przez wiele lat dominowała praca amatorska. Przed pojawieniem się misji kosmicznych większość profesjonalistów zajmowała się wyłącznie ruchami Księżyca, a mapy amatorskie były w tamtych czasach najlepsze. Była też szansa na
dokonanie naprawdę ciekawych odkryć, jak np. formacji w obszarach libracji, w pobliżu krawędzi zwróconej ku Ziemi półkuli. Kiedy Rosjanie wysłali w 1959 roku swoją pierwszą sondę okołoksiężycową, Lunik 3, uzyskali zdjęcia odległej strony, która nigdy nie jest widoczna z Ziemi, ponieważ jest zawsze odwrócona od nas; mapy amatorskie wykorzystano do skorelowania wyników Lunika 3 z regionami obróconymi w stronę Ziemi. Jednak sytuacja uległa zmianie. Misje kosmiczne umożliwiły nam uzyskanie szczegółowych map całego Księżyca, a amatorska kartografia straciła na wartości, ale nadal jest nad czym pracować. Chociaż Księżyc jest mniej więcej obojętny, czasami zdarzają się bardzo krótkie, niejasne wybuchy, znane jako TLP lub przejściowe zjawiska księżycowe. Prawdopodobnie są one spowodowane łagodnym uwolnieniem gazów spod skorupy ziemskiej i były obserwowane tak często i przez tak wielu wiarygodnych obserwatorów (w tym kilku profesjonalistów), że trudno kwestionować ich realność. Potwierdzenie ich realności uzyskał w
1999 roku Adolfus za pomocą pomiarów wizualnych i polarymetrycznych. Badają je oddani amatorzy i rezultaty są takie z dużym zainteresowaniem. Zakrycia gwiazd przez Księżyc są nadal przydatne, a amatorzy są ekspertami w ich ustalaniu czasu. Zdarzają się również zakrycia gwiazd przez asteroidy, a ponieważ tory są tak wąskie, amator ma wielką przewagę; może zabrać odpowiedni teleskop we właściwe miejsce o właściwym czasie, czego profesjonalista nie jest w stanie zrobić. W ten sposób dokonano ważnych pomiarów pozycji i wymiarów asteroid. Coraz większego znaczenia nabiera także amatorska praca słoneczna. Codzienne śledzenie plam słonecznych jest interesujące, ale do prawdziwych badań Słońca potrzebna jest znaczna ilość złożonego sprzętu. Filtry H-alfa są obecnie powszechne i istnieje kilka doskonałych spektrohelioskopów; w istocie jeden z wiodących brytyjskich badaczy amatorów zajmujących się słońcem, komandor Henry Hatfield, posunął się tak daleko, że zbudował cały dom wokół swojego spektrohelioskopu. Amatorskie
obserwacje rozbłysków i zjawisk towarzyszących służą uzupełnieniu prac prowadzonych przy większych obserwacjach zawodowych. Teraz, gdy dysponujemy niezwykle szczegółowymi widokami planet z różnych misji kosmicznych, można by pomyśleć, że amatorskie obserwacje planet straciły całą swoją wartość. Z całą pewnością tak nie jest. Przykładowo, obecnie (2000 rok) Saturn nie jest monitorowany przez żadną sondę. Od czasu do czasu zdarzają się tam poważne epidemie, a wiele z nich po raz pierwszy widzą amatorzy; na przykład jasną białą plamę z 1933 r. odkrył amator WTHAY, prawdopodobnie najlepiej zapamiętany przez ogół społeczeństwa jako Will Hay, komik teatralny i filmowy. Nową białą plamę po raz pierwszy zauważył także amator Wilber; dopiero później został sfotografowany przez Kosmiczny Teleskop Hubble′a. Jest bardzo prawdopodobne, że następny gwałtowny wybuch na Saturnie, o ile do niego dojdzie, będzie również odkryciem amatorskim, a wczesne powiadomienie oznacza, że profesjonalny sprzęt będzie mógł zostać u
żyty tak szybko, jak to możliwe. Jowisz to kolejny ulubiony cel amatorów, ponieważ cechy powierzchni stale się zmieniają; na Gigantycznej Planecie nigdy nie brakuje czegoś nowego do zobaczenia. W przypadku Jowisza i być może Saturna z powodzeniem można zastosować skromny teleskop. Mars stanowi znacznie większy problem, ponieważ konieczne jest duże powiększenie, ale gdy planeta znajduje się blisko opozycji, amator z, powiedzmy, teleskopem 12 lub 15 cali może pomóc w monitorowaniu zjawisk chmur i zachowania czap polarnych - szczególnie jeżeli ma dostęp do sprzętu elektronicznego. Nawet w przypadku odległego Plutona istnieje zasięg. Bardzo rzadko Pluton zasłania gwiazdę, a kiedy to się ostatnio zdarzało, bardzo cenne były amatorskie pomiary; zanikanie gwiazdy przed zakryciem potwierdziło, że Pluton rzeczywiście posiada rozległą, choć bardzo rzadką atmosferę. W astronomii, podobnie jak we wszystkich innych naukach, współpraca jest sprawą najwyższej wagi. Nie ma sensu dokonywać obserwacji, jeśli inni pracownicy
o tym nie usłyszą. Organem kontrolującym światową astronomię jest IAU, która w rzeczywistości ma charakter międzynarodowy - i takim pozostała nawet podczas najgorszej części zimnej wojny. W IAU jest kilku członków-amatorów, byli nawet urzędnicy-amatorzy. Zgromadzenia Ogólne odbywają się co 3 lata w różnych krajach; rok 2000 przypada na Anglię (Manchester), po latach 1997 (Holandia) i 1994 (Argentyna). W latach sześćdziesiątych XX wieku podjęto próbę powołania analogicznej organizacji amatorskiej, Międzynarodowej Unii Astronomów Amatorów. Istnieje, ale bezsensem byłoby udawać, że odniósł taki sukces, jak oczekiwano, i że potrzebna jest lepsza organizacja. Tymczasem wszystkie kraje mają swoje stowarzyszenia krajowe - na przykład w Wielkiej Brytanii Brytyjskie Stowarzyszenie Astronomiczne, które ma głównie charakter amatorski i nie ma sobie równych w zakresie obserwacji. Większość większych miast na świecie ma własne stowarzyszenia i istnieje zadowalający poziom współpracy, zarówno krajowej, jak i międzynarodowej (zobacz także Podsumowując, można śmiało powiedzieć, że astronomowie-amatorzy podejmują się pracy, której profesjonalista nie chce zrobić, nie ma na to czasu lub rzeczywiście nie może tego zrobić. Prawdą jest również, że praca amatorska jest ceniona i ciepło witana oraz że astronom amator jest obecnie tak samo ważny, jak był w przeszłości.
Galaktyka Andromedy
Galaktyka Andromedy jest najbliższą DROGI MLECZNEJ GALAKTYKĄ SPIRALNĄ, widoczną gołym okiem w ciemną noc jako słaba smuga światła w gwiazdozbiorze Andromedy. Najwcześniejsze wzmianki o mgławicy Andromedy, jak wciąż często się o niej mówi, pochodzą z roku 964 n.e., z "Księgi gwiazd stałych" opublikowanej przez perskiego astronoma AL-SU? FI. Pierwszym Europejczykiem, który oficjalnie zauważył mgławicę Andromedy, był Simon Mayer, niemiecki matematyk i astronom, który nie był świadomy wcześniejszych prac Al-Sûfi. Obiekt ma numer 31 w słynnym KATALOGU MESSIERA, którego początki sięgają XVIII wieku i dlatego często nazywany jest M31. Innym pseudonimem galaktyki Andromedy jest NGC224, ponieważ zajmuje ona numer 224 w NOWYM KATALOGU OGÓLNYM (NGC) opracowanym przez DREYERA w 1888 roku. Współczesne pomiary oparte na zmiennych cefeidach umieszczają M31 w odległości 740 kpc, czyli około 2,4 miliona lat świetlnych. To czyni ją najbliższą Galaktyką spiralną Drogi Mlecznej. Jest dominującym członkiem GRUPY LOKALNEJ i jako taki odgrywa i nadal pełni ważną rolę w badaniach struktury, ewolucji i dynamiki galaktyk, populacji gwiazd, powstawania gwiazd i ośrodka międzygwiazdowego. Do najważniejszych osiągnięć historycznych należą prace HUBBLE′a z lat dwudziestych XX wieku dotyczące odległości do M31, które dowiodły, że istnieją galaktyki poza naszą Drogą Mleczną, oraz prace BAADE z lat czterdziestych XX wieku nad populacjami gwiazd, które doprowadziły do koncepcji starych (populacja II) i młodych (populacja ja) gwiazdy. Zidentyfikowano wiele małych galaktyk towarzyszących, które uważa się za powiązane z M31, niektóre dopiero w zeszłym roku. Są to M32 (eliptyczne o niskiej jasności), NGC 147, 185 i 205 (eliptyczne karłowate), IC 10 (nieregularne karłowate), LGS 3 (obiekt przejściowy między karłowatymi nieregularnymi a karłowatymi sferoidalnymi) oraz And I, II, III, V i VI (sferoidy karłowate). Jest prawdopodobne, że do odkrycia pozostało jeszcze więcej słabych towarzyszy. Rycina 1 przedstawia optyczny obraz galaktyki Andromedy.
Morfologia, masa i zawartość gwiazd
Galaktyka Andromedy to duża galaktyka spiralna wczesnego typu, należąca do KLASYFIKACJI HUBBLE′A Sb, o klasie jasności I-II. Posiada wyraźne centralne zgrubienie gwiazd o efektywnym promieniu 2 kpc, które płynnie przechodzi w wydłużony, spłaszczony sferoidalny składnik starych gwiazd. Jak w większości galaktyk spiralnych, oprócz zgrubienia lub składnika sferoidalnego, istnieje cienki dysk gwiazd i gazu z nałożoną strukturą ramion spiralnych. Łączne światło gwiazd dyskowych maleje wykładniczo wraz z odległością od centrum, co jest typowe dla galaktyk spiralnych. Długość skali dysku wynosi około 5-6 kpc, a M31 jest około 50% większa od naszej Galaktyki Drogi Mlecznej i około dwa razy jaśniejsza. Dysk staje się bardziej niebieski w większej odległości promieniowej od centrum, co może być spowodowane stosunkowo większą liczbą młodszych gwiazd lub mniejszą obfitością ciężkich pierwiastków. Oznaczenia obfitości tlenu, azotu i siarki w ośrodku międzygwiazdowym M31 rzeczywiście wykazują ogólny spadek tych pierwiastków w porównaniu z wodorem wraz ze wzrostem odległości radialnej. Struktura SPIRAL ARM M31 była trudna do określenia ze względu na jej orientację na niebie. Segmenty ramion spiralnych są wyraźnie widoczne w rozmieszczeniu młodych masywnych gwiazd i różnych znaczników ośrodków międzygwiazdowych, takich jak zjonizowany, obojętny i cząsteczkowy wodór oraz pył, ale nie było możliwe połączenie segmentów ramion spiralnych w jednoznaczną, wielką strukturę spiralną . Kolejną komplikacją jest to, że wydaje się, że interakcja z bliskim, małym eliptycznym towarzyszem M32 również zniekształciła ramiona spiralne. Zewnętrzne dyski gwiazdowe i gazowe, powyżej około 20 kpc, wyginają się z głównej płaszczyzny, powodując zjawisko znane jako wypaczanie. Biorąc pod uwagę rozmiar wybrzuszenia i jasność, nie ma wątpliwości, że M31 jest spiralą wcześniejszego typu niż nasza Droga Mleczna. Na przykład całkowita liczba Gromadad Kulistych, która, jak wykazano, jest powiązana z wybrzuszeniem lub jasnością sferoidy, wynosi prawdopodobnie od 400 do 500 w M31, czyli prawie 3-krotnie więcej niż w Drodze Mlecznej. Rozproszenie prędkości gwiazd w zgrubieniu M31 wynosi około 155 km s-1, podczas gdy dla Drogi Mlecznej jest to 130 km-1. Z prędkości obrotowej H I do promienia 30 kpc można wywnioskować, że M31 ma masę co najmniej 3 × 1011 mas Słońca, ale całkowita masa będzie prawdopodobnie znacznie większa w zależności od nieznanego promieniowego zasięgu halo CIEMNEJ MATERII, będącego powszechnym składnikiem galaktyk spiralnych wywnioskowano z wysokich prędkości obrotowych obłoków gazu w odległych dyskach zewnętrznych. Argument czasowy dla Grupy Lokalnej implikuje masę M31 wynoszącą kilka razy 1012 mas Słońca. Biorąc pod uwagę te liczby, ciemna materia musi silnie dominować nad masą wynikającą z widocznych gwiazd i gazu. Populacje gwiazd w M31 zostały omówione w artykule M31: STARYCH POPULACJACH GWIAZD, więc tutaj wystarczy krótkie podsumowanie. Populacja zgrubienia i sferoid jest stara, chociaż znaczne rozproszenie ilości metali w gwiazdach w zgrubieniu, a także w zewnętrznym halo implikuje bardziej skomplikowany scenariusz powstawania niż bardzo szybkie początkowe zapadnięcie się. W przeciwieństwie do sytuacji w Drodze Mlecznej, w wewnętrznym zgrubieniu nie ma obecnie formacji gwiazdowej. Właściwości gromad kulistych M31 są pod wieloma względami podobne do właściwości Drogi Mlecznej, tj. gromady kuliste są stare, wykazują różną zawartość metali i takie same ogólne korelacje pomiędzy rozproszeniem prędkości a jasnością, centralną i średnią jasnością powierzchniową, jak gromady kuliste Galaktyki. Na dysku znajduje się niewielka liczba młodych masywnych gromad, około 10 kpc od centrum. Gromady takie są powszechne w galaktykach późnego typu, takich jak M33 i Obłoki Magellana, ale najwyraźniej są rzadkie we wczesnych typach spiralnych. Mogą to być przodkowie gromad kulistych (o małej masie). Co ciekawe, obiekty te skupiają się głównie w południowo-zachodnim ramieniu spiralnym zakłócanym przez pływy i mogą być podobne do młodych niebieskich gromad obserwowanych w oddziałujących galaktykach. Jedną z zalet bliskiej nam odległości M31 jest to, że umożliwia ona prowadzenie unikalnych eksperymentów. Jedną z nich jest niedawna próba wykrycia MIKROLENSOWANIA w kierunku gwiazd zgrubionych M31 w celu ograniczenia natury ciemnej materii. Chociaż M31 jest zbyt odległa, aby rozdzielić większość światła poszczególnych gwiazd, mikrosoczewkowanie w zasadzie można nadal wykryć jako pojaśnienie pojedynczych pikseli w detektorze, jeśli jedna z wielu gwiazd przyczyniających się do jasności tego piksela zostanie soczewkowana przez ciemny obiekt w halo M31. Kilka z tych badań jest obecnie w toku, poszerzając w ten sposób trwające obserwacje mikrosoczewkowania zgrubienia galaktycznego i Obłoków Magellana.
Region centralny
Galaktyka Andromedy nie zawiera w swoim centrum szczególnie aktywnego jądra, ale wydaje się, że znajduje się tam CZARNA DZIURA o masie około 3×107 mas Słońca. Dowody na to pochodzą z pomiarów prędkości gwiazd w pobliżu centrum, zarówno za pomocą Kosmicznego Teleskopu Hubble′a, jak i z Ziemi. Morfologia obszaru centralnego jest dość zaskakująca, z dwoma pikami w rozkładzie jasności oddzielonymi 0,5 sekundy łukowej. Obecnie preferowana interpretacja jest taka, że to pozorne podwójne jądro jest w rzeczywistości spowodowane pojedynczym ekscentrycznym dyskiem gwiazd krążących wokół czarnej dziury. Jaśniejsze z dwóch "jąder" byłoby wówczas spowodowane gromadzeniem się gwiazd w pobliżu apocentrum mimośrodowego dysku, gdzie ich prędkości są niskie, podczas gdy słabsze "jądro" byłoby spowodowane wzrostem gęstości w kierunku środka. Brak silnej aktywności jądrowej związanej z czarną dziurą może wynikać z ogólnego braku ośrodka międzygwiazdowego w zgrubieniu M31. NoHI lub CO wykryto w odległości 1 kpc
od centrum, chociaż w projekcji na tle jasnego kontinuum gwiazdowego widać pewne obłoki pyłu. W zjonizowanym gazie widoczny jest słaby, rozproszony "dysk spiralny" o promieniowym zasięgu około 500 pc, ale zawierający tylko niewielką ilość masy, być może łącznie zaledwie 1500 mas Słońca. Gaz ten prawdopodobnie pochodzi z masy utraconej przez ewoluujące gwiazdy o małej masie w postaci wiatrów gwiazdowych. Brak aktywności objawia się także słabym poziomem emisji kontinuum radiowego, około 10-krotnie mniejszym niż w centrum Galaktyki.
Powstawanie gwiazd i ośrodek międzygwiazdowy
Jako najbliższa pobliska spirala, M31 jest głównym celem badania właściwości różnych faz gazowych ośrodka międzygwiazdowego i masywnych gwiazd oraz połączeń między nimi. Rozkład przestrzenny wszystkich tych składników, czy to gazu obojętnego, czy zjonizowanego, pyłu czy gwiazd OB, jest bardzo podobny: ogólnie występuje brak gazu i młodych gwiazd w wewnętrznych kilku kpc, pewna ilość gazu i formacja gwiazd w ramionach spiralnych 3- 5 kpc od centrum, silne stężenia w pierścieniu od 8 do 12 kpc i umiarkowane stężenia w ramionach do 15 kpc. Poza tym dysk H I w dalszym ciągu wykazuje strukturę spiralną do około 25 kpc, ze słabym ciągłym FORMOWANIEM GWIAZD w wybranych obszarach. Szybkość powstawania gwiazd można oszacować na podstawie rozkładu zjonizowanego gazu (obszary H II i rozproszony zjonizowany gaz), który wymaga gorących, świecących, a zatem masywnych i młodych gwiazd do jego jonizacji, emisji kontinuum radiowego w dalekiej podczerwieni i światła UV. Ponadto bliskość M31 umożliwia wykrywanie pojedynczych gwiazd OB i wyewoluowanych śladów młodych masywnych gwiazd, takich jak WOLF-RAYET STARS i LUMINOUS BLUE VARIABLES. Wszystkie te znaczniki wskazują, że ogólny poziom aktywności gwiazdotwórczej w M31 jest dość niski, około ≈ 0,3-0,5 mas Słońca rocznie, w porównaniu z Drogą Mleczną i innymi spiralami, takimi jak M33. Ponadto największe kompleksy gwiazdotwórcze w M31 wydają się skromne w porównaniu z kompleksami występującymi w innych galaktykach. Masa atomowego wodoru wynosi około 4 × 109 mas Słońca, podczas gdy masa wodoru cząsteczkowego jest ponad 10-krotnie mniejsza; niepewność co do współczynnika konwersji strumienia linii CO na masę molekularną gazu sprawia, że to ostatnie oszacowanie jest raczej niedokładne, ale gęstość powierzchniowa wodoru niskocząsteczkowego jest zgodna z ogólnie niskim tempem powstawania gwiazd w M31. Istnieją pewne dowody na obecność bardzo zimnego gazu cząsteczkowego w M31, co może mieć dalsze konsekwencje dla całkowitej masy gazu cząsteczkowego. M31 była jedną z pierwszych spiral zewnętrznych, w przypadku których wykryto rozległą dystrybucję zjonizowanego gazu poza tradycyjnymi obszarami H II. Ten rozproszony zjonizowany gaz, nazywany także ciepłym zjonizowanym ośrodkiem, jest dominującym składnikiem zjonizowanego gazu w galaktykach pod względem masy i zasięgu przestrzennego. Aby pozostać zjonizowanym, wymaga dużej ilości energii, a jej szerokie rozmieszczenie oznacza, że morfologia ośrodka międzygwiazdowego musi być bardzo porowata, w przeciwnym razie fotony ultrafioletowe z gwiazd OB nie mogłyby podróżować daleko od swojego źródła, zanim zostaną zaabsorbowane. Informacje o promieniach kosmicznych i polu magnetycznym rozkład w M31 uzyskano na podstawie szczegółowych obserwacji kontinuum radiowego na kilku częstotliwościach. Kontinuum radiowe jest silnie zdominowane przez nietermiczną emisję synchrotronową, pochodzącą od wysoce relatywistycznych elektronów krążących spiralnie w polu magnetycznym. Informacje na temat natężenia i kierunku pola można wywnioskować z intensywności emisji, wektorów polaryzacji i miar rotacji obserwowanych w kierunku pozagalaktycznych źródeł tła. Wielkoskalowe pole magnetyczne rozciąga się od wnętrza 5 kpc do pierścienia gwiazdotwórczego aż do 25 kpc od centrum. Główna organizacja pola jest toroidalna, ułożona wzdłuż pierścienia, z pewnymi dowodami na obecność składowej poloidalnej rozciągającej się do halo. Struktura pola wydaje się być zgodna z oczekiwaniami dla DYNAMO w trybie parzystym.
Perspektywy na przyszłość
Nie ma wątpliwości, że galaktyka Andromedy będzie nadal odgrywać kluczową rolę w przyszłych badaniach morfologii i ewolucji galaktyk, tak jak miało to miejsce w przeszłości. Dzięki nowej generacji teleskopów naziemnych i kosmicznych możemy spodziewać się nowych wyników w wielu obszarach, takich jak badania mikrosoczewkowania, mapy o wysokiej rozdzielczości wszystkich składników ośrodka międzygwiazdowego, pomiary obfitości w poszczególnych gwiazdach i dalsze odkrywanie gwiazdy historia powstawania dysku i wybrzuszenia M31.
Anomalne promienie kosmiczne
Anomalne promienie kosmiczne są jonowym składnikiem strumienia promieniowania kosmicznego, który w heliosferze jest znaczny przy energiach w zakresie od 20 MeV do ponad 500 MeV. Składają się z wielu rodzajów jonów, od wodoru po neon, ale węgla anomalnego jest znacznie za mało. Najwyższa energia kinetyczna odnotowana dla tego składnika wynosi ponad 1,6 GeV. Obserwacje z detektorów znajdujących się na pokładzie heliosferycznego statku kosmicznego pokazują, że ich intensywność w dalszym ciągu rośnie aż do maksymalnej odległości osiąganej przez obecne statki kosmiczne, co wskazuje, że są one przyspieszane w zewnętrznym Układzie Słonecznym. Po raz pierwszy zaobserwowano je na początku lat 70. XX wieku i początkowo nazwano je anomalnymi promieniami kosmicznymi ze względu na ich niezwykły skład oraz ponieważ ich widmo różniło się od widma dobrze znanych już galaktycznych lub słonecznych promieni kosmicznych. Nazwa ta przylgnęła do nas, mimo że obecnie wiemy znacznie więcej o naturze i pochodzeniu tych cząstek. W 1974 roku zasugerowano, że składnik anomalny jest wynikiem przyspieszenia w heliosferze niedawno zjonizowanych międzygwiazdowych obojętnych atomów. Neutralne atomy napływają do Układu Słonecznego z ośrodka międzygwiazdowego, a następnie są jonizowane przez słoneczne promieniowanie ultrafioletowe lub w wyniku wymiany ładunku z WIATEM SŁONECZNYM. Hipoteza ta bardzo dobrze wyjaśnia niezwykły skład składnika anomalnego, gdyż tylko początkowo obojętne cząstki międzygwiazdowe mogą przedostać się do heliosfery i wziąć udział w tym procesie. Na przykład jony węgla, które w ośrodku międzygwiazdowym są prawie całkowicie zjonizowane i dlatego międzyplanetarne pole magnetyczne w większości uniemożliwia im przedostanie się do Układu Słonecznego, są szczególnie uszczuplone w anomalnym promieniu kosmicznym. Nowsze obserwacje wykazały, że większość anomalnych promieni kosmicznych jest rzeczywiście naładowana pojedynczo, jak można się spodziewać na tym zdjęciu. Później, w 1981 roku, wskazano, że wiele cech składnika anomalnego można wyjaśnić, jeśli większa część przyspieszania nowo zjonizowanych cząstek zachodzi w szoku końcowym wiatru słonecznego, poprzez mechanizm przyspieszenia szoku dyfuzyjnego. Późniejsze wyrafinowane symulacje numeryczne przeprowadzone w połowie lat 80. XX wieku wyraźnie wykazały, że energetyczne, pojedynczo naładowane cząstki mogą być bardzo skutecznie przyspieszane w szoku końcowym. Zasadnicze zaobserwowane cechy widma i gradientów przestrzennych można w bardzo naturalny sposób wyjaśnić za pomocą tego obrazu. Ten obraz przyspieszania nowo zjonizowanych międzygwiazdowych cząstek neutralnych i późniejszego przyspieszania do wysokich energii w momencie szoku końcowego wiatru słonecznego jest obecnie standardowym paradygmatem. Paradygmat ten schematycznie zilustrowano na rysunku 1, który przedstawia nadchodzące neutralne atomy, ich jonizację i późniejsze przyspieszenie w momencie szoku końcowego wiatru słonecznego.
Przyśpieszenie
Przyspieszenie anomalnych promieni kosmicznych od niskich energii do typowych obserwowanych energii ?200-300MeV musi nastąpić w czasie krótszym niż kilka lat, ponieważ w przeciwnym razie nastąpiłaby dalsza utrata elektronów w wyniku interakcji z otaczającym gazem i nie byłyby one pojedynczo naładowane . W rzeczywistości, niezależnie od miejsca lub modelu akceleracji, zaobserwowany fakt, że anomalne cząstki tlenu promieniowania kosmicznego przy ?160 MeV są nadal głównie naładowane pojedynczo, oznacza, że całkowita długość drogi, jaką przebyły od momentu przyspieszenia, jest mniejsza niż 0,2 pc. Biorąc pod uwagę, że nie mogą one przemieszczać się po linii prostej ze względu na nieregularne pola magnetyczne otoczenia, fakt ten wymaga, aby anomalne promienie kosmiczne musiały być lokalnie przyspieszane. Przy ich zaobserwowanej prędkości oznacza to, że czas od przyspieszenia wynosi mniej niż kilka lat. Przyspieszenie szoku dyfuzyjnego w quasi-prostopadłym szoku końcowym wiatru słonecznego, które osiąga
przyspieszenie do ≈200 MeV w ciągu około pół roku, jest jedynym znanym obecnie procesem, który może osiągnąć przyspieszenie w dopuszczalnym czasie. W szczególności powszechnie przywoływany mechanizm przyspieszenia Fermiego drugiego rzędu, obejmujący zmienne pola elektryczne powiązane z falami, jest zdecydowanie za wolny. Przyspieszenie wstrząsu dyfuzyjnego jest zawarte w równaniu transportu promieniowania kosmicznego Parkera , jeśli pozwoli się, aby przepływ wiatru miał nieciągłość ściskającą odpowiadającą uderzeniu. Ta nieciągłość ściskająca jest miejscem przyspieszenia. Można wykazać, że proces przyspieszania w quasi-prostopadłym uderzeniu jest ściślej powiązany z dryfem cząstek w otaczającym polu elektrycznym związanym z ruchem płynu niż ze sprężaniem płynu podczas uderzenia, chociaż matematycznie jest on zawarty w składnik kompresji równania transportu. Można wykazać, że energia ΔT uzyskana przez cząstkę posiadającą ładunek elektryczny Ze podczas quasi-prostopadłego wstrząsu jest w
przybliżeniu energią potencjalną elektrostatyczną Δφ uzyskaną podczas dryfowania wzdłuż powierzchni uderzenia: ΔT ≈ ZeΔ?. Możemy pisać dla wiatru słonecznego
(Δφ)max = Brr2Ω⊙ /c ≈ 240 MeV/Z (1)
gdzie c jest prędkością światła, a wartość liczbowa wynika z zastosowania promieniowego pola magnetycznego o wartości 3,5 γ w promieniu 1 AU i obrotowej prędkości kątowej Słońca Ω⊙= 2,9 × 10?6. Wynika z tego, że dla cząstek posiadających ładunek Z istnieje na ogół charakterystyczna energia Tc ≈ Ze(Δ&|phi;)max, powyżej której widmo zaczyna gwałtownie spadać. Z tego powodu wszelkie wielokrotnie naładowane cząstki należy przyspieszać do wyższych energii niż cząstki naładowane pojedynczo. Cząsteczki "odpłyną" z szoku, zanim zyskają więcej energii. Pojedynczo naładowane cząstki przyspieszane w szoku końcowym miałyby wówczas widmo energii w szoku końcowym, które jest w przybliżeniu zgodne z prawem mocy i które wykazuje spadek powyżej energii pomiędzy 200 a 300 MeV. Ten limit energii niekoniecznie spowoduje ostre odcięcie w widmie energii, ponieważ dyfuzja spowoduje, że niektóre cząstki zyskają więcej energii, a inne mniej. W wyniku dalszych interakcji z materiałem otoczenia można wytworzyć wielokrotnie naładowane cząstki. Mogą one następnie zyskać znacznie więcej energii, w zależności od ich ładunku, i dlatego będą dominować przy wyższych energiach, wykraczających poza energię charakterystyczną dla cząstek o pojedynczym ładunku. Obserwacje przeprowadzone w ciągu ostatnich kilku lat wykazały przejście w kierunku zwielokrotnionych naładowanych anomalnych promieni kosmicznych przy energiach większych niż około 240 MeV.
Wyniki obliczeń modelowych
Omówiony powyżej scenariusz został uwzględniony zarówno w dwu-, jak i trójwymiarowych symulacjach numerycznych transportu i przyspieszenia w heliosferze, które rozwiązują równanie transportu dla realistycznych parametrów. Zauważamy, że ogólne heliosferyczne pole magnetyczne zmienia znak co 11 lat, podczas maksimum plam słonecznych. Ruchy energetycznych cząstek naładowanych zależą w znacznym stopniu od znaku pola magnetycznego. W szczególności prędkość dryfu, daną dla izotropowego rozkładu cząstek o prędkości w i pędu p w otaczającym polu magnetycznym B(r), wyraża się wzorem Vd = pcw/3Ze ⋅∇ × B/B2 . Jest oczywiste, że Vd zmienia kierunek wraz ze zmianą znaku pola magnetycznego. W obecnym okresie minimum plam słonecznych północne pole magnetyczne Słońca jest skierowane na zewnątrz od Słońca, podczas gdy przed ostatnim maksimum było skierowane do wewnątrz. Obecne modele są najdokładniejsze podczas minimum plam słonecznych, kiedy arkusz prądu międzyplanetarnego jest najbliższy równikowi, dlatego zasadniczo omawiamy dwie heliosfery, jedną w pobliżu minimum plam słonecznych, gdy pole jest skierowane na zewnątrz (prąd), i jedną w pobliżu następnego minimum plam słonecznych, gdy pole jest skierowane do wewnątrz. Najpierw rozważ wyniki modelu dla przypadku, w którym cząstki o niskiej energii są wtryskiwane równomiernie na wszystkich szerokościach geograficznych w momencie uderzenia. Obliczone i zaobserwowane widma
porównano dla danych zebranych w 1985 r. (północne pole magnetyczne skierowane do wewnątrz). Obliczone widma energii anomalnego tlenu są wyraźnie zgodne z widmami obserwowanymi. Dotyczy to również innych widm. Widzimy, że intensywność wzrasta wraz z promieniem, podobnie jak w przypadku galaktycznych promieni kosmicznych, aż do szoku końcowego (w promieniu 60 jednostek astronomicznych). Dalej intensywność maleje aż do zewnętrznej granicy heliosfery. Wzdłuż szoku maksymalne natężenie występuje na szerokości geograficznej, która zmienia się wraz ze zmianą znaku pola magnetycznego. Jeśli północne międzyplanetarne pole magnetyczne jest skierowane na zewnątrz (A > 0), cząstki dryfują w kierunku bieguna wzdłuż powierzchni uderzeniowej, a następnie do wewnątrz i w dół od biegunów do arkusza prądu, a maksimum intensywności występuje w pobliżu biegunów. Dla A < 0 dryfty są w przeciwnym kierunku, a maksimum przesuwa się w stronę równika. Dokonano licznych pomiarów gradientów promieniowych i równoleżnikowych składowej anomalnej. Ogólną cechą symulacji anomalnych promieni kosmicznych i galaktycznych promieni kosmicznych jest to, że przy identycznych parametrach równoleżnikowe gradienty anomalnych promieni kosmicznych są znacznie większe niż w przypadku cząstek galaktycznych. Dzieje się tak w dużej mierze wskutek dużego równoleżnikowego gradientu anomalnych promieni kosmicznych wywołanych dryfem podczas przyspieszania w momencie uderzenia. Dotyczy to również modeli. Niezawodne przewidywania modeli są takie, że gradient równoleżnikowy w pobliżu aktualnej płachty, w pobliżu minimum plam słonecznych, powinien zmienić znak w alternatywnych minimach plam słonecznych. W szczególności podczas ostatniego minimum plam słonecznych, w pobliżu 1975 r., intensywność zarówno galaktycznego promieni kosmicznych, jak i składnika anomalnego powinna wzrosnąć w kierunku od aktualnej warstwy, podczas gdy podczas minimum plam słonecznych w 1986 r. promienie kosmiczne powinny maleć w oddalaniu od obecnej warstwy. Oczekuje się, że w pobliżu minimum plam słonecznych, gdy obecna warstwa jest prawie płaska, najważniejsze będą skutki tych dryfów. W 1977 roku PIONEER zaobserwował, zgodnie z przewidywaniami, dodatni gradient anomalnego helu w kierunku od aktualnej warstwy. Obserwacje przeprowadzone podczas ostatniego minimum plam słonecznych w latach 1984 i 1985, kiedy obecne nachylenie arkusza spadło poniżej szerokości geograficznej statku kosmicznego VOYAGER 1, wykazały, że znak gradientu równoleżnikowego zmienił się z dodatniego na ujemny, ponownie zgodnie z przewidywaniami teoria.
Odbiór jonów
Powyższa dyskusja podsumowała obecny stan przyspieszania anomalnych promieni kosmicznych do najwyższych zaobserwowanych energii, przekraczających 1 GeV. Najbardziej prawdopodobnym mechanizmem tego przyspieszenia wydaje się przyspieszenie dyfuzyjne w szoku końcowym wiatru słonecznego. Nie do końca rozwiązana pozostaje kwestia, w jaki sposób wcześniej nieprzyspieszone jony wychwycone są przyspieszane do energii wystarczająco dużych, aby można je było dalej przyspieszać w szok kończący. Ten "problem wtrysku" wynika z faktu, że nieprzyspieszone jony wychwytujące mają prędkość mniejszą lub równą prędkości konwekcji wiatru słonecznego, a zatem nie są wystarczająco mobilne, aby napotkać prawie prostopadły wstrząs wielokrotny niezbędny do wzmocnienia znacząca energia. Wykazano, że propagujące się wstrząsy łatwiej przyspieszają wychwytywanie jonów o niskiej energii niż wstrząsy wywołane wiatrem słonecznym. W związku z tym są bardziej naturalnymi wtryskiwaczami cząstek i mogą stanowić pierwszy etap dwuetapowego procesu przyspieszania wychwytu jonów do anomalnych energii kosmicznych.
Zasada antropiczna
Pierwsi ludzie zaczęli od "antropocentrycznego" poglądu, że znajdujemy się w centrum wszechświata. Zjawiska zwykle interpretowano antropomorficznie i nawet prawa natury wydawały się skupiać na człowieku w tym sensie, że można je było wykorzystać do własnych celów. Jednak ta perspektywa wkrótce została zachwiana: najpierw przez odkrycie MIKOŁAJA KOPERNIKA, że Ziemia krąży wokół Słońca, a następnie przez "Principia" NEWTONA, które doprowadziły do "mechanistycznego" spojrzenia na świat. Mechanizm mówi, że wszechświat jest gigantyczną maszyną, w której działają prawa natury zupełnie nieświadomi obecności człowieka. Jednakże w ciągu ostatnich 40 lat rozwinęła się reakcja na mechanizm, który nazywa się poglądem "antropicznym" . Oznacza to, że pod pewnymi względami wszechświat musi być taki, jaki jest, ponieważ w przeciwnym razie nie mógłby wytworzyć życia i nie bylibyśmy tutaj, spekulując na ten temat. Chociaż termin "antropiczny" pochodzi od greckiego słowa oznaczającego "człowiek", należy podkreślić, że jest to w rzeczywistości określenie błędne, ponieważ większość argumentów dotyczy życia w ogóle, a nie ludzi w szczególności. Zacznijmy od bardzo prostej ilustracji argumentu antropicznego, rozważmy pytanie, dlaczego wszechświat jest tak duży, jak jest? Mechanistyczna odpowiedź jest taka, że w dowolnym momencie rozmiar obserwowalnego wszechświata to odległość, jaką przebyło światło od Wielkiego Wybuchu. Ponieważ obecny wiek Wszechświata wynosi około 1010 lat, jego obecny rozmiar wynosi około 1010 lat świetlnych. Nieodłącznym elementem tej prostej odpowiedzi jest przekonanie, że nie ma żadnego przekonującego powodu, dla którego wszechświat ma takie rozmiary; tak się składa, że ma 1010 lat. Istnieje jednak inna odpowiedź na to pytanie, której jako pierwszy udzielił Robert Dicke . Jego argumentacja wygląda następująco. Aby mogło istnieć życie, musi istnieć węgiel lub przynajmniej jakaś forma chemii. Obecnie węgiel wytwarzany jest poprzez gotowanie wewnątrz gwiazd, a proces ten trwa około 1010 lat. Dopiero po tym czasie gwiazda może eksplodować jako SUPERNOWA, rozrzucając nowo wypalone pierwiastki po całej przestrzeni, gdzie mogą ostatecznie stać się częścią planet rozwijających życie. Z drugiej strony Wszechświat nie może być dużo starszy niż 1010 lat, w przeciwnym razie cała materia zostałaby przetworzona na pozostałości gwiazdowe, takie jak BIAŁE KARLERY, GWIAZDY NEUTRONOWE i CZARNE DZIURY. Ponieważ wszystkie formy życia, jakie możemy sobie wyobrazić, wymagają istnienia gwiazd, sugeruje to, że życie może istnieć tylko wtedy, gdy Wszechświat ma około 1010 lat. Ten zaskakujący wniosek wywraca do góry nogami mechanistyczną odpowiedź. Już sam ogrom wszechświata, który na pierwszy rzut oka wydaje się wskazywać na znikomość ludzkości, jest w rzeczywistości konsekwencją jej istnienia. Nie oznacza to, że sam wszechświat nie mógłby istnieć w innym rozmiarze, a jedynie, że nie moglibyśmy być tego świadomi, gdyby jego rozmiar był inny. Oczywiście może to być po prostu zbieg okoliczności, że wiek Wszechświata jest mniej więcej taki, jaki jest niezbędny do powstania inteligentnego życia. Freeman Dyson argumentował również, że życie może przetrwać nawet po 10
Skale konstrukcji
Większość argumentów antropicznych dotyczy bezwymiarowych kombinacji stałych fizycznych, takich jak prędkość światła - (c), stała Plancka (h), stała grawitacji (G), ładunek elektronu (e) i masy cząstek elementarnych takie jak proton (mp) i elektron (me). Na przykład stała elektryczna "drobnej struktury" α = e2/hc = 1/137 określa siłę oddziaływania elektrycznego i odgrywa kluczową rolę w każdej sytuacji, w której ważny jest elektromagnetyzm. Podobnie stała grawitacyjna drobnej struktury, αG = Gm2 p/hc = 6 × 10-39, określa siłę oddziaływania grawitacyjnego i odgrywa ważną rolę w określaniu struktury bardzo dużych obiektów (takich jak gwiazdy). Fakt, że αGαG jest znacznie mniejsze niż α, odzwierciedla fakt, że siła grawitacji między dwoma protonami jest znacznie mniejsza niż siła elektryczna między nimi. Grawitacja dominuje w strukturze dużych ciał tylko dlatego, że są one elektrycznie obojętne, w związku z czym siły elektryczne znoszą się. Godne uwagi jest to, że prosta fizyka pokazuje, że z dokładnością do rzędu wielkości α i αG określają masę i rozmiar prawie każdego naturalnie występującego obiektu we wszechświecie . Na przykład wszystkie gwiazdy mają masę w przybliżeniu αG-3/2 ∼ 1060 razy większą od masy protonu; największe planety (takie jak Jowisz) mają masę mniejszą o współczynnik α3/2; a masa ludzi - jeśli założymy, że muszą żyć na planecie o odpowiedniej temperaturze i atmosferze sprzyjającej życiu i że nie mogą się rozbić przy upadku - jest rzędu (α/αG)3/4 razy większej masa protonu. Charakterystyczna masa galaktyki jest mniej poznana, ale na podstawie jednego z możliwych argumentów można ją zapisać jako α-2Gα 4 razy masa protonu. Podobnie można wyrazić rozmiary tych obiektów. Należy podkreślić, że wszystkie zależności od α i αG 1 są konsekwencjami prostej fizyki. Nie wprowadzono żadnego argumentu antropicznego poza - jak wkrótce zobaczymy - wyprowadzeniem skali samego wszechświata.
Słabe i mocne zasady antropiczne
Powróćmy teraz do twierdzenia Dicke′a, że wiek Wszechświata (t0) musi być w przybliżeniu równy czasowi spalania jądra gwiazdy. Możemy uszczegółowić ten argument, ponieważ fizyka przewiduje, że czas życia gwiazdy wynosi około α-1G ∼ 1040 razy czas tp = h/mpc2 ∼ 10-23 s wymagany do przejścia światła przez proton. Można wywnioskować, że stosunek wielkości wszechświata do wielkości atomu musi być porównywalny ze stosunkiem α do αG. Zatem zasada antropiczna wyjaśnia, dlaczego te dwa stosunki muszą mieć tę samą ogromną wartość 1036. Można również wyprowadzić proste wyrażenie na liczbę protonów we wszechświecie. Dzieje się tak, ponieważ model Wielkiego Wybuchu zakłada, że masa obserwowalnego Wszechświata wynosi ∼ρ0c3t30, gdzie ρ0 jest jego obecną gęstością. Ponieważ model wymaga również ρ0 ∼ 1/Gt20 , masa ta wynosi c3t0/G ∼ α-2Gmp, więc liczba protonów we wszechświecie jest rzędu α-2G ∼ 1080. (Zauważ, że liczba gwiazdy w obserwowalnym wszechświecie muszą zatem mieć około α-1/2G ∼ 1020, na co przywołujemy później.) Istnienie tych "wielkoliczbowych" zbieżności docenia się od pewnego czasu, ale bez odwoływania się do zasady antropicznej, lub alternatywnie rodzaj modelu zmiennej G przywołanego przez Diraca (1937), należy je uważać za przypadkowe. Argument Dicke&rprime;a pomaga nam zrozumieć, dlaczego powyższe "wielkoliczbowe" zbieżności przeważają, ale nie mówi nam, dlaczego α-1G ma swoją szczególną ogromną wartość. Jego argumentacja jest zatem przykładem tak zwanej słabej zasady antropicznej. To akceptuje stałe natury jako dane, a następnie pokazuje, że nasze istnienie narzuca efekt selekcji na to, kiedy obserwujemy wszechświat. W związku z tym jest to po prostu logiczna konieczność: stwierdzenie, że musimy istnieć w określonym czasie, nie jest bardziej zaskakujące niż stwierdzenie, że musimy istnieć w określonym miejscu (np. blisko gwiazdy). Zaskakujące może być odkrycie, jakie są efekty selekcji, ale ich istnienie w zasadzie nie jest zaskakujące. W rzeczywistości większość fizyków zgodziłaby się ze słabą wersją zasady antropicznej. Problem pojawia się, gdy rozważymy, czy stałe natury, takie jak G, same w sobie są zdeterminowane wymogiem powstania życia, co jest czasami określane jako "silna zasada antropiczna". (W dość mylący sposób wyrażenie to jest również używane do opisania raczej odmiennego poglądu, że wszechświat musi mieć właściwości, aby mogło powstać życie . To, że słaba zasada może nie być całą historią, sugeruje również fakt że wszystkie skale są względne. Gdyby stałe struktury subtelnej różniły się od tego, co obserwujemy, wszystkie skale uległyby zmianie, ale podstawowe zależności między nimi pozostałyby takie same. Można na przykład wyobrazić sobie hipotetyczny wszechświat, w którym wszystkie prawa mikrofizyczne pozostały niezmienione, ale G było (powiedzmy) 106 razy silniejsze. Masy planet i gwiazd (∼α-3/2G ) spadłyby wówczas o 109, ale gwiazdy ciągu głównego spalające wodór nadal istniałyby, aczkolwiek ich czas życia (∼α-1G ) wynosiłby 104 lata, a nie 1010 lat. Co więcej, argument Dicke′a nadal miałby zastosowanie: hipotetyczny obserwator patrzący na wszechświat w czasie t0 ∼ tMS stwierdziłby, że liczba cząstek we wszechświecie jest 1012 razy mniejsza niż w naszym, ale nadal odnalazłby opisane powyżej "duże" zbieżności. Jeśli ktoś ustaliłby αG, ale pozwolił na zmianę α, efekty byłyby mniej ekstremalne, ale nadal bardzo zauważalne. Jakie są argumenty przeciwko "poznawalności" tego rodzaju przyspieszonego wszechświata na małą skalę? Jedno z dość luźnych ograniczeń αG wynika z rozważań biologicznych. Widzieliśmy, że liczba gwiazd w obserwowalnym wszechświecie jest rzędu α-1/2G. Jeśli uznamy gwiazdy - lub przynajmniej powiązane z nimi układy słoneczne - za potencjalne miejsca życia, jest to również liczba miejsc, w których życie mogło powstać. Oczywiście nie jest to warunek wystarczający do życia, ponieważ istnieje cały szereg dodatkowych warunków, z których każdy może być bardzo nieprawdopodobny. Na przykład gwiazda musi mieć planetę, planeta musi znajdować się w odpowiedniej odległości od gwiazdy, musi mieć odpowiednią atmosferę i chemię oraz muszą istnieć odpowiednie warunki, aby mogły powstać pierwsze samoreplikujące się komórki . Jest zatem oczywiste, że ogólne prawdopodobieństwo (P) powstania życia w jakimkolwiek konkretnym miejscu musi być bardzo małe. Jeśli chcemy upierać się, że gdzieś we wszechświecie istnieje życie, potrzebujemy, aby liczba miejsc występowania życia pomnożona przez prawdopodobieństwo P przekroczyła 1. Oznacza to, że αG musi być mniejsze niż P2. Na przykład, gdyby P wynosiło 10-15, potrzebne byłoby αG < 10-30. Nie jest to bardzo precyzyjny argument, ale daje jakościowy powód, dla którego αG musi być mała. Istnieją jednak bardziej szczegółowe argumenty antropiczne, które w węższy sposób określają αG. Pierwszy przykład takiego argumentu podał Brandon Carter i dotyczył istnienia gwiazd z otoczkami konwekcyjnymi . Taka gwiazda powstaje, gdy ciepło wytwarzane w jej jądrze w wyniku reakcji jądrowych jest transportowane na powierzchnię głównie w drodze wielkoskalowych ruchów samego materiału gwiazdowego. Dzieje się tak zazwyczaj w przypadku wystarczająco małych gwiazd (czerwonych karłów). Z kolei większe gwiazdy (niebieskie olbrzymy) są zwykle "promieniujące" w tym sensie, że ciepło wydostaje się głównie poprzez przepływ promieniowania. Linią podziału pomiędzy tymi dwoma typami jest pewna masa krytyczna, która może wynosić około α-2 Gα10mp. Tak się składa, że ta masa krytyczna mieści się w zakresie mas ?α ?3/2 G mp, w którym gwiazdy faktycznie istnieją tylko dzięki niezwykłej koincydencji αG ∼ α20. Gdyby G (a co za tym idzie αG) było nieco większe, wszystkie gwiazdy byłyby niebieskimi olbrzymami; gdyby był nieco mniejszy, wszystkie gwiazdy byłyby czerwonymi karłami. Warunek konwekcji nie określa rzeczywistych wartości α i αG, ale określa prawo skalowania między nimi i wyjaśnia, dlaczego αG jest o wiele mniejsze niż α. Carter przypisał tej zależności znaczenie antropiczne na tej podstawie, że powstawanie układów planetarnych można powiązać z gwiazdami konwekcyjnymi. Sugestia ta opierała się na obserwacji, że czerwone karły mają znacznie mniejszy moment pędu niż niebieskie olbrzymy, a utrata momentu pędu może być konsekwencją powstawania planet. Argument ten nie jest już przekonujący, ponieważ istnieją inne sposoby utraty momentu pędu. Lepszym argumentem może być to, że tylko gwiazdy konwekcyjne wytwarzają wiatry w swojej wczesnej fazie, wystarczająco intensywne, aby zdmuchnąć gazową otoczkę pobliskich planet, ułatwiając w ten sposób powstawanie planet stałych z atmosferami nie zawierającymi wodoru. W każdym razie Carter wnioskuje, że gdyby αG było znacznie większe od α20, nie powstałyby żadne planety, a zatem i życie. Gdyby była znacznie mniejsza, wszystkie gwiazdy byłyby chemicznie jednorodne dzięki mieszaniu konwekcyjnemu i nie uzyskano by struktury powłoki typu "skórka cebuli", która charakteryzuje modele sprzed supernowej.
Słabe i mocne siły
W skalach mniejszych niż atomy wchodzą w grę jeszcze dwie podstawowe siły natury: siła silna i siła słaba. Podobnie jak grawitacja i elektromagnetyzm, siłę tych sił można opisać za pomocą bezwymiarowych stałych drobnych struktur. Oddziaływanie słabe ma stałą sprzężenia αW = (gm2ec/h3) ∼ 10-10 gdzie g ∼10-49erg cm3 jest stałą Fermiego. Zatem siła jego interakcji jest pośrodku siły grawitacji i elektryczności. Bezwymiarowa stała opisująca siłę silną jest oznaczona przez αS i ma wartość rzędu 10. Chociaż siły mocne i słabe są o wiele rzędów wielkości silniejsze od siły grawitacji, to obie mają krótki zasięg i stają się pomijalne w odległościach 10-13 cm i odpowiednio 10-15 cm. Z tego powodu nie odgrywają one istotnej roli w określaniu struktury obiektów większych od atomów. Okazuje się . że wiele cech chemii jest wrażliwych na wartość αS. Na przykład, jeśli αS wzrośnie o 2%, wszystkie protony we wszechświecie połączą się podczas nukleosyntezy Wielkiego Wybuchu w diprotony (jądra składające się z dwóch protonów). W tym przypadku nie byłoby wodoru, a tym samym spalania wodoru gwiazdy. Ponieważ gwiazdy miałyby wówczas znacznie skrócony czas ciągu głównego, mogłoby nie być czasu na powstanie życia. Gdyby αS zwiększyć o 10%, sytuacja byłaby jeszcze gorsza, bo wszystko trafiałoby do jąder o nieograniczonej wielkości i nie byłoby tam interesującej chemii. Brak chemii miałby również miejsce, gdyby αS zmniejszono o 5%, ponieważ wszystkie deuterony byłyby wówczas niezwiązane i można było mieć tylko wodór. Najbardziej wrażliwe ograniczenie wartości αS jest związane z tak zwaną reakcją "potrójnej alfa". Gwiazda wytwarza węgiel poprzez połączenie dwóch cząstek alfa w jądro berylu, a następnie dodanie kolejnej cząstki alfa w celu utworzenia jądra węgla (4He + 4He -> 8Be, 8Be + 4He -> 12C). Problem w tym, że beryl jest niestabilny (w przeciwnym razie "błysk helu" w olbrzymach doprowadziłby do katastrofalnej eksplozji) i dawniej sądzono, że ulegnie rozkładowi, zanim dodatkowa cząstka alfa będzie mogła się z nim połączyć. Dlatego przez wiele lat trudno było zrozumieć, dlaczego we wszechświecie istnieje węgiel. Następnie Fred HOYLE (Hoyle 1953) zdał sobie sprawę, że w drugim etapie musi wystąpić rezonans (tj. zwiększony współczynnik interakcji), który umożliwia utworzenie węgla, zanim zniknie beryl, tj. 12C musi mieć stan o energii tuż powyżej sumy energie 8Be i 4He. Nie ma jednak podobnego, korzystnie umiejscowionego rezonansu w 16O; w przeciwnym razie prawie cały węgiel zostałby przekształcony w tlen. Po wysunięciu tej sugestii szukano rezonansu w laboratorium i szybko go znaleziono, można więc uznać to za pierwszą potwierdzoną prognozę antropiczną. Rzeczywiście wymagane dostrojenie jest tak precyzyjne, że Hoyle doszedł do wniosku, że wszechświat musi być "pracą odkrytą". Wartość αsub>W jest również związana z interesującym ograniczeniem antropicznym związanym z supernowymi. Widzieliśmy, że supernowe są niezbędne do powstania życia, ponieważ rozprzestrzeniają ciężkie pierwiastki po całym wszechświecie. Jednak nadal nie jest pewne, dlaczego gwiazda eksploduje po spaleniu paliwa jądrowego. Jednym z wyjaśnień jest to, że rdzeń gwiazdy staje się bardzo gorący podczas zapadnięcia się, co generuje wiele neutrin, które następnie rozrywają otoczkę w wyniku słabych interakcji. Aby ten model zadziałał, wymagana jest, aby skala czasu interakcji neutrin z jądrami w otoczce była porównywalna z dynamiczną skalą czasu. Gdyby była znacznie dłuższa, otoczka byłaby zasadniczo przezroczysta dla neutrin; gdyby był znacznie krótszy, neutrina zostałyby uwięzione w jądrze i nie mogłyby uciec, aby zdeponować swój pęd w słabiej związanych otaczających warstwach. Obie skale czasowe są porównywalne pod warunkiem, że αG ∼ α4W . Wiemy, że ta zależność zachodzi liczbowo, ale zasada antropiczna wyjaśnia, dlaczego musi ona zachodzić. Jeśli więc przyjmiemy, że αG jest zdeterminowane antropicznie, musimy również przyjąć, że αW jest tak zdeterminowane. Co dość niezwykłe, zależność αG ∼ α4W również odgrywa kluczową rolę w obliczeniach nukleosyntezy Wielkiego Wybuchu. Przewidywanie, że 24% masy Wszechświata zamieniło się w hel w ciągu zaledwie kilku minut, jest jednym z największych triumfów obrazu Wielkiego Wybuchu. Jednakże produkcja helu zależy w sposób wrażliwy od stosunku neutronów do protonów, gdy słabe oddziaływania stają się wolniejsze niż kosmologiczna szybkość ekspansji w temperaturze 1010 K, a jedynym powodem, dla którego uzyskuje się interesującą wydajność helu, jest "zamrożenie" temperatura jest porównywalna z różnicą mas neutronów i protonów. Okazuje się, że warunkiem tego jest αG ∼? α4W , czyli dokładnie warunek wymagany dla supernowych. Nie jest jasne, w jakim stopniu tę zbieżność można interpretować antropicznie. Gdyby αW było nieco mniejsze niż α1/4G , cały wszechświat spaliłby się w hel, a życie gwiazdy helowej mogłoby nie być wystarczająco długie, aby umożliwić ewolucję życia. Gdyby αW było nieco większe niż α1/4G , w ogóle nie doszłoby do produkcji helu, chociaż nie jest jasne, czy ma to jakiekolwiek znaczenie antropiczne.
Kosmologiczne ograniczenia antropiczne
Kilka bardziej jakościowych ograniczeń antropicznych wynika z rozważań kosmologicznych. Na przykład można przypuszczalnie wykluczyć wszechświat o zerowej gęstości materii (tj. czystym promieniowaniu), ponieważ nie byłoby wówczas w ogóle zawartości barionowej. Istnieją również proste antropiczne powody, dla których parametr gęstości Ω całkowitej mieści się w rzędzie wielkości 1. (Jest to gęstość w jednostkach wartości krytycznej, która oddziela modele, które rozszerzają się w nieskończoność od tych, które ponownie się zapadają.) Gdyby Ω były znacznie większe niż 1, wszechświat uległby ponownemu zapadnięciu w skali czasu znacznie krótszej niż czas ciągu głównego gwiazdy. Z drugiej strony, gdyby Ω były znacznie mniejsze niż 1, wahania gęstości przestałyby rosnąć, zanim galaktyki mogłyby się związać. Argument ten wymaga, aby wartość mieściła się w zakresie 0,01-100. Czasami twierdzi się, że scenariusz inflacyjny wymaga dokładności Ω o 1 ton większej niż ta, w którym to przypadku wyjaśnienie antropiczne może nie wydawać się już istotne. Jednak nawet scenariusz inflacyjny sprawdza się tylko wtedy, gdy tak dobierze się potencjał próżni, aby uzyskać wystarczającą liczbę e-fałdów ekspansji i fluktuacji gęstości o właściwej amplitudzie. Forma tego potencjału może zatem sama być ograniczona argumentami antropicznymi. W rzeczywistości niektórzy teoretycy opowiadają się obecnie za scenariuszami "otwartej inflacji" z Ω < 1. W tym przypadku, aby określić obecną wartość , należy przywołać to, co Alex Vilenkin nazywa "zasadą przeciętności" (pomysł, że jesteśmy najprawdopodobniej żyją we wszechświecie z największą liczbą galaktyk). Jednak w rzeczywistości jest to po prostu zasada antropiczna pod inną nazwą. Innym ważnym parametrem kosmologicznym jest amplituda fluktuacji pierwotnej gęstości wymagana do wyjaśnienia obecnie obserwowanej struktury wielkoskalowej. Kiedy te fluktuacje dotarły za horyzont, musiały mieć amplitudę ε rzędu 10-5. W tym przypadku galaktyki powstały, gdy Wszechświat miał 109 lat, podczas gdy gromady galaktyk rozdzielają się w obecnej epoce. Co by się stało, gdyby z jakiegoś powodu wartość ? była inna? Gdyby ε było poniżej 10-6, bariony kondensowałyby tylko w bardzo późnych momentach, kiedy byłyby bardzo rozproszone. Chłodzenie byłoby wówczas nieskuteczne, więc gaz nigdy nie kondensowałby w gwiazdy. Z drugiej strony, gdyby ε było znacznie większe niż 10-3, bariony wcześnie skondensowałyby się, tworząc ściśle związane układy, które zatrzymywałyby promieniowanie i zapadały się w supermasywne czarne dziury. Ewolucja takiego wszechświata byłaby trudna do obliczenia, ale z pewnością nie zawierałby on niczego takiego jak galaktyki. Antropicznie dozwolony zakres ε wydaje się zatem mieścić w przedziale od 10-3 do 10-6 . Trzecim ważnym parametrem kosmologicznym jest stosunek fotonów do barionów S ∼ 109 (tj. stosunek gęstości fotonów w tle mikrofal do średniej gęstości protonów). W standardowym modelu Wielkiego Wybuchu promieniowanie tła dominowało w gęstości Wszechświata aż do około 104 lat, a powstawanie galaktyk mogło nastąpić dopiero po tym czasie. Jednakże dla ogólnej wartości S czas ten wyniósłby ∼S2α?1/2Gtp, a wiek Wszechświata podany w argumencie Dicke′a byłby wtedy większy tylko dla S<α-1/4G . Zatem górna granica S wynosi około 1010. Dolna granica S jest uzyskiwana, jeśli wymaga się, aby podczas kosmologicznej nukleosyntezy we Wszechświecie dominowało promieniowanie, w przeciwnym razie cały wodór zamieniłby się w hel, co oznacza, że S > (mp/me)4/34w/αG)1/6 ∼ 104. Zatem argumenty antropiczne wymagają, aby S mieścił się w przedziale 104-1010. Oczywiście na obrazie standardowym wartość S wynika z małego ułamkowego nadmiaru cząstek nad antycząstkami wdrukowanymi około ∼10-34 s po Wielkim Wybuchu z powodu naruszenia zasady zachowania barionu występującego w epoce Wielkiej Zjednoczenia. Jednakże w większości modeli WIELKIEJ UNIFIKOWANEJ TEORII (GUT) przewiduje się, że S będzie miało postać α-n, gdzie n jest liczbą całkowitą, zatem ograniczenie antropiczne S < α-1/4G przekłada się jedynie na ograniczenie αG < α4n. Jeśli n = 5, daje to po prostu warunek gwiazdy konwekcyjnej . Na koniec musimy wziąć pod uwagę ograniczenia antropiczne dotyczące wartości stałej kosmologicznej. Często przyjmuje się, że wynosi zero, ale nie jest to nieuniknione ani teoretycznie, ani obserwacyjnie. Dodatni + powoduje, że Wszechświat rozpoczyna wykładniczą ekspansję, gdy gęstość zwykłej materii spadnie wystarczająco nisko. Wzrost zaburzeń gęstości zostaje wówczas wyhamowany, w związku z czym związane systemy, które do tego czasu nie powstały, nigdy już nie powstaną. Dlatego też dla danej wartości ? względy antropiczne wyznaczają górną granicę. Co ciekawe, granica ta jest tylko 10-krotnie wyższa od wartości, którą niektórzy kosmolodzy opowiadają się za naszym obecnym Wszechświatem. W perspektywie 120 potęg 10 niepewności gęstości energii próżni, przewidywanej przez teoretyków cząstek, jest to bardzo poważne ograniczenie. że gęstość energii próżni jest znacznie mniejsza niż gęstość krytyczna, to można podejrzewać, że jest ona bardzo mała, być może dokładnie równa zero, z jakiegoś fundamentalnego powodu fizycznego.
Interpretacje zasady antropicznej
To, czy uznać argumenty antropiczne za mieszczące się w fizyce czy metafizyce, zależy od tego, jak je zinterpretować. Sugerowano różne rodzaje wyjaśnień. Pierwsza możliwość jest taka, że antropiczne zbiegi okoliczności odzwierciedlają istnienie "dobroczynnej istoty", która stworzyła wszechświat z konkretnym zamiarem stworzenia nas. Taka interpretacja jest logicznie możliwa i może przemawiać do teologów, ale prawdopodobnie jest nie do przyjęcia dla większości fizyków. Inna możliwość, zaproponowana przez Johna Wheelera , jest taka, że wszechświat właściwie nie istnieje, dopóki nie pojawi się świadomość. Opiera się to na założeniu, że wszechświat jest opisany przez kwantowo-mechaniczną funkcję falową i że do zapadnięcia tej funkcji falowej wymagana jest świadomość. Gdy we wszechświecie rozwinie się świadomość, można o niej pomyśleć jako o odbiciu się od źródła Wielkiego Wybuchu, tworząc w ten sposób zamknięty obwód, który powołuje świat do istnienia . Nawet jeśli świadomość rzeczywiście załamuje funkcję falową (co nie jest pewne), to wyjaśnienie również należy uznać za metafizyczne. Trzecia możliwość jest taka, że istnieje nie tylko jeden wszechświat, ale wiele z nich, każdy z różnymi losowo rozłożonymi stałymi sprzężenia. W tym przypadku z konieczności znajdujemy się w jednej z małych frakcji, które spełniają ograniczenia antropiczne. Dzięki tej interpretacji fakt, że stałe mają wartości wymagane do życia, staje się po prostu aspektem słabej zasady antropicznej, ponieważ świadomi obserwatorzy muszą znajdować się nie tylko w specjalnych punktach czasu i przestrzeni, ale także w specjalnych wszechświatach. Przywoływanie wielu dodatkowych wszechświatów może wydawać się raczej nieekonomiczne, ale istnieje kilka kontekstów fizycznych, w których ma to sens. Jedna z możliwości wiąże się z interpretacją mechaniki kwantowej "Wiele światów", zapoczątkowaną przez Hugh Everetta . Pomysł jest taki, że Wszechświat rozpada się za każdym razem, gdy funkcja falowa załamuje się w wyniku obserwacji. Oznacza to, że wszechświat nieustannie rozgałęzia się na ogromną liczbę równoległych światów, co daje początek słynnemu paradoksowi kota Schrödingera. David Deutsch twierdzi, że wszystkie te światy są w pewnym sensie "realne" (Deutsch 1991). Jednakże wszystkie one mają te same stałe sprzężenia w obrazie Everetta, zatem znaczna ekstrapolacja polega na twierdzeniu, że istnieją również światy, w których stałe się różnią. Bardziej prawdopodobny kontekst scenariusza "wielu wszechświatów" pojawia się, jeśli wszechświat jest zamknięty. W tym przypadku można sobie wyobrazić, że przechodzi on cykle ekspansji i ponownego załamania, a przy każdym odbiciu generowane są nowe wartości stałych sprzężenia (rysunek 2(c)). Podczas większości cykli stałe nie pozwalały na powstanie życia, ale czasami pojawiały się odpowiednie wartości i wszechświat stawał się świadomy siebie. Jakkolwiek mało prawdopodobne jest, aby stałe miały prawidłowe wartości, przy nieskończonej liczbie cykli z pewnością tak się stanie czasami. W kontekście obrazu inflacyjnego pojawia się inny scenariusz "wielu wszechświatów". Sugeruje to, że w bardzo wczesnym okresie fluktuacje kwantowe powodują, że małe obszary przechodzą fazę wykładniczej ekspansji. Każdy region staje się "bańką", a cały nasz widzialny wszechświat zostaje zawarty w jednej z nich. W zasadzie, jak podkreśla Andrei Linde, w każdym bąbelku mogą występować różne wartości stałych sprzężenia . W tym przypadku tylko niewielka część z nich rozwinęłaby świadomość, ale nasz wszechświat z konieczności znalazłby się wśród tej frakcji. Zarówno model cykliczny, jak i inflacyjny odwołują się do dużej - i być może nieskończonej - liczby wszechświatów. Jedyna różnica polega na tym, że pierwszy przywołuje nieskończoność w czasie, podczas gdy drugi przywołuje nieskończoność w przestrzeni.
Ocena końcowa
Możliwość ewolucji życia, jakie znamy we wszechświecie, zależy od wartości kilku podstawowych stałych fizycznych i pod pewnymi względami jest niezwykle wrażliwa na ich wartości liczbowe. Z drugiej strony, z fizycznego punktu widzenia, antropiczne "wyjaśnienie" różnych zbiegów okoliczności w przyrodzie można krytykować z wielu powodów. (1) Argumenty antropiczne mają głównie charakter post hoc - poza rezonansem potrójnej alfa nikt nigdy nie oparł skutecznej prognozy na zasadzie antropicznej. (2) Argumenty antropiczne mogą być nadmiernie antropocentryczne, ponieważ założyliśmy warunki, które są specyficznie związane z życiem typu ludzkiego. (3) Zasada antropiczna nie przewiduje dokładnych wartości stałych, a jedynie relacje rzędu wielkości między nimi, więc nie jest to pełne wyjaśnienie. Dwa ostatnie zastrzeżenia można spotkać w ramach interpretacji "wielu wszechświatów", jeśli weźmie się pod uwagę, że wszechświaty zajmują abstrakcyjną wielowymiarową przestrzeń stałych sprzężenia (z jednym wymiarem dla każdego α). Zasadę antropiczną można następnie zinterpretować w ten sposób, że życie może istnieć tylko w małych obszarach tej przestrzeni. W niektórych regionach możliwe będą formy życia podobne do naszych; inne formy życia mogą być możliwe gdzie indziej, ale życie nie będzie możliwe wszędzie . Być może nie w każdym podtrzymującym życie regionie przestrzeni istnieje taka sama relacja antropiczna, ale będzie ona istniała. Jak widzieliśmy, inną atrakcją wyjaśnienia "wielu wszechświatów" jest to, że możliwe jest przedstawienie mu rozsądnej podstawy fizycznej . Oczywiście nie jest jasne, czy te fizyczne idee będą kiedykolwiek możliwe do przetestowania. Na przykład prawdopodobnie nigdy nie dowiemy się, czy wszechświat może podlegać cyklom; nawet jeśli udowodnimy, że ponownie się załamie, nie możemy być pewni, że wejdzie w kolejną fazę ekspansji. Na obrazie inflacji sytuacja nie jest lepsza, bo z pozostałymi bańkami nigdy nie będziemy mogli się zetknąć. Obydwa obrazy są zatem niesprawdzalne i w tym sensie zasadę antropiczną można nadal uważać za metafizyczną. Być może najmniej radykalnym wyjaśnieniem antropicznych zbiegów okoliczności jest to, że mogą one okazać się konsekwencją jakiejś ujednoliconej teorii fizyki cząstek elementarnych. W końcu takie teorie mają na celu powiązanie różnych stałych sprzężenia, więc nie jest wykluczone, że przewidywałyby rodzaj powiązań między różnymi wartościami α omówionymi powyżej. Jednakże, o ile nam wiadomo, omówionych powyżej zależności nie przewiduje żadna ujednolicona teoria. Nawet gdyby tak było, byłoby niezwykłe, że teoria ta dostarcza dokładnie takich zbiegów okoliczności, jakie są wymagane do powstania życia. Na koniec należy przestrzec, że wiele z argumentów antropicznych odnosi się jedynie do obecności złożoności - antropiczne zbiegi okoliczności można w równym stopniu uznać za warunek wstępny dla obiektów nieożywionych, takich jak samochody - więc nacisk na życie może być niewłaściwie umiejscowiony. W tym kontekście Lee Smolin przypuszczał, że stałe rządzące naszym wszechświatem są zdeterminowane nie względami antropicznymi, ale rodzajem "doboru naturalnego" między wszechświatami . Postuluje, że nowe wszechświaty powstają, gdy tworzą się czarne dziury, i że nowe stałe, choć różnią się nieco od ich wartości we wszechświecie macierzystym, zachowują pewną pamięć o swoim pochodzeniu. Pomysł ten ma charakter wysoce spekulacyjny i obejmuje fizykę znacznie wykraczającą poza wszystko, czego możemy być pewni. Jednak pomysł Smolina ma przynajmniej tę zaletę, że można go przetestować: przewiduje, że właściwości naszego Wszechświata powinny być optymalne do powstawania czarnych dziur, tak aby jakiekolwiek majsterkowanie przy stałych zmniejszyło skłonność czarnych dziur do powstawania. Konwencjonalna astrofizyka może przynajmniej zacząć zajmować się tą kwestią.
Sztuka i literatura
Poszerzające umysły właściwości astronomii wpływają na pisarzy i artystów w równym stopniu (a może w większym stopniu) na ogół ludzi, a istnieje długa tradycja wykorzystywania odniesień astronomicznych w literaturze i sztuce.
Astronomia i sztuka
Jednym z celów sztuki pięknej (malarstwa, rzeźby i przedmiotów, które mają być podziwiane, a nie użyteczne) jest komentowanie ludzkich działań za pomocą metafory lub analogii. Działania takie mogą być przeciwne zjawiskom astronomicznym lub kojarzone z nimi, we własnym interesie lub w ramach komentarza. Na przykład na obrazach przedstawiających ukrzyżowanie często pojawiają się obrazy zaćmień. Są one dosłowne przedstawienia nagłej ciemności, która według Pisma Świętego nastąpiła po śmierci Jezusa. Są także metaforami wygaśnięcia ważnej osoby i przykładami "żałosnego błędu", w którym utożsamia się świat przyrody z reakcją na zachodzące w nim działania człowieka. Podobnie florenckiemu malarzowi Giotto de Bondonelowi w 1303 roku zlecono udekorowanie wnętrza kaplicy należącej do bogatego kupca z Padwy, Enrico Scrovegniego, i namalował 38 scen religijnych, z których jedną była Pokłon Trzech Króli . Kult Dzieciątka Jezus w stajni odbywał się pod Gwiazdą Betlejemską, symbolem przemiany i złowieszczym niebiańskmi
znakiem narodzin. Giotto przedstawił ją jako płonącą kometę. Inspiracją dla niego była Kometa Halleya, która w 1301 roku powróciła do peryhelium i którą malarz niewątpliwie widział. Wypadało, aby statek kosmiczny wysłany do jądra Komety Halleya podczas powrotu w 1986 roku otrzymał nazwę GIOTTO. Na poziomie bardziej indywidualnym Vincent van Gogh namalował Gwiaździstą noc. Przedstawia prowansalską wioskę z kościołem oraz domy z oświetlonymi oknami w krajobrazie wzgórz, drzew oliwnych i cyprysów, pokazane nocą pod rozgwieżdżonym niebem, z półksiężycem i wirującą Drogą Mleczną. Wygląda na to, że niebobraz jest swobodną wizualizacją nocnego nieba w momencie jego malowania. Niezależnie od naturalnego realizmu kosmiczne tło oszałamiających świateł, górujące nad ludzkim krajobrazem poniżej, stanowi niepokojące kosmiczne tło dla mniejszych wydarzeń ludzkich poniżej, w tym, jak należy przypuszczać, rozwijającego się szaleństwa Vincenta, którego kulminacją było samobójstwo w następnym roku. Ta sama Droga Mleczna
biegnie po nocnym niebie w Ucieczce do Egiptu Albrechta Altdorfera (1609, w Pinakotece w Monachium). Ponownie jest to kosmiczne tło dla wydarzeń, pokazanych w małych rozmiarach, które mają miejsce na Ziemi poniżej, gdy Święta Rodzina podróżuje na osiołku, uciekając przed masakrą niemowląt dokonaną przez Heroda. Altdorfer to pierwsze przedstawienie Drogi Mlecznej jako masy pojedynczych gwiazd. Instrumenty astronomiczne są często pokazywane na portretach. Są to ciekawe dekoracje, które odzwierciedlają zainteresowania, osiągnięcia i wykształcenie opiekuna(ów) i mogą, ale nie muszą, być bezpośrednio powiązane z tematem. Ambasadorzy to pełnometrażowy portret dwóch bogatych, wykształconych i wpływowych młodych mężczyzn, Jeana de Dinteville, ambasador Francji w Anglii i Georges de Selve, biskup Lavaur. Artysta Hans Holbein Młodszy (1497/8-1543) przedstawił dwóch mężczyzn stojących po obu stronach stołu niosącego kolekcję globusów, książek oraz instrumentów astronomicznych i muzycznych. Zegar słoneczny na stole
jest identyczny z tym, który znajduje się na portrecie astronoma Nicholasa Kratzera wykonanym przez Holbeina z 1528 r. Można przypuszczać, że zegar słoneczny został zaprojektowany lub wykonany przez Kratzera, a jego wizerunek został ponownie wykorzystany i włączony przez Holbeina do The Ambassadors jako pochlebstwo. Odniesienia astronomiczne w ilustrowanych książkach angielskiego poety romantycznego Williama Blake′a nie sprzyjają nauce. Bóg jako architekt, ilustracja z The Ancient of Days, przedstawia Boga jako starca, klęczącego na burzliwych chmurach przed ognistym słońcem i chłodno mierzącego kosmos za pomocą podziałów . Blake przedstawił Newtona jako wprowadzonego w błąd bohatera przypominającego greckiego boga, którego wzrok skierowany był tylko w dół, na sterylne diagramy geometryczne, które również mierzył za pomocą dzielników . Co ciekawe, to pogardliwe przedstawienie Newtona jest często widywane jako plakaty na ścianach wydziałów fizyki uniwersytetów. W przeciwieństwie do pesymizmu
Blake′a, jego współczesny i rodak Samuel Palmer ukazuje sielankowe sceny w wyidealizowanej Anglii pod łagodnym, wieczornym niebem ze świecącymi księżycami i planetą Wenus.
Astronomia i literatura
Tak jak artyści wykorzystywali tematy astronomiczne jako tło dla ludzkich spraw, tak też czynią to pisarze. W pismach Williama Szekspira (1564-1616) pełno jest odniesień astronomicznych. W jego sztukach znajdują się liczne przemówienia za i przeciw astrologii, a poglądy przeciwne wyrażają głównie bardziej nachalne, zbuntowane postacie. Szekspir urodził się po opublikowaniu przez Kopernika swojej teorii Układu Słonecznego w 1543 r. i był rówieśnikiem entuzjastycznych angielskich zwolenników nowego spojrzenia na Wszechświat, takich jak THOMAS DIGGES (zm. 1595), WILLIAM GILBERT (1540-1603) i JOHN DEE (zm. 1595). 1527-1608). Niemniej jednak w dziełach Szekspira nie ma śladu tej kontrowersji, z wyjątkiem sporów o ważność astrologii. Thomas Hardy (1840-1928) był poetą i płodnym powieściopisarzem żyjącym na wsi Wessex. Opisał swoją powieść "Dwa na wieży" jako "niezbyt rozbudowany romans", który "był wynikiem chęci zestawienia emocjonalnej historii dwóch nieskończenie małych żyć ze zdumiewającym tłem gwiezdnego wszechświata i zaszczepić czytelnikom poczucie, że z tych kontrastujących wielkości mniejsza może być dla nich jako ludzi większa" (przedmowa do wydania z 1895 r.). Peter Ackroyd (1949-), angielski powieściopisarz, znany ze swojego podejścia do względności czasu w swojej twórczości, również umieścił swoją powieść Pierwsze światło w krajobrazie zachodniego kraju, który ukazuje palimpsest czasu w jego kurhanach, ludowych wspomnieniach i współczesnych obserwatorium. W literaturze można wyraźnie skomentować dość abstrakcyjne idee astronomiczne. Rozmiar wszechświata jest jednym z czynników pobudzających wyobraźnię astronomii, a samo słowo "astronomiczny" zyskało dodatkowe znaczenie słowa "ogromny", ponieważ wielkości występujące w astronomii są tak ogromne. Czasami reakcją na odległości gwiazd jest podziw i strach, jak w Myśli Blaise'a Pascala (1623-1962): Wieczna cisza tych nieskończonych przestrzeni napawa mnie przerażeniem. Ze względu na długi czas podróży światła z gwiazdy do nas, obraz nieba, który w tej chwili postrzegamy, powstał dawno temu i może ukazywać wspomnienie gwiazdy, która od tego czasu dobiegła kresu swojego życia i już nie istnieje. istnieje. The Oda to Charles Sumner autorstwa Henry'ego Longfellowa (1807-1882) (1979 Complete Works (Oxford: Oxford University Press) s. 326) ilustruje tę ideę:
Gdyby gwiazda zgasła na wysokościach,
Przez wieki będzie jego światło,
Wciąż podróżując w dół z nieba,
Świeć na nasz śmiertelny wzrok.
Kiedy więc umiera wielki człowiek,
Przez lata poza naszym zasięgiem
Światło, które zostawia za sobą, leży
Na ludzkich ścieżkach.
Amerykański poeta Robert Frost (1874-1963) astronomią interesował się przez całe życie, a jego początki sięgają już w wieku 15 lat, kiedy to zainstalował w górnym pokoju domu rodziców mały teleskop, kupowany za pieniądze ze sprzedaży prenumerat czasopism. W przemówieniu na dwa miesiące przed śmiercią przedstawił swoją filozoficzną reakcję na astronomię: "Jakie to poruszające, Słońce i wszystko inne. Weź teleskop i spójrz tak daleko, jak tylko możesz. Ile wszechświata zmarnowano, żeby wyprodukować nas marnych. To cudowne
w porządku". W A Star in a Stone Boat (Frost R 1962 (Harmondsworth: Penguin) s. 116) opisał, jak materia niebieska jest częścią tkanki Ziemi i jej zawartości.
Nigdy mi nie mów, że ani jedna gwiazda ze wszystkich, które nocą spadają z nieba i delikatnie spadają, nie została podniesiona wraz z kamieniami, by zbudować mur.
Primo Levi (1919-1987) był włoskim poetą i pisarzem żydowskim. Z wykształcenia chemik przemysłowy, miał dramatyczne życie jako partyzant piemoncki, był świadkiem, uczestnikiem i ocalałym z obozu koncentracyjnego w Auschwitz. Popełnił samobójstwo, najwyraźniej zrozpaczony kondycją człowieka. Jego poezja In the Beginning z 1998 Collected Poems: Shema transl R Feldman i B Swann (Londyn: Faber and Faber) s. 27) opisuje tę samą myśl, co Frost, w odniesieniu do Wielkiego Wybuchu:
Z tego jednego spazmu narodziło się wszystko:
Ta sama otchłań, która nas otacza i rzuca wyzwanie,
W tym samym czasie, który nas rodzi i pokonuje,
Wszystko, o czym ktokolwiek kiedykolwiek pomyślał,
Oczy kobiety, którą kochaliśmy,
Słońca tysiącami
I ta ręka, która pisze.
Jednakże, podobnie jak w sztukach pięknych, nie wszystkie odniesienia do astronomii w literaturze są przychylne i Newton jest na linii ognia. Podczas pijackiej kolacji w dniu 28 grudnia 1817 r., w której uczestniczyło czterech literatów - Benjamin Haydon, William Wordsworth, Charles Lamb i John Keats - Lamb znieważył Haydona za umieszczenie popiersia matematycznego naukowca Izaaka Newtona na właśnie namalowanym przez niego obrazie. Lamb wyśmiewał Newtona jako "człowieka, który nie wierzy w nic, jeśli nie jest to jasne jak trzy boki trójkąta". Lamb wzniósł toast za "zdrowie Newtona i zamieszanie z matematyką". Keats zgodził się i wraz z Wordsworthem ubolewał nad zniszczeniem piękna przez naukę. To drwiny z nauki pojawiają się w poezji Keatsa i Wordswortha. Żaden naukowiec nie zgodziłby się z opinią wyrażoną przez Keatsa (Lamia, część II, wiersze 229-38 w: Garrod H. W. 1956 The Poetical Works of John Keats:
Nie wszystkie amulety latają
Na sam dotyk zimnej filozofii?
Kiedyś w niebie była straszna tęcza:
Znamy jej wątek, jej teksturę; jest jej dane
W nudnym katalogu rzeczy pospolitych.
Filozofia podetnie skrzydła Aniołowi,
Pokonaj wszystkie tajemnice według zasad i linii,
Opróżnij nawiedzone powietrze i gnom moje -
Rozpleć tęczę
Fantastyka naukowa
Astronomia kojarzona jest z odrębnym gatunkiem literackim, jakim jest science fiction. "Science fiction to rodzaj prozatorskiej narracji opisującej sytuację, która nie mogłaby mieć miejsca w znanym nam świecie, ale której hipotezę opiera się na jakiejś innowacji w nauce lub technologii, lub pseudotechnologii, zarówno ludzkiej, jak i pozaziemskiej, w pochodzenia" . Science fiction ma długą i chwalebną historię. Jej początki sięgają II w. n.e., gdyż wówczas powstała pierwsza prawdziwa powieść o wyprawie na Księżyc, której autorem był grecki satyryk Lucjan z Samosaty. Nazwał ją Prawdziwą Historią, ponieważ od początku do końca składała się z samych kłamstw. Opisuje rzeczy, których "nie widział, nie cierpiał, ani nie nauczył się od kogoś innego, rzeczy, których nie ma i nigdy nie mogło być; dlatego moi czytelnicy w żadnym wypadku nie powinni im wierzyć". Lucian łączył chłodny umysł z darem do płynnego, łatwego pisania i posiadał duże poczucie humoru. Jego podróżnikami są marynarze, którzy zostali porwani przez strumień wody, gdy przechodzili przez Słupy Herkulesa (naszą Cieśninę Gibraltarską), i zostali wyrzuceni w górę z taką siłą, że po siedmiu dniach i siedmiu nocach wylądowali na Księżycu. Zostali aresztowani przez księżycowych wojowników i uwięzieni przez Króla Księżyca. Łącząc arystotelesowskie postrzeganie ciał niebieskich jako doskonalszych od Ziemi z Księżycem, Lucian opisał ludzi księżycowych jako znacznie bardziej zaawansowanych niż ludzie na Ziemi. Wszystko, co nieczyste i nieczyste, było dla nich odrażające. Seks był albo nieznany, albo ignorowany, a kiedy księżycowy człowiek umierał, po prostu rozpływał się w dymie, tak że nie pozostawiano żadnych szczątków do pochówku. Ta konwencja mówiąca, że istoty niebieskie są czystsze od nas, przetrwała do dziś w wierzeniach o pozaziemskich gościach w UFO. Somnium (Sen) Johanna KEPLERA było zupełnie inne. W 1593 roku, mając 22 lata, student Uniwersytetu w Tybindze, Kepler napisał rozprawę pt. Stanowisko Kopernika na temat tego, jak niebo będzie wyglądało dla obserwatora na powierzchni Księżyca. Debata na temat tej radykalnej tezy została stłumiona. Somnium, napisane w 1609 r. i opublikowane w 1634 r., rozwija tę tezę w dzieło wyobraźni. To było i miało być zarówno edukacyjne, jak i rozrywkowe. Było 223 notatki wyjaśniające jego odniesienia. Praca ta była pierwsza, kładąc nacisk na to, co dla Keplera było nauką, a nie na historię przygodową opowieść science fiction (hard core, w której nauka jest najważniejszą cechą, w przeciwieństwie do science fiction). Bohater Keplera, Islandczyk imieniem Duracotus, zostaje przeniesiony na Księżyc przez demona. Kepler wiedział, że ziemska atmosfera nie rozciąga się aż do Księżyca i że musi istnieć punkt neutralny, w którym siły grawitacyjne Ziemi i Księżyca równoważą się. Kepler wiedział również, że Księżyc zawsze jest zwrócony tą samą twarzą w stronę Ziemi, i wyjaśnia, że warunki na obu półkulach są zupełnie inne. Opisuje zaćmienie Księżyca widziane z Księżyca (tj. zaćmienie Słońca przez Ziemię) i jak wygląda zaćmienie Słońca z perspektywy mieszkańca Księżyca (tj. przejście cienia umbralnego przez powierzchnię Ziemi). W 1865 roku ukazała się książka Juliusza Verne′a "Z Ziemi na Księżyc", a później ukazała się jej kontynuacja "Dookoła Księżyca". Verne świadomie starał się trzymać znanych mu faktów i, ogólnie rzecz biorąc, udało mu się to wyjątkowo dobrze, mimo że jego podstawowy sposób podróżowania był niewłaściwy. Jego podróżnicy zostali wystrzeleni na Księżyc z lufy ogromnej armaty i wyruszyli z prędkością 7 mil s-1. Liczbowo Verne miał rację; 7 mil na s-1 to prędkość ucieczki Ziemi, a pocisk wystrzelony z tą prędkością nigdy nie powróci. Niestety, pocisk zostałby natychmiast zniszczony przez tarcie o atmosferę, a w każdym razie szok odlotu z pewnością zamieniłoby wszystkich podróżnych w galaretę, ale przynajmniej Verne sprawił, że wszystko brzmiało wiarygodnie. Jego opis Księżyca opierał się na najlepszych dostępnych informacjach, a jego fabuła jest genialna; pocisk napotyka mniejszego satelitę Ziemi i jego tor zostaje zmieniony w taki sposób, że zamiast dotrzeć do Księżyca, podróżujący zostają bumerangiem z powrotem na Ziemię. Opisuje "Wojna światów" HG Wellsa (1898)., ak Ziemię najeżdżają groteskowe potwory z Marsa, uciekając przed wysuszeniem swojej planety. Powodują spustoszenie, dopóki nie zostaną zniszczone przez bakterie lądowe, na które nie mają odporności. W 1938 roku audycja radiowa powieści wyprodukowanej przez Orsona Wellesa wywołała powszechną panikę w niektórych częściach Stanów Zjednoczonych, a słuchacze wzięli ją za prawdziwy biuletyn informacyjny. Powieść zupełnie innego rodzaju napisał KONSTANTIN EDWARDOWICZVICH CIOŁKOWSKI, urodzony w 1857 roku w Ijewsku, odległej wiosce w Rosji. Uświadomił sobie, że jedyną praktyczną metodą podróży kosmicznych jest rakieta, która działa na zasadzie reakcji i może pracować w próżni kosmicznej. Jego jedyna powieść, Beyond the Planet Earth, została ukończona prawdopodobnie w 1895 r., choć ukazała się drukiem dopiero w 1920 r., a jej tłumaczenie na język angielski opóźniono aż do 1960 r. Jako opowieść i wysiłek literacki można ją określić jedynie jako okropną. , ale według prognoz naukowych wyprzedzał swoje czasy o całe lata. W swojej powieści podróżnicy użyli silnika rakietowego na paliwo ciekłe zamiast na ciała stałe, takie jak proch strzelniczy; opisał zasadę "krokowego" montażu jednej rakiety na drugiej (co nazwalibyśmy rakietą wielostopniową). Podał także doskonale dokładny opis przyczyn i skutków nieważkości, czyli zerowej grawitacji. Był równie świadomy wielu problemów związanych z długimi podróżami kosmicznymi i zaproponował zabranie ze sobą różnego rodzaju zielonych roślin, aby usunąć nadmiar dwutlenku węgla z atmosfery wewnątrz statku kosmicznego i zastąpić go wolnym tlenem. W latach trzydziestych XX wieku ukazywało się wiele tanich magazynów science fiction (i kryminałów). W ten sposób powstała nazwa "pulp fiction", obecnie będąca synonimem opowiadania historii bez wyrafinowania. Niemniej jednak niektórzy młodzi, a teraz już uznani pisarze zaczynali na tym rynku. W przeciwieństwie do większości pulp fiction, wśród ostatnich autorów, których książki zawierają dużo solidnej wiedzy naukowej, znajduje się wizjoner podróży kosmicznych Sir ARTHUR CLARKE, autor książki 2001: a Space Odyssey, nakręconej przez Stanleya Kubricka. Astronom FRED HOYLE jest także uznanym pisarzem, którego pierwsze i najbardziej znane dzieło science fiction, Czarna chmura, zawiera wzory matematyczne.
"Sztuka kosmiczna"
Podobnie jak science fiction, "sztuka kosmiczna" ma głównie na celu przekazywanie myśli o kosmosie i astronomii, a nie ukazywanie niuansów samodzielnej formy sztuki. Sztuka kosmiczna jest formą ilustracji naukowej, podobną do ilustracji botanicznej. Ponieważ tematu nie widać bezpośrednio, artyści kosmiczni ekstrapolują wiedzę na jego temat na ilustrację, podobnie jak zrobiłby to ilustrator rekonstruując dinozaura ze skamielin lub miejsce historyczne z wykopalisk archeologicznych. Artyści kosmiczni mogą pokazać, jak wyglądałaby odległa planeta, układ podwójny gwiazd lub galaktyka, gdybyśmy byli tam osobiście, lub w jaki sposób można by zrealizować działanie w przestrzeni kosmicznej, takie jak wydobycie asteroidy lub kolonizacja Marsa. Sztuka kosmiczna może również włączać do swojego gatunku elementy fantasy, umieszczając ryby, kwiaty itp. w scenie kosmicznej, aby uzyskać dramatyczny efekt. Wczesnym przykładem tej formy sztuki kosmicznej był The Sower of Systems , przedstawienie chaosu poprzedzającego
powstanie planet przez George′a Fredericka Wattsa (1817-1904). Ekspresjonistyczny obraz hipotezy mgławicy Laplace′a łączy się z niewyraźną formą kroczącej postaci w szarym płaszczu, jakby zasiewała pole. Pionierskim artystą kosmicznym we współczesnej szkole był CHESLEY BONESTELL, który ilustrował książki ekspertów w dziedzinie podróży kosmicznych, takich jak WERNHER VON BRAUN i Willy Ley. Nowoczesną sztukę kosmiczną wyróżnia naturalistyczny sposób ilustracji, tworzący szczegółowe pejzaże nawiązujące do pejzażystek amerykańskich romantycznych. Zarówno tematyka, jak i dostępny materiał sprzyjają cyfrowym metodom pracy, ale powszechne są również bardziej tradycyjne techniki. Około 120 artystów kosmicznych tworzy Międzynarodowe Stowarzyszenie Artystów Astronomicznych (http://www.iaaa.org/), założone w 1982 roku. Współcześni praktycy to David Hardy i Paul Doherty (Wielka Brytania), Lynette Cooke (USA) oraz kosmonauci Właidimir Dżanibekow. Aleksjie Leonow , a także Georgij Popławski i Andrjej Sokołow (Rosja). Sztuka kosmiczna ma nieograniczone możliwości. W przyszłości fascynujące będzie spojrzenie wstecz na niektóre spekulacje XX wieku; na przykład, czy baza księżycowa naprawdę będzie przypominać pełną wdzięku kopułową strukturę wizualizowaną przez Bonestell? Poczekamy i zobaczymy.
Odkrycie asteroidy w historii
Odkrycie pięciu głównych planet (innych niż Ziemia) w Układzie Słonecznym zostało utracone w starożytności. Wraz z przyjęciem heliocentrycznego modelu Układu Słonecznego Kopernika zauważono wyraźną anomalię w rozstawie planet. JOHANNES KEPLER uważał, że różnica między Marsem a Jowiszem jest zbyt duża w stosunku do odstępów między innymi parami sąsiednich planet. Doszedł do wniosku, że nieznana planeta krąży wokół Słońca pomiędzy Marsem a Jowiszem. W 1766 roku Titius von Wittenburg opracował empiryczny wzór na odległości planet od Słońca. Wzór został spopularyzowany przez Johanna Bodego i jest dziś znany jako PRAWO BODE lub prawo Titiusa-Bodego. Wzór ma postać:
A = 0,4 + 0,3 x 2n
gdzie A jest odległością od Słońca (w jednostkach odległości Ziemi), a n = ?∞, 0, 1, 2,
. Wartości A określone tym wzorem, odpowiadające im planety i rzeczywiste odległości przedstawiono w tabeli .
Tycjusz przypisał przerwę przy n = 3 nieodkrytym księżycom Marsa. Podobnie jak Kepler, Bode argumentował, że tę lukę zajmuje większa planeta. Odkrycie Urana w 1781 roku w odległości bardzo zbliżonej do przypadku n = 6 utwierdziło wiarę w brakującą planetę. (Należy zauważyć, że Neptun bardzo słabo pasuje do przypadku n = 7 i że "Prawo" wydaje się być niczym więcej niż ciekawostką liczbową.)
Niebiańska policja
Jednym z zwolenników prawa Bodego był BARON FRANZ VON ZACH, który posunął się nawet do przewidzenia elementów orbitalnych "brakującej planety" i podjął samodzielne poszukiwania, aby ją znaleźć. Po kilku latach bezowocnych poszukiwań poddał się. We wrześniu 1800 roku von Zach odbył spotkanie w obserwatorium JOHANNA SHRÖTERA w Lilienthal w celu zorganizowania wspólnego poszukiwania domniemanej planety. Poszukiwania miały być prowadzone w odległości około 4° od ekliptyki, którą podzielono na 24 sekcje, z których każda miała być przeszukiwana przez innego astronoma. 1 stycznia 1801 roku, zanim niebiańska policja zdążyła zabrać się do pracy, sycylijski mnich, ojciec GUISEPPE PIAZZI, w trakcie konstruowania katalogu gwiazd odkrył poruszający się obiekt gwiezdny. Piazzi obserwował obiekt przez 6 tygodni, zanim przerwała mu choroba. Chociaż Piazzi napisał listy do różnych astronomów, w tym do Bodego, ogłaszając odkrycie, do czasu otrzymania listów nowego obiektu nie można już było obserwować. Korzystając z obserwacji Piazziego, różne komputery orbitalne próbowały przewidzieć, gdzie obiekt będzie znajdował się w nadchodzącym roku, ale przewidywania obejmowały 5° nieba. Zainspirowany odkryciem Piazziego niemiecki matematyk CARL FRIEDRICH GAUSS opracował nową metodę ogólnego obliczania orbity. Prace Gaussa umożliwiły odnalezienie nowego obiektu, który otrzymał nazwę Ceres Ferdinandea (później na szczęście skróconą do po prostu CERES), z dokładnością do 0,5° od jego przewidywań niezależnie przez von Zacha i HEINRICHA OLBERSA.
Era wizualna
28 marca 1802 roku Olbers sprawdzał położenie gwiazd w pobliżu Ceres i odkrył PALLAS. 1 września 1804 roku KARL HARDING odkrył trzecią asteroidę, JUNO. Olbers zauważył, że Juno została odkryta w pobliżu jednego z punktów przecięcia orbit Ceres i Pallas i wierząc, że asteroidy są fragmentami jednego obiektu, skoncentrował swoje poszukiwania w pobliżu tych punktów. 29 marca 1807 roku jego pracowitość zaowocowała odkryciem VESTA. W 1845 roku Karl Hencke, niemiecki naczelnik poczty, po 15 latach poszukiwań odkrył piątą asteroidę, Astraea. Hencke odkrył Hebe w 1847 roku, a inni astronomowie szybko rozpoczęli własne poszukiwania. Zastosowano różne techniki obserwacji. Jaśniejsze asteroidy można wykryć dzięki ich nieobecności na opublikowanych mapach gwiazd. W przypadku asteroid słabszych niż pokazano na mapach, obserwatorzy musieli uciekać się do rysowania własnych map i porównywania rysunków tego samego pola gwiazdowego w różnych momentach. Do 1850 roku odkryto 13 asteroid. Szybko rozwinęła się tradycja, że nowo odkrytym obiektom nadano nazwy natychmiast po (lub wkrótce po) ogłoszeniu o odkryciu. Wczesnym odkryciom również przypisywano symbole, choć praktyka ta zanikła już w 1855 r. Numery nadawane według kolejności odkryć wprowadzono w 1851 r. Fakt, że numery i nazwy nadano natychmiast po opublikowaniu ogłoszenia o odkryciu, często powodował zamieszanie. Gwałtowny wzrost liczby odkryć (100 w 1868 r., 200 w 1879 r. i 300 w 1890 r.) przerósł możliwości komputerów orbitalnych próbujących śledzić wszystkie obiekty, w wyniku czego wiele obiektów zaginęło. W 1856 roku Hermann Goldschmidt odkrył (41) Daphne. Obiekt obserwowano tylko przez cztery dni. Goldschmidt myślał, że w następnym roku wyzdrowiał (41), ale okazało się, że jest to nowy obiekt, którym stał się (56) Melete. Ten ostatni obiekt obserwowano tylko przez dwa tygodnie i zaginął do czasu, gdy Goldschmidt podjął wyczerpujące poszukiwania w 1861 r. Karol Luter przypadkowo odnalazł (41) ponownie w 1862 r., ale został wzięty za nowy obiekt i przez pewien czas był ponumerowany (74). . W miarę odkrywania kolejnych asteroid stało się jasne, że większość obiektów znajduje się w pasie, zwanym Pasem Głównym, rozciągającym się w odległości od 2,2 do 3,28 jednostki astronomicznej od Słońca (patrz PAS ASTEROID). Pierwszym obiektem odkrytym poza Pasem Głównym była (65) Cybele w 1861 r. W 1875 r. (153) Hilda została znaleziona w średniej odległości prawie 4 jednostek astronomicznych. Był to prototyp Hild, obiektów znajdujących się w rezonansie ruchu średniego 3:2 z Jowiszem i chronionych przed bliskimi zbliżeniami do tej planety, mimo że ich orbity zbliżają się dość blisko.
Epoka fotograficzna
Do 1892 roku wszystkie obserwacje prowadzono wzrokowo, używając kręgów tranzytowych lub mikrometrów. Wprowadzenie poszukiwań fotograficznych pod koniec 1891 roku przez MAX WOLFA w Heidelbergu w Niemczech, a wkrótce potem przez Auguste'a Charloisa w Nicei we Francji, oznaczało nie tylko, że obserwatorzy mogli wykryć obiekty słabsze niż można było zaobserwować wizualnie, ale że płyta fotograficzna stanowiła trwały zapis obserwacji. Odkryć wizualnych dokonano poprzez obserwację zmian w polach gwiazdowych na przestrzeni kilku godzin, gdy obiekty przemieszczały się przez to pole. W przypadku zdjęć z długim czasem naświetlania, wykonanych teleskopem śledzonym z prędkością gwiazdową, poruszające się obiekty zdradzałyby swoją obecność, tworząc krótkie ślady na płycie. Problem z obserwacjami fotograficznymi polegał na tym, że przynajmniej początkowo często nie mierzono dokładnych pozycji obiektów na płytach, głównie dlatego, że był to czasochłonny proces wymagający specjalistycznego sprzętu pomiarowego. Ogólnie rzecz biorąc, uzyskiwano przybliżone pozycje, które można było szybko wyznaczyć. Dokładne obserwacje uzupełniające można następnie uzyskać za pomocą obserwatorów wizualnych za pomocą mikrometrów. Jednakże obserwatorzy wizualni mieli trudności ze śledzeniem słabszych odkryć fotograficznych, a coraz większa liczba nowo odkrytych obiektów szybko ginęła. Aby uporać się z tym narastającym problemem, wprowadzono tymczasowe oznaczenia. Nowo odkryte obiekty otrzymywały najpierw tymczasowe oznaczenie, a stały numer nadawany był dopiero wtedy, gdy wydawało się, że orbita nowego obiektu jest bezpieczna. Początkowo tymczasowe oznaczenie składało się z roku i jednej litery. Zatem pierwszym obiektem tak oznaczonym był 1892 A, drugim 1892 B, itd. Literę I pominięto, aby schemat ten mógł obsłużyć 25 odkryć rocznie. Rok 1892 zakończył się rokiem 1892 V. Sekwencję liter rozpoczęto od nowa w roku 1893, lecz oznaczenie 1893 Z osiągnięto w maju tego roku. Wprowadzono nową serię podwójnych liter, zaczynającą się od AA, AB,
, AZ, BA, BB itd. Ta dwuliterowa sekwencja nie rozpoczynała się co roku od nowa; ostatnim obiektem odkrytym w 1893 r. był 1893 AP, pierwszym w 1894 r. był 1894 AQ. Dwuliterowy ciąg został wyczerpany w 1907 ZZ. Zamiast rozpoczynać sekwencję potrójną, sekwencja dwuliterowa została po prostu wznowiona za pomocą 1907 AA. Sekwencja została ponownie wyczerpana w 1916 ZZ i rozpoczęto od nowa w 1916 AA. W 1925 roku wprowadzono nowy system oznaczeń tymczasowych. Używało to sekwencji dwuliterowej i było powiązane z datą kalendarzową odkrycia. Pierwsza litera odzwierciedlała pół miesiąca odkrycia obiektu: A oznaczało odkrycia dokonane między 1 a 15 stycznia, B między 16 a 31 stycznia, C między 1 a 15 lutego, …, zostałem pominięty, …, Y pomiędzy 16 i 31 grudnia. W drugim piśmie wskazano kolejność w ciągu każdego pół miesiąca (znowu zostałem pominięty). Jeżeli w ciągu pół miesiąca dokonano więcej niż 25 odkryć, druga sekwencja liter była poddawana recyklingowi i do oznaczenia dodawana była cyfra. Zatem sekwencja oznaczeń obiektów odkrytych w pierwszej połowie stycznia 1998 będzie następująca: 1998 AA, 1998 AB,
, 1998 AZ, 1998 AA1, 1998 AB1, … , 1998 AZ1, 1998 AA2 itd. Zakrojony program poszukiwań prowadzono w Heidelbergu od 1891 r., a program głównie wizualny Johanna Palisy w Wiedniu działał od 1881 r. W latach 1874-1880 Palisa odkryła 28 asteroid w Poli, która wówczas była w Austrii. Po przeprowadzce do Wiednia odkrył kolejnych 55, po czym porzucił poszukiwania i poświęcił się kontynuacji odkryć innych ludzi. Poszukiwania nowych obiektów wznowił w 1905 r., a w 1923 r. odkrył kolejnych 38. Dalsze istotne programy rozpoczęto w Johannesburgu i Simeis w 1911 r., Uccle (Belgia) w 1925 r., Flagstaff (USA) w 1929 r. (poszukiwania doprowadziły do odkrycia Pluton) i Turku (Finlandia) w 1935 r. W dalszym ciągu odkrywano nowe klasy asteroid: 1898, (433) EROS, pierwszy obiekt o odległości peryhelium mniejszej niż 1,3 AU; 1903, (588) ACHILLES, pierwszy obiekt w rezonansie 1:1 z większą planetą (trojany Jowisza); 1920, (944) Hidalgo, obiekt asteroidalny o orbicie kometarnej; 1932, (1862) Apollo, pierwsza asteroida o odległości peryhelium mniejszej niż 1 AU (patrz ASTEROIDY NEARTH). Zadanie skatalogowania asteroid podjęto w Niemczech. Głównym czasopismem publikującym informacje o odkryciach, pozycjach i orbitach było Astronomische Nachrichten (AN). Astronomishes Rechen-Institut w Berlinie-Dahlem zaczął publikować serię okólników szybkiego ostrzegania, okólników RI, w 1926 r. Coroczne zbiory efemeryd mniejszych planet publikowano, najpierw w Jahrbuch Rechen-Institut, a następnie od 1917 r. osobno jako Kleine Planeten. Działalność tych podmiotów została jednak poważnie zagrożona przez II wojnę światową. W 1947 roku Międzynarodowa Unia Astronomiczna podzieliła się zadaniem katalogowania mniejszych planet. Za wydawanie rocznych tomów efemeryd dla ponumerowanych obiektów odpowiedzialny był Instytut Astronomii Teoretycznej w Leningradzie w ZSRR (obecnie Sankt Petersburg, Rosja). Minor Planet Center, założone na Uniwersytecie Cincinnati, miało za zadanie śledzenie nowo odkrytych obiektów i nadawanie tymczasowych i stałych oznaczeń. Centrum rozpoczęło publikację Okólników Minor Planet, zastępujących nieistniejące już Okólniki RI. Pierwszym priorytetem było ponowne odnalezienie ponumerowanych obiektów, które zaginęły. Spośród 1564 obiektów oznaczonych numerem w 1945 r. orbity około 20% uznano za w złym stanie. Nowe programy badawcze w Obserwatorium Goethe Link w Indianie, Obserwatorium McDonald i Krymskim Obserwatorium Astrofizycznym rozwiązały problem utraconych obiektów i pomogły odzyskać wiele obiektów. Jeśli chodzi o obliczenia, Paul Herget, pierwszy dyrektor Minor Planet Center, wykorzystał niedawno opracowany komputer elektroniczny do wykonania obliczeń orbity i ulepszeń. Przed 1973 rokiem wszystkie znane obiekty bliskie Ziemi (NEO) zostały odkryte jako produkty uboczne innych programów astronomicznych. Dwa takie obiekty odkryto w 1948 r. w trakcie przeglądu Lick Proper Motion Survey, a pięć w Palomar w latach 1949-1954 podczas przeglądu nieba Palomar. W 1973 roku Eleanor Helin i Eugene Shoemaker rozpoczęli badanie Palomar Planet-Crossing Asteroid Survey, pierwsze badanie, którego głównym celem było odkrycie NEO. Odkryto więcej nowych klas asteroid: 1976, (2062) Aten, pierwsza asteroida o orbicie mniejszej niż orbita Ziemi; 1977, (2060) CHIRON, pierwszy centaur z orbitą pomiędzy orbitami planet Jowisza. W 1978 roku, kiedy Minor Planet Center przeniosło się z Cincinnati do Smithsonian Astrophysical Obervatory w Cambridge w stanie Massachusetts, wydano 4390 Minor Planet Circulars i było tam ponumerowanych 2060 obiektów, z czego około 20 uznano za zaginione.
Era CCD
Podobnie jak w przypadku przejścia z obserwacji wizualnej na fotograficzną, przejście z obserwacji fotograficznych na obserwacje CCD oznacza, że obserwatorzy mogą docierać do słabszych obiektów szybciej niż było to możliwe wcześniej. Wadą, którą usunięto dopiero niedawno, jest to, że pole widzenia matrycy CCD jest znacznie mniejsze niż pokrycie zapewniane przez kliszę fotograficzną. Płyta wykonana dużym Schmidtem zazwyczaj obejmuje obszar 6 na 6 stopni, podczas gdy wczesne CCD mogą obejmować tylko 6 minut kątowych na 6 minut kątowych. Nowoczesne wielkoformatowe matryce CCD i matryce CCD łagodzą ten problem zasięgu. Pierwsze systematyczne zastosowanie CCD do wyszukiwania asteroid miało miejsce w ramach projektu Spacewatch w 1981 r. Wykorzystując czcigodny reflektor o średnicy 0,91 m w Obserwatorium Stewarda na Kitt Peak, Spacewatch odkrył ponad 180 planetoid NEO i 25 000 asteroid Pasa Głównego. Większość obecnych profesjonalnych poszukiwań asteroid za pomocą CCD jest zoptymalizowanych pod kątem odkrywania NEO, ale w trakcie poszukiwań wychwytuje wiele rutynowych obiektów. Program LINEAR (zespół badawczy Lincoln Laboratory Near-Earth Asteroid Research) odkrył 153 planetoidy NEO i ponad 19 000 asteroid Pasa Głównego. Inne aktywne programy obejmują NEAT (śledzenie asteroid bliskich Ziemi), LONEOS (przeszukiwanie obiektów bliskich Ziemi w Obserwatorium Lowell) i ODAS (badanie asteroid OCA-DLR). Inne programy zawodowe, takie jak czeskie programy w Klet i Ondrejov, koncentrują się na kontynuacji. Wciąż odkrywane są nowe klasy asteroid. Pierwsze OBIEKTY TRANS-NEPTUNIAŃSKIE, po Plutonie, odkryto w latach 1992 i 1993. Orbity niektórych z tych obiektów leżą daleko poza orbitą Neptuna i są zasadniczo okrągłe, podczas gdy inne mają orbity, które znajdują się w rezonansie ruchu średniego z Neptunem ( głównie rezonans 2:3, jak w przypadku Plutona). Chociaż orbity tych ostatnich obiektów przecinają orbitę Neptuna, rezonans uniemożliwia bliskie spotkania z Neptunem. Skrajna słabość większości tych obiektów utrudnia dalsze działania, a wiele odkrytych obiektów należy już uznać za zaginione. Dostępność niedrogich kamer CCD na rynku amatorskim na początku lat 90. XX wieku doprowadziła do odrodzenia się działalności amatorskiej w dziedzinie odkrywania asteroid. Wcześniej wielu amatorów, choć posiadało odpowiednie teleskopy, nie było w stanie prowadzić astrometrycznych obserwacji asteroid, ponieważ nie mieli sprzętu do pomiaru klisz fotograficznych lub klisz. Przetworniki CCD i pojawienie się programów komputerowych do przetwarzania obrazów CCD umożliwiło wielu amatorom obserwację i odkrywanie asteroid. Inni amatorzy stali się oddanymi obserwatorami, pilnie śledzącymi odkrycia potencjalnych NEO za pomocą profesjonalnych ankiet. Japońscy amatorzy są bardzo aktywni od lat 70. XX wieku, najpierw fotografując, a następnie używając matryc CCD. Dużą działalność amatorską prowadzi się także we Włoszech, Australii i USA. W chwili pisania tego tekstu liczba asteroidów jest ponumerowana 10 986, przydzielono ponad 164 000 tymczasowych oznaczeń i wydano ponad 35 000 okólników mniejszych planet. Zaginęła tylko jedna asteroida o numerze. Istnieje ponad 12 000 nienumerowanych obiektów o dobrych orbitach, które w najbliższej przyszłości będą kwalifikowały się do numeracji. Ponad 25 000 innych obiektów, zaobserwowanych jedynie podczas odkrycia, ma orbity różnej jakości i oczekuje na odnalezienie lub ponowne odkrycie
Asteroidy
Asteroidy to małe ciała krążące wokół Słońca, które nie wykazują aktywności kometarnej ani nie mają do niej potencjału. Słowo "mały" ma na celu wykluczenie planet z definicji. Wszystkie znane asteroidy mają średnicę mniejszą niż 1000 km i sięgającą kilku centymetrów (METEOROIDY). Największą znaną planetoidą jest 1 CERES, odkryta 1 stycznia 1801 roku przez Giuseppe Piazzi w Palermo we Włoszech, o średnicy 950 km. Asteroidy nazywane są także mniejszymi planetami. Nowo odkryte mniejsze ciało znane jako 2001 KX76, którego średnica czyni go największym znanym mniejszym ciałem w Układzie Słonecznym (jego średnica, która nie jest zbyt dobrze określona, wynosi około 1200 km, a być może nawet 1400 km) to OBIEKT TRANSNEPTUŃSKI (TNO). Większość asteroid krąży w zamkniętym obszarze pomiędzy Marsem a Jowiszem, zwanym głównym PASEM ASTEROID. Spośród około 30 000 znanych obiektów jedynie 8500 asteroid ma dokładnie określone orbity. Każda z tych asteroid ma ostateczną identyfikację, składającą się z liczby wskazującej
kolejność jej pojawienia się oraz nazwy zaproponowanej przez odkrywcę (np. "3752 Camillo" oznacza 3752. odkrytą asteroidę). Dla pozostałych 21 500 dostępne są jedynie wstępne orbity; każda oznaczona jest rokiem odkrycia i dwiema literami wskazującymi datę pierwszej obserwacji w ramach tymczasowej identyfikacji (np. "1998 p.n.e." oznacza trzecią asteroidę (C) odkrytą w drugiej połowie stycznia (B) 1998 r.). Satelita astronomiczny w podczerwieni (IRAS) wykrył tysiąc asteroid, który dostarczył radiometryczne średnice i albedo większości z nich. Około 700 asteroid ma określony okres rotacji. Mniej niż 1000 asteroid ma średnicę większą niż 30 km, a spośród nich około 200 asteroid ma średnicę większą niż 100 km. Ekstrapolując rozkład wielkości asteroid do 1 km, uzyskuje się szacunkową liczbę około miliona asteroid, których średnica jest większa lub równa 1 km. Szacuje się, że globalna masa populacji jest rzędu jednej tysięcznej masy Ziemi. Asteroidy uważano za nieciekawe "robactwo niebios", dopóki nie odkryto,
że przechowują różnorodne informacje. W rzeczywistości uważa się, że asteroidy to pozostałości, fragmenty lub "ocalałe" roje PLANETESIMALI, z których powstały planety ziemskie: zapisy pierwotnych procesów chemicznych i fizycznych wciąż można znaleźć zamrożone w rzeczywistych charakterach asteroid. Badanie tych obiektów dostarcza informacji na temat natury tych pierwotnych rojów, nawet jeśli różnicowanie i/lub aktywność wewnętrzna w różny sposób wpływały na ich ewolucję. Obserwacje asteroid naziemne i in situ pokazują populację ciał stałych wykazujących różnorodne właściwości chemiczne i fizyczne: jedną z najciekawszych cech asteroid jest ich różnorodność. Zrozumienie pochodzenia różnorodności wymaga zbadania dużej liczby ciał. Informacje zebrane in situ na temat asteroid RG21 6XS, UK Zarejestrowany pod numerem 785998 i Institute of Physics Publishing 2003 Dirac House, Temple Back, Bristol, BS21 6BE, UK 1 różne asteroidy
będące celami misji kosmicznych stanowią potężny test umożliwiający kalibrację technik stosowanych do określania właściwości chemicznych i fizycznych asteroid na podstawie obserwacji naziemnych, które są i pozostaną głównym źródłem danych o asteroidach. Obecna wiedza na temat populacji planetoid została uzyskana głównie z obserwacji naziemnych. Na przykład ostatnie obserwacje wykonane za pomocą 10-metrowego teleskopu Keck II na Mauna Kea ujawniają obecność małego satelity krążącego wokół asteroidy 87 Sylvia. Przewidywana odległość między pierwotnym i wtórnym wynosiła 0,59 cala na obrazach w paśmie H uzyskanych 18 lutego 2001 r. przy użyciu systemu optyki adaptacyjnej na 10 m teleskopie WM Keck II. Na obrazach uzyskanych w odstępie godziny był widoczny niewielki ruch względny (górna granica 0,02 cala). ). Zmierzony współczynnik jasności wyniósł 420 ą 70, co oznacza stosunek rozmiarów około 1:20. Oznacza to, że satelita ma szerokość około 7 km, w przeciwieństwie do Sylvii, która ma szerokość około 130 km.
Niewiele dużych asteroid objętych jest programem obserwacyjnym Kosmicznego Teleskopu Hubble'a (HST), a pierwsze wyniki dotyczące 4 VESTA cieszą się dużym zainteresowaniem. Infrared Satellite Observatory (ISO) zaobserwowało kilkadziesiąt asteroid, umożliwiając astronomom uzyskanie danych spektralnych do 45 ľm. Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA) MISJA GALILLEO po raz pierwszy zbliżyła się do dwóch asteroid, 951 GASPRA (październik 1992) i 243 IDA (sierpień 1993), oferując społeczności planetologów możliwość przyjrzenia się z bliska dwóm S- typu asteroidy z pasa głównego. Przelot 253 Mathilde (czerwiec 1997, misja Near Earth Asteroid Rendezvous (NEAR)) dostarczył nam pierwszych danych in situ na temat asteroidy typu C.
Asteroidy pasa głównego
Główny pas asteroid zajmuje obszar wokół Słońca przypominający pączek, zawierający orbity większości asteroid, charakteryzujący się półosiami wielkimi (a) w zakresie od 2,1 AU do 3,3 AU, mimośrodami (e) w zakresie od 0,01 do 0,3 oraz nachyleniem (i) względem płaszczyzny orbity Ziemi (ekliptyki) pomiędzy 0° a 35° (ze średnią wartością 10°). Strukturę pasa asteroid określają oddziaływania grawitacyjne zarówno z Marsem, jak i Jowiszem. Ze względu na większą masę, efekty Jowisza są dominujące i powodują wyczerpywanie się obiektów odpowiadających rezonansom, tj. obszarów, w których okres orbitowania ciała byłby dokładnym całkowitym stosunkiem okresu orbity Jowisza (asteroida 2,5 AU od Słońca mówi się, że znajduje się w "rezonansie" 3:1: to znaczy, że ciało wykona dokładnie trzy okrążenia wokół Słońca na każde okrążenie Jowisza). Te przerwy w jednorodności pasa asteroid nazywane są KIRKWOOD GAPS od nazwiska amerykańskiego astronoma, który je zidentyfikował. Usuwając skutki świeckich zaburzeń planetarnych, można uzyskać opis orbity asteroidy pod względem jej właściwych elementów. Niektóre planetoidy pasa głównego mają bardzo blisko siebie półosie główne, odpowiednie mimośrody i odpowiednie nachylenia: tworzą skupienia w przestrzeni odpowiednich pierwiastków i generalnie wszyscy członkowie gromady należą do tego samego typu składu. W 1918 roku japoński astronom Hirayama nazwał te gromady "rodzinami planetoid" . Analizując 950 znanych asteroid, Hirayama nazwał zidentyfikowane rodziny największego członka rodziny: Themis, Eos, Koronis i Flora. Od tego czasu zidentyfikowano kilka innych rodzin i klanów (grupa asteroid nazywana jest "klanem", gdy niemożliwe jest jednoznaczne zdefiniowanie członka rodziny i/lub oddzielenie go od innych obiektów tła). Rodziny asteroid interpretuje się jako wynik katastrofalnego rozerwania ciała macierzystego w wyniku zderzenia z inną, mniejszą asteroidą. Jeśli tak, to rodziny planetoid stanowią naturalne laboratorium, w którym doszło do uderzeń z dużą prędkością (v∼5 km/s-1) w skali niemożliwej do odtworzenia w naszych laboratoriach. Rozkład wielkościowy członków rodziny (fragmentów ciała macierzystego) jest obrazem skutków zderzenia; skład chemiczny fragmentów wskazuje na wewnętrzną strukturę i skład ciała macierzystego. Badanie rodzin asteroid dostarcza informacji na temat historii kolizyjnej populacji asteroid od czasu jej powstania. Odkrycie nowej rodziny planetoid potwierdzono w 2002 roku. Uważa się, że jest to najmłodsza planetoida, która ma mniej niż 6 milionów lat. David Nesvorny i współpracownicy z Southwest Research Institute w Boulder w Kolorado rozpoznali około 39 asteroidów jako należących do tej samej rodziny, badając ich orbity. Projektując obecne orbity wstecz w czasie, naukowcy odkryli, że zbiegły się one około 5,8 miliona lat temu, a więc musiało to mieć miejsce w momencie, gdy powstały w wyniku rozpadu większego ciała. Spośród 39 dwie to duże asteroidy. Jedna, zwana (832) Karin, od której wzięła się nazwa całej gromady, ma średnicę około 19 km; druga, zwana (4507) 1990, ma długość około 14 km. Zespół szacuje, że ciało macierzyste miało średnicę co najmniej 24,5 km. Rozmiar ciała macierzystego i powstałych przez nie fragmentów może stanowić test dla teoretycznych modeli sposobu, w jaki uderzenia rozbijają ciała skaliste. Stosunkowo świeże powierzchnie dwóch większych fragmentów mogą również ujawnić, z czego zbudowane są asteroidy i jak szybkie wietrzenie w przestrzeni kosmicznej pokrywa je małymi kraterami. Zderzenie Karin mogło być również odpowiedzialne za niedawno odkryte pasmo pyłu asteroidalnego. Rozkład prędkości obrotowej w zależności od średnicy asteroid pasa głównego pokazuje, że obiekty o średnicy około 100 km mają dłuższe okresy rotacji niż zarówno większe, jak i mniejsze asteroidy. W hipotezie kolizyjnej ewolucji asteroid z roju planetozymalnego wartość średnicy zinterpretowano jako wielkość, przy której następuje oddzielenie pierwotnych większych asteroid od ich mniejszych produktów kolizyjnych. Rozkład prędkości wirowania asteroid o średnicy większej niż 50 km jest jednomodalny i odzwierciedla zachowanie rotacyjne uzyskane podczas pierwotnych faz procesu akrecji asteroid, podczas gdy rozkład asteroid o D < 50 km jest sumą trzech składników, " pierwotny", jeden z szybkich rotatorów i jeden z bardzo wolnych rotatorów. Zderzenia zakłócające pozwalają małym fragmentom uzyskać moment pędu, tworząc grupę szybkich rotatorów, natomiast mechanizm spowalniania, który dał początek powolnym rotatorom, w tym 253 Mathilde, wymaga dalszych badań. Kształty 50 szeroko obserwowanych dużych asteroid oceniono za pomocą analizy Fouriera pełnego zestawu krzywych blasku, a pomiary radarowe wykorzystano do określenia kształtów małych obiektów. Dane te wskazują, że większe asteroidy są bardziej regularne niż mniejsze. Wynik ten ponownie wskazuje, że większe ciała są pozostałością pierwotnej populacji, która zachowała w swoim kształcie figury równowagi, podczas gdy mniejsze, ogólnie nieregularne obiekty, są zapisami destrukcyjnych zderzeń. Kierunek osi obrotu (orientacja bieguna) został wyznaczony (w najlepszym przypadku z dokładnością do 15%) dla 50 planetoid. Nawet jeśli dostępna próbka jest zbyt mała, aby wyciągnąć jednoznaczne wnioski, rozkład kierunków biegunów wydaje się bimodalny: ponownie jest to możliwa wskazówka na nałożenie się dwóch różnych grup asteroid. Dokładne określenie kierunku bieguna znacznej liczby asteroid pozwoli na lepsze zrozumienie historii populacji. W rzeczywistości, mimo że większość nachyleń osi obrotu pierwotnych asteroidów była rozłożona wokół jednej wartości w wyniku procesu akrecji, zderzenia spowodują losową zmianę orientacji osi obrotu, których rozkład zostanie rozłożony i spłaszczony. Populacja asteroid rozprzestrzenia się pomiędzy orbitami Marsa i Jowisza. W tej strefie leży granica oddzielająca wewnętrzny Układ Słoneczny (gdzie odparowała woda w mgławicy protosłonecznej) od obszarów zewnętrznych (gdzie nastąpiła kondensacja wody). Strefa ta, rozciągająca się od 2,6 AU do 3,1 AU, znana jest jako wodna strefa zmian, w której w wielu widmach asteroid typu C wykryto sygnatury widmowe przejść elektronowych, możliwe tylko w obecności ciekłej wody. Jest to mocny dowód na obecność, czasami w przeszłości, wody w stanie ciekłym na tych asteroidach. Ilość wody obecnej w asteroidzie jest kwestionowana, ale jej wykrycie byłoby istotne dla zrozumienia związków między asteroidami a KOMETAMI.
Skład asteroidy
Skład chemiczny i mineralogię powierzchni asteroid można określić za pomocą spektroskopii lub, nawet jeśli z mniejszą precyzją, za pomocą spektrofotometrii wielofiltrowej. Analizując za pomocą wyrafinowanych kodów grupowania wszystkie dostępne widma asteroid, uzyskano system taksonomiczny. Główne uznane klasy są oznaczone, w kolejności ich obserwowanej względnej liczebności, literami: S, C, M, D, F, P, V, G, E, B, A (inicjały słów używanych do z grubsza opisu asteroida lub jej widmo, tj. kamienista, węglowa, metaliczna,
). Większość asteroid należy do typu C o niskim albedo, charakteryzującym się stosunkowo neutralnym widmem, wykazującym absorpcję w zakresie fal ultrafioletowych, a czasami oznaki zmian wodnych. Ich widma odpowiadają widmom węglowych meteorytów chondrytycznych, co stanowi silną wskazówkę o podobnym składzie. Kilka asteroid (typu B, G i F) przypomina C widma z niewielkimi różnicami przy krótszych długościach fal, które mogą odzwierciedlać stopnie metamorfizmu materiału podobnego do C. Asteroidy typu D, charakteryzujące grupę trojanów, mają niskie albedo i są bardziej czerwone niż planetoidy typu C. Asteroidy typu P o niskim albedo, dominujące w odległości 3,6 AU
Odległe asteroidy
Poza głównym pasem, w kierunku zewnętrznego obszaru Układu Słonecznego, kilka grup asteroid zachowuje się zupełnie inaczej niż asteroidy z pasa głównego: w rzeczywistości znajdują się one w głównych rezonansach z Jowiszem. Na 3,9 AU (rezonans 3:2) znajduje się grupa Hildy; asteroida Thule spada w rezonansie 4:3 (przy 4,3 AU). Szczególnie interesująca grupa, zwana ASTEROIDAMI TROJAŃSKIMI, rezyduje w rezonansie 1:1. Te asteroidy mają taką samą odległość heliocentryczną i okres orbitalny jak Jowisz: krążą w pobliżu dwóch pozycji równowagi, znanych jako punkty Lagrange′a Jowisza, które leżą około 60° na wschód i zachód od Jowisza w jego płaszczyźnie orbity. Obecnie znanych jest około 200 trojanów; ma istnieć kilka tysięcy, większych niż 15 km. Chociaż trojany są klasyfikowane jako asteroidy na podstawie braku aktywności kometarnej, fizyczna natura trojanów jest niepewna: ich widma optyczne pokazują czerwone kontinua bez dowodów na cechy absorpcji lub emisji (typ taksonomiczny D): ich albedo jest bardzo niskie (2- 3%). Obie te cechy są porównywalne z cechami kilku obserwowanych jąder komet i mogą świadczyć o wspólnych związkach organicznych w obu klasach obiektów. Podobnie jak w przypadku komet, ciemnoczerwone powierzchnie trojanów mogą być cienkimi płaszczami gruzu osłaniającymi zakopany lód, którego szybkość sublimacji (w przypadku odsłonięcia, np. w wyniku zderzenia) jest zbyt mała, aby utrzymać obserwowalną śpiączkę. Orbita Jowisza wyznacza granicę między światami skalistymi (planety podobne do Ziemi, asteroidy, pył) i światami lodowymi (systemy satelitarne planet-olbrzymów, komety, pierścienie); w tych regionach możliwe byłoby znalezienie elementu przejściowego między asteroidą a kometą, które prawdopodobnie są przeciwległymi członkami tej samej populacji pierwotnych planetozymali. W rzeczywistości niedawno odkryto kilka dużych obiektów, zwanych CENTAURAMI, na orbitach przecinających orbity gazowych gigantów. 2060 CHIRON, pierwszy odkryty centaur, jest jedynym członkiem tej grupy, który wykazuje aktywność kometową (jej oznaczenie komety to P/Koval). Centaury to prawdopodobnie ogromna populacja niestabilnych ciał przemierzających planety zewnętrzne; ich łączną liczbę szacuje się na 105-106 obiektów w przeliczeniu na km. Wszystkie znane centaury są podobne dynamicznie, ale ich powierzchnie wykazują dramatyczne różnice widmowe: niektóre mają całkowicie neutralne widmo (podobne do słonecznego), podczas gdy inne wykazują najbardziej czerwone widma ciał Układu Słonecznego. Czy są to łyse komety, a także OBIEKTÓW TRANS-NEPTUNIAŃSKICH?
Asteroidy bliskie Ziemi
ASTEROIDY BLISKOZIEMIOWE (NEA) należą do trzech różnych grup ogólnie małych obiektów znajdujących się w wewnętrznym Układzie Słonecznym. Znanych jest około 500 NEA, a wskaźnik ich odkrywania stale rośnie. Spośród NEA 5,8% należy do grupy Atens charakteryzującej się półosią wielką a<1 AU i odległością aphelium Q>0,983 AU, 48,5% należy do grupy Apollo (a>=1 AU i odległością peryhelium q<=1,017 AU), a 45,7% należy do grupy Amor (1,017 AU6-108 lat. Ponieważ NEA mają niestabilne orbity, potrzebne są ciągłe dostawy nowych obiektów. Powszechnie proponuje się dwa główne mechanizmy zaopatrywania populacji zbliżającej się do Ziemi: pierwszy zakłada, że NEA to fragmenty asteroid pochodzące z głównego pasa, natomiast drugi zakłada, że możliwym źródłem NEA są uśpione lub wymarłe jądra komet. Powszechnie uważa się, że NEA, zarówno pochodzenia asteroidowego, jak i kometarnego, są w sposób ciągły wstrzykiwane na orbity przecinające Ziemię za pośrednictwem kilku różnych kanałów rezonansowych, które zbierają fragmenty wyrzucane losowo z asteroid z pasa głównego w wyniku energetycznych wzajemnych zderzeń asteroid. Obiekty te przechodzą dość złożony proces ewolucji orbitalnej, napędzany ruchem średnim i rezonansami świeckimi, nierezonansowymi perturbacjami świeckimi oraz sekwencją bliskich spotkań z planetami. Ostatecznie w większości wpadają do Słońca lub są wyrzucane z Układu Słonecznego po spotkaniu z Jowiszem; tylko kilka procent zderza się z planetami ziemskimi. Aby zachować równowagę pomiędzy średnim tempem utraty planetoid na orbitach zbliżających się do Ziemi a tempem ich uzupełniania, tempo źródeł musi generować kilkaset nowych obiektów o średnicy większej niż 1 km na 106 lat. Jak dotąd uzyskano stosunkowo niewiele obserwacji spektroskopowych NEA ze względu na ich małe rozmiary, słabe pozorne jasności i ograniczone odstępy widoczności. Nasza obecna wiedza na temat natury NEA sugeruje, że populacja ta charakteryzuje się różnorodną mineralogią powierzchni i obejmuje prawie wszystkie typy taksonomiczne występujące w pasie głównym. Nawet jeśli nasze próbkowanie NEA do obserwacji fizycznych jest mocno stronnicze, wydaje się, że nie istnieje żadna korelacja pomiędzy typem taksonomicznym a wymiarem lub okresem rotacji: zarówno największa, jak i najmniejsza NEA to asteroidy typu S; kilka typów C obejmuje znaczny zakres średnic, podczas gdy rzadkie typy taksonomiczne mają zakres prędkości rotacji, podobnie jak liczne typy S. Na podstawie tych danych wydaje się, że populacja NEA ma w przybliżeniu taki sam udział asteroid typu S i C, jak pas główny. To podobieństwo rodzi pytanie, gdzie znajdują się martwe komety, które nie powinny być głównym składnikiem głównego pasa. Kilka NEA sklasyfikowanych jako typy C jest najwyraźniej utworzonych przez prymitywny materiał podobny do uwodnionych meteorytów chondrytowych CI i CM węglowych. Badanie aspektroskopowe NEA w zakresie 0,45-0,9 ?m wykazało, że spośród 35 obiektów sześć ma widma podobne do widm zwykłych meteorytów chondrytowych, podczas gdy 29 ma właściwości widmowe obejmujące zakres od domen zwykłych meteorytów chondrytowych do najpopularniejszego meteorytu typu S asteroidy pasa głównego. Zakres ten może wynikać z różnorodności mineralogii i rozmiarów cząstek regolitu, a także z zależnego od czasu procesu wietrzenia powierzchni. W tym przypadku, jeśli aktywny jest proces wietrzenia zależny od czasu (jak zaproponowano w celu wyjaśnienia zmian powierzchni zmierzonych na zdjęciach 243 Ida ze statku kosmicznego Galileo), asteroidami bardzo przypominającymi zwykłe meteoryty chondrytowe będą te z najmłodszymi powierzchniami. Obserwacje sugerują, że planetoidy podwójne często pojawiają się na orbitach przecinających Ziemię. Korzystając z dwóch najpotężniejszych astronomicznych teleskopów radarowych na świecie, astronomowie szacują, że około 16% planetoid bliskich Ziemi o średnicy większej niż 200 metrów (219 jardów) to prawdopodobnie układy podwójne. Asteroidy bliskie Ziemi mogą stać się układami podwójnymi, gdy przyciągają je znacznie większe siły grawitacyjne planet, zniekształcając, a czasem przerywając satelitę. Wyniki teoretyczne i modelowanie pokazują, że asteroidy podwójne powstają najprawdopodobniej podczas bliskiego spotkania z planetami wewnętrznymi, Ziemią lub Marsem, czasami zaledwie 16 000 mil od powierzchni planety. W 2002 roku w wiadomościach pojawiły się dwie asteroidy ze względu na ich przewidywane bliskie podejście do Ziemi. 9 lipca 2002 roku astronomowie z MIT odkryli 2002 NT7, kosmiczną skałę o szerokości 2 km, krążącą po dziwnej orbicie. W przeciwieństwie do większości asteroid krążących wokół Słońca w płaszczyźnie planet, 2002 NT7 podąża po torze nachylonym pod kątem 42 stopni. Większość czasu spędza daleko powyżej lub poniżej reszty Układu Słonecznego. Jednak co 2,29 roku asteroida przelatuje przez wewnętrzny Układ Słoneczny niedaleko orbity Ziemi. Po tygodniu dalszych obserwacji badacze przeprowadzili pewne obliczenia. Doszli do wniosku, że istnieje szansa, że 2002 NT7 może uderzyć w naszą planetę 1 lutego 2019 r. To trafiło na pierwsze strony gazet, niepokojąc część opinii publicznej. Nie zgłoszono jednak, że prawdopodobieństwo zderzenia wynosi 1 do 250 000. 14 lipca astronomowie odkryli 2002 NY40. Asteroida ta ma średnicę około 800 metrów i porusza się po orbicie rozciągającej się od pasa asteroid do wewnętrznego Układu Słonecznego. Najbliższe podejście miało miejsce 18 sierpnia 2002 r., przechodząc zaledwie 1,3 razy dalej niż Księżyc i było widoczne przez lornetkę.
Przelot asteroidy
Misja Galileo zmierzająca w stronę Jowisza zbadała asteroidy 951 Gaspra i 243 Ida, odkrywając wokół tej ostatniej pierwszego satelitę asteroid o nazwie Dactyl; wszystkie te trzy to małe obiekty typu S. 243 Ida jest członkiem rodziny Koronis. Przeloty Galileo dostarczyły zdjęć tych asteroid z rozdzielczością przestrzenną, jakiej nigdy nie uzyskano w obserwacjach naziemnych. Obserwacje wykazały, że zarówno 951 Gaspra, jak i 243 Ida mają kształt wydłużony i dość nieregularny, natomiast Dactyl ma raczej gładki, regularny kształt, co kontrastuje z kanciastością innych znanych małych ciał (951 Gaspra, 243 Ida, kometa P/Halley jądro, 4179 Toutatis i 4769 Castalia), ale wykazuje pewne aspekty o porównywalnej szorstkości kończyn z księżycami Marsa (PHOBOS I DEIMOS). Jedną z charakterystycznych cech powierzchni jest układ prążków liniowych (wgłębienia o jednakowej szerokości do kilku km i szerokości kilkuset metrów i głębokości prawdopodobnie nie większej niż kilkadziesiąt metrów), które są podobne do rowków obserwowanych na Fobosie i mogą być sygnaturą ich pochodzenia z powodu niemal katastrofalnej kolizji. Najważniejszymi wynikami było określenie rozkładu wielkości kraterów na powierzchniach obiektów. Z rozkładu częstotliwości kraterów wynika, że wiek 243 Ida wynosił około 1 miliard lat, podczas gdy wiek 951 Gaspra wynosił zaledwie 200 milionów lat. Obie asteroidy są pokryte warstwą regolitu o znacznych różnicach w albedo i kolorze. Sekwencja zdjęć, na których widoczny jest Dactyl, pozwoliła nam wyznaczyć jego orbitę w funkcji masy 243 Idy. Połączenie tej wartości z oszacowaną objętością 243 Ida daje gęstość nasypową 243 Ida na poziomie 2,6 ± 0,5 g cm-3, co jest zgodne z masowym składem chondrytycznym. 27 czerwca 1997 roku NEAR przeleciał blisko (około 1200 km) asteroidy 253 Mathilde z pasa głównego, wykonując pierwszy przelot w pobliżu asteroidy typu C. Aby scharakteryzować 253 Mathilde, przeprowadzono kilka naziemnych badań rozpoznawczych. Ustalono okres rotacji wynoszący 17,4 dnia: 253 Mathilde jest wyjątkowo powolnym i opadającym rotatorem. Obserwacje spektralne 253 Mathilde wykazały, że jej neutralne właściwości odblaskowe są wysoce jednorodne na całej badanej powierzchni, a wyniki widma są porównywalne z wynikami chondrytów węglowych i czarnych zwykłych. Obserwacje koloru NEAR na całym dysku w zakresie od 400 do 1100 nm ściśle zgadzają się z wynikami widma teleskopowego. NEAR odkrył, że 253 Mathilde jest jednakowo nijaka zarówno pod względem albedo, jak i koloru (bardziej łagodna pod względem wariacji kolorystycznych niż Fobos). 253 Mathilde ma albedo geometryczne wynoszące 0,041 ± 0,003 przy 0,55 μ. W ramach projektu NEAR odkryto pięć kraterów o średnicy 19-33 km, co odpowiada średniemu promieniowi 26,5 km. Przelot pozwolił także na bezpośrednie określenie masy i oszacowanie gęstości na 1,3 ± 0,2 g cm-3. Porównanie tej gęstości z gęstością chondrytów węglowych sugeruje, że porowatość 253 Mathilde wynosi ∼ 50%. W lutym 2000 r. główny cel misji, spotkanie z bardzo wydłużoną planetoidą z grupy Amor typu S 433 EROS, został osiągnięty za pomocą serii manewrów, które spowolniły statek kosmiczny do prędkości względem asteroidy wynoszącej zaledwie 5 m s-1 przed wejściem na orbitę. Zestaw szczegółowych i precyzyjnych danych na temat trzech planetoid typu S (951 Gaspra, 243 Ida i Dactyl), drugiego pod względem składu planetoidy pod względem liczebności, jest już dostępny, a w ciągu przyszłego roku pojawią się nowe informacje na temat innej osobliwej asteroidy typu S (433 Eros) zostanie uzyskany. Na podstawie analizy tych danych prawdopodobnie możliwe będzie ustalenie, czy asteroidy S są prymitywnymi zbiorowiskami minerałów, niewiele zmienionymi od czasu, gdy powstały jak zwykłe kondryty, czy też materiałem w postaci meteorytów bazaltowych i kamienno-żelaznych, które uległy intensywnemu stopieniu i ewolucja. Pierwszy przelot statku typu C (253 Mathilde) wykazał bardzo małą gęstość tego ciała i bardzo jednorodny kolor powierzchni. Zderzenia na 253 Mathilde silnie wpłynęły na morfologię jej powierzchni. Czy te znaki są wspólne dla całej klasy C? W piątek 2 listopada 2002 roku należąca do NASA sonda kosmiczna Stardust została przetestowana podczas przelotu obok asteroidy Annefrank i odkryła, że asteroida jest około dwukrotnie większa od przewidywanej, ale ma ciemniejszą powierzchnię. Gwiezdny pył przeleciał w odległości około 3300 km (2050 mil) od asteroidy w ramach próby przed spotkaniem statku kosmicznego ze swoim głównym celem, kometą Wild 2, w styczniu 2004 r. Rozdzielczość kamery była wystarczająca, aby pokazać, że Annefrank znajduje się w odległości około 8 km (5 mil) długości, dwukrotnie większej od przewidywanej na podstawie obserwacji naziemnych. Powierzchnia odbija około 0,1 do 0,2 procent światła słonecznego, nieco mniej niż oczekiwano. Można zobaczyć kilka kraterów o średnicy setek metrów. Prosta krawędź po prawej stronie obrazu może być artefaktem przetwarzania.
Ewolucja kolizyjna
Po powstaniu Jowisza i Marsa roje planetozymalne krążące pomiędzy tymi dwiema planetami doświadczyły silnych zaburzeń i uległy znacznemu wyczerpaniu, a pozostałości "zamrożono" na znacznie stabilniejszych orbitach. Długoterminowe perturbacje mogły spowodować wzajemne zderzenia, które wraz z wietrzeniem przestrzeni kosmicznej były jedynymi procesami modyfikującymi pierwotną populację planetozymali. Chociaż objętość przestrzeni, w której krążą asteroidy, jest duża, a przekroje asteroid małe, prawdopodobieństwo wystąpienia kolizji asteroid w przedziale czasowym zgodnym z wiekiem Układu Słonecznego jest dość wysokie (rzędu jednej kolizji na miliard lat). . Co więcej, fakt, że okresy rotacji asteroid są zgodne z rozkładem Maxwella, można uznać za wskazówkę, że zderzenia w populacji asteroid były wystarczająco częste, aby wytworzyć stan odprężenia kolizyjnego w przypadku bardziej masywnej populacji pierwotnej. Wiele innych obserwowalnych cech asteroid jest przypuszczalnie efektem ewolucji kolizyjnej: kształt i rozkład wielkości, właściwości fizyczne i chemiczne rodzin, właściwości rotacyjne. Niestety, skutki zderzenia dwóch asteroid, zależne głównie od ich rozmiarów i prędkości względnej, są słabo poznane. Symulacja laboratoryjna uderzeń małego pocisku (∼10
Astrologia
Astrologia to teoria mówiąca, że planety, Słońce i Księżyc, a także 12 "znaków zodiaku" łączą się w różnych, stale zmieniających się konfiguracjach względem siebie nawzajem i lokalnego horyzontu, wpływając na wydarzenia "podksiężycowe". W astrologii, podobnie jak w astronomii klasycznej przed przyjęciem hipotezy Kopernika, przyjmowano, że Ziemia znajduje się w centrum skończonego wszechświata, a środek Ziemi stanowi środek sfer ciał niebieskich - w kolejności od góry z Ziemi, Księżyca, Merkurego, Wenus, Słońca, Marsa, Jowisza, Saturna, gwiazd "stałych", ekliptyki i często "pierwotnej siły napędowej". Ruch tych 10 kul był według Arystotelesa kołowy i równomierny, zgodnie z naturą pierwiastka, eteru, z którego się składały. Ruchy czterech żywiołów tworzących świat podksiężycowy były liniowe w stosunku do środka Ziemi, elementy ziemi i wody poruszały się "w dół" w kierunku centrum, a elementy powietrza i ognia poruszały się "w górę" od centrum. Okrągłe ruchy sfer niebieskich zakłócają liniowe ruchy czterech elementów podksiężycowych, powodując w ten sposób zmiany na Ziemi oraz w otaczających ją warstwach wody, powietrza i ognia. Powstałe w ten sposób kombinacje pierwiastków tworzą podstawowe materiały, z których kształtowane są ciała ziemskie i atmosferyczne, na które następnie w sposób ciągły wpływają ruchy ciał niebieskich i pomocnicze oddziaływania ciał podksiężycowych. Zatem WSZECHŚWIAT jest rozległą, ale skończoną maszyną napędzaną naturalnymi ruchami pięciu elementów składowych, wśród których główny wpływ ma ETER o swoim regularnym ruchu kołowym, a astrologia jest nauką badającą działanie tej uniwersalnej maszyny.
Niebiańskie wróżby
W starożytnej Mezopotamii i w wielu kulturach znajdujących się pod jej wpływem wiele zjawisk niebieskich - zaćmienia, koniunkcje Księżyca i planet między sobą oraz z gwiazdami, duża liczba zjawisk spowodowanych zniekształceniem światła przechodzącego przez atmosferę, i inne zjawiska - uważano za wiadomości wysyłane przez bogów, aby ostrzec władców ludzi lub zbiorowe grupy ludzi o zbliżającej się katastrofie lub szczęściu. Interpretacja tych niebiańskich znaków była także nauką, dzięki której ludzie wielkiej wiedzy starali się udzielać przydatnych rad królom i innym urzędnikom państwowym. Doświadczenie tych uczonych czytelników wróżb doprowadziło do rozpoznania okresowego zachowania Słońca, tzw. Księżyca i planet, a ostatecznie do rozwoju matematycznych metod przewidywania samych zjawisk (które ze względu na swoją przewidywalność powinny być wówczas, ale nie były, uważane za wiadomości wysyłane przez rozgniewanych lub zadowolonych bogów). Doprowadziło to również do rozwoju niektórych technik interpretacji niebiańskich znaków, które zostały przeniesione do astrologii, w tym przewidywania losu osoby na podstawie pozycji planet w chwili jej narodzin lub obliczonego poczęcia. W praktyce te protohoroskopy z ostatnich czterech wieków p.n.e. nie były częścią astrologii, ponieważ zjawiska te były raczej złowieszcze niż skuteczne, a skomplikowana geometria stosowana w astrologii nie była czynnikiem wpływającym na ich interpretację
Temat lub horoskop
Podstawowym narzędziem służącym do interpretacji wpływów ciał niebieskich w danym momencie - powiedzmy narodzin tubylca - był diagram zwany motywem lub horoskopem. Ten diagram przedstawia EKLIPTYKĘ podzieloną na 12 znaków zodiaku po 30? każdy, w postaci koła lub czworoboku z zaznaczonymi czterema głównymi punktami - ascendent na wschodnim horyzoncie, potomek na zachodnim horyzoncie, środek nieba na południu w punkcie obliczonym przy użyciu lokalnych ukośnych wzniesień i antyśrodka nieba 180? naprzeciwko niego na północ. Pomiędzy i w tych głównych punktach znajdują się wierzchołki 12 miejsc astrologicznych. Znaki zodiaku są podzielone na różne podpodziały: dekany po 10? każda, dwunaste po 2?30 każda i wyrazy o różnej długości, zwykle pięć do znaku zodiaku. W temacie zapisywane są długości geograficzne planet, których położenie ujawnia ich konfiguracje (aspekty) względem siebie - koniunkcja, sekstyl (do 60?), kwartyl (do 90?), trygon (do 120?) i opozycja (do 180?). ?) - które można obliczyć za pomocą różnych wzorów matematycznych, aby można je było mierzyć we wzniesieniach ukośnych lub rektascensyjnych, lub aby uwzględnić szerokości geograficzne planet. Ponadto na temacie zaznaczane są różne działki (określane jako odległość pomiędzy dwoma rzeczywistymi lub wyimaginowanymi ciałami niebieskimi odmierzona od trzeciego) oraz prorogator (obliczany na różne sposoby), a także mogą być takie stałe punkty, jak wywyższenia (punkty maksymalna skuteczność) planet i czterech potrójności (Baran, Lew, Strzelec; Byk, Panna, Koziorożec; Bliźnięta, Waga, Wodnik; Rak, Skorpion, Ryby).
Domeny wpływów
Każdy znak zodiaku jest klasyfikowany według licznych kategorii: męski - żeński; nieparzyste - parzyste; zwierzę - człowiek; wieś - las; itp. Ponadto istnieją melotezje zodiakalne, przypisując różne części ciała ludzkiego znakom zodiaku; topotezja, robiąca to samo z rodzajami terenu na powierzchni Ziemi; listy zwierząt, zawodów, metali, klejnotów, kolorów itp. znaków zodiaku. Każdy ze znaków ma szczególny wpływ na przypisane mu kategorie. Każda trójka, w liczbie czterech, jest powiązana z kierunkiem kardynalnym i elementem. Każde z 12 miejsc astrologicznych ma władzę nad pewnym aspektem życia tubylca (forma ciała, odziedziczony majątek, rodzeństwo, rodzice, dzieci, choroby, małżeństwo, sposób śmierci, podróże, zawód, zysk, strata) lub nad podjętym przedsięwzięciem. Mają wpływ na swoje domeny zgodnie ze znakami zodiaku, na które się nakładają, oraz obecnością w nich lub aspektami planet i działek. Również siedem planet (dziewięć w Indiach, gdzie uwzględnione są węzły wstępujące i zstępujące Księżyca) ma swoje własne domeny, wśród fizycznych typów ludzi i zwierząt, a także typów psychologicznych, a każda z nich jest powiązana z typami terenu, zwierzętami roślin, minerałów itp. oraz do pierwiastka i jego humorów (ogień - gorący i suchy, woda - zimna i wilgotna, powietrze - gorące i wilgotne, ziemia - zimna i sucha). Są one również klasyfikowane jako męskie i żeńskie oraz jako korzystne, szkodliwe i nijakie. Gdy siedem planet krąży wokół znaków zodiaku, a one z kolei krążą wokół nieruchomej Ziemi, wpływy, jakie rzucają na sferę podksiężycową, stale się zmieniają, powodując wciąż nowe wydarzenia i transformacje na Ziemi. Zgodnie z teorią astrologiczną można je wszystkie przewidzieć przy założeniu (rzekomo posiadającym pewne podstawy empiryczne), że przyjęte domeny wpływów ciał niebieskich są rzeczywiście prawidłowe. Historycznie rzecz biorąc, system nie pozostawał statyczny; po prostu nie było wystarczająco skomplikowane, aby rozróżnić pozornie nieograniczone odmiany ludzkiego doświadczenia. Aby uwzględnić te różnice, astrolodzy - zwłaszcza astrolodzy z Indii i islamu, których należycie naśladowano w średniowiecznej Europie i Bizancjum - opracowali znacznie więcej podziałów znaków zodiaku w celu pomnożenia potencjalnej liczby skutków działania planety, wymyślili skomplikowane metody przypisywania liczbowej wagi wpływom każdej planety i rozszerzono liczbę efektywnych ciał poprzez wprowadzenie nowych partii.
Rodzaje astrologii
Paradygmatycznym typem astrologii jest genetlialogia, nauka zajmująca się interpretacją tematów narodzin lub obliczanego czasu poczęcia, wynaleziona prawdopodobnie w I wieku p.n.e. w Egipcie ptolemejskim. Takie przewidywania można i stosowano także w odniesieniu do zwierząt, a nawet roślin. Chociaż teoretycznie przepowiednie są unikalne dla każdego momentu w danej miejscowości, wielu astrologów mądrze radziło neofitom, aby przed próbą opisania swojego przyszłego życia dowiedzieli się czegoś o statusie społecznym i ekonomicznym rodziny tubylca. Działem genetlialogii jest horoskop ciągły, który pozwala na przydatność astrologa przez całe życie. Ponieważ planety i ekliptyka nie przestają się obracać, można stwierdzić ich zmienny wpływ na pierwotny wzór życia określony na podstawie horoskopu urodzeniowego, tworząc nowy horoskop na każdą rocznicę urodzin, na początek każdego miesiąca lub nawet dzień życia tubylca, a także można obliczyć czas, w którym każda planeta przechodzi do innego znaku zodiaku lub miejsca astrologicznego, zmieniając w ten sposób jego skutki, a także można obserwować wyimaginowany ruch prorogatora podczas ukośnych wzniesień poprzez terminy różnych planet oraz przeszłości ciał i aspektów różnych planet. Astrologia katarchiczna, wynaleziona jednocześnie z wersją genetlialogiczną, pozwala przewidzieć przebieg jakiegoś ludzkiego przedsięwzięcia na podstawie horoskopu chwili jego powstania. Istnieją dwa główne działy astrologii katarchicznej, odnoszące się do małżeństwa i wojen. Niektóre aspekty astrologii medycznej są również katarchiczne, chociaż inne aspekty zależą od genetlialogii. Te dwie podstawowe formy astrologii zostały przeniesione z grecko-rzymskiego Egiptu do Indii w II wieku naszej ery. W Indiach astrologia interrogacyjna rozwinęła się z astrologii katarchicznej. W tej formie astrolog odpowiada na konkretne pytania zadawane przez swojego klienta na podstawie tematu chwili, w której pytanie zostało zadane. To wyraźnie rodzi poważne pytania dotyczące ogólnej teorii astrologii; albowiem albo klient kieruje się wolną wolą przy ustalaniu, kiedy zada pytanie, tak że pomiędzy ciałami niebieskimi a wydarzeniem naziemnym przestaje istnieć czysto fizyczne połączenie, albo też o jego wyborze decydują gwiazdy i zatem teoretycznie można je przewidzieć za pomocą astrologii i odpowiedzieć na nie bez uciekania się do nowego tematu. Te trzy typy astrologii zostały przekazane z Indii do Sasańskiego Iranu w III-V wieku naszej ery, podobnie jak pierwsze dwa z Cesarstwa Rzymskiego. Sasanie dodali do nich czwarty główny typ, astrologię historyczną, która wykorzystuje formy horoskopów ciągłych (np. horoskopy początków wszystkich lub wybranych lat) oraz koniunkcje dwóch najdalszych ze znanych wówczas planety, Saturn i Jowisz, lub koniunkcje dwóch złych planet, Saturna i Marsa, w Raku. Praktycy astrologii historycznej sporządzali także horoskopy koronacji królów i innych początków historycznych, w tych przypadkach kierując się zasadami astrologii katarchicznej.
Kwestia ważności astrologii
Oczywiście, niezależnie od tego, jakie twierdzenia opierały się na podstawach empirycznych, cała ta teoria opiera się na arbitralnych założeniach dotyczących relacji między poszczególnymi znakami zodiaku i planetami a fizycznymi częściami i psychologicznymi aspektami obiektów i istot podksiężycowych, a także na później obalonej teorii KOSMOSU. W starożytności argumenty przeciwko słuszności astrologii opierały się w dużej mierze na problemach praktycznych: jak wyjaśnić często duże różnice między fizycznymi i psychicznymi cechami bliźniąt a ich odrębnym życiem; jak wytłumaczyć jednoczesną śmierć dużej liczby osób w różnym wieku w bitwie lub katastrofie naturalnej; jak być pewnym dokładnego momentu urodzenia i lokalnego ascendentu w tym momencie. Kościół chrześcijański, a później islam, często potępiały astrologię, ponieważ pozbawia ona mężczyznę lub kobietę wolnej woli i w ten sposób pozbawia ich możliwości uzyskania zbawienia własnymi wysiłkami, a także dlatego, że czyni Boga nieistotnym dla wszechświata, który jest wiecznym i automat. Żaden z tych argumentów nie podważył w poważnym stopniu wiarygodności astrologii wśród wielu osób, podobnie jak upadek teorii geocentrycznej, choć zniechęciło to wiele osób o poglądach naukowych do przyznania jej jakiejkolwiek wiarygodności. Podobnie jak kilka innych współczesnych nauk, które w rzeczywistości nieustannie wykazują swoją niezdolność do dokładnego przewidywania przyszłości, astrologia wciąż jest w stanie przyciągnąć i utrzymać patronat niezliczonych klientów.
Badania astrometryczne
Znaczenie badań astrometrycznych W astronomii badanie definiuje się jako "badanie mające na celu ustalenie jakości lub ilości czegoś". W zależności od charakteru badania może to oznaczać przyjrzenie się dużej liczbie obiektów w celu znalezienia tych, które spełniają określone kryteria . W powyższej definicji nie określono, czy badanie obiektów spełniających założone kryteria musi być wynikiem programu obserwacyjnego, czy też poszukiwań w literaturze. Chociaż termin przegląd w astronomii jest dość często stosowany w odniesieniu do programów obserwacyjnych, w niektórych ostatnich badaniach astrometrycznych wykorzystano materiał opublikowany w dostępnej literaturze. Co więcej, badania astrometryczne nowej generacji mogą być nawet przeprowadzane przez Internet (patrz "Nowe tysiąclecie" poniżej). Dlatego też mówiąc o badaniach, możemy mieć na myśli obserwacyjne badania astrometryczne, bibliograficzne badania astrometryczne i nadchodzące badania astrometrii komputerowej. Kiedy ankietę można nazwać astrometryczną? Innymi słowy, jakie są główne cechy przeglądu astrometrycznego? Aby odpowiedzieć na te pytania, należy najpierw rozważyć, czym jest astrometria? Astrometria to dział astronomii zajmujący się pozycjami (bezwzględnymi lub względnymi), ruchami i odległościami trygonometrycznymi ciał niebieskich . Każdy z tych parametrów ma swoje znaczenie w badaniu naszego środowiska gwiezdnego. Jaka powinna być dokładność danego parametru astrometrycznego? Ważne jest określenie poziomu dokładności, ponieważ od tej wartości w pewnym stopniu zależeć będzie jakość badania. Na przykład nikt dzisiaj nie podjąłby się przeprowadzenia badań astrometrycznych na poziomie dokładności Durchmusterungs , ponieważ taki poziom byłby niezwykle niski jak na dzisiejsze standardy; jednakże znaczenie tych badań w momencie ich publikacji jest niezaprzeczalne. Co to jest badanie astrometryczne? Łącząc wszystkie powyższe rozważania, badanie astrometryczne można zdefiniować jako poszukiwanie obiektów niebieskich spełniających określoną dokładność w zakresie ich bezwzględnego lub względnego położenia, ruchu lub odległości trygonometrycznych. Niektóre z tych badań zostały lub są prowadzone za pomocą naziemnych kręgów południkowych, ASTROLABÓW lub teleskopów astrograficznych, podczas gdy inne - już ukończone lub planowane na przyszłość - wykorzystywały lub będą korzystać z instrumentów kosmicznych.
Krótki opis historyczny badań astrometrycznych
Kompilacja katalogów zawierających pozycje i RUCHY WŁAŚCIWE jest jedną z najbardziej znanych czynności w astrometrii. Na początku astronomii podanie pozycji ciał niebieskich było dla wielu starożytnych kultur prawdziwą koniecznością. Astrometria, której korzenie sięgają cywilizacji przedgreckiej, dostarczyła informacji potrzebnych do obliczenia zaćmień Słońca i Księżyca, a co ważniejsze, do określenia czasu. Dzięki pozycjom uzyskanym przez poprzedników i własnym obserwacjom HIPPARCHUS był w stanie zidentyfikować precesję osi obrotu Ziemi. To także dzięki starym i nowym katalogom astrometrycznym Edmund HALLEY wprowadził w 1718 roku ruch własny gwiazd. Kilka lat później, w 1802 roku, HERSCHEL zaobserwował względny ruch orbitalny dwóch składników Castora, wyznaczając początek astrometrii podwójnych gwiazd. Kolejny punkt zwrotny pojawił się w 1838 roku, kiedy Friedrich Wilhelm BESSEL był w stanie określić PARALAKSĘ 61 Cygni. Historię katalogów astrometrycznych - przyjmując za parametr detektor używany w procesie obserwacyjnym - można podzielić na trzy różne okresy: wizualny (z instrumentem lub bez), fotograficzny i CCD (instrumenty naziemne lub kosmiczne). Biorąc pod uwagę epoki, w których stosowano różne detektory, można powiedzieć, że ogólnie rzecz biorąc, nieuzbrojone oko ludzkie było używane jako detektor od samych początków astronomii aż do roku 1610, kiedy to GALILEO GALILEI zaczął używać teleskopu podczas swoich obserwacji. Po 1610 r. w większości badań astrometrycznych używano kręgów południkowych lub innych typów instrumentów optycznych do wspomagania ludzkiego oka. Takie podejście przetrwało ponad 300 lat. Jeden z pierwszych katalogów, jaki kiedykolwiek powstał, został sporządzony przez Hipparcha. Ukończono go około 129 roku p.n.e. (odbyła się debata dotycząca liczby obiektów wymienionych przez Hipparcha: niektórzy historycy zgodzili się, że gwiazd było 1080, inni zaś, że tylko 850). Katalog Hipparcha znalazł się w Almagestie Ptolemeusza, największym kompendium astronomii tamtych czasów, obowiązującym przez około 14 wieków. Poprzednie zestawienia astronomów greckich i chińskich datowane są na około 300 rok p.n.e., a nawet 360 rok p.n.e. . W średniowieczu najważniejszym zestawieniem, o którym warto wspomnieć - choć nie można go uważać za katalog w obecnym znaczeniu - są Tablice Alfonsyńskie, powstałe za panowania Alfonsa Mądrego i opublikowane po raz pierwszy - prawdopodobnie - po 1277 roku. prawdziwym celem Tablic było umożliwienie obliczenia pozycji planet; Jednym z głównych użytkowników Tablic Alfonsyńskich był Kopernik . Kolejny katalog opracowany w pierwszej połowie XV w. to ULEGH BEG. TYCHO BRAHE jest jednym z pierwszych astronomów, którzy - korzystając ze swojego kwadrantu ściennego - zaczęli dokonywać dokładnych, systematycznych obserwacji w latach przed pojawieniem się teleskopu. Jego obserwacje obejmują supernową z 1572 r., kometę z 1577 r. i duży zbiór pozycji Marsa. Po śmierci Brahego w 1601 r. stanowiska te wykorzystał jego asystent JOHANNES KEPLER i odegrały kluczową rolę w wyprowadzeniu praw Keplera. Wraz z wprowadzeniem teleskopu jako instrumentu astronomicznego wiele katalogów strefowych (niezależnych) zaczęto obserwować za pomocą kręgów południkowych. Większość badań obserwacyjnych przeprowadzonych od początku do połowy XIX wieku ograniczała się do pewnych określonych obszarów i nie było żadnych porozumień co do "systemu", jaki należy zastosować (pod koniec XIX wieku zaproponowano wygodę posiadania systemu we współczesnym znaczeniu terminu, do którego należy odnosić stanowiska). Jedną z pierwszych prób przeprowadzenia kompleksowych badań ARGELANDER rozpoczął od obserwacji strefy od +80° do -2°. Strefy od -2° do bieguna południowego dodano później. To pierwsze badanie - znane jako Durchmusterungs - składało się z trzech części: Bonner Durchmusterung, Córdoba Durchmusterung i Cape Photographic Durchmusterung. Najważniejszym dziełem początków XX w. był Katalog Główny (GC) , którego wstępna wersja została opublikowana przez Lewisa Bossa w 1910 r. Wersja ta nosiła nazwę Wstępnego Katalogu Ogólnego (PGC), a został on później uzupełniony publikacją KG w 1937 r., która obejmowała ponad 33 000 gwiazd. W projekcie PCG/GC należy podkreślić ostateczny cel Lewisa Bossa: zbudowanie podstawowego systemu. Cel ten ostatecznie osiągnął jego syn, Benjamin Boss. W tym sensie warto wspomnieć o katalogu N30 opracowanym przez Morgana (1952). Szczegółowy opis historyczny katalogów astrometrycznych można znaleźć w Eichhorn . Omówienie różnych typów katalogów można znaleźć także w Jascheku . Kiedy klisza fotograficzna została ostatecznie zaakceptowana przez społeczność astronomiczną jako detektor (około 1880 r.), zaczął się rozwijać fotograficzny przegląd astrometryczny. Co ciekawe, pierwszym programem obserwacyjnym nowo wprowadzonym teleskopem astrograficznym (instrumentem towarzyszącym kliszy fotograficznej) była obserwacja największego międzynarodowego projektu ostatnich lat XIX wieku: Katalogu Astrograficznego (AC). Program ten spotkał się z dużą krytyką, ponieważ wielu uważało, że jest zbyt wcześnie w rozwoju teleskopów astrograficznych i klisz fotograficznych, aby podjąć się tak dużego projektu przy użyciu raczej małego (2° × 2°) pola widzenia. Jednak z dzisiejszej perspektywy uruchomienie AC można uznać za inicjatywę pozytywną. Dzięki tej decyzji astrometria dysponuje obecnie wspaniałym zestawem ponad czterech milionów pozycji z pierwszej epoki (obecnie 100-letnich) umożliwiających bardzo dokładne określanie ruchu własnego. Chociaż AC samo w sobie powinno być uważane za badanie obserwacyjne, nigdy nie było wykorzystywane jako takie aż do niedawna. W tym sensie przy użyciu opublikowanych współrzędnych AC stworzono dwa główne katalogi: katalog 4 milionów oraz AC2000 . Pierwsza łączyła AC z Katalogiem Gwiazd Przewodnika Kosmicznego Teleskopu Hubble'a (GSC) w celu obliczenia ruchów właściwych; oba zestawy stanowisk (AC i GSC) zostały zredukowane do systemu PPM. Oprócz pozycji i wniosków właściwych, Katalog 4 Million umożliwia także identyfikację krzyżową z innymi badaniami, takimi jak Durchmusterungs, PPM, SAO i VARIABLE STARS. AC2000 zawiera ponad cztery i pół miliona pozycji (i wielkości) ze średnią epoką 1907. Aby zredukować opublikowane współrzędne x, y AC, Corbin i Urban (1990) najpierw skompilowali ACRS do wykorzystania jako ramka odniesienia. Pozycje AC2000 znajdują się w systemie Hipparcos/ICRS. Nowsza ponowna analiza AC2000 dała AC2000.2 (Urban i in. 2001). Oprócz 4 Million i AC2000 istnieje kilka innych badań, w których wykorzystano AC. Spośród nich PPM był pierwszy. Szczegółową i fascynującą historię Katalogu Astrograficznego można znaleźć w Eichhorn . Podczas gdy trwała obserwacja AC, trwały także inne fotograficzne - strefowe - badania: strefy Yale i AGK2 (AGK1 obserwowano za pomocą okręgów południków). W sumie Yale opublikowało 30 katalogów z epokami od 1928 do 1942. Pierwszy tom stref Yale, który się ukazał, obejmował ponad 5000 gwiazd równikowych (Schlesinger i in. 1926); ostatnia (strefa od -60° do -70°) uległa licznym opóźnieniom i została opublikowana dopiero w 1983 r. Ostatnim z serii AGK był AGK3 . W związku z rozwojem sztucznych satelitów i pilną koniecznością ich śledzenia, już w połowie lat 60. XX w. zaistniała potrzeba opracowania ogólnego, kompleksowego zestawienia obejmującego istniejące katalogi w jeden. Realizacji takiego projektu podjęło się Smithsonian Astrophysical Observatory, a w 1966 roku społeczności astronomicznej udostępniono "Katalog gwiazd" z podtytułem "Pozycje i ruchy własne 257 997 gwiazd dla epoki i równonocy 1950". Katalog, znany jako SAO (szczegóły konstrukcji katalogu można znaleźć w Haramundanis 1966), obejmuje zakres od +90° do -90° i przez wiele lat był standardowym układem odniesienia dla redukcji większości klisz fotograficznych. Tysiące pozycji asteroid, komet, głównych planet i naturalnych satelitów uzyskano, wykorzystując SAO jako główny katalog referencyjny pozycji gwiazd i ich ruchów własnych. Jednakże, jak dobrze wiadomo, czas - poprzez odpowiednie ruchy - jest zawsze odpowiedzialny za degradację każdego katalogu astrometrycznego. SAO nie był wyjątkiem i po ponad 25 latach użytkowania został zastąpiony przez PPM. PPM - obejmujący także całe niebo - zawiera ponad 375 000 pozycji i ruchów właściwych w systemie 2000/FK5. Typowe wartości skuteczne błędy na półkuli północnej wynoszą 0,27 sekundy łuku w pozycjach z epoki 1990 i 0,42 ars wieku - 1 w ruchach właściwych, podczas gdy odpowiednie wartości na niebie południowym są znacznie lepsze . Główna poprawa PPM w stosunku do SAO została dokonana poprzez włączenie stuletnich danych AC. Po publikacji PPM zastąpił SAO jako układ odniesienia dla większości programów astrometrii fotograficznej. W związku z zaprzestaniem produkcji klisz fotograficznych i pojawieniem się detektorów CCD, PPM zostało obecnie zastąpione katalogami o znacznie większej gęstości. Podczas gdy niektórzy astronomowie zajmowali się obserwacją i redukcją dużych katalogów pozycji, inni skupiali swoją uwagę na poszukiwaniu gwiazd o dużych ruchach własnych. Według Luytena (1963) tego typu projekty odniosły ogromne korzyści dzięki wprowadzeniu mikroskopu mrugającego. Luyten (1970) przeprowadził kilka badań gwiazd o dużych ruchach własnych, co doprowadziło do wykrycia dużej liczby obiektów. Podzbiory tych badań i/lub ich rewizja lub reorganizacja zostały opublikowane jako badania Luyten Half Second (LHS), Luyten Two Tenths (LTT) i New Luyten Two Tenths (NLTT). Większość wyników została opublikowana przez Uniwersytet Minnesota w Minneapolis (USA). Wśród dużych badań ruchów własnych jednym z najważniejszych jest badanie Lowell Proper Motion Survey , ponieważ obejmuje wyszukiwanie wykresów dla każdej gwiazdy. Aby przedstawić pełniejszy opis historyczny badań astrometrycznych, należy odwołać się do misji Hipparcos. Satelita Hipparcos - finansowany i obsługiwany przez ESA - był pierwszym eksperymentem kosmicznym poświęconym astrometrii. Jego głównym celem było określenie dokładnych pozycji, ruchów właściwych i paralaks 118 218 gwiazd. Dokładność parametrów astrometrycznych wynosi w przybliżeniu 1 mas dla pozycji i paralaks oraz 1 mas rok-1 dla ruchów własnych gwiazd o jasności zaledwie 10mag. Położenia i ruchy własne z Katalogu Hipparcosa (ESA 1997a) są realizacją optyczną ICRS i stanowią najdokładniejszy duży katalog astrometryczny, jaki kiedykolwiek zaobserwowano. Znaczenie Hipparcos polega na tym, że po raz pierwszy umożliwiła astronomom dokładną kalibrację jasności i mas wielu pobliskich gwiazd oraz badanie struktury kinematycznej Galaktyki w sąsiedztwie Słońca. Wpływ, jaki Hipparcos wywarł na astronomię, można docenić w materiałach ze spotkania Hipparcos w Wenecji w 1997 r. , które zawiera prawie 200 artykułów naukowych opartych na danych Hipparcosa. W ramach misji Hipparcos narzędzia do mapowania gwiazd znajdujące się na satelitie zostały wykorzystane do zbudowania mniej dokładnego katalogu: Katalogu Tycho. Ponowna analiza oryginalnych danych z tego eksperymentu dała Katalog Tycho-2 , który stał się jednym ze standardowych zestawień w astrometrycznej redukcji klatek CCD (głównie w obserwacjach koła południka). Więcej szczegółów na temat HIPPARCOS oraz KATALOGÓW HIPPARCOS I TYCHO znajduje się w innych artykułach. Można powiedzieć, że w ciągu ostatnich 14 lat historię astrometrii wyznaczyły dwa główne wydarzenia: pierwszym z nich był wystrzelenie w 1989 r. wspomnianej misji Hipparcos; drugim było ustanowienie 1 stycznia 1998 r. Międzynarodowego Niebiańskiego Systemu Odniesienia (ICRS) jako nowego układu odniesienia, kończąc w ten sposób reżim serii FK. Dzięki tej istotnej zmianie, po raz pierwszy, układ odniesienia astrometrii - Międzynarodowy Układ Odniesienia Nieba (ICRF) - do którego należy odnosić pozycje, opiera się na 212 pozagalaktycznych ŹRÓDŁACH RADIOWYCH obserwowanych za pomocą interferometrii o bardzo długiej linii bazowej (VLBI). technik . Feissel i Mignard (1998) dokonali ważnego przeglądu dotyczącego przyjęcia i konsekwencji tej zmiany. Dziś, po znaczących osiągnięciach w swojej historii i dzięki zastosowaniu nowej generacji niezwykle wysokiej jakości instrumentów ziemskich i kosmicznych, astrometria przechodzi nowe i głębokie zmiany. Od ziemskich instrumentów zasilanych wieloma włóknami po najbardziej zaawansowane i wyrafinowane satelity - istnieje powszechna potrzeba lepszego pozycjonowania ciał niebieskich, a astrometria po raz kolejny musi zapewniać dokładne pozycje, właściwe ruchy i paralaksy gwiazd. Fakt, że niektóre z nadchodzących misji kosmicznych, aby odnieść sukces, będą musiały opierać się na naziemnych obserwacjach astrometrycznych, ilustruje znaczenie nowej astrometrii. Aby sprostać wymaganiom stawianym przez dzisiejszą astronomię, prowadzone są nowe badania astrometryczne nastawione na zapewnienie parametrów klasycznych. Ze względu na rosnące możliwości rozwoju zarówno komputerów, jak i detektorów, obecne projekty rosną pod względem rozmiaru (ogółem ponad 500 milionów wpisów) i dokładności (kilka mas). Niektóre z tych nowych badań opierają się na nowych obserwacjach, podczas gdy wiele innych wykorzystuje obszerny materiał dostarczony przez bazy danych, w ten sposób nawiązując do nowego sposobu uprawiania astronomii w ogóle: wirtualnych obserwatoriów.
Najważniejsze osiągnięcia
W ciągu ostatnich kilku lat w większości projektów astrometrycznych nastąpił niezwykły postęp. Można je podsumować w następujący sposób.
Pozycje i ruchy właściwe
Ponieważ matryce CCD stały się standardowymi detektorami w prawie każdym projekcie astronomicznym, istnieje realna potrzeba opracowania katalogów pozycji (a w idealnym przypadku także ruchów własnych) zawierających dużą liczbę gwiazd. W pewnym sensie można powiedzieć, że astronomia - ponownie - znajduje się w sytuacji podobnej do tej, która miała miejsce w połowie lat 60. XX w., kiedy wydano SAO (wówczas zastąpione przez PPM). Ze względu na niewielką liczbę obiektów, które obejmują (według dzisiejszego standardu), te dwa katalogi nie są obecnie odpowiednie do astrometrycznej redukcji większości klatek CCD. Aby przezwyciężyć problem zbyt małej liczby gwiazd na minutę łuku kwadratowego, konieczne było sporządzenie znacznie większych katalogów. Pierwszym krokiem w tym kierunku był Katalog Gwiazd Przewodnika po Kosmicznym Teleskopie Hubble'a (GSC) autorstwa Laskera i innych, który obecnie został zastąpiony przez GSC II zarówno pod względem ilościowym, jak i jakościowym. Inną ważną kompilacją, o której warto wspomnieć, jest USNO-A2.0 , która jest standardem - przynajmniej na razie - dla astrometrycznej redukcji większości klatek CCD. Podzbiór - zwany USNOSA2.0 - zawierający około pięćdziesiąt milionów gwiazd, jest najczęściej używany do redukcji klatek CCD mniejszych planet i komet. Jak zwykle po opublikowaniu katalogu jego zawartość jest analizowana i porównywana zewnętrznie z innymi kompilacjami w celu ostatecznej oceny jakości. USNO-A2.0, podobnie jak GSC II, nie jest wyjątkiem. Bardzo szczegółową analizę USNO-A2.0 przeprowadzili Assafin i inni. W tej pracy autorzy porównali niektóre pozycje USNO A2.0 z pozycjami obserwowanymi dla koła południka CCD Valinhos . Obecnie trwa rozbudowa katalogu USNO-A2.0 o nazwę USNO-B . Będzie zawierać ruchy właściwe i klasyfikację gwiazd/galaktyk. O krok od USNO-A2.0 (przynajmniej z ilościowego punktu widzenia) jest GSC II. Po ukończeniu będzie zawierał prawie 109 wpisów z typowym błędem 0,3 sekundy łukowej (najgorszy przypadek wynosi od 0,35 do 0,65 sekundy łuku dla gwiazd słabszych niż 16 mag w pobliżu krawędzi płyty). Wstępna wersja tej kompilacji, znana jako GSC 2.2, jest gotowa do użycia i zawiera listę ponad 430 milionów gwiazd. Stanowiska GSC II, a także GSC 2.2 znajdują się w systemie ICRF. Celem pocztowym GSC 2.2 jest wspieranie działania zarówno teleskopów GEMINI, jak i VLT. Momany i inni przeprowadzili zewnętrzne porównanie GSC 2.2. W ramach ESO Imaging Survey (EIS) autorzy ci porównali pozycje GSC 2.2 z pozycjami zgłaszanymi przez innych w obszarze niektórych gromad otwartych. Prawdopodobnie najnowszym projektem, który osiągnął część swoich celów, jest Katalog Astrografów CCD USNO (UCA). Wstępny katalog - UCAC1 - w ICRS zawiera ponad 27 milionów gwiazd z dokładnością pozycjonowania mniejszą niż 20 mas dla obiektów w zakresie 9-14 mag. Podano także wstępne ruchy własne z różnych źródeł. UCAC1 zostanie zastąpiony przez UCAC2 - obsługujący zakres od -90° do +30° - który będzie dostępny w połowie 2002 roku. Gdy zakończono, projekt UCA zapewni pierwszy katalog astrometryczny w całości zaobserwowany za pomocą teleskopu naziemnego wykorzystującego CCD jako detektor. Aby poprawić jakość ruchów własnych, które mają zostać uwzględnione w projekcie UCAC, płytki AGK2 (mające ponad 70 lat obecnie) są ponownie mierzone w USNO, a następnie zostaną połączone z nowoczesnymi stanowiskami . Różne raporty z postępu prac nad projektem UCAC można znaleźć u Zachariasa . Wśród projektów zorientowanych na wyznaczanie bezwzględnych ruchów własnych dużą liczbę danych dostarczyły dwa programy: Northern Proper Motion Program (NPM) opracowany w Lick Observatory oraz Southern Proper Motion Program (SPM), nad którym pracuje konsorcjum Uniwersytetu Yale (USA) i Uniwersytetu Narodowego w San Juan (Argentyna). Pierwsza partia NPM - zwana NPM1 - została wypuszczona w 1993 roku. Zawiera pozycje, ruchy właściwe i dwukolorową fotometrię dla 149 000 gwiazd poza Drogą Mleczną. Druga partia serii NPM2 będzie zawierać około 300 000 gwiazd znajdujących się w Drodze Mlecznej. Ponieważ galaktyki odniesienia są "nieobecne" na niebie Drogi Mlecznej, Katalog Hipparcosa służy do powiązania ruchów właściwych NPM2 z systemem (absolutnym) zdefiniowanym przez NPM1. NPM2 zostanie wydany w 2003 roku. Pierwsza epoka obserwacji SPM rozpoczęła się w 1965 roku i trwała do 1974 roku. Druga epoka, wykorzystująca klisze fotograficzne, rozpoczęła się w 1987 roku i została przerwana w 1993 roku z powodu braku klisz fotograficznych. Teraz obserwacja drugiej epoki zostanie wznowiona przy użyciu dwóch kamer CCD . Opublikowano dwa główne wyniki SPM: SPM 1.0 oraz SPM 2.0 . W ramach projektu SPM ogłoszono także katalog pozycji około 30 milionów gwiazd . Niedawno opublikowano wyniki innego ważnego procesu digitalizacji klisz fotograficznych. Właściwości astrometryczne badania SuperCOSMOS zostały przeanalizowane przez Hambly′ego i innych. Porównując pierwszą publikację danych - południową czapę polarną Galaktyki - z zewnętrznymi zbiorami danych, doszli do wniosku, że pozycje (w ICRF poprzez Tycho 2) są dokładne z dokładnością lepszą niż ±2 sekundy łukowej przy magnitudo J, R ∼ 19, 18, podczas gdy wykazano, że prawidłowe pomiary ruchu mają dokładność typowo ±10 mas rok -1 przy tym samym poziomie wielkości. Bardzo dużą uwagę poświęcono także astrometrii gromad otwartych. W ciągu ostatnich kilku lat ukazało się wiele artykułów na ten temat. Niektórzy z nich skorzystali z dostępnych obszernych baz danych, podczas gdy inni opierali się na nowych obserwacjach. W obu przypadkach - analizie baz danych lub nowych obserwacji - efektem było określenie pozycji, ruchów właściwych i jasności dużej liczby gwiazd. Ważnym badaniem prowadzonym za pomocą teleskopu WIYN jest WIYN Open Cluster Study (WOCS). Wyniki tego badania zostały opublikowane przez Plataisa. Istnieje znaczna liczba wkładów w badania w klastrach otwartych, w których wykorzystano bazy danych i bardzo dokładne katalogi astrometryczne. Wśród nich są Baumgardt ,Dias , Sanner i Geffert oraz Masden . WEBDA to zaktualizowany zbiór danych z gromad otwartych, prowadzony przez Jean-Claude'a Mermillioda w Instytucie Astronomii Uniwersytetu w Lozannie (Szwajcaria). Baza danych posiada bardzo proste funkcje, które zapewniają łatwe wyszukiwanie danych oraz udostępnia informacje astrometryczne, fotometryczne i spektroskopowe. Uwzględniono także różne dane (takie jak prawdopodobieństwo członkostwa) i odniesienia bibliograficzne.
Podwójne gwiazdy
Najważniejszym zestawieniem DOUBLE STARS jest katalog Washington Double Star (WDS). Główną zaletą kompilacji jest to, że jest ona aktualizowana codziennie. Obserwatorium Marynarki Wojennej Stanów Zjednoczonych wydało niedawno serię czterech płyt CD. Tom I zawiera podstawowe dane astrometryczne (współrzędne J2000, kąt położenia, separacja itp.) dla ponad 84 000 systemów. Tom drugi to zbiór 1465 orbit. Tom III jest w rzeczywistości Trzecim Katalogiem Interferometrycznych Pomiarów Gwiazd Podwójnych. Tom IV - ostatni z serii - to zbiór różnic wielkości dla ponad 10 000 systemów. Od początku lat 80. CHARA jest wiodącą grupą badawczą wykorzystującą techniki plamkowe do pomiaru odległości i kątów położenia gwiazd podwójnych (podstawowe informacje do określania masy gwiazd). Do chwili obecnej opublikowano 19 katalogów zawierających kąty położenia i odległości dla około 10 000 gwiazd. Grupa zakończyła budowę układu interferometrycznego składającego się z sześciu 1-metrowych teleskopów do rozdzielania układów podwójnych z odstępami kątowymi do 0,2 mas. CHARAarray będzie w pełni operacyjny gdzieś w roku 2002. Sprawozdania z postępu prac nad tą tablicą można znaleźć u McAlistera , Turnera , Sturmanna oraz dziesięciu Brummelaara . Inne ważne badania - wykorzystujące techniki plamkowe - kontynuowały obserwacje gwiazd podwójnych. Najnowsze raporty z badania Rochester Institute of Technology (RIT) można znaleźć w pracach Horcha. Kolejny ważny wynik z tej grupy jest związany z różnicami wielkości dla około 130 par . Podsumowanie ostatnich 4 lat działalności przedstawili Robinson i inni, natomiast nową kamerę o nazwie RYTSI, zaprojektowaną przez tę grupę, opisali Horch i inni. Wyniki z grupy obserwatoriów Pic du Midi, uzyskane za pomocą systemu Pupil Interferometry Speckle and Coronograph (PISCO) , zostały opublikowane przez Scardię oraz Prieura. Z drugiej strony separacje kątowe, kąty położenia, a także różnice wielkości dla systemów 606 - przy użyciu "zwykłej" kamery CCD - zostały opisane przez Gili i Bonneau oraz Lampens . Mason i inni ponownie przeanalizowali informacje zawarte w Tycho-2, próbując dostarczyć podstawowych danych na temat gwiazd podwójnych. Kolejna rewizja i ponowna redukcja Tycho-2 przez Fabriciusa zaowocowała odkryciem ponad 13 000 nowych dubletów, głównie z odstępem od 0,3 do 1 sekundy łukowej. Właściwe połączenie z danymi WDS pozwoliło na stworzenie Katalogu Tycho Double Star (TDSC), który zawiera ponad 100 000 wpisów. TDSC jest dostępny w CDS.
Paralaksy
W kontekście astrometrii słowo paralaksa jest prawie zawsze kojarzone z paralaksami trygonometrycznymi; to znaczy bezpośredni sposób określania odległości gwiazd. Metoda jest ograniczona do odległości mniejszych niż 100 szt. Historia oznaczeń paralaksy - podobnie jak katalogów astrometrycznych - jest bardzo bogata. Mówi się na przykład, że pierwszą próbę uzyskania paralaksy gwiazdy podjął Tycho Brahe. Ponieważ nie mógł uzyskać żadnej rozsądnej wartości, doszedł do wniosku, że albo (a) Ziemia znajdowała się w spoczynku w centrum wszechświata, albo (b) gwiazdy znajdowały się zbyt daleko, aby można było zmierzyć ich paralaksy. Ponieważ Brahe nie wierzył, że gwiazdy mogą znajdować się tak daleko, wybrał pierwszą opcję. Wynik ten pozwolił mu potwierdzić, że Kopernik całkowicie mylił się w swojej heliocentrycznej teorii Układu Słonecznego. Jak już wspomniano, to właśnie Bessel w 1838 roku wyznaczył pierwszą paralaksę tryginometryczną 61 Cygni. Do roku 1890 istniało około 30 gwiazd, których paralaksy były znane z dokładnością do ±0,05 sekundy łukowej . Pod koniec XIX wieku - wraz z przyjęciem kliszy fotograficznej jako detektora - wyznaczanie paralaks trygonometrycznych stało się standardowym programem badawczym w niektórych najważniejszych obserwatoriach. W tym sensie w 1903 roku Frank Schlesinger - znany jako "ojciec współczesnej astrometrii" - rozpoczął w Obserwatorium Yerkes jeden z najwybitniejszych projektów tamtych czasów . Inne instytucje, takie jak McCormick, Allegheny, Sproul, Greenwich, Cape, Boschha i Sztokholm wkrótce zainicjowały podobne projekty, podczas gdy Obserwatorium Lick i Stacja USNO Flagstaff zaczęły później używać swoich teleskopów zwierciadlanych i obie rozszerzyły swoje ustalenia na słabsze gwiazdy. Większość prac nad określeniem paralaks trygonometrycznych w erze fotografii została podsumowana w różnych wydaniach Ogólnego katalogu paralaks trygonometrycznych - lepiej znanego jako Katalog paralaks Yale (YPC). Pierwsze wydanie serii przygotowali Schlesinger (1924) oraz Schlesinger i Jenkins (1935). Trzecie wydanie zostało opublikowane przez Jenkins (1952), a następnie jej dodatek z 1963 r. Czwartą edycję YPC, ostatnią z serii, przygotowali van Altena i inni. Zawiera listę paralaks trygonometrycznych dla 8112 gwiazd, w tym oznaczenia fotograficzne i CCD. Gdy CCD stała się dostępna do użytku naukowego, rozpoczęto różne programy mające na celu określenie paralaks trygonometrycznych. Dwa z pierwszych raportów wykorzystujących techniki CCD to raporty Moneta (1981) oraz Moneta i Dahna (1983). Na szczęście oznaczenia paralaksy trygonometrycznej przeprowadzono także na półkuli południowej we wczesnym etapie ery techniki CCD . Obecnie, ze względu na obecne zapotrzebowanie astronomii na badanie i katalogowanie otoczenia Słońca, pobliskim gwiazdom udało się zyskać nowe zainteresowanie i w związku z tym wyznaczane są nowe odległości. Od szczegółowych badań pojedynczych gwiazd po przeglądy półkul - nowe wyniki publikowane są niemal co roku. Wśród wyników dotyczących pojedynczych gwiazd wymieniamy nowe spostrzeżenia dotyczące Proximy Centauri (naszego najbliższego sąsiada, odkrytego przez R. Innesa w 1915 r.) oraz Gwiazdy Barnarda autorstwa Benedicta ; wspomniano nawet o pewnych dowodach na towarzysza Proxima Centauri. Również w kategorii pojedynczych gwiazd warto wspomnieć, że zidentyfikowano gwiazdę polową, która może być najbliższym Słońcu karłem M9. Prawdopodobnie jednym z najważniejszych wyników (głównie ze względu na konsekwencje, jakie będzie to miało) jest określenie przez Benedicta absolutnej paralaksy i względnego ruchu własnego kalibratora skali odległości RR Lyrae. Różne wyszukiwania pobliskich gwiazd również przyniosły nowe wyniki. Wśród nich badanie mające na celu identyfikację brązowych karłów w odległości 8 pc od Słońca nie ujawniło żadnych nowych gwiezdnych towarzyszy w dużych odległościach; program ten wykorzystuje już istniejące obrazy z pierwszej epoki, które łączy się z nowymi obserwacjami w paśmie J. Poszukiwania zorientowane na znalezienie najmłodszych i najbliższych (d<60 szt.) gwiazd względem Ziemi (z wykorzystaniem informacji rentgenowskich oraz danych astrometrycznych z Hipparcosa i Tycho) prowadzą Song i inni. Ostatecznym celem projektu jest wykrywanie planet-olbrzymów. Obserwacje prowadzone są z obserwatorium Lick dla celów północnych oraz z Obserwatorium Siding Spring na południu. Szczegółowa analiza pomiarów płyt brytyjskiego teleskopu Schmidta za pomocą automatycznego pomiaru płyt (APM) przeprowadzona przez Scholza i inni zaowocowała odkryciem wcześniej nieznanych jasnych (12
Inne projekty
Teraz, gdy matryce CCD stały się standardowymi detektorami w astronomii, prawdopodobnie nadszedł czas, aby zmienić starą klasyfikację instrumentów astronomicznych. Najbardziej uderzający przypadek dotyczy kręgów południków (MC). Od ich pierwszego zastosowania w astronomii aż do kilku lat temu gwiazdy obserwowano naocznie (pojedynczo), gdy przekraczały południk. Kolejnym krokiem w rozwoju technik obserwacyjnych było zastąpienie ludzkiego oka fotopowielaczami. Teraz, gdy kamery CCD zostały podłączone do większości MC na całym świecie, procedura obserwacyjna została zastąpiona trybem skanowania dryfu. Takie podejście pozwala uzyskać paski o długości od kilku minut do kilku godzin w rektascencji i około 10-20 minut łuku (w zależności od rozmiaru i typu chipa CCD) w deklinacji. Ten zbiór danych można łatwo porównać z danymi uzyskanymi ze zwykłego teleskopu astrograficznego. Obserwacje są następnie redukowane za pomocą dowolnego katalogu referencyjnego. Ponadto niektóre MC zajmowały się obserwacjami obiektów tradycyjnie obserwowanych przez teleskopy typu astrograficznego: mniejszych planet (prawdopodobnie można to zinterpretować jako "powrót do korzeni", odkąd Ceres została odkryta przez Piazziego obserwującego za pomocą MC). Wśród tych obserwacji możemy wymienić te zawarte w różnych katalogach południków Carlsberga lub te zaobserwowane przez automatyczny krąg południków San Fernando - zlokalizowany w San Juan w Argentynie od 1996 r. Prawdopodobnie najbardziej kompleksowym raportem pod tym względem jest raport Stone′a (2000), który obejmuje ponad 56 000 pozycji (w ICRF) dla asteroid z 1940 roku. Bordeaux Automated Meridian Circle właśnie opublikowało katalog M2000 , który zawiera listę ponad dwóch milionów gwiazd o wartości granicznej 16,3mag. Zaobserwowane pasmo deklinacji pokrywa się z Carte du Ciel obserwowanym w Bordeaux. Mediana wewnętrznego błędu standardowego pozycji jest rzędu 35 mas, natomiast zewnętrzne porównanie z katalogami Hipparcosa i Tycho-2 daje szacunkową wartość lepszą niż 40 mas. Automatyczny krąg południków San Fernando (wyposażony w matrycę CCD od grudnia 1999 r.) zajmuje się obserwacją części południowego nieba w zakresie jasności około 16 mag. Projekt zakłada obserwację od +3° do -60°'. Do tej pory ukończono około 30%. Paski (o długości od 20 minut do 3 godzin w rektascencji i 18 minut łuku przy deklinacji) są redukowane przy użyciu Tycho-2 jako układu odniesienia . Oczekuje się, że obserwacje zakończą się w 2005 roku. MC z Obserwatorium Abrahão de Moraes (niedaleko Valinhos, Brazylia) był zaangażowany w różne projekty. Wśród nich należy wspomnieć o rozszerzeniu ICRF do 15 mag V. Projekt ten obejmuje ponad 44 000 gwiazd zlokalizowanych wokół niektórych pozagalaktycznych źródeł radiowych. Instrument ten wykorzystano także do określenia pozycji w celu określenia ruchu właściwego w południowych obszarach gwiazdotwórczych. Kolejny ważny katalog ukończony w 2000 roku został przygotowany w Obserwatorium Astronomicznym im. Nikołajewa. Obserwacji dokonano za pomocą osiowego koła południka (AMC). Katalog - dostępny w Internecie - zawiera ponad 14 000 gwiazd i został zredukowany przy użyciu USNO-A2.0 jako układu odniesienia. AMC uruchomiono w 1995 r. i od tego czasu uczestniczy w obserwacjach w ramach różnych projektów. W wielu badaniach wzięły także udział astrolabia. W ciągu ostatnich 20-25 lat wprowadzono wiele ulepszeń w instrumentach, jednym z przykładów jest fotoelektryczne Astrolabium II (PA II) opracowane w Chinach . Ostatnie wyniki uzyskane za pomocą tego nowego instrumentu zostały opublikowane przez Manrique i innych. Inne mniejsze kompilacje astrometryczne - wykorzystujące astrolabia fotoelektryczne - opublikowali Hui i Rui oraz Martin. Inne badania, choć w swoim zakresie astrometrycznym, w rzeczywistości zostały zaprojektowane i zorientowane na poprawę parametrów astrometrycznych obiektów astrofizycznych. Na przykład López i Girard poprawili pozycje ponad 1000 gwiazd zmiennych. Na potrzeby tego projektu autorzy zmierzyli płyty z pierwszej epoki SPM. Kolejnym projektem mającym na celu poprawę pozycji i ruchów właściwych gwiazd zmiennych jest Astrometryczny Katalog Gwiazd Zmiennych (ACVS) autorstwa Gulyaeva i Ashimbaevy (1997). Do tego badania autorzy wzięli gwiazdy wymienione w GCVS i NSV i porównali je z gwiazdami z Katalogu 4 milionów . Korzystając z kart wyników zalecanych przez GCVS i NSV, dokonano około 21 500 pozytywnych identyfikacji krzyżowych. SDSS to projekt na dużą skalę, mający na celu uzyskanie fotometrii optycznej i pozycji gwiazd o wielkości do 22 mag na około jednej czwartej nieba, którego środkiem jest północna czapa galaktyczna. Dodatkowo uzyskane zostaną widma około miliona galaktyk, 100 000 kwazarów i 50 000 gwiazd. To "nienastrometryczne" badanie powinno zaowocować ogromną liczbą wysokiej jakości stanowisk, które w porównaniu z pierwszą epoką POSS zaowocują również ruchami właściwymi. Obserwacje w ramach tego projektu rozpoczęły się w 1999 r. i mają trwać 5 lat. Oprócz projektów dotyczących długości fal optycznych, o których mowa w poprzednim akapicie, niektóre propozycje oparte na długości fal radiowych również wnoszą istotny wkład do astrometrii. Wśród nich jedną z takich propozycji, bardzo ważną ze względu na swój globalny zasięg, jest VERA (VLBI Exploration of Radio Astrometry), która jest sponsorowana przez Narodowe Obserwatorium Astronomiczne Japonii i grupę japońskich uniwersytetów. Projekt ma na celu wyznaczenie pozycji, paralaks i ruchów własnych źródeł maserowych w całej Galaktyce
Nowe tysiąclecie
Astronomia w ogóle, a astrometria w szczególności, cieszą się dużym uznaniem ze względu na duże bazy danych, które są obecnie w użyciu i które powstaną w najbliższej przyszłości. Ten nowy sposób wykonywania astrometrii lub wydobywania danych do ponownej analizy obejmuje wykorzystanie obiektów takich jak Aladin Sky Atlas (CDS), Astrovirtel, Astrogrid (brytyjskie wirtualne obserwatorium), SuperCOSMOS Sky Survey lub zapowiadane Astrophysical Virtual Observatory (AVO). oraz między innymi Narodowe Obserwatorium Wirtualne (NVO). Ogromna moc tych narzędzi - gdy będą w pełni dostępne do użytku publicznego i ogólnego - umożliwi obsługę różnych, bardzo dużych baz danych. Niektóre z udogodnień - jak VizieR czy SIMBAD - umożliwiają także wizualizację wszystkich danych (współrzędnych, wielkości, ruchu własnego itp.) przechowywanych dla danego obiektu. Wiele źródeł drastycznie zmieni sposób, w jaki nowe badania astrometryczne będą przeprowadzane w nadchodzących latach. Wśród nich znajdują się już istniejące sposoby wyodrębniania obrazów (klatek) z digitalizacji głównych przeglądów fotograficznych (POSS I, POSS II itp.) - znane jako Digitized Sky Survey (DSS) - dodane do nowego "banku obrazów" takie jak EIS, projekt MISAO czy Obserwatorium Marii Mitchel (MMO). Innym alternatywnym miejscem dla obrazów uzyskanych w wyniku digitalizacji ważniejszych przeglądów fotograficznych jest stacja USNO Flagstaff . Ponieważ cały ten materiał jest dostępny na wyciągnięcie ręki, za pośrednictwem sieci, nie zawsze konieczne będzie posiadanie teleskopów (dużych lub małych), aby podjąć się wybitnych programów badawczych zorientowanych na astrometrię. Obecnie realizowanych jest wiele projektów wykorzystujących te nowe możliwości. Obecnie DSS okazał się jednym z najbardziej rozbudowanych banków obrazów w użyciu. Od potwierdzenia supernowych po identyfikację milionów galaktyk , DSS pozwala na podjęcie niemal każdego projektu. Jako astrometryczny przykład tej możliwości można wymienić poprawę pozycji źródeł ICRF i prawie trzech tysięcy obiektów wymienionych w Second Byurakan Survey of Blue Compact Galaxies . Ponadto połączenie klatek DSS z różnych epok lub migotanie pomiędzy obrazami DSS z obrazami z innych przeglądów (takimi jak te dostępne w banku obrazów MISAO lub te z SkyMorph) pozwala na identyfikację gwiazd o wysokim ruchu własnym . Innym możliwym sposobem lokalizowania "brakujących" gwiazd o dużym ruchu własnym jest połączenie różnych badań; projekt wykorzystujący to podejście jest opracowywany przez Goulda i Salima . Jednak w wyszukiwaniu kompilacji baz danych można uwzględnić nie tylko obiekty gwiezdne; obiekty niegwiazdowe - takie jak mniejsze planety i komety - są również brane pod uwagę i przedłożono do MPC szereg stanowisk przed odkryciem, co usprawnia określanie parametrów orbitalnych . Ponadto klatki uzyskane w wyniku poszukiwań niektórych najważniejszych mniejszych planet (w szczególności NEO), takich jak LINEAR, NEAT i LONEOS, są również odpowiednie do wykorzystania na przykład do wyznaczania ruchu własnego. Ramki te są łatwo dostępne poprzez udogodnienia SkyMorph. Istnieje również szereg programów badawczych wykorzystujących już istniejące, wysokiej jakości katalogi astrometryczne, głównie Hipparcos i Tycho-2. Bazy te zostały wykorzystane między innymi w badaniach ruchów własnych gromad otwartych (Dias i in. 2001) oraz w kompleksie gwiazdotwórczym . W niektórych innych przypadkach wysoka dokładność tych zestawień (głównie Tycho-2) pozwoliła na określenie "astrometrycznych prędkości radialnych" gwiazd należących do gromad otwartych . Artykuły, a także adresy internetowe wymienione w tej sekcji to tylko mały (i niekompletny) przykład tego, co można zrobić, korzystając z materiałów dostępnych w głównych centrach danych. Jednakże potencjał tych nowych narzędzi nie został jeszcze w pełni wykorzystany; Kiedy to nastąpi, od tego momentu duży wpływ będzie mieć sposób, w jaki astrometria będzie przeprowadzać nowe przeglądy astrometryczne. Te nowe możliwości, a także jeszcze większy zbiór danych, które mają dostarczyć nadchodzące misje kosmiczne (GAIA, SIM itp.) zaplanowane na nadchodzące lata, zmienią sposób, w jaki będą wykonywane badania astrometryczne w najbliższej przyszłości. Będą znacznie łatwiejsze i jednocześnie znacznie bardziej skomplikowane w opracowaniu: łatwe, bo po prostu mając dostęp do sieci, będzie można wydobyć wiele megabajtów informacji; skomplikowane, ponieważ będzie wymagało nie tylko większych urządzeń komputerowych do prawidłowego przetwarzania takiej ilości danych, ale także (i prawdopodobnie ważniejsze) nowych koncepcji w technologii komputerowej . Kiedy to nastąpi, astrometria będzie miała szansę na rozwój i ekspansję na nowe i nieoczekiwane dziedziny. Jednak oczywiście zmieni się nie tylko astrometria; w rzeczywistości najbardziej znacząca zmiana nastąpi w sposobie, w jaki widzimy i rozumiemy otaczający nas wszechświat.
Załącznik
Podsumowanie akronimów
Obecnie używa się dużej liczby akronimów w odniesieniu do badań astrometrycznych, instrumentów i instytucji zaangażowanych w projekty astrometryczne. Poniżej znajduje się podsumowanie akronimów wspomnianych w niniejszej pracy oraz innych, które można znaleźć w innej aktualnej literaturze.
2MASS Two-Micron All Sky Survey
AC Astrographic Catalogue
ACRS Astrographic Catalogue Reference Stars
ACT Astrographic Catalogue and Tycho
ACVS Astrometric Catalogue of Variable Stars
AGK Astronomisches Gesselschaft Katalog
APS Automated Plate Scanner
AVO Astrophysical Virtual Observatory
BD Bonner Durchmusterung
CAMC Carlsberg Automatic Meridian Circle
CCD Charge-coupled device
CDS Centre de données astronomiques de Strasbourg
CHARA Center for High Angular Resolution Astronomy
CoD Córdoba Durchmusterung
CPC2 Second Cape Photographic Catalogue
CPD Cape Photographic
CTIO Cerro Tololo Inter-American Observatory
CTIOPI CTIO Parallax Investigation
DENIS Deep Near-Infrared Survey
DSS Digitized Sky Survey
EIS ESO Imaging Survey
ESA European Space Agency
ESO Europen Southern Observatory
FAME Full-Sky Astrometric Mapping Explorer
FK Fundamental Katalogs
FOCAT-S Photographic Catalogue-South
GAIA Global Astròmetric Interferometer for Astrophysics
GC General Catalogue
GCVS General Catalogue of Variable Stars
GSC Guide Star Catalogue
HDEC Henry Draper Extension Charts
HDF Hubble Deep Field
HIPPARCOS High Precision Parallax Collecting Satellite
HST Hubble Space Telescope
IAU International Astronomical Union
ICRF International Celestial Reference Frame
ICRS International Celestial Reference System
LHS Luyten Half Second
LINEAR Lincoln Near Earth Asteroid Research
LONEOS Lowell Observatory NEO Search
LTT Luyten Two Tenths
MISAO Multitudinous Image-Based Sky-Survey
and Accumulativè Observations
NASA National Aeronautics and Space Administration
NEA Near-Earth asteroid
NEAT Near-Earth asteroid tracking
NEO Near-Earth object
NLTT New Luyten Two Tenths
NOAO National Optical Astronomical Observatories
NPM Northern Proper Motion Survey
NSV New Catalogue of Suspected Variable Stars
NTT New Technology Telescope
NVO National Virtual Observatory
OAFA Observatorio Astronómico Félix Aguilar
PGC Preliminary General Catalogue
PISCO Pupil Interferometry Speckle and Coronograph
POSS Palomar Observatory Sky Survey
PPM Positions and proper motions
RECONS Research Consortium on Nearby Stars
RIT Rochester Institute of Technology
ROA Real Instituto y Observatorio de la Armada
SAOC Smithsonian Astrophysical Observatory Catalogue
SDSS Sloan Digital Sky Survey
SIM Space Interferometry Mission
SIMBAD Set of Identifications, Measurements
Bibliography for Astronomical Data
SPM Southern Proper Motion Survey
SRS Southern Reference System
TAC Twin Astrograph Catalogue
TPMC Tokyo Photoelectric Meridian Circle
TRC Tycho Reference Catalogue
UCAC-S United States Naval Observatory CCD Astrograph Catalogue-South
UKST United Kingdom Schmidt Telescope
USNO United States Naval Observatory
VERA VLBI Exploration of Radio Astrometry
VLBI very-long-baseline-interferometry
VLT very large telescope
WEBDA WEB Database of Open Clusters
WDS Washington Double Star Catalogue
WIYN Wisconsin Indiana Yale NOAO
WOCS WIYN Open Cluster Studies
YPC Yale Parallax Catalogue
Astrometria za pomocą Kosmicznego Teleskopu Hubble'a
W 1990 roku NASA wystrzeliła Kosmiczny Teleskop Hubble′a. Oprócz kamer i spektrografów obsługujących zakres od dalekiego ultrafioletu do bliskiej podczerwieni, obserwatorium zawiera trzy INTERFEROMETRY światła białego. W ramach wsparcia inżynieryjnego i naukowego ich głównym zadaniem było prowadzenie teleskopu; do pozycjonowania i utrzymywania celów naukowych w otworach instrumentu naukowego z tolerancjami zbliżającymi się do 0,1, co odpowiada 100 milisekundom łuku (100 mas). Wskazywanie i śledzenie wymaga dwóch takich precyzyjnych czujników naprowadzania (FGS), pozostawiając trzeci wolny dla ASTOMETRII. Celem projektowym astrometrii z FGS była precyzja 3 mas w całym polu obserwacji. Zaprojektowany i zbudowany na początku lat 80. XX w. FGS stanowił postęp o rząd wielkości w porównaniu z istniejącymi technikami naziemnymi. Opóźnienia w uruchomieniu HST zapewniły technikom naziemnym wystarczający czas na osiągnięcie tego celu, a nawet przekroczenie tego celu. Tym samym na nowo zdefiniowano cel postartowy. Cel ten, czyli astrometria małego pola z precyzją 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. HST FGS pozostanie konkurencyjnym narzędziem astrometrycznym do wykrywania słabych celów na zatłoczonych polach i słabych układów podwójnych o małej separacji, aż do pojawienia się naziemnych interferometrów o dużej aperturze i interferometrów kosmicznych o dłuższej linii bazowej (patrz także ASTOMETRIA: TELESKOPY I TECHNIKI). W tym artykule opisano badania naukowe, które można przeprowadzić za pomocą FGS, i przedstawiono niektóre najnowsze wyniki nauki. Opisujemy, w jaki sposób te dane są modelowane, pozyskiwane i kalibrowane. Następnie pokażemy, jak astrometr FGS 3 działa jako interferometr. Na koniec przedstawiamy przewodnik po literaturze, który zawiera dodatkowe szczegóły dotyczące każdego elementu omawianego w tym artykule. Astrometrię z dokładnością do 1 mas można uzyskać za pomocą szerokokątnej kamery planetarnej HST. Techniki są podobne do tych stosowanych w naziemnej astrometrii CCD i należy je omówić osobno.
Wybór celów nauki
Wybór celów naukowych w zakresie astrometrii HST jest słusznie uzależniony od tego, co można zrobić z ziemi. Unikalne możliwości HST muszą pozostać zarezerwowane dla wymagających ich projektów. W tej części podsumowujemy mocne strony astrometrii HST, wskazując kilka przykładów rodzajów obiektów, do których idealnie nadają się HST i FGS. Ponieważ interferometr FGS oferuje dwa tryby obserwacji, skanowanie prążków i śledzenie prążków, pozostałą część tego artykułu dzielimy na każdym etapie według trybów.
Skanowanie prążków: użycie HST do astrometrii gwiazd podwójnych Podczas próby rozdzielenia docelowej GWIAZDY PODWÓJNEJ należy wziąć pod uwagę cztery cechy techniki obserwacyjnej o wysokiej rozdzielczości (<1 ): granica jasności źródła, zdolność rozdzielcza, dokładność astrometryczna i różnica wielkości między składnikami, które można zaobserwować. Chociaż wszystkie cztery parametry są współzależne, podajemy limity prądu dla każdej charakterystyki oddzielnie, aby zilustrować skuteczność HST FGS 3 jako instrumentu astrometrycznego. W przypadku gwiazd podwójnych obserwacje HST FGS 3 dostarczają wyników obecnie nieosiągalnych technikami naziemnymi. HST FGS 3 ma dokładność do 1-3 mas przy granicy rozdzielczości 15 mas dla różnic wielkości mniejszych niż 2 mag. Może skutecznie obserwować cele z dokładnością do co najmniej V ∼ 15. Przy separacji składników większej niż 200 mas może pokonać różnice jasności co najmniej V = 4 mag, co wykazało wykrycie Gliese 623B. Przyszły rozwój interferometrów naziemnych powinien poprawić dokładność pomiarów astrometrycznych i zapewnić lepszą rozdzielczość, ale nadal będzie ograniczony do stosunkowo jasnych celów i umiarkowanych różnic wielkości. HST FGS 3 to jedyny dostępny obecnie instrument o wysokiej rozdzielczości, który (a) może zapewnić wysoce precyzyjną astrometrię dla bardzo bliskich układów podwójnych, (b) umożliwia obserwację stosunkowo słabych celów oraz (c) może pokonać co najmniej umiarkowanie duże różnice wielkości pomiędzy elementami systemu binarnego. Śledzenie prążków: wykorzystanie HST do uzyskania paralaks. W przypadku braku odległości astrofizyce brakuje precyzji. Nasza wykazana precyzja pomiaru PARALAKSY wynosi 0,5 masy lub więcej, biorąc pod uwagę sześć epok obserwacji przy maksymalnym współczynniku paralaksy. Często cel paralaksy jest niemożliwy do zmierzenia, ponieważ gwiazdy odniesienia nie znajdują się w polu widzenia urządzenia pomiarowego; jest to szczególnie prawdziwe w przypadku małoformatowych (zwykle kilku łuków kwadratowych) kamer CCD. FGS zapewnia duże pole widzenia, a jego kształt przypomina marynatę. Kształt ten pochodzi od lustra pick-off w płaszczyźnie ogniskowej HST. Obserwacje paralaksy są zazwyczaj przeprowadzane w odstępie sześciu miesięcy, w którym to czasie, ze względu na ograniczenia oświetlenia układu HST, pole widzenia FGS obraca się o 180?. Obszar w kształcie soczewki (rysunek 6), wspólny dla dwóch skrajnych orientacji, zapewnia stosunkowo duże pole o krótkiej osi = 3,5 i długiej osi = 14. FGS 3 ma duży zakres dynamiki, umożliwiający śledzenie pozycji prążków dla gwiazd w zakresie magnitudo 4 ≤ V ≤ 17. Ten duży zakres dynamiki zapewnia filtr o neutralnej gęstości, który zmniejsza wielkość jasnych gwiazd o 5 mag. Niefiltrowany zakres wynosi 8,5 ≤ V ≤ 17. HST może uzyskać dokładne paralaksy dla układów podwójnych, których składowe są oddzielone 0,03 < ? < 1,0 . Prawie jednoczesne skanowanie prążków i pomiary śledzące pozwalają określić położenie komponentów względem gwiazd odniesienia, co jest niezbędne do określenia środka masy układu, a tym samym mas poszczególnych składników. Wreszcie istnieje terminowość wyników. Nie trzeba już czekać od trzech do sześciu lat na paralaksę obiektów interesujących astrofizycznie. Odległość do wystarczająco interesującego i ważnego obiektu można uzyskać w tej samej skali czasu, co inne informacje astrofizyczne. Jeśli obiekt lub klasa obiektów jest teraz interesująca, można teraz przetestować teorię.
Wyniki nauki
Cele naukowe obejmowały pobliskie gwiazdy używane jako sondy do poszukiwań planet pozasłonecznych; gwiazdy, których astrofizyka byłaby w dużym stopniu wspomagana przez dokładne odległości; gwiazdy podwójne o małej masie w celu zdefiniowania relacji masy do jasności dla niższego ciągu głównego; członkowie gromady Hiady, klucz do skali odległości; obiekty pozagalaktyczne (QSO) zapewniające inercyjny układ odniesienia dla Hipparcosa; oraz uosobienie zatłoczonych pól, gromada pozagalaktyczna R136 w Wielkim Obłoku Magellana. Po raz kolejny dzielimy według techniki, omawiając reprezentatywne wyniki pierwszego skanowania prążków, a następnie śledzenia prążków.
Skanowanie prążków i gwiazdy podwójne
Nauka o skanowaniu prążków opiera się na dekonwolucji i założeniu, że wszystkie obiekty w polu są źródłami punktowymi. W poszukiwaniu najnowszych wyników naukowych zwracamy się do układu podwójnego Wolf 1062 = Gl 748 o małej masie, zaobserwowanego na poparcie projektu dotyczącego masy i jasności o niższej sekwencji głównej. Ponieważ każdy obserwowany prążek jest liniową superpozycją dwóch prążków (po jednym dla każdej gwiazdy składowej układu podwójnego), modeluje się go z dwoma identycznymi prążkami pojedynczej gwiazdy. Ich rozmieszczenie wzdłuż osi i względne amplitudy zapewniają różnice w separacji i jasności. Względna separacja wzdłuż dwóch osi dostarcza informacji o kącie położenia. Średnia bezwzględna różnica między zaobserwowaną i obliczoną odległością wynosi tylko 1,1 mas i tylko 0,77° w kącie położenia. Rysowane są wektory resztkowe dla wszystkich punktów danych, ale są one mniejsze niż punkty. Być może jeszcze bardziej imponujące będzie uświadomienie sobie, że przedstawione pudełko ma rozmiar zaledwie 0,6, więc dobre widzenie z ziemi dałoby obraz gwiazdy wielkości całej postaci. Połączenie obserwacji skanowania prążków i śledzenia prążków dla układu podwójnego L722-22 o małej masie dało względną paralaksę π = 0,1656 ±0,0008 i masy składników 0,179 i 0,112 M z formalnymi błędami losowymi dla tak małej masy jako 1,5%.
Śledzenie prążków: pozycje w ramce odniesienia
Nauka o śledzeniu prążków polega przede wszystkim na powiązaniu położenia celu z pozycjami gwiazd wyznaczającymi układ odniesienia. Tutaj omawiamy program paralaksy Hyadesa i podstawowy projekt astrometryczny z udziałem HIPPARCOS. Trygonometryczne obserwacje paralaksy uzyskano dla siedmiu członków Hyades w sześciu polach widzenia. Zostały one przeanalizowane wraz z ich właściwymi ruchami w celu określenia odległości do gromady. Niepewność formalna poszczególnych paralaks wynosi średnio 1 mas. Ten stosunkowo duży błąd wynika zarówno ze złego rozmieszczenia przestrzennego, jak i małej liczby gwiazd odniesienia w każdym polu. Znajomość punktu zbieżności i średniego ruchu właściwego Hiad ma kluczowe znaczenie dla obliczenia odległości do środka gromady. W zależności od wyboru układu ruchu własnego uzyskana odległość od środka gromady różni się o 9%. Dlatego pełne wykorzystanie paralaks HST FGS oczekuje na ustanowienie dokładnego i spójnego systemu ruchu właściwego. Obserwacje separacji gwiazd Hipparcosa od obiektów pozagalaktycznych przeprowadzono w celu określenia rotacji układu instrumentalnego Hipparcosa względem układu odniesienia ICRS-VLBI. Ustalenie na podstawie 78 obserwacji daje dokładność rzędu 2 mas rms w przypadku przesunięć rotacji współrzędnych w pobliżu średniej epoki obserwacji HST i 2 mas rok-1 w szybkości rotacji współrzędnych. Głównymi źródłami błędów są błędy pomiaru HST i błędy prawidłowego ruchu wprowadzone przez trzyletnią różnicę czasu między średnimi epokami obserwacyjnymi Hipparcosa i HST.
Modelowanie danych
Nasze dwa przykłady to gwiazda podwójna do skanowania prążków i pole paralaksy do śledzenia prążków
Skanowanie brzegowe
Uważamy, że gwiazda podwójna jest najprostszym obiektem wymagającym skanowania prążków. Zakładamy, że prążek wytwarzany przez gwiazdę podwójną jest liniową superpozycją prążków wytwarzanych przez dwie pojedyncze gwiazdy. Odpowiedź interferometru na rzeczywistą gwiazdę podwójną pokazano na rysunku 2. Jeśli F(x) jest prążkiem wytwarzanym przez pojedynczą gwiazdę na osi x, gwiazdę podwójną należy opisać wzorem
D(x) = A × F(x + zx) + B × F(x + x + Sx) (1)
gdzie A i B są względnymi intensywnościami dwóch składników (ograniczając A + B = 1). Przesunięcie punktu zerowego zx i separacja komponentów Sx uzupełniają model, przy czym podobne wyrażenie istnieje dla prążków utworzonych wzdłuż osi y. Sy i Sx dają separację binarną i, po przekształceniu na współrzędne równikowe, kąt położenia. Otrzymujemy różnicę wielkości z
Δm = ?2,5 × log(A/B). (2)
Jeśli w trybie śledzenia prążków zostanie zaobserwowany układ binarny, FGS zablokuje się w błędnej pozycji przejścia przez zero, która jest generowana przez dwie ściśle nakładające się krzywe s. Obserwacja w trybie skanowania prążków podaje względne położenie dwóch składników. Położenia względne można wyznaczyć jednorazowo z dokładnością i precyzją do 1 mas prążki obu gwiazd ulegają dekonwolucji.
Śledzenie marginesów
Za przykład śledzenia prążków uważamy typowy cel paralaksy i powiązane z nim gwiazdy odniesienia. Główny cel naukowy jest idealnie otoczony przez pięć do dziesięciu innych gwiazd używanych jako układ odniesienia, względem którego określamy położenie i ruch. Astrometria śledząca prążki jest na ogół procesem dwuetapowym. Najpierw określamy charakterystykę układu odniesienia. Jako płytę ograniczającą wybiera się jedną z epok obserwacji. Z tych danych możemy określić skalę i obrót względem płyty ograniczającej dla każdego zestawu obserwacji w obrębie jednej orbity. Ponieważ w przypadku wielu naszych obiektów obserwacje obejmują okres ponad dwóch lat, uwzględniliśmy także efekty paralaksy gwiazdy odniesienia (π) i ruchu własnego (&mi;)
ξ = ax + by + c ? (Px ? π + μx ? t) (3)
η = dx + ey + f ? (Py ? π + μy ? t). (4)
Orientację względem sfery niebieskiej uzyskuje się z astrometrii naziemnej. Niepewność orientacji pola wynosi zazwyczaj 0,03° < !εθ < 0,09°. Współczynniki paralaksy Px i Py uzyskujemy z predyktora orbity Ziemi JPL. Wreszcie, dθa wystarczająco bogatego pola odniesienia (n > cztery gwiazdki) ograniczamy Σπ = 0 i Σ&piu;= 0 dla całego układu odniesienia. Drugi krok polega na zastosowaniu stałych płytki do pomiarów celu naukowego. Współczynniki płyty a, b, ..., f są stosowane jako stałe, podczas gdy w powyższych równaniach rozwiązujemy cel naukowy μ i π.
Astrometr
Projektowanie
FGS 3 jest interferometrem. Interferencja zachodzi w pryzmacie, który został przecięty na pół i pokryty ćwierćfalową powłoką opóźniającą, a następnie ponownie złożony. Rysunek 4 przedstawia jeden z tych pryzmatów Koestera. Większość FGS składa się z optyki pomocniczej służącej do zasilania pryzmatów Koestera . W szczególności selektory gwiazd poruszają się po chwilowym polu widzenia w całym polu interferometru . Sygnał wyjściowy każdej ściany (powierzchni A i B) jest mierzony przez PMT. Sygnały te są łączone
S = A - B/A + B (5)
tworząc sygnał S, który ma wartość zero dla fal padających dokładnie pionowo na przednią powierzchnię pryzmatu Koestera. Pochylanie czoła fali do przodu i do tyłu (równoważne skierowaniu teleskopu nieco w bok, następnie na cel, a następnie nieco w drugą stronę) generuje wzór prążków. Idealny instrument wygenerowałby idealnie symetryczny wzór prążków. Znacząca aberracja sferyczna zwierciadła głównego HST powykonawczego, w obecności wewnętrznych niewspółosiowości FGS, tworzy na prążkach sygnaturę imitującą komę. Koma powoduje zmniejszoną modulację oraz liczne szczyty i doliny na obrzeżach. FGS 3 tworzy najmniej skomplikowane prążki na najszerszym obszarze pola obserwacji. Zamienny FGS zainstalowany w 1997 r. zawiera przegubowe, składane na płasko lusterko, które usuwa większość wewnętrznych niewspółosiowości. Ten FGS (FGS 1r) wytwarza prawie idealne prążki i powinien co najmniej dawać doskonałe wyniki w przypadku gwiazd podwójnych. FGS 3 pozostanie w służbie do czasu pełnej kalibracji FGS 1r w roku 2000.
Tryby pracy FGS
Omawiamy strategie pozyskiwania danych najwyższej możliwej jakości. Nasz cel, precyzja astrometrii małego pola wynosząca 1 mas, został osiągnięty, ale nie bez znaczących wyzwań. Należą do nich mechanicznie zaszumione środowisko na orbicie, samokalibracja FGS 3 i znaczące zmiany czasowe w naszym instrumencie. Rozwiązania obejmują gęstszy zestaw gwiazd kontroli dryfu dla każdej obserwacji naukowej, precyzyjne dostrajanie czasów ekspozycji, nakładające się obserwacje terenowe i analizy do kalibracji, a także ciągłą serię obserwacji monitorujących trendy. Największy wpływ na jakość danych ma traktowanie wszystkich danych uzyskanych na tej samej orbicie jako obserwacji jednostkowej, np. talerz'.
Skanowanie brzegowe
Cel umieszcza się w środku "marynaty", a selektory gwiazd otrzymują polecenie przesunięcia chwilowego pola widzenia na obraz docelowej gwiazdy. Ta akcja tworzy grzywkę. W praktyce uzyskuje się 10-30 skanów w układzie posuwisto-zwrotnym do przodu i do tyłu w poprzek gwiazdy. Ostateczny prążek wynika z procesu odwrócenia, przesunięcia i dodania. Mamy dowody na to, że w trakcie orbity pozycje gwiazd przewodników podawane przez FGS 1 i FGS 2 zmieniają się. Powoduje to dryftowy ruch astrometru FGS 3. Dryft może przekroczyć 30 mas w ciągu 36 minut. Szybkości dryfu x i y są na ogół odmienne, a dryft nie jest stały. Ponieważ jednak pojedynczy skan obiektu naukowego zajmuje około 1 minuty, dryft na skan zmniejsza się do mniej niż 1 mas. Strategia akwizycji danych z ruchem posuwisto-zwrotnym prawie samokompensuje dryf.
Śledzenie marginesów
W celu śledzenia prążków elektronika pokładowa lokalizuje przejście przez zero pomiędzy najwyższym dodatnim i najniższym pikiem prążków ujemnych. Położenie tego przejścia przez zero jest określane z częstotliwością 40 Hz w czasie obserwacji w zakresie od 10 < t < 300 s. Mediana >2400 przejść przez zero zapewnia solidne oszacowanie pozycji. Selektory gwiazd służą do przesuwania chwilowego pola widzenia z jednej gwiazdy na drugą w polu widzenia FGS. Dryf można skorygować, ale powoduje to dodatkowy narzut, skracając czas dostępny na orbicie na obserwację celu naukowego . Zestaw obserwacji astrometrycznych musi zawierać wizyty do jednej lub większej liczby gwiazd odniesienia, wielokrotne podczas każdej sekwencji obserwacji. Zakładając brak ruchu charakterystycznego dla wszystkich gwiazd odniesienia i gwiazd docelowych w okresie 40 minut, określa się dryft i koryguje układ odniesienia i gwiazdę docelową pod kątem tego dryfu. W rezultacie zmniejszamy udział budżetu błędu z dryftu do mniej niż 1 mas. Na ryc. 1 cel naukowy można obserwować trzy razy podczas sesji obserwacyjnej (pojedyncza orbita), a każdą gwiazdę odniesienia dwukrotnie.
Kalibracja astrometryczna
Kalibracja trybu skanowania prążków ma na celu określenie różnic separacji i wielkości pomiędzy składnikami gwiazd podwójnych. Jak omówiono wcześniej, wszystkie prążkowe cele skanowania są obserwowane w pobliżu środka zamarynowania. Dla kontrastu śledzenie prążków odbywa się na całym polu widzenia. Wymagania kalibracyjne dla tych dwóch trybów pracy są zupełnie inne.
Kalibracja skanowania prążków
Najbardziej podstawową kalibracją każdego instrumentu astrometrycznego jest określenie skali w jednostkach sfery niebieskiej. Skala FGS pochodzi z pomiarów kilku kalibracyjnych gwiazd podwójnych, często obserwowanych za pomocą interferometrii plamkowej za pomocą teleskopów klasy 4 m. Na podstawie tych pomiarów plamkowych uzyskano niezwykle dobrze określone elementy orbitalne. Te orbity gwiazd podwójnych dają, dla dowolnej daty obserwacji HST FGS, dokładne separacje kątowe układu podwójnego, a tym samym skalę. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych. Kalibracja wtórna polega na opracowaniu biblioteki odpowiednich szablonów prążków pojedynczej gwiazdy. Ta biblioteka jest wymagana, ponieważ morfologia prążków słabo zależy od koloru gwiazdy. Z biblioteki szablonów wybierana jest wymagana liczba (po jednej dla każdego składnika układu podwójnego lub wielokrotnego układu gwiazd) i dopasowywana do prążków gwiazdy podwójnej przy użyciu algorytmu najmniejszych kwadratów, GaussFit, który pozwala na błędy zarówno w zmiennych niezależnych, jak i zależnych.
Kalibracja śledzenia prążków
Zespół teleskopu optycznego (OTA) HST to aplanatyczny TELESKOP CASSEGRAINA konstrukcji Ritchey-Chretien. Naszym początkowym problemem było mapowanie i usuwanie zniekształceń optycznych, których wpływ na mierzone pozycje przekraczał 0,5. Nie istniało żadne pole gwiazdowe ze skatalogowaną astrometrią o precyzji 1 mas, co stanowiło nasz pożądany cel w zakresie wydajności, do wykorzystania jako siatka odniesienia. Naszym rozwiązaniem było użycie FGS 3 do samodzielnej kalibracji. W wyniku tej aktywności zniekształcenia zmniejszają się do wartości lepszych niż 2 mas na większości pola widzenia FGS 3 (rysunek 1). Model ten nazywany jest kalibracją zniekształceń kąta pola optycznego (OFAD). Do opisu tych zniekształceń przyjęliśmy a funkcjonalna forma przed wprowadzeniem na rynek, pierwotnie opracowana przez konstruktora instrumentu, firmę Perkin-Elmer Corporation. Zniekształcenia te można opisać (i zamodelować do poziomu jednej milisekundy łuku) za pomocą dwuwymiarowych wielomianów piątego rzędu
gdzie x, y to obserwowane pozycje w polu widzenia FGS, x , y to skorygowane pozycje, a wartości liczbowe współczynników aij i bij wyznaczane są poprzez kalibrację. Do wstępnego oszacowania OFAD wykorzystano ślady promieni. Wymagane uwolnienie grawitacyjne, odgazowanie struktur grafitowo-epoksydowych w FGS i regulacja zwierciadła wtórnego HST po wystrzeleniu aby ostatecznego określenia współczynników OFAD aij i bij dokonano w drodze kalibracji na orbicie. Jako pole kalibracyjne wybrano M35. Ponieważ naziemne pozycje naszych docelowych gwiazd kalibracyjnych były znane tylko z dokładnością do 23 milisekund łuku, pozycje gwiazd oszacowano jednocześnie z parametrami zniekształceń. Dokonano tego podczas kalibracji maratonu przeprowadzonej 10 stycznia 1993 r. w FGS 3. Całą sekwencję 19 orbit pokazano na rycinie 6. GaussFit został wykorzystany do jednoczesnego oszacowania względnych pozycji gwiazd, kierunku i obrotu teleskopu podczas każdego orbity ( kwaternionami), powiększenie teleskopu, współczynniki wielomianu OFAD i cztery parametry opisujące optykę selektora gwiazd wewnątrz FGS.
Inne kalibracje śledzenia prążków
Ponieważ każdy FGS zawiera elementy załamujące światło, możliwe jest, że zmierzone położenie gwiazdy może zależeć od jej wewnętrznego koloru. Zmiany pozycji będą zależeć od koloru gwiazdy, ale oczekuje się, że kierunek przesunięcia będzie stały w stosunku do osi FGS. To boczne przesunięcie koloru byłoby nieistotne, o ile gwiazdy docelowe i referencyjne mają podobny kolor. Jednak z pewnością nie dotyczy to wielu obiektów naukowych (np. bardzo czerwonych gwiazd, takich jak Proxima Centauri i gwiazda Barnarda). Wreszcie, aby zapewnić duży zakres dynamiki, przed pryzmatem Koestera można umieścić filtr o neutralnej gęstości. W rezultacie nastąpi niewielkie, ale dające się skalibrować przesunięcie pozycji (z powodu klina filtra) podczas porównywania pozycji jasnej gwiazdy ze słabym układem odniesienia. Przesunięcie jest stałe pod względem kierunku (w stosunku do FGS 3) i wielkości, ponieważ filtr nie obraca się w swoim uchwycie. Utrzymanie kalibracji śledzenia prążków Przewidywano, że grafitowo-epoksydowy stół optyczny FGS 3 będzie wydzielał gaz przez pewien czas po wystrzeleniu HST. Przewidywano, że odgazowanie zmieni względne położenie elementów optycznych na stole optycznym. Rezultatem wszelkich zachodzących zmian była zmiana skali. Wielkość zmiany skali była o wiele za duża, aby wynikała ze zmian rzeczywistego powiększenia w zespole optycznym HST. Dwa z parametrów opisujących optykę selektora gwiazd powodują zmianę przypominającą skalę, jeśli pozwoli się im zmieniać się w czasie. Rozwiązaniem było okresowe odwiedzanie pola kalibracyjnego M35 w celu monitorowania zmian przypominających skalę i innych wolno zmieniających się nieliniowości. Ponowne wizyty będą konieczne, jeśli pożądane będzie wykonanie astrometrii z dokładnością do 1 mas za pomocą dowolnego FGS. Wynik tej czynności ocenia ważność bieżących współczynników OFAD i ostrzega o konieczności ponownej kalibracji. Dzięki tym danym usuwamy powoli zmieniającą się składową OFAD, tak że nieskorygowane zniekształcenia pozostają poniżej 2 mas dla środka FGS 3. Charakter tych zmian jest generalnie monotoniczny z gwałtownymi skokami w połączeniu z misjami serwisowymi HST.
Astrometria: historia
Chociaż termin "astrometria" powstał dopiero w XIX wieku, mierzenie położenia i odległości kątowej gwiazd i planet stanowi jedno z najstarszych zajęć astronoma. Do czasów HIPPARCHUSA (fl 126 p.n.e.) w klasycznej Grecji ustalono już pomiary pozycji astronomicznych w stosunku do koła 360°, natomiast starożytni Babilończycy z roku 1750 p.n.e. pozostawili nieinstrumentalne obserwacje zachodniego i wschodniego wydłużenia Wenus względem Słońca, co można słusznie uznać za astrometryczne. Od czasów greckich po dzień dzisiejszy astronomowie zajmujący się astrometrią używali instrumentów wykorzystujących skalę 360°. Ze swej natury astrometria polega na ustalaniu i udoskonalaniu współrzędnych fizycznych na niebie, na podstawie których można określić ilościowo ruchy ciał. Hipparch, Klaudiusz PTOLEMUSZ i inni Grecy uznali, że ekliptyka stanowi naturalny i dość oczywisty podstawowy układ współrzędnych astronomicznych, ponieważ wysokości Słońca w środku lata i w środku zimy powodują przesilenia, równonoce i bieguny
zodiaku. Co więcej, te współrzędne zodiaku można powiązać z innym zestawem współrzędnych, opartym na równiku ziemskim (lub równiku) i biegunach ziemskich; w czasach Ptolemeusza odległość między nimi wynosiła 23° 51′ 20 cali, a obecnie wynosi 23° 26′ 21". Geometryczne punkty na niebie, w których przecinają się płaszczyzny ekliptyki i równika, równonoce, tworzą współrzędne pochodzenia naturalnego, a przecięcie wiosenne w marcu zostało wykorzystane przez Ptolemeusza i innych klasycznych astronomów do wyznaczenia początku dnia gwiazdowego. Ponad dwa tysiące lat temu punkt ten znajdował się w konstelacji Barana, co dało początek określeniu "PIERWSZY PUNKT BARANA", który do dziś jest używany jako punkt zerowy długości geograficznej niebieskiej (lub rektascencji) na mapach astronomicznych. Jednak już w starożytności uznano, że ten pierwszy punkt nie jest ustalony (jak w rzeczywistości jest kilka punktów na niebie, jeśli ma się wystarczająco dużo czasu), ale powraca sam do siebie, czyli "precesuje".
Ptolemeusz określił tę precesję jako 1° na każde stulecie, chociaż uzyskał tę wielkość poprzez zaokrąglenie liczb dla pierwszego punktu, które wyprowadził z obserwacji obejmujących około 400 lat do roku 150 ne. Używając znacznie lepszych instrumentów i wykorzystując je do ciągłego udoskonalania i udoskonalania -zdefiniuj swoją liczbę pomiędzy 1675 a 1715 rokiem, JOHN FLAMSTEED w Anglii otrzymywał 1° co 72 lata, czyli 50" rok-1 dla stałej precesji, co jest bardzo korzystne w porównaniu z przyjętym dzisiaj 50,290 966&Primne; rok-1. Ustalenie pierwszego punktu Barana i ilościowe określenie jego błędnego ruchu po niebie jest jednym z podstawowych osiągnięć astrometrii i nadal stanowi sedno pomiarów położenia gwiazd, wymagające konstruowania wykresów i tabel w sposób zapewniający określonej "epoce" cyklu precesyjnego, takiej jak rok 1900 lub 2000 n.e. Praktyczny pomiar dokładnego położenia tego wolno poruszającego się kawałka pustej przestrzeni na niebie umożliwił przez wieki była próbą pomysłowości, gdyż
nieuchronnie nie jest zajmowana przez żadną konkretną gwiazdę. W II wieku naszej ery Ptolemeusz w swoim Almagestie opisał technikę wykorzystującą księżyc w nowiu jako pośrednika. W dniu lub w okolicach równonocy wiosennej, w latach, w których w czasie równonocy przypadał dogodny nów księżyca, Ptolemeusz mierzył odległość kątową zachodzącego Słońca od Księżyca. Gdy Słońce znalazło się poniżej horyzontu, zalecił zmierzenie położenia Księżyca na podstawie sąsiednich gwiazd, gdy staną się widoczne. Na podstawie tych pozycji gwiazd można było ustalić pozycję Słońca i określić w ten sposób (na podstawie zdobytej kilka miesięcy wcześniej wiedzy o gwiazdach w tym obszarze nieba), która jasna gwiazda znajduje się najbliżej pierwszego punktu Barana. Uznając, że ruch Księżyca sam w sobie może być źródłem błędów w mniej więcej godzinie, gdy Słońce chowa się pod horyzontem, TYCHO BRAHE w Danii od 1582 r. powtórzył technikę Ptolemeusza, wykorzystując jako pośrednika znacznie wolniej poruszającą się planetę Wenus, i
obliczyli dla tej epoki, że pierwszy punkt Barana znajdował się w odległości 26° 0″ 30″ od gwiazdy α Arietis, co znajdowało się w odległości 15" od tej samej wartości obliczonej dla roku 1585 przez Dreyera w latach 90. XIX wieku. Sukces prac astrometrycznych Tycho, a większa dokładność, jaką osiągnął w porównaniu ze średniowiecznymi Arabami, takimi jak Ulugh Beigh i Al Sufi, oraz starożytnymi greckimi astronomami, którzy prowadzili obserwacje tysiąclecie wcześniej, zależała od ulepszeń techniki, obejmujących fundamentalne innowacje w konstrukcji instrumentów, wyrafinowane krzyżowe sprawdzanie procedur i rosnąca świadomość na temat refrakcji atmosferycznej. Ogromny postęp, jaki astrometria poczyniła w ciągu ostatnich czterech stuleci, wynika z rosnącej świadomości czynników uznawanych przez Tycho za ważne: innowacji w instrumentach, udoskonalonych technik i czujności na potencjalne źródła błędów. Jednak błyskawiczny rozwój astrometrii od 1580 roku nastąpił jedynie w odpowiedzi na
intelektualne problemy astronomii i kosmologii, z których pierwszym była hipoteza Kopernika. W XVI wieku uznano, że jeśli Ziemia rzeczywiście porusza się w przestrzeni, to rozmiary kątowe figur konstelacji powinny wykazywać niewielkie wahania sezonowe, w miarę zbliżania się lub oddalania obserwatora naziemnego od pozycji z czerwca i grudnia. Sam Tycho próbował wykryć takie wahania sezonowe. Jednakże wraz z rozwojem koncepcji nieskończonego wszechświata w XVII wieku, tę kopernikańską paralaksę gwiazdową uznano za najbardziej prawdopodobną do wykrycia podczas sześciomiesięcznego przemieszczenia kątowego gwiazd pierwszej wielkości, takich jak Syriusz, przy założeniu że gdyby wszystkie gwiazdy miały podobną jasność wewnętrzną, to gwiazdy pierwszej wielkości były najbliżej Ziemi, a zatem powinny wykazywać największe paralaksy. Rozwój w XVII i XVIII wieku podziałek o większej skali na kwadrantach astronomicznych, celownikach teleskopowych, mikrometrach i noniuszach oraz podobnych technik instrumentalnych był
silnie napędzany chęcią astronomów do wykrycia tej nieuchwytnej paralaksy gwiazdowej. W miarę jak pojemność astrometryczna epoki wzrosła z 1′ Tycho Brahe′a do 25″ Heweliusza, a następnie do 10" Flamsteeda, a paralaksy w dalszym ciągu nie stwierdzono, astronomowie w całej Europie zdali sobie sprawę z dwóch rzeczy: po pierwsze, trójwymiarowy wszechświat gwiezdny musi być niewiarygodnie jest ogromna, a po drugie, nadzieja na jej pomyślne zgłębienie musi wiązać się z ciągłym doskonaleniem konstrukcji precyzyjnych instrumentów, połączonym z równoległym rozwojem wyrafinowanych technik ich użycia. Co więcej, uznanie to było credo astrometru przez ostatnie cztery stulecia, od Uraniborga Tycho po satelitę kosmicznego Hipparcos Europejskiej Agencji Kosmicznej. Poszukiwania paralaksy gwiazdowej, choć zakończone sukcesem dopiero w 1838 r., stały się tak pilne i inspirujące dla astronomów, że po drodze zrodziły się z nich liczne inne odkrycia i kierunki badań. To właśnie CHRISTIAAN HUYGENS w latach
pięćdziesiątych XVII wieku stwierdził, że skale stopniowane nie są dostatecznie wyrafinowane, aby wykryć paralaksę, co w istocie doprowadziło do początków fotometrii gwiazdowej. Próbując porównać jasność Syriusza ze światłem emitowanym z obszaru powierzchni Słońca wielkości otworka (zakładając, że Słońce, Syriusz i wszystkie gwiazdy mają tę samą wewnętrzną jasność), Huygens obliczył, że Syriusz był oddalony o 27 664 jednostek astronomicznych od układ Słoneczny. Technika Huygensa zachęciła Sir Johna Herschela do badań fotoastrometrycznych w 1836 roku, podczas których obliczył, że Vega jest 40 razy jaśniejsza od Słońca i Arcturusa 200, a zatem odpowiednio oddalona od Układu Słonecznego. Następnie, w następstwie pomyślnego zastosowania spektroskopii i fotografii w astrometrii w latach sześćdziesiątych XIX wieku, fotometria rozpoczęła niezależny rozwój jako podstawowe narzędzie astrofizyki. Poszukiwania paralaksy gwiazdowej miały także doprowadzić ROBERTA HOOKE (1669), Johna Flamsteeda (1698-1702), a zwłaszcza
JAMESA BRADLEYA (1727-1728), do wynalezienia i rozwoju sektora zenitalnego (teleskop o długim ogniskowym zawieszony w punkcie dokładnie w zenicie) jako sposób na wykrycie paralaksy gwiazdowej, obecnie uznawanej za mającą nie więcej niż kilka sekund łuku, na pozbawionym refrakcji atmosferycznej niebie zenitu. Zarówno Hooke, jak i Flamsteed uzyskali podejrzanie duże paralaksy: Hooke określił paralaksy gwiazdy - Draconis na około 27 cali, a Flamsteed dla Polaris 40″, chociaż doskonałe instrumentarium i procedury obserwacyjne Bradleya doprowadziły do jego uznania w 1728 r., że Nowy znaleziony ruch gwiazd stałych, który sam w sobie był produktem obrotu Ziemi wokół Słońca, miał roczne przemieszczenie wynoszące 20,00-20,25′. To była aberracja. Jego wykrycie i oznaczenie ilościowe było triumfem wyrafinowanej astrometrii XVIII wieku i choć nadal nie ujawniło paralaksy, dostarczyło jednak fizycznego dowodu ruchu Ziemi w przestrzeni. Bradley twierdził, że jego sektor zenitowy był w stanie wykryć kąt 0,5 cala,
a w 1748 roku wykorzystał niewielki ruch kiwający - Draconisa do wykrycia niewielkiej okresowej zmiany nachylenia osi obrotu Ziemi względem ekliptyki. Jednym z założeń koncepcji nieskończonego wszechświata był możliwy niezależny ruch samych gwiazd, zwłaszcza w następstwie teorii powszechnego ciążenia Sir ISAACA NEWTONA po 1687 r. Od niepamiętnych czasów zakładano, że gwiazdy są nieruchome w swoje miejsca, chociaż w 1718 roku EDMOND HALLEY opublikował artykuł, który wykazał, że gwiazdy pierwszej wielkości Aldebaran (Palilicium), Syriusz i Arcturus wykazywały niezależny lub "właściwy ruch" w stosunku do sąsiednich, słabszych gwiazd. Było to wynikiem pomysłowych badań historycznych, podczas których Halley wykrył systematyczne przemieszczanie się szerokości geograficznej tych gwiazd, jak odnotowali Hipparch, Ptolemeusz, Tycho i współcześni astronomowie. Rzeczywiście obliczył, że Syriusz zmienił swoje położenie wzdłużne o 2 stopy w ciągu 120 lat od Tycho. Sugerowało to nie tylko, że te gwiazdy mogą poruszać się
w przestrzeni, ale że nasza pozycja obserwacyjna w Układzie Słonecznym również może się poruszać. William Herschel w 1783 roku jako pierwszy zastosował ruchy właściwe do wyznaczenia wierzchołka Słońca, punktu na niebie, w stronę którego zmierza Układ Słoneczny (patrz RODZINA HERSCHELA). O szybkim postępie w astrometrii i jej instrumentarium mówi coś fakt, że w latach 1838-1840 astronomowie stosujący trzy różne techniki obserwacji odkryli nie mniej niż trzy paralaksy gwiazdowe. Co więcej, żadna z tych paralaks nie zostałaby zmierzona, gdyby nie odkrycie i coraz dokładniejsze określenie ilościowe ruchów własnych gwiazd, ponieważ były to duże ruchy własne wykazywane przez 61 Cygni (5,2 roku-1) i α Centauri (3″ .7), co sugerowało ich względną bliskość Układu Słonecznego, a tym samym przydatność do pomiaru paralaksy. Chociaż Vega (α Lyrae) wykazuje znacznie mniejszy (ale wyraźny) ruch własny, została również uznana za odpowiedniego kandydata do pomiaru paralaksy. Gwiazdy te zmierzyli
odpowiednio FRIEDRICH WILHELM BESSEL w Königsburgu za pomocą heliometru, THOMAS HENDERSON na Przylądku Dobrej Nadziei za pomocą koła ściennego i Friedrich Georg WILHELM STRUVE w Dorpacie za pomocą mikrometru filarowego na 24-centymetrowym refraktorze Fraunhofera . Chociaż ich dane zostały nieco zmienione przez późniejszych obserwatorów na podstawie większych serii obserwacji, ich paralaksy pozostają zasadniczo prawidłowe: 61 Cygni, 0,3483; α Centauri, 0,913; Vega, 0,261. Pod wieloma względami te paralaksy stanowiły punkt krytyczny w astrometrii, dzięki czemu na długotrwałe pytanie astronomiczne udało się odpowiedzieć poprzez połączone zastosowanie wyższej teorii matematycznej i wyjątkowo dokładnych obserwacji dokonanych za pomocą nowego rodzaju teleskopów Na początku i w połowie XIX w. nastała era astrometrii manualnej (w której astronom pracował oczami, rękami i uszami, bez pomocy elektromagnetycznych i fotograficznych).Astronomia ta miała na celu nie tylko ostateczne ustalenie szeregu stałych
astronomicznych, lecz na dostarczaniu stale aktualizowanego i udoskonalanego zbioru danych, na podstawie których można kontynuować oryginalne badania mechaniki niebieskiej. Co więcej, zaczęły one zależeć od zintegrowanego wykorzystania anglo-niemieckich technik w oprzyrządowaniu i francuskiej matematyki Badania gwiazd podwójnych i potrójnych, których pionierem był w dużej mierze William Herschel w 1802 r., wykazały, że grawitacja Newtona, której działanie dotychczas wykazano jedynie w Układzie Słonecznym, była w oczywisty sposób uniwersalna. Bessel, Struve, Sir James South i inni w całej północnej Europie próbowali określić ilościowo elementy orbit układu podwójnego, aby wyodrębnić elementy grawitacyjne z ξ Ursae Majoris i innych układów gwiezdnych, a to Felix Savary, Johann Encke i Johna Herschela w latach 1830-1832, któremu się to udało. Prace nad gwiazdami podwójnymi wymagały najwyższej dokładności instrumentalnej, ponieważ refraktory montowane równikowo, z achromatyczną optyką Josefa Fraunhofera,
Roberta Aglaé Cauchoix i innych, wykorzystujące funkcje mikrometru lub heliometru z największą delikatnością, udostępniły do 1830 roku wiarygodne dane astrometryczne, które byłyby niewyobrażalne w 1780 r. Do 1833 r. John Herschel opublikował osiowe składowe orbit sześciu gwiazd podwójnych z dokładnością do czterech miejsc po przecinku jednej sekundy łukowej i chociaż wiele setnych i tysięcznych sekundy łukowej zostało później zmodyfikowanych, ich dziesiąte, zgodnie z pierwotnym pomiarem, rzadko potrzebna korekta. Dopracowane badania astrometryczne przeprowadzone w połowie XIX wieku ujawniły obecność wielu systematycznych nieregularności gwiazdowych, z których wyłonił się bogaty zbiór odkryć fizycznych. Do roku 1840 wszystkie wielkie obserwatoria w Europie - w Königsburgu, Dorpacie, Berlinie, Bonn, Greenwich i innych - zajmowały się przede wszystkim pracami astrometrycznymi, które w tamtym czasie stanowiły najwyższy szczyt osiągnięć astronomicznych. Z jednej strony ich energię poświęcono pracom w
oparciu o refraktor równikowy w astronomii gwiazd podwójnych, chociaż okrąg ścienny i tranzytowy ułatwiły również rutynowe pomiary pozycji południków z dokładnością do ułamka jednej sekundy łukowej. Ponieważ w ślad za przykładami Bessela, Struve′a, Enckego, Friedricha Wilhelma Augustusa Argelandera i George′a Biddella Airy′ego stawało się wymogiem, aby obserwatorium publikowało swoje prace tak szybko, jak to możliwe, szybko zgromadzono ogromny zbiór znakomitych danych astrometrycznych. staje się dostępny w Europie i Ameryce. To właśnie na podstawie opublikowanego astrometrycznego archiwum danych południkowych zarówno John Couch Adams, jak i Jean Joseph Urbain Le Verrier dokonali spektakularnych niezależnych odkryć Neptuna w 1846 roku. Również na podstawie stosunkowo długich serii wysokiej jakości danych astrometrycznych Bessel był w stanie określić ilościowo okresowe wahanie pozycji Syriusza, na podstawie którego był w stanie obliczyć obecność Syriusza B w 1844 r. Co więcej, po obu tych
odkryciach, wyciągniętych z istniejących danych astrometrycznych, nastąpiło teleskopowe potwierdzenie, kiedy Johann Galle i Heinrich d′Arrest zaobserwował Neptuna z Berlina 23 września 1846 r. i kiedy Alvan Clark zobaczył Syriusza B z nową 18-stką w szkle przedmiotowym w Bostonie w 1862 r. Wynalazek fotografii w 1839 r. otworzył ogromny potencjał astrometrii. Oprócz możliwości zapewnienia znacznie większej dokładności, uwolnił astronoma od okularu teleskopu, umożliwiając wygodniejszy i spokojniejszy pomiar pozycji astrometrycznych z klisz fotograficznych. Jednak dopiero po 1881 roku, wraz z utworzeniem Carte du Ciel, astrometria fotograficzna naprawdę pokazała, co może zdziałać. Jednak w miarę jak astrofizyka zdominowała astronomię w XX wieku, podstawowa rola astrometrii w nauce spadła, ale rozwój interferometrii radiowej w latach pięćdziesiątych XX wieku wprowadził nową i ważną formę astrometrii, ponieważ anteny radiowe znajdowały się w odległości wielu kilometrów lub nawet do dokładnego położenia
źródeł radiowych na niebie z dokładnością do kilku sekund łuku. Jednakże rozwój projektu HIPPARCOS Europejskiej Agencji Kosmicznej w 1989 r. ponownie przywrócił astrometrii optycznej centralną rolę. Satelita kosmiczny Hipparcos umożliwił wykonywanie doskonałych pomiarów astrometrycznych do 0,002 cala w praktycznie przemysłowy sposób, bez żadnych problemów atmosferycznych występujących w obserwatoriach naziemnych. Chociaż astrofizyka w dalszym ciągu w dużej mierze stanowi siłę napędową współczesnych badań astronomicznych, jej krytycznie dokładna dane astrometryczne, jakie umożliwił Hipparcos, są niezbędne, zwłaszcza do zrozumienia procesów fizycznych zachodzących w naszym własnym układzie gwiezdnym.Astrometria satelitarna jest w istocie wyraźnie postrzegana jako rozwiązanie przyszłości, jeśli chodzi o najbardziej krytyczne dokładności. Nadchodząca satelita NASA, FAME (Full Sky Astrometric Mapping Explorer), która ma zostać wystrzelona około 2004 roku, będzie mapować niewiarygodne 40 milionów pozycji gwiazd
ze zwiększoną dokładnością od dwóch do dziesięciu (w zależności od wielkości) w porównaniu z poprzednimi satelitami, w ciągu przewidywanego 5-letniego okresu funkcjonowania ESA GAIA (Europejska Agencja Kosmiczna Global Astrometric Interferometer for Astrophysics) ponadto będzie miał także 5-letni okres działania, podczas którego oczekuje się, że zmapuje 500 razy więcej obiektów niż Hipparcos, 100 razy dokładniej. Można ponadto argumentować, że astrometria w jej działach fotograficznych, fotoelektrycznych, radiowych i satelitarnych nadal znajduje się w centrum badań astronomicznych, ponieważ sama astrofizyka opiera się na precyzyjnych pomiarach i interpretacji różnych form energii z kosmosu. To właśnie użycie instrumentów do pomiaru i ilościowego określenia energii docierającej do Ziemi z kosmosu czyni astronomię zdecydowanie najstarszą z nauk ścisłych.
Astrometria: teleskopy i techniki
Celem astrometrii jest określenie pozycji i ruchu ciał niebieskich, takich jak gwiazdy i planety, a także sztucznych satelitów. Astrometria jest najstarszą gałęzią astronomii i aż do XIX wieku cała profesjonalna astronomia była astrometrią. Jednym z głównych celów astrometrii jest pomiar odległości kątowych gwiazd i innych ciał niebieskich względem gwiazd odniesienia, które mają znane pozycje. Można to osiągnąć wykonując zdjęcia przez teleskop podobny do aparatu fotograficznego, czy to na emulsji fotograficznej , czy przy użyciu detektorów elektronicznych, takich jak URZĄDZENIE SPRZĘŻONE Z ŁADUNKIEM (CCD), stosowane obecnie w większości aparatów. Pozycje gwiazd referencyjnych ustalane są metodami astrometrii absolutnej. Katalog takich stanowisk i ruchów określa układ odniesienia. Większość pomiarów astrometrycznych przeprowadza się w dwóch wymiarach, na sferze niebieskiej, podobnych do szerokości i długości geograficznej. Trzeci wymiar, czyli odległość ciał niebieskich w przestrzeni, jest znacznie trudniejszy do zmierzenia i stanowi jedno z największych wyzwań astronomicznych. Tylko odległości w naszym Układzie Słonecznym można zmierzyć z dużą precyzją za pomocą technik radarowych i laserowych. Bardzo precyzyjne pomiary kątowe rzędu 1 milisekundy łukowej (mas) można dziś osiągnąć za pomocą naziemnych teleskopów optycznych, satelitów astrometrycznych i radioteleskopów. Kąt 1 mas jest tysięczną częścią sekundy łukowej, która z kolei jest 3600 częścią stopnia. Księżyc na niebie ma średnicę około pół stopnia lub 1800 sekund łukowych. Parę świec oddalonych od siebie o 10 cm dzieli 1 m, patrząc z odległości 20 000 km. Po niebie poruszają się nie tylko Słońce, Księżyc i planety. Jeśli przyjrzysz się wystarczająco uważnie, gwiazdy "stałe" również się poruszają, powoli krążąc wokół centrum naszej Galaktyki, Drogi Mlecznej. Nawet galaktyki poruszają się w gromadach galaktyk. Zatem dokładne pozycje astrometryczne zależą od czasu. Bez znajomości ruchów nie można dobrze przewidzieć pozycji na przyszłość. Po stuleciach powolnych ulepszeń, w ciągu ostatnich dwóch dekad osiągnięto dramatyczny wzrost precyzji. W 1980 r. najnowocześniejszym stanem była pozycja absolutna wynosząca 100 mas, od 1995 r. było to około 1 mas, a obecnie projektowane misje kosmiczne obiecują 0,05-0,005 mas. Ten niesamowity postęp wynika z technologii, wykorzystania nowych technik i sprzętu.
Astrografy i koncepcja płaszczyzny stycznej
Jedną z podstawowych technik astrometrycznych jest wykorzystanie a kamera (astrograf) do mapowania fragmentu sfery niebieskiej na powierzchni obrazu. Aparatem tutaj może być także teleobiektyw, dedykowany teleskop soczewkowy (refraktor) lub teleskop lustrzany (reflektor). W idealnym przypadku powierzchnia obrazu jest płaszczyzną prostopadłą do osi optycznej kamery i styczną do kuli. Kamera (rysunek 1) jest skierowana na pozycję A na niebie, a gwiazda w S jest nanoszona na S′ w płaszczyźnie stycznej. Ogniskowa f określa skalę tego odwzorowania:
scale(arcsec mm-1) = 206 265/[f(mm)]
Podstawową ideą jest pomiar prostokątnych współrzędnych x, y w płaszczyźnie stycznej, następnie wykorzystanie znanej pozycji niektórych gwiazd odniesienia w polu w celu określenia parametrów mapowania i na koniec obliczenie współrzędnych sferycznych pozostałych mierzonych gwiazd pola. Szczegóły techniczne wyjaśniono poniżej.
Szerokie pole
Teleskop o wysokiej jakości, szerokim, kilkustopniowym POLU WIDZENIA wymaga złożonej konstrukcji optycznej, której nie da się uzyskać za pomocą refraktora dwusoczewkowego ani teleskopu z dwoma zwierciadłami. Astrografy wieloobiektywowe to klasyczne teleskopy w tej kategorii, podobne do teleobiektywów. W przypadku większych apertur (około 0,7 m i więcej) często stosuje się układy katadioptyczne, czyli teleskopy zwierciadlane z dodatkowymi soczewkami. Przykładami są TELESKOP SCHMIDT i duże reflektory z "korektorami pola". Te teleskopy szerokokątne są wykorzystywane w astrometrii głównie do zagęszczania istniejących układów odniesienia. Pozycje wielu słabszych gwiazd są określane w odniesieniu do kilku jasnych gwiazd odniesienia o znanych pozycjach. Duże pole widzenia pozwala na jednoczesną obserwację odpowiednio dużej liczby gwiazd odniesienia w danym polu. Najważniejszymi przykładami astrografów są astrografy z Katalogu Astrograficznego (AC), zbudowane około 1900 roku o ogniskowej 3,7 m, instrumenty z serii 2 i 3 Astronomische Gesellschaft Katalog (AGK) o ogniskowej 2 m, pięciosoczewkowa konstrukcja z 1975 r. Astrograf hamburski, bliźniaczy astrograf US NAVAL OBSERVATORY (USNO) z czerwoną soczewką zaprojektowaną w 1990 roku oraz astrografy Lick i Yale o aperturze 0,5 m. Astrografy Lick i Yale wykorzystują odległe galaktyki jako stałe punkty odniesienia i zestaw ekspozycji wykonanych w odstępie około 20-30 lat (różnica epok) w celu określenia bezwzględnych WŁAŚCIWYCH RUCHÓW gwiazd odpowiednio w programach ruchu własnego Północy i Południa (NPM, SPM). NPM jest już ukończony, natomiast trwają obserwacje drugiej epoki SPM w Argentynie. Projekt USNO CCD Astrograph Catalog (UCAC) rozpoczął się w 1998 roku w CERRO TOLOLO INTERAMERICAN OBSERVATORY i ostatecznie obejmie całe niebo do jasności około 16mag. Pozycje gwiazd w zakresie 10-14 mag są podawane z dokładnością do około 20 mas. Właściwe wnioski zostaną uzyskane poprzez wykorzystanie nowych miar danych NPM i SPM z wczesnej epoki.
Wąskie pole
Refraktory o długiej ogniskowej (≈ 10-15 m) i duże reflektory zapewniają pole widzenia od kilku minut kątowych do 1° przy dużym powiększeniu, co pozwala na rozpoznanie niewielkich przemieszczeń obrazów gwiazd. Teleskopy te są używane głównie w astrometrii do wyznaczania paralaks trygonometrycznych, co jest najbardziej bezpośrednią, podstawową techniką określania odległości poza Układem Słonecznym. Niewielkie przesunięcia położenia stosunkowo bliskiej gwiazdy docelowej są mierzone w stosunku do odległych gwiazd, które są wybierane na podstawie właściwości widmowych i fotometrycznych. Tutaj również zastosowano koncepcję płaszczyzny stycznej; jednakże nie są potrzebne żadne dokładne (absolutne) położenia gwiazd referencyjnych. Obserwacje danego pola prowadzone są przez kilka lat, a następnie mapowane na siebie, przy założeniu średniej wartości stałych gwiazd tła. Rysunek 2 wyjaśnia zasadę trygonometrycznych obserwacji paralaksy. Podczas gdy Ziemia okrąża Słońce, pozycja pobliskiej gwiazdy zmienia się nieznacznie (kolejność 0,5 sekundy łukowej lub mniej). Największe przesunięcia obserwuje się dla pozycji 1 i 2, w odstępie około pół roku. Na ognisku na płaszczyźnie pozycje pobliskiej gwiazdy docelowej i niektórych odległych gwiazd tła są wykreślane na przestrzeni roku (pomijając ruchy właściwe). Głównym problemem jest oszacowanie odległości (paralaks) gwiazd tła. W idealnym przypadku powinny być nieskończenie daleko, czyli w stałym położeniu, czyli w środku elips. W takim przypadku zaobserwowana zmiana położenia docelowej gwiazdy względem gwiazd tła bezpośrednio dałaby jej prawdziwą, absolutną paralaksę . W rzeczywistości pomiar ujawnia względną paralaksę w odniesieniu do średniej paralaksy gwiazd tła. Przykładami są refraktory YERKES OBSERVATORY i ALLEGHENY OBSERVATORY, a także reflektor 1,55 m Strand Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, najbardziej precyzyjny i produktywny instrument w tej kategorii. Wyniki wszystkich znaczących paralaks trygonometrycznych i związanych z nimi obserwacji ruchu własnego są zestawiane w katalogach wydawanych przez Uniwersytet Yale. Aby uzyskać bardzo precyzyjne położenie słabych obiektów, takich jak zwarte, pozagalaktyczne źródła radiowej ramki odniesienia, przyjęto procedurę wieloetapową. Teleskop szerokokątny służy do wyznaczania pozycji drugorzędnych gwiazd odniesienia w układzie głównych gwiazd odniesienia. Instrumenty o długim ogniskowaniu podążają w stronę słabszych, granicznych wielkości magnitudo i zagęszczają sieć gwiazd odniesienia
Detektory
Obecnie w optycznych programach astrometrycznych ważne są trzy typy detektorów: CCD, fotometr z modulacją siatki i emulsje fotograficzne. Detektor CCD w teleskopie jest najważniejszym detektorem szeroko stosowanym w akwizycji danych astronomicznych. Wysoka wydajność kwantowa i stabilność geometryczna sprawiają, że jest to bardzo odpowiednie urządzenie do astrometrii. Jedynym poważnym problemem matrycy CCD jest jej stosunkowo mały rozmiar w porównaniu z kliszą fotograficzną. Typowy CCD ma dziś 30-50 mm z boku, podczas gdy typowa płyta fotograficzna może mieć powierzchnię 100 razy większą. Mozaika matryc CCD może pokrywać duży obszar w płaszczyźnie ogniskowej; jednakże pomiędzy chipami pozostają przerwy i, co ważniejsze dla precyzyjnej astrometrii, potrzebne są dodatkowe parametry w modelu mapowania dla każdego pojedynczego chipa CCD. Może to stanowić poważny problem, gdy gęstość gwiazd odniesienia jest niska. Technikę modulacji siatki zastosowano w wielokanałowym fotometrze astrometrycznym (MAP) w Obserwatorium Allegheny. Mierzy względne położenie gwiazd w płaszczyźnie ogniskowej za pomocą ruchomej linijki ronchi. Instrument ten jest bardzo precyzyjny (dokładność 3 mas na noc na jasnym celu); jednakże w danym momencie można mierzyć tylko jedno źródło docelowe w odniesieniu do kilku gwiazd odniesienia. Zasada modulacji siatki jest również stosowana w misji kosmicznej HIPPARCOS i została wyjaśniona na rysunku 3. Pomiary fotometryczne z dużą rozdzielczością czasową przeprowadzane są za siatką w płaszczyźnie ogniskowej. Gwiazdy (lub siatka) poruszają się, a różnica faz między sygnałami z dwóch gwiazd określa ich dokładne względne położenie w ułamkach stałej siatki. Wymagana jest wiedza a priori dotycząca całkowitej liczby kroków siatki, w których gwiazdy są od siebie oddzielone. Emulsje fotograficzne na kliszy lub płytkach szklanych wymagają maszyny pomiarowej w celu wyodrębnienia informacji x, y o pozycjach obrazu gwiazd. Emulsje fotograficzne nie są już używane w żadnym większym programie astrometrycznym. Dane przechowywane w archiwach płytowych są jednak nadal cenne, a ich ekstrakcja nie została jeszcze zakończona.
Maszyny pomiarowe
W przeszłości ludzie obsługiwali ręcznie jedno- i dwuosiowe maszyny do pomiaru płytek, centrując obrazy gwiazd na krzyżykach mikroskopu i kółkach odczytujących. Techniki dysektora obrazu mogą automatycznie wyśrodkować obraz gwiazdy, wykorzystując właściwość symetrii profilu obrazu. Pełna digitalizacja (skanowanie) klisz fotograficznych wykonywana jest na nowoczesnych maszynach. W tym przypadku pomiar fotometryczny (przezroczystość lub gęstość) jest rejestrowany jako funkcja położenia x, y detektora skanującego. Można to osiągnąć za pomocą mikrodensytometru, matrycy CCD lub urządzenia skanującego liniowo. We wszystkich przypadkach dokładny pomiar położenia detektora względem płytki wzdłuż dwóch osi ma kluczowe znaczenie, a większość maszyn korzysta z metrologii laserowej lub precyzyjnych enkoderów zapewniających powtarzalność około 0,1 μm. Dokładność ograniczają błędy systematyczne procesu pomiarowego oraz stabilność geometryczna nośnika fotograficznego, która w zależności od rodzaju emulsji jest rzędu 0,4-1,0 μm. Przykładami są maszyny mikrodensytometryczne PDS, które były dostępne na rynku, maszyna GALAXY z byłego ROYAL OBSERVATORY, GREENWICH, APM w Cambridge w Wielkiej Brytanii, APS w Minneapolis, MAMA w OBSERVATOIRE DE PARIS, PMM z Obserwatorium Marynarki Wojennej USA, HAM1 w Hamburger Sternwarte i SuperCosmos w KRÓLEWSKIM OBSERWATORIUM W EDYNBURGU.
Koło tranzytowe i astrometria absolutna
Koło tranzytowe (TC) to teleskop zamontowany na stałej osi wschód-zachód, dzięki czemu może poruszać się tylko wzdłuż lokalnego południka. Południk to wielkie koło przechodzące przez bieguny niebieskie i zenit, prostopadłe do horyzontu. TC dokonuje dwóch niezależnych obserwacji: czasu, w którym obiekt docelowy przecina południk (tranzyt) i kąta, odległości od zenitu, którą odczytuje się z okręgów przymocowanych do osi wschód-zachód teleskopu. Kierunek zenitu wyznacza się w praktyce, patrząc w przeciwnym kierunku (nadir) w dół, na powierzchnię zwierciadła rtęciowego, która reprezentuje lokalną płaszczyznę horyzontu ze względu na grawitację Ziemi. W celu sprawdzenia stabilności azymutu instrumentalnego obserwuje się skolimowane znaki odniesienia położone w pewnej odległości w kierunku północnym i południowym. W ubiegłych stuleciach obserwacje tranzytów prowadzono metodą "oko i ucho", obserwując gwiazdę przechodzącą przez drut mikrometryczny przez okular teleskopu i słuchając sygnałów czasu w celu oszacowania ułamka sekundy. Nowoczesne instrumenty wykorzystują detektory fotoelektryczne i podążają za gwiazdą przez pewien czas w płaszczyźnie ogniskowej, aby uzyskać wiele pomiarów dla pojedynczego tranzytu. Najlepszy współtwórca może przeprowadzać względne obserwacje; jednakże jest również w stanie wykonać astrometrię absolutną (fundamentalną), co oznacza, że może określić położenie ciał niebieskich bez apriorycznej wiedzy o pozycjach innych gwiazd. W ten sposób teleskopy TC przez stulecia zapewniały główne katalogi gwiazd odniesienia (katalogi podstawowe). Do najważniejszych należą serie FK3, FK4 i FK5 z tego stulecia, opublikowane przez Astronomisches Recheninstitut w Heidelbergu w Niemczech. Ostatnio podstawowa praca z teleskopami TC została zastąpiona dokładniejszymi technikami, takimi jak misja kosmiczna Hipparcos i obserwacje radiowe VLBI. Na obserwacje Najlepszych Współtwórców wpływa wiele czynników. Niedoskonałości instrumentalne, takie jak wygięcie tubusu teleskopu, można określić poprzez odpowiednie modelowanie serii obserwacji. Krytyczna jest stabilność instrumentu, umożliwiająca powtarzalne podążanie za tym samym wzorcem w danym przedziale czasu. Ruch biegunowy, wędrówka osi Ziemi względem powierzchni Ziemi i inne zmiany lokalnego układu współrzędnych wchodzą w zakres obserwacji TC i wymagają rozwiązania. Co więcej, oś obrotu Ziemi nie jest ustalona w przestrzeni inercyjnej. Układ współrzędnych związany z równikiem Ziemi porusza się względem gwiazd (precesja i nutacja). Skończona prędkość światła powoduje aberrację astronomiczną, czyli przesunięcie kątowe obserwowanej trajektorii w stosunku do rzeczywistej pozycji. Wszystkie te efekty wchodzą w pełnym zakresie do obserwacji absolutnych TC, podczas gdy obserwacje różnicowe (względne) mają do czynienia jedynie ze zmianami tych efektów w polu widzenia. Szczególną troską w przypadku obserwacji TC jest załamanie światła w atmosferze ziemskiej. Obserwacje zarówno dolnego, jak i górnego tranzytu gwiazd w pobliżu bieguna pomagają w określeniu modelu refrakcji. Niemniej jednak załamanie zmienia się w zależności od warunków atmosferycznych, takich jak temperatura. Turbulencje atmosfery ostatecznie ograniczają bezwzględne obserwacje TC poprzez niemodelowane systematyczne wkłady i przypadkowy szum. Przykładami instrumentów TC są CARLSBERG MERIDIAN TELESCOPE i południk w OBSERVATOIRE DES SCIENCES DE L′UNIVERS DE BORDEAUX oraz i 7 w teleskopach Obserwatorium Marynarki Wojennej Stanów Zjednoczonych.
Technika skanowania TDI
Najnowszą innowacją w astrometrii jest zastosowanie przetworników CCD w płaszczyźnie ogniskowej teleskopów typu TC. Przetwornik CCD może pracować w trybie integracji z opóźnieniem czasowym (TDI), w którym transfer ładunku do odczytu CCD jest zsynchronizowany z ruchem gwiazdy w chipie. Działa to jednak dobrze tylko w przypadku gwiazd poruszających się po wielkim okręgu (równiku) i przy małej szerokości skanowanego paska. We wszystkich pozostałych przypadkach gwiazdy w różnych lokalizacjach na matrycy CCD poruszają się po znacznie nieliniowych ścieżkach, co powoduje rozmazanie obrazu. Pionierskim instrumentem tego typu jest Astrometryczny Skaningowy Teleskop Tranzytowy Flagstaff (FASTT). Carlsberg Meridian Telescope (CMC, La Palma i Cambridge, Wielka Brytania) oraz Bordeaux TC wykorzystały technikę skanowania TDI do katalogów strefowych. Część obrazowania projektu SLOAN DIGITAL SKY SURVEY (SDSS) również wykorzystuje tę samą technikę. Jednakże teleskop SDSS może podążać za dowolnymi wielkimi kręgami na niebie, aktywnie sterując teleskopem i jednocześnie obracając płaszczyznę detektora.
Astrolabium
ASTROLABIUM jest przykładem instrumentu równej wysokości, mierzącego czas przejścia gwiazdy przez mały okrąg o stałej wysokości lub odległości od zenitu (często 30° lub 45°). Osiąga się to poprzez konfigurację lustra-pryzmatu przed zamontowanym poziomo teleskop. Bezpośrednie i odbite obrazy docelowej gwiazdy są odwzorowywane na płaszczyźnie ogniskowej. Pozorne ruchy obu obrazów są w przeciwnych kierunkach i krzyżują się, gdy gwiazda osiągnie ustaloną odległość od zenitu, dla której instrument został zaprojektowany. Pozycje gwiazd można wywnioskować z obserwacji przejść w kierunku wschodnim i zachodnim. Astrolabium ma dwie główne zalety w porównaniu z TC. Wszystkie gwiazdy są obserwowane w stałej odległości od zenitu, co upraszcza korekcję refrakcji, a konfiguracja instrumentalna jest bardziej stabilna i pozwala uniknąć problemów z zginaniem. Główną wadą astrolabium jest jego ograniczone pokrycie nieba w deklinacji δ φ - z < δ < φ + z, gdzie φ to szerokość geograficzna, a z to stała odległość zenitu instrumentu. Podobnie jak w przypadku TC, zdolność astrolabium do tworzenia podstawowego katalogu i monitorowania rotacji Ziemi ma obecnie wyłącznie znaczenie historyczne ze względu na wyjątkową dokładność VLBI i technik astrometrii kosmicznej. Fotograficzny teleskop zenitowy (PZT) PZT jest teleskopem montowanym pionowo, z soczewką na obrotowym stoliku u góry i lustrem u dołu. Za pomocą PZT obserwuje się względne położenie lokalnego zenitu względem gwiazd. Przez dziesięciolecia PZT był używany do określania orientacji Ziemi. Ponieważ techniki VLBI są obecnie znacznie dokładniejsze, PZT są przestarzałe.
Interferometria
Interferometria jest najdokładniejszą znaną obecnie techniką astrometryczną, wykorzystującą falową naturę spójnego światła (lub ogólnie promieniowania elektromagnetycznego) do pomiarów kątowych. Powszechnie stosowany jest interferometr Michelsona. Jego podstawową zasadę przedstawiono na rysunku 5. Dwa stałe teleskopy (sidereostaty) A i B obserwują tę samą gwiazdę. Wiązka z co najmniej jednego z teleskopów musi przejść przez linię opóźniającą o zmiennej długości, aby jednocześnie (spójnie) obserwować ten sam czoło fali przychodzącej i w ten sposób uzyskać wzór interferencyjny (prążki) na sumatorze wiązek. W zależności od położenia gwiazdy względem linii bazowej (kąt ?), opóźnienie (d) jest różne i należy je odpowiednio dostosować. Podstawowym pomiarem interferometrycznym jest długość opóźnienia w funkcji czasu, przy jednoczesnym zachowaniu maksymalnego kontrastu prążków (widoczności)
cos γ = d/b
Przy znanej linii bazowej b daje to miarę γ. Wielokrotne obserwacje kilku gwiazd w ciągu nocy pozwalają nam określić położenie gwiazd i parametry orientacji Ziemi. Aby sterować linią opóźnienia i uzyskać prążki, wymagana jest aprioryczna informacja o przybliżonych pozycjach gwiazd. Następnie interferometr określa d w ułamku długości fali, podczas gdy długość linii bazowej jest monitorowana za pomocą dodatkowej metrologii. Dzięki tej technice można uzyskać globalną dokładność rzędu kilku mas, a pomiary względne (gwiazdy podwójne, ciemnienie kończyn gwiazd) są co najmniej 10 razy dokładniejsze. Podobnie jak w przypadku kręgów tranzytowych, właściwości atmosfery obecnie ograniczają dokładność. Mark I (MOUNT WILSON OBSERVATORY) był pierwszym interferometrem gwiazdowym zgodnym fazowo, a następnie Mark II i Mark III (około 1990 r.). Przykładami operacyjnych interferometrów optycznych są COAST (Cambridge, Wielka Brytania), SUSI (Australia), GI2T (Francja), PTI (PALOMAR OBSERVATORY) i prototypowy interferometr optyczny Marynarki Wojennej (NPOI). Tylko COAST i NPOI mają trzy lub więcej sidereostatów i regularnie mogą wykonywać obrazowanie. Instrument CHARA rozpoczął pracę na Mt Wilson. Projekt SPACE INTERFEROMETRY MISSION (SIM) (zatwierdzony przez NASA do wystrzelenia w 2009 r.) opiera się na tej samej technice. Podobne techniki stosuje się na częstotliwościach radiowych. Sygnały IA i IB z dwóch radioteleskopów są podawane do korelatora. Produkt korelatora, C,
osiąga maksimum, gdy τ = d/c, gdzie c jest prędkością światła, a d opóźnieniem. Interferometria bardzo długiej linii bazowej (VLBI) jest najdokładniejszą techniką radioastrometryczną. Tutaj poszczególne teleskopy są zwykle daleko od siebie na różnych kontynentach i nie są już bezpośrednio połączone. Zamiast tego sygnał na każdej stacji jest modulowany za pomocą bardzo precyzyjnego wzorca częstotliwości (zegar atomowy, maser), digitalizowany i zapisywany na specjalnych taśmach. Taśmy ze wszystkich stacji są później przetwarzane w centrum korelatora, a opóźnienia i współczynniki opóźnień są wyodrębniane jako podstawowe informacje. Zdolność rozdzielcza R interferometru nie jest już równa zdolności rozdzielczej jego poszczególnych apertur; zamiast tego kryterium Rayleigha
R(rad) = 1.22Λ/b
dotyczy separacji dwóch połączonych teleskopów o długości bazowej b. Jest to szczególnie ważne w przypadku fal radiowych λ, które są bardzo długie (od milimetra do metra) w porównaniu z długościami fal optycznych. Interferometry optyczne, a także VLBI mają możliwość astrometrii absolutnej. VLBI ma obecnie najwyższą dokładność ze wszystkich technik astrometrycznych szerokiego pola. Parametry orientacji Ziemi są rutynowo uzyskiwane na poziomie submasowym, a Międzynarodowy Niebiański System Odniesienia (ICRS) jest definiowany na podstawie pozycji 212 pozagalaktycznych, kompaktowych źródeł radiowych obserwowanych za pomocą VLBI.
Interferometria plamkowa
Interferometria plamkowa to technika pozwalająca przezwyciężyć ograniczenia widzenia naziemnych teleskopów optycznych-IR w zastosowaniach o bardzo małym polu, takich jak obserwacje gwiazd podwójnych. Jeśli apertura teleskopu jest duża w porównaniu z parametrem Frieda (r0 ? 0,15 m, patrz OPTYKA ADAPTACYJNA), podczas fotografowania gwiazdy przy dużym powiększeniu na dysku widzenia widać dużą liczbę pojedynczych plamek. Wykonywanie pojedynczych zdjęć z krótkimi czasami integracji (≈1/30 s) pozwala na rozróżnienie plamek. Rozmiar plamek zależy od apertury teleskopu. Autokorelacja A,
A(u) = ∫l(x+u)l(x)dx
nad obszarem zdjęcia ukazuje kąt separacji i orientacji (z niejednoznacznością 180°) gwiazdy podwójnej z rozdzielczością zbliżoną do teoretycznej zdolności rozdzielczej teleskopu bez wpływu atmosfery. Bardziej złożoną strukturę obiektu można analizować za pomocą technik transformacji Fouriera. Interferometria plamkowa działa tylko w obrębie plamki izoplanatycznej i dlatego jest ograniczona do pola widzenia około 5 sekund łukowych.
Astrometria kosmiczna
Kosmiczny Teleskop Hubble′a (HST) wyposażony jest w dwa instrumenty do obserwacji astrometrycznych: precyzyjne czujniki naprowadzania (FGS) oraz kamerę szerokokątną i planetarną (WFPC). FGS umożliwia dwuwymiarowe określanie względnego położenia obiektów w pierścieniowym polu widzenia o wymiarach ?13′ na 4′, obserwując jeden cel na raz. Druga kamera szerokokątna i planetarna (WFPC2) firmy HST wykorzystuje cztery detektory CCD do bezpośredniego obrazowania w pasmach od UV do IR. Informacje astrometryczne można uzyskać, stosując koncepcję płaszczyzny stycznej opisaną w pierwszej części. Zniekształcenia kąta pola optycznego określono za pomocą gęstych pól kalibracyjnych (klaster kulisty), redukując liczbę parametrów wymaganych w modelu mapowania dla zastosowań użytkownika. Pole widzenia wynosi tylko około 75 cali w przypadku trzech chipów CCD Wide Field i około 34 cali w przypadku matrycy CCD Planetary Camera. Optyka korekcyjna jest zintegrowana z drugim WFPC2, który został zainstalowany w grudniu 1993. Instrument nadaje się do astrometrii bardzo słabych źródeł (do ?26 mag); jednakże obrazy są niedostatecznie próbkowane, a do precyzyjnego centrowania stosowane są techniki ditheringu. Hipparcos, satelita zbierający paralaksy o wysokiej precyzji, był pierwszą misją kosmiczną poświęconą astrometrii. Wystrzelony w 1989 roku, obserwował całe niebo przez 3,5 roku, tworząc katalog 118 000 gwiazd z pozycjami absolutnymi, ruchami właściwymi i paralaksami trygonometrycznymi z dokładnością do 1 mas. Dzięki podzielonemu zwierciadłu dwa pola na niebie oddzielone o ?58° zostały zmapowane na tę samą płaszczyznę ogniskową. Satelita obracał się w sposób ciągły, a światło gwiazd przecinających pola było modulowane za pomocą dobrze skalibrowanej siatki. Korzystając z katalogu wejściowego, wybrane punkty w płaszczyźnie ogniskowej były wychwytywane przez detektor fotoelektryczny. Surowe dane obejmują stały strumień pomiarów natężenia światła w funkcji czasu. Tylko jeden wymiar (wzdłuż skanu) obserwowano z dużą precyzją. Oś obrotu satelity powoli ulegała precesji, aby umożliwić globalne pokrycie nieba. Każdy punkt na niebie został przeskanowany około 120 razy w różnych kierunkach w celu ustalenia obu współrzędnych. Dane odciętych, czyli kąty mierzone wzdłuż kierunku skanowania, wszystkich skanów wielkiego koła zostały później połączone w jedną dużą redukcję (rekonstrukcja sfery), aby jednocześnie określić parametry astrometryczne gwiazd i parametry instrumentalne. W rezultacie ustalono sztywny, samospójny, instrumentalny układ współrzędnych. Zewnętrzną orientację osi (trzy pozycje i trzy właściwe parametry ruchu) wykonano w połączeniu z obserwacjami naziemnymi, łącząc układ Hipparcosa z ICRS. Wszystkie gwiazdy do około 7mag zaobserwowano w dwóch przejściach pasmowych, podobnie jak B i V, a także większość gwiazd do 8,5mag, a niektóre wybrane do 12,5mag. Dane z mapy gwiazd uzyskane z misji Hipparcos zostały wykorzystane do zbadania wszystkich gwiazd do około 11mag w ramach projektu Tycho. Ponowna ocena danych z Tycho, zakończona w 1999 r., pozwoliła na utworzenie katalogu Tycho-2 zawierającego 2,5 miliona gwiazd (fotometria i położenie), uzupełnionego właściwymi wnioskami w powiązaniu z katalogami naziemnymi. Dokładność pozycji Tycho jest rzędu 10-70 mas, w zależności od wielkości. W 1999 r. NASA wybrała misję kosmiczną Full-Sky Astrometric Mapping Explorer (FAME) z planowanym wystrzeleniem w 2004 r. Podobnie jak Hipparcos, satelita ten będzie skanował całe niebo w ciągu 5 lat misji, aby określić pozycje, ruchy właściwe i paralaksy wynoszące 40 milionów gwiazd z dokładnością od 0,5 mas do 50 ?as, w zależności od wielkości. W przeciwieństwie do Hipparcos, FAME wykorzystuje szereg matryc CCD w trybie skanowania TDI.
Globalne spojrzenie na techniki astrometryczne
Techniki kosmiczne a techniki naziemne
Zasadniczo istnieją trzy różnice w astrometrii kosmicznej w porównaniu z astrometrią naziemną.
1. Atmosfera. Brak atmosfery ziemskiej pozwala na uzyskanie ostrzejszych zdjęć, niezakłóconych przez turbulentne medium. Wyższa zdolność rozdzielcza bezpośrednio prowadzi do lepszego stosunku sygnału do szumu i słabszych wielkości granicznych. Brak turbulencji oznacza także znaczną redukcję szumu losowego przy pomiarze odległości kątowych. Atmosferyczny błąd losowy jest w przybliżeniu
σatm ≈ kt-1/2F1/3(cos z)-1
z czasem ekspozycji t w sekundach, polem widzenia F w minutach kątowych, odległością od zenitu z i parametrem k w zakresie 10-70 mas, w zależności od warunków atmosferycznych. Dostępność większego widma częstotliwości (w tym UV i IR) do obserwacji kosmicznych nie miała dotychczas większego znaczenia dla astrometrii.
2. Grawitacja. Grawitacja bliska zeru dla instrumentów kosmicznych bezpośrednio prowadzi do większej stabilności i niezależności niektórych błędów od kierunku wskazywania. Jednakże efekty termiczne (satelita w świetle słonecznym lub w cieniu) powodują inne problemy, a kontrola temperatury do poziomu 1/100 K jest często wymagana w astrometrycznych misjach kosmicznych. Gradient grawitacyjny instrumentów naziemnych zapewnia wygodną metodę definiowania jednej osi układu współrzędnych. Opcja ta nie jest już dostępna w misjach kosmicznych.
3. Orientacja. Niezależność Ziemi oznacza brak problemów z rotacją Ziemi i nieregularnościami lokalnych ziemskich układów współrzędnych. Oznacza to także brak dostępnej definicji północy lub podobnej orientacji zewnętrznej. Równik nie ma żadnego znaczenia dla misji kosmicznych, a płaszczyzna ekliptyki jedynie słabo wchodzi w zakres aberracji świetlnej.
Technika redukcji płaszczyzny stycznej
Niech ξ, η będą prostokątnymi współrzędnymi kartezjańskimi zdefiniowanymi jako punkt zerowy na przecięciu osi optycznej z płaszczyzną styczną (A′), ξ skierowany na wschód i η na północ. Rzut gnomoniczny podaje współrzędne styczne jako
gdzie α, δ oznacza rektascencję i deklinację S oraz α0, δ0 deklinacji A. W tym punkcie jednostką ξ, η są radiany. Zmierzone współrzędne x, y są wówczas dokładnie równoległe do ξ, η
x = fξ y = fη
gdzie f jest ogniskową, a x, y w tych samych jednostkach co f, np. milimetry. Równanie jest w rzeczywistości najprostszym modelem fizycznym pomiędzy czysto matematycznymi ξ, η i obserwowalnymi w świecie rzeczywistym x, y. Przykładem bardziej realistycznego modelu płyty jest
przy czym P1 do P9 to parametry, które należy oszacować w procesie regulacji przy użyciu gwiazd odniesienia o znanych pozycjach (ξ, η), a r2 = x2 + y2. Parametry od 1 do 4 reprezentują model ortogonalny, który jest zwykle najprostszym modelem praktycznym. Pozwala na punkt zerowy, skalę i obrót (wyrównanie) pomiędzy x, y i ξ, η. Uwzględnienie składników P5 i P6 daje pełny model liniowy. Parametry 7 i 8 reprezentują nachylenie płaszczyzny ogniskowej w stosunku do idealnej płaszczyzny stycznej, a P9 to składnik zniekształcenia optycznego trzeciego rzędu, istotny w większości prawdziwych teleskopów. Po oszacowaniu parametrów funkcja modelu, taka jak równanie, podaje współrzędne ξ, η ze zmierzonych x, y dowolnej gwiazdy o wcześniej nieznanym położeniu. Następnie poprzez rozwiązanie otrzymuje się jego współrzędne sferyczne α, δ
Zaawansowane tematy i metody redukcji
Systematyczne błędy pozycji w zależności od wielkości (zwane równaniem wielkości) są częstym problemem w wielu tradycyjnych technikach astrometrycznych, szczególnie w astrometrii fotograficznej. Z wyjątkiem porównań zewnętrznych, te błędy systematyczne można określić obserwując obrazy tej samej gwiazdy przy różnych poziomach ekspozycji. Oczywiście można to osiągnąć, biorąc te same pola o różnych czasach ekspozycji. Inną możliwością jest zastosowanie SIATKI DYFRAKCYJNEJ przed aperturą (w pobliżu źrenicy wejściowej). Oprócz centralnego obrazu zerowego rzędu siatka tworzy znacznie słabsze obrazy wyższego rzędu, rozmieszczone symetrycznie wokół obrazu centralnego. Te obrazy to w zasadzie widma; jednakże, w zależności od stałej siatki i pasma pasmowego, można je wykonać prawie kołowo. Instrumentalne równania wielkości można również zredukować, łącząc dane zebrane za pomocą instrumentu w położeniu normalnym i odwróconym. Jednakże równań wielkości wywołanych błędem prowadzenia nie można zredukować za pomocą tej techniki. W przypadku detektorów liniowych, takich jak CCD, w zasadzie nie oczekuje się już równań wielkości. Niemniej jednak przy niedoskonałej wydajności transferu ładunku błąd systematyczny przypominający komę może być znaczący w danych CCD. Techniki regulacji blokowej (BA) w obserwacjach astrograficznych umożliwiają uzyskanie szerokokątnych (aż do globalnych) wyników astrometrycznych przy użyciu jedynie obserwacji różnicowych w wąskim polu. Wymagane są nakładające się pola. Zamiast rozwiązywania każdego pola osobno, stosuje się schemat redukcji, aby rozwiązać wszystkie parametry płyty i wszystkie pozycje gwiazd jednocześnie, wykorzystując fakt, że dana gwiazda ma unikalną pozycję na wszystkich zdjęciach lub klatkach CCD, na których się znajduje. Technikę tę wprowadzono do astronomii w 1960 roku; jednakże nie był on wykorzystywany aż do lat 70. XX wieku z powodu braku mocy komputerowej. Metoda jest bardzo wrażliwa na błędy systematyczne, które nie są odzwierciedlone w danych, a jeśli nie zostanie właściwie zastosowana, może dać gorsze wyniki niż tradycyjna redukcja. Proces rekonstrukcji sfery projektu Hipparcos jest w rzeczywistości bardzo podobny do procesu BA. Ze względu na większą liczbę obserwacji na gwiazdę i jednoczesną obserwację dwóch szeroko odległych pól, dane Hipparcosa są lepiej uwarunkowane w celu uzyskania rozwiązania globalnego niż nakładające się płyty.
Najnowocześniejsze dokładności i ograniczenia
Obecnie najdokładniejsze pozycje uzyskuje się na podstawie obserwacji radiowych VLBI dla kilkuset kompaktowych źródeł pozagalaktycznych. Uważa się, że pozycje niektórych źródeł są podawane z dokładnością do 0,1 mas. Poważnym problemem jest struktura źródła, właściwości atmosferyczne i jonosferyczne oraz stabilność stacji naziemnych (modelowanie efektów krótkookresowych). VLBI jest również techniką bardzo kosztowną w utrzymaniu i jest stosowana głównie w pracach związanych z orientacją Ziemi i geodezją, a na marginesie można uzyskać dobrą astrometrię. Techniki interferometryczne mają w zasadzie większy potencjał w zakresie najwyższej dokładności pozycjonowania niż inne metody. Jednak obserwacja jest powolna, jeden obiekt na raz. Najwyższe rozdzielczości kątowe i najdokładniejszą astrometrię bliskich gwiazd podwójnych uzyskuje się za pomocą interferometrów optycznych (NPOI, 70 μas). Paralaksy na poziomie 0,5 mas osiągane są dla dobrze obserwowanych gwiazd przez tradycyjne naziemne teleskopy długoogniskowe wyposażone w matryce CCD, działające równie dobrze jak najlepsze instrumenty kosmiczne, z FGS HST (0,4 mas). Jednak technika naziemna osiągnęła już swój teoretyczny limit wyznaczony przez atmosferę i misje kosmiczne nowej generacji prawdopodobnie poprawią ten wynik 10-krotnie. Katalog Hipparcosa jest obecnie najdokładniejszą realizacją optycznego układu odniesienia, podającą pozycje 118 000 gwiazd na poziomie 1 mas. Przy właściwym błędzie ruchu wynoszącym około 1 mas rok-1 i średniej epoce 1991,25 błędy pozycji dla epoki 2000 są już rzędu 10 mas. Najdokładniejsze pozycje dla większości gwiazd o jasności 9-12 mag podaje obecnie katalog Tycho-2 (20-70 mas). Naziemne astrografy szerokokątne są już w stanie to ulepszyć, obniżając 20 mas do 14 mag (projekt UCAC). Ograniczeniem tutaj ponownie jest atmosfera w połączeniu z dostępnym czasem integracji ze względu na zaplanowany czas trwania projektu i ograniczone pole widzenia. Udana misja kosmiczna FAME prawdopodobnie sprawi, że przyszłe badania astrograficzne typu astrograficznego staną się przestarzałe, aż do granicznej wielkości 15mag. Zejście do słabszych magnitudo pozostanie domeną naziemnych teleskopów astrometrycznych przez co najmniej dekadę ze względu na ich efektywność kosztową. USNO A2.0 i GSC-2 (Space Telescope Science Institute) dostarczają obecnie jedyne pozycje całego nieba (w przybliżeniu 0,2 sekundy łukowej) słabych gwiazd do 20mag. Pochodzą one z płytek pomiarowych Schmidta, mierzone za pomocą PMM. W przypadku nawet słabszych gwiazd zaobserwowano dotychczas jedynie małe, wybrane obszary. Interferometry kosmiczne, takie jak SIM, zwiększą dokładność astrometryczną do kilku mikrosekund łukowych; jednak tylko dla kilku wybranych źródeł. Ostatecznie możliwa do osiągnięcia dokładność pozycjonowania będzie zależała od stosunku sygnału do szumu, a co za tym idzie liczby zebranych fotonów oraz powodzenia w kontrolowaniu błędów systematycznych, co pozostanie najważniejszym wyzwaniem technicznym dla projektów astrometrycznych. Uzyskanie precyzyjnych ruchów własnych jest obecnie problematyczne, a pełne wykorzystanie danych fotograficznych sprzed dziesięciu lub stu lat jest aktywnym zadaniem współczesnej astrometrii. Prawdopodobnie zmieni się to w przyszłości, kiedy udana astrometryczna misja kosmiczna nowej generacji obejmie wszystkie wielkości danych z epoki.
Zeszyty obserwacji astronomicznych dla amatorów
Astronom obserwacyjny musi przede wszystkim być systematyczny. Błędna obserwacja jest gorsza niż bezużyteczna, może łatwo zmylić wszelkie późniejsze analizy. Niezbędne jest prowadzenie starannej i dokładnej dokumentacji. Historia może być tu istotna, chociaż może być apokryficzna; było to cytowane nie raz. W 1781 roku William Herschel odkrył planetę Uran i przeglądając stare zapisy, okazało się, że Uran był widziany kilkakrotnie, chociaż zawsze był mylony z gwiazdą. Według tej historii francuski astronom Le Monnier (patrz LE MONNIER) widział ją nie mniej niż sześć razy i gdyby porównał swoje obserwacje, nie mógłby nie dokonać odkrycia, mimo że Uran znajdował się w tym czasie w pobliżu jednego ze swoich stacjonarnych zwrotnica. Le Monnier tego nie sprawdził i jedna z jego obserwacji została później odnaleziona na odwrocie papierowej torby, w której kiedyś znajdowały się perfumy do włosów. Do każdej obserwacji - wizualnej, fotograficznej czy elektronicznej - należy dołączyć kilka niezbędnych notatek. Jeśli którykolwiek z nich zostanie pominięty, obserwacja szybko traci dużą część lub całość swojej wartości. Zasadniczo główne wymagania to
imię obserwatora
data
czas, GMT (nigdy nie używaj wariantów takich jak czas letni w Wielkiej Brytanii lub stref czasowych w innych krajach)
używany sprzęt (dla teleskopu, typ, apertura, powiększenie; dla aparatu, typu, filmu, czasu naświetlania)
widzenie warunków
oraz wszelkie inne dane, które wydają się istotne.
Oczywiście rodzaj użytego notatnika zależy całkowicie od charakteru dokonywanych obserwacji. "Staromodny" obserwator planet prowadziłby oddzielną księgę dla każdego obiektu - jedną dla Jowisza, drugą dla Marsa i tak dalej. Podczas tworzenia szkicu planety lub obiektu księżycowego wiele zależy od umiejętności artystycznych obserwatora. Niektórzy są w stanie wykonać "gotowe" rysunki, siedząc bezpośrednio przy teleskopie; inni wykonują wstępne szkice, idą do biurka, aby wykonać ostateczne kopie, a następnie ponownie sprawdzają przy teleskopie. Czasami może pojawić się pokusa, aby odłożyć wykonanie ostatecznych kopii na następny dzień. Zawsze należy się temu przeciwstawić; Wkradanie się błędów jest praktycznie pewne. Obserwatorzy planet często korzystają ze skali widzenia opracowanej dawno temu przez E M ANTONIADI. Istnieje pięć stopni, od 1 (idealne warunki przejrzystości i stałości) do 5 (warunki tak złe, że nie ma sensu obserwować niczego poza śledzeniem jakiegoś zjawiska, które się nie powtórzy). W praktyce Antoniadi 1 jest bardzo rzadko spotykany, przynajmniej w krajach takich jak Wielka Brytania. Podczas rysowania Jowisza lub Marsa pomocne jest użycie przygotowanego krążka, aby uwzględnić spłaszczenie w przypadku Jowisza lub fazę w przypadku Marsa; nie jest to takie proste w przypadku Saturna, gdzie odręczne szkicowanie jest tak naprawdę jedyną odpowiedzią. Zdjęcia należy bardzo starannie segregować, z podaniem dat i godzin oraz innych niezbędnych danych. To samo dotyczy zapisów elektronicznych. Wielu amatorów obecnie systematycznie poluje na nowe, komety, supernowe w galaktykach zewnętrznych (patrz INASTRONOMIA WSPÓŁPRACY AMATORSKO-PROFESJONALNEJ), a przy tych zapisach najważniejszy jest czas, szczególnie jeśli dokonuje się odkrycia, a obserwator nie może się doczekać priorytet. W sumie sposób prowadzenia notatnika astronomicznego jest kwestią zdrowego rozsądku. Nigdy nie nagrywaj niczego, czego nie jesteś całkowicie pewien; jeżeli pojawi się cień wątpliwości, zanotuj go obok obserwacji. Pamiętaj też, że zbyt łatwo jest "zobaczyć" to, czego oczekuje połowa. Zostało to bardzo wyraźnie pokazane podczas obserwacji Marsa przed i po przesłaniu pierwszych zdjęć przez sondy kosmiczne. Do tego czasu wielu całkowicie uczciwych obserwatorów pokazywało skomplikowaną sieć kanałów. Gdy tylko stało się jasne, że kanały nie istnieją, zniknęły one z notatek obserwatorów. Warto w tym miejscu poczynić jeszcze jedną uwagę. Noobserwacja nabierze naprawdę pożytku, jeśli zostanie pozostawiona odłogiem w notatniku; jeśli jest potrzebny do analizy, należy go wysłać do organizacji takiej jak BRYTYJSKIE STOWARZYSZENIE ASTRONOMICZNE lub AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH. Jednakże odesłanie oryginalnego notesu jest szczytem szaleństwa; prawdopodobnie zostanie gdzieś zagubiony i być może zaginie na poczcie. Zanim wyślesz obserwację, czy to rysunek, czy zapis, upewnij się, że masz doskonałą kopię. To prawda, wymaga to czasu, ale warto.
Fotografia astronomiczna amatorów z teleskopami
Współczesny astronom-amator jest w stanie wykonać piękne zdjęcia nocnego nieba, często przy użyciu zaskakująco skromnego sprzętu. Jednym z najlepszych sposobów na rozpoczęcie jest umieszczenie lustrzanki jednoobiektywowej (SLR) na solidnym statywie, otwarcie przysłony obiektywu tak szeroko, jak to możliwe, i wykonanie 10-minutowego naświetlania. Spowoduje to zarejestrowanie gwiazd jako śladów ze względu na obrót Ziemi i jest dobrym sposobem na pokazanie różnych kolorów gwiazd. Krótsze ekspozycje (zwykle 1-2 minuty) pozwolą zarejestrować gwiazdy jako punkty i są dobrym sposobem na pokazanie różnych konstelacji. W ten sposób można również fotografować zdarzenia przejściowe, takie jak zorze polarne i jasne komety. Niestety, nowoczesne lustrzanki jednoobiektywowe nie nadają się do astrofotografii, ponieważ do utrzymania otwartej migawki wykorzystują baterie. Ekspozycja astrofotograficzna może być dość długa (do 1 godziny), co bardzo szybko wyczerpuje baterie aparatu. Najlepszym typem aparatu do tej pracy są te, które zostały wyprodukowane pod koniec lat 70. XX wieku, takie jak Nikon, Pentax i Canon. Są to wytrzymałe, ręczne aparaty, które można kupić po rozsądnych cenach w większości sklepów z używanymi aparatami. Ważny jest także wybór soczewek. Obiektywy szerokokątne i standardowe doskonale nadają się do wykonywania zdjęć konstelacji i Drogi Mlecznej. Małe teleobiektywy (135 mm) dobrze nadają się do zdjęć większych gromad gwiazd i obiektów głębokiego nieba, podobnie jak teleobiektywy o długiej ogniskowej (200-500 mm), ale te drugie można stosować do zaćmień i komet. W przypadku długich ekspozycji konieczne jest umieszczenie aparatu na napędzanym montażu paralaktycznym. W ten sposób kamera może śledzić ruch nieba i tworzyć dokładne obrazy gwiazd. Po dokładnym ustawieniu mocowania na biegun możliwe jest wykonywanie ekspozycji do 30 minut bez konieczności dokonywania jakichkolwiek korekt napędu. Przydatnym elementem wyposażenia w tego typu astrofotografii jest przegub kulowy, który mieści się pomiędzy aparatem a uchwytem i umożliwia skierowanie aparatu w praktycznie dowolnym kierunku. Kolejnym bardzo przydatnym wyposażeniem jest linka blokująca, która utrzymuje migawkę otwartą przez dłuższy czas. Przymknięcie przysłony obiektywu o jeden f/stop (tj. f/2 do f/2.8) radykalnie poprawia jakość zdjęć gwiazd, szczególnie w okolicach brzegów kadru. Podłączenie aparatu do nowoczesnego teleskopu pozwala na szczegółowe fotografowanie, ale wymaga większej precyzji układu napędowego. Aparat mocuje się zwykle poprzez umieszczenie adaptera pomiędzy tylną komorą wyciągu teleskopu a korpusem aparatu. Dobrymi celami fotograficznymi jest Księżyc (patrz KSIĘŻYC, MAPY KSIĘŻYCA) i jest to prawdopodobnie najłatwiejsza forma fotografii teleskopowej, ponieważ ze względu na jasność Księżyca czasy ekspozycji mogą być dość krótkie. Uchwycenie sekwencji zmieniających się faz Księżyca może być satysfakcjonujące, podobnie jak niesamowity spektakl całkowitego zaćmienia Księżyca. W przypadku wszystkich rodzajów fotografii astronomicznej dobrym pomysłem jest stosowanie naświetlań w nawiasie. Oznacza to, że stosuje się szereg różnych czasów ekspozycji w okolicach prawdopodobnego prawidłowego czasu ekspozycji. W ten sposób zazwyczaj zostanie osiągnięta prawidłowa ekspozycja, a zanotowanie czasu ekspozycji, który daje najlepszy wynik, pozwoli na trafniejsze przypuszczenie następnym razem, gdy podobny obiekt będzie fotografowany w podobnych warunkach. Słońce jest także dobrym celem fotograficznym, lecz należy zachować szczególną ostrożność podczas obserwacji Słońca, gdyż nawet spojrzenie na Słońce na niebie może spowodować uszkodzenie oczu. Należy także zachować ostrożność w przypadku sprzętu, ponieważ ciepło słoneczne może uszkodzić soczewki, jeśli są one skierowane bezpośrednio na Słońce przez zbyt długi czas. Najłatwiejszą i najbezpieczniejszą metodą fotografii słonecznej jest rzutowanie obrazu Słońca na białą kartkę i fotografowanie obrazu bezpośrednio na karcie. W ten sposób możliwe jest codzienne fotografowanie plam słonecznych. Filtry słoneczne o pełnej aperturze i poza osią zapewniają dobrą widoczność plam słonecznych. Zaawansowani amatorzy używają również filtrów wodorowych alfa do fotografowania Słońca przy bardzo określonej długości fali, wybranej tak, aby ukazać dramatyczne protuberancje widoczne na krawędziach Słońca. Chociaż są drogie, filtry te dają oszałamiające rezultaty, zwłaszcza gdy Słońce znajduje się w fazie aktywnej. Duża ilość światła emitowanego przez Słońce oznacza, że ekspozycja fotograficzna może być krótka. Aby sfotografować planety, które mają bardzo małe średnice kątowe, można skorzystać z projekcji okularowej. Polega to na umieszczeniu okularu pomiędzy teleskopem a aparatem w celu wyświetlenia na kliszy bardzo powiększonego obrazu planety. Chociaż jest w stanie dawać dobre wyniki, zwykle jest dość trudny ze względu na niestabilność atmosfery ziemskiej (słabe widzenie) i trudność w skupieniu się na tak słabym obrazie. Fotografowanie galaktyk i mgławic głębokiego nieba daje satysfakcję, ale wymaga bardzo dobrego śledzenia z napędu równikowego ustawionego na biegun. Chociaż większość współczesnych teleskopów wyposażona jest w dokładne napędy. Podczas dłuższych ekspozycji konieczne jest dokonanie drobnych poprawek w śledzeniu teleskopu. Tradycyjnie robi się to na jeden z dwóch sposobów. Do montażu można przymocować oddzielny teleskop i używać go jako lunety do monitorowania wszelkich odchyleń od doskonałej wydajności śledzenia. Ta metoda działa dobrze, ponieważ jasne gwiazdy, które nadają się do naprowadzania, są zwykle łatwe do znalezienia. Lunetę należy zamocować sztywno, w przeciwnym razie może wystąpić wygięcie, które pogorszy prowadzenie. Druga metoda polega na zastosowaniu guidera pozaosiowego, mocowanego pomiędzy teleskopem a kamerą, który odwraca światło gwiazdy prowadzącej za pomocą małego pryzmatu lub zwierciadła. Działają one dobrze, ponieważ prowadzenie odbywa się poprzez główną optykę teleskopu, więc nie występuje żadne ugięcie, ale w praktyce może być trudne, ponieważ wybór odpowiednich gwiazd prowadzących jest poważnie ograniczony. Nowoczesną opcją jest użycie autoguidera ze sprzężeniem ładunkowym z guidoskopem, ponieważ zapewni to najlepsze śledzenie ze wszystkich i eliminuje potrzebę patrzenia przez obserwatora przez teleskop prowadzący podczas długich ekspozycje. Ustawianie ostrości na obiektach głębokiego nieba jest dość wymagające i najlepiej jest je osiągnąć, używając średnio jasnej gwiazdy i przesuwając ostrość w tę i z powrotem, aż do uzyskania dobrej ostrości. Jeśli używany aparat posiada możliwość zmiany matówki, dobrym rozwiązaniem jest zamontowanie matówki o wysokiej transmisji, np. firmy Beattie. Charakteryzują się bardzo jasnym obrazem i minimalnym bałaganem, ponieważ nie są potrzebne żadne pomoce do ustawiania ostrości w ciągu dnia (podzielony obraz). Tradycyjnie do astrofotografii głębokiego nieba używano szybkich filmów (zwykle 400-1600 ISO), ale jednym z najlepszych filmów do tego rodzaju fotografii jest slajd Kodak EliteChrome 200 ISO. Kilka cech, takich jak drobne ziarno i dobra czułość na czerwień, czyni go doskonałym wykonawcą. Również cyfrowa manipulacja astrofotografami jest bardzo popularna wśród współczesnych astrofotografów. Film można zeskanować i ulepszyć cyfrowo w celu usunięcia zanieczyszczeń świetlnych, śladów samolotów i satelitarnych, a także wzmocnienia kontrastu i koloru w rzeczywistości cyfrowej ciemni.
Towarzystwa i publikacje astronomiczne
Pierwsze nowoczesne obserwatoria finansowane ze środków publicznych powstały, aby służyć potrzebom nawigacji i pomiaru czasu, a ich pierwsze publikacje miały odpowiednio formę almanachów, efemeryd i tym podobnych. Wcześniej na scenie pojawiły się La Connoissance des Temps (Obserwatorium Paryskie, 1679) i Almanachy Nautyczne (Obserwatorium w Greenwich, 1767; Obserwatorium San Fernando (Hiszpania), 1792; Obserwatorium Marynarki Wojennej Stanów Zjednoczonych, 1855). Tworzenie danych kalendarzowych i nawigacyjnych odpowiednich dla określonych lokalizacji i języków było również główną funkcją znacznie liczniejszych obserwatoriów w XIX wieku. Stowarzyszenia zawodowe (i publikacje) służą walidacji społeczności naukowej i jej wspólnego zasobu wiedzy, zwyczajów i doświadczeń. Jednak pierwsze towarzystwo naukowe - Royal Society of London, założone w 1660 roku - było w dużej mierze amatorskie. Jej Transakcje Filozoficzne, zapoczątkowane w 1665 roku, po raz pierwszy umożliwiły szybkie upowszechnienie nowych odkryć naukowych, a także zapewniły forum do ich krytyki. Pierwszym stowarzyszeniem o charakterze astronomicznym było Londyńskie Towarzystwo Astronomiczne (wkrótce przekształcone w KRÓLEWSKIE TOWARZYSTWO ASTRONOMICZNE (RAS)), założone w 1820 r. przez Johna Herschela i innych (patrz RODZINA HERSCHEL), aby zaspokoić potrzebę, której Towarzystwo Królewskie nie zaspokajało . Nazwiska żydowskie pojawiają się na wczesnych listach członkowskich, na długo przed przyjęciem Żydów na angielskie uniwersytety, a kobieta, Caroline Herschel, otrzymała medal w 1828 r.; drugą była Wiera Rubin w 1996 r. Wydawanie Pamiętników Towarzystwa rozpoczęło się w 1821 r. i początkowo składały się z artykułów prezentowanych w krótkiej formie na comiesięcznych spotkaniach. Wkrótce redakcja musiała zwrócić uwagę, że podziękowanie prelegentowi za jego wystąpienie niekoniecznie oznaczało bezwarunkową akceptację lub gwarancję miejsca we Wspomnieniach. Mała komisja od czasu do czasu przeglądała teksty i rekomendowała Radzie Towarzystwa, które z nich powinny zostać opublikowane. Tym samym Pamiętniki mogą być zarówno pierwszą publikacją specyficznie astronomiczną, jak i pierwszą tego typu publikacją, która została zrecenzowana. Jednakże w pamiętnikach nie przewidziano mniej istotnych pozycji, takich jak wcześniejsze powiadomienia o spotkaniach, krótkie notatki na temat zjawisk astronomicznych i raporty z obserwatoriów, dlatego w 1827 roku Towarzystwo ustanowiło swoje miesięczne zawiadomienia. To rozwinęło się i ostatecznie zwiększyło częstotliwość; obecnie ukazuje się trzy razy w miesiącu i jest wiodącym czasopismem w tej dziedzinie. Wspomnienia stały się narzędziem publikacji bardzo długich artykułów i zestawień danych, a w 1977 r. uległy samozniszczeniu na rzecz mikrofisz w Monthly Notices. Wczesne wydania obu czasopism sporadycznie ukazywały się w języku francuskim, ale przez większość swoich historii były monoglotyczne. Druga publikacja astronomiczna, która ukazała się w latach dwudziestych XIX wieku, Astronomische Nachrichten, była owocem entuzjazmu jednego człowieka, Heinricha Christiana Schumachera, dyrektora obserwatorium w Altonie od 1823 roku aż do jego śmierć w 1850 r. Astronomische Nachrichten nadal był wydawany w Altonie, najpierw przez CA Petersona, a następnie, od 1855 r. przez CAF Petersa. W 1872 roku obserwatorium Altona zostało przeniesione do Kilonii, gdzie czasopismo redagowano aż do lat trzydziestych XX wieku, kiedy to przeniesiono je do Berlina. Schumacher zaproponował publikację artykułów w "dowolnym języku europejskim"; Od początku powszechne były publikacje w języku francuskim i angielskim, a obecnie prawie wszystkie artykuły są w języku angielskim. W USA ukazała się kolejna publikacja będąca dziełem jednej osoby: Astronomical Journal, założony przez BENJAMINA APTHORPA GOULDA w 1849 roku na zamierzonej imitacji pisma niemieckiego. Jej strony były otwarte zarówno dla profesjonalistów, jak i amatorów z całego świata. Publikację przerwała wojna secesyjna, ale Gould wznowił ją w 1886 r. Astronomical Journal wydawany jest obecnie przez AMERICAN ASTRONOMICAL SOCIETY. Osobliwością wśród publikacji astronomicznych jest The Observatory, założone w 1877 roku i do dziś będące zbiorową własnością obecnych redaktorów. Oprócz krótkich artykułów naukowych zawiera sprawozdania ze spotkań, recenzje i wesołe artykuły. Francja wydawała szeroką gamę czasopism, począwszy od 1884 r. wraz z Bulletin Astronomique publikowanym w Obserwatorium Paryskim, ale nie ograniczającym się do prac tam wykonanych. Société Astronomique de France i jego Biuletyn zostały założone w 1887 r., a Journal des Observateurs założono w 1915 r. W 1969 r. to i Bulletin Astronomique zostały połączone w Astronomy i Astrophysics , wraz z Annales d′Astrophysique, Zeitschrift für Astrophysik i Biuletynem Instytutu Astronomicznego Holandii, który został założony w 1921 roku przez pięć holenderskich obserwatoriów i instytutów, które wcześniej wydawały własne publikacje. W 1863 roku niemieccy astronomowie założyli społeczeństwo, ASTRONOMISCHE GESELLSCHAFT, w kontekście stopniowego zjednoczenia kraju; Wkrótce potem rozpoczął własne publikacje, a pod koniec stulecia przejął odpowiedzialność za Astronomische Nachrichten. Inne stowarzyszenia narodowe założone w XIX wieku to Societ? Astronomica Italiana (którego Memorie ukazało się od 1872 r.), Société Royale Belge d′Astronomie (Ciel et Terre od 1880 r., Biuletyn od 1895 r.), Królewskie Towarzystwo Astronomiczne Kanady (założone w 1868 r.) i Amerykańskie Towarzystwo Astronomiczne (1899).
Literatura periodyczna końca XIX i XX wieku
Rozwój "astrofizyki" w późniejszych dekadach XIX wieku doprowadził do zaangażowania w "nową" astronomię naukowców z szerokiego zakresu dyscyplin, co czasami prowadziło do napięć między nimi a "starymi" (pozycyjnymi) astronomami . W Wielkiej Brytanii RAS i jego publikacje zdołały wchłonąć nowe tematy. Społeczność amerykańska uległa częściowemu rozłamowi wraz z założeniem czasopisma Astrophysical Journal (ApJ) w 1895 roku przez George′a Ellery′ego Hale′a i jego współpracowników. Początkowo publikował głównie wyniki spektroskopowe z obserwatoriów Yerkes, a wkrótce potem z obserwatoriów Mount Wilson, przy pewnym oporze ze strony astronomów z innych lokalizacji. Ostatecznie rozprzestrzeniło się na cały kraj (a później na świat) i objęło wszystkie aspekty astronomii, chociaż zdarzały się chwile, gdy redaktorzy uważali za konieczne wyraźnie powiedzieć, że z radością przyjmą artykuły z zakresu radioastronomii i przyrządów astronomicznych, co było zaproszeniem, którego nie wszyscy uznano za przekonujące. ApJ, pierwotnie należący do Yerkes Observatory, jest obecnie wydawany przez University of Chicago Press, ale pod kierownictwem Amerykańskiego Towarzystwa Astronomicznego. Od początku było to całkowicie monoglotyczne. Społeczności niemieckie i francuskie również uległy fragmentacji w miarę rozwoju, wraz z założeniem Zeitschrift für Astrophysik w 1930 r. i Annales d′Astrophysique w 1938 r., obie pierwotnie monojęzyczne, ale z licznymi artykułami w języku angielskim, zanim zostały wchłonięte przez astronomię i astrofizykę w 1969 r. Wydaje się, że żadna inna wspólnota narodowa nie była wystarczająco duża, aby utrzymać dwie profesjonalne publikacje, a astrofizycy w innych krajach zwrócili się ku materiałom akademickim i czasopismom fizycznym w swoich krajach lub, coraz częściej, do ApJ. Dalsza fragmentacja literatury astronomicznej jest zjawiskiem stosunkowo późnym, z wyjątkiem specjalistycznych publikacji z zakresu meteorytyki (od 1935 r. w USA i 1941 r. w ZSRR) i selenografii, obu powiązanych z wyspecjalizowanymi towarzystwami. Publikacje dotyczące Słońca i Układu Słonecznego oraz równoległych oddziałów Amerykańskiego Towarzystwa Astronomicznego i niektórych innych towarzystw zawodowych ukazały się po drugiej wojnie światowej. W drugiej połowie XX wieku istniały dwa główne czynniki powstawania nowych towarzystw i publikacji. W bardziej zaawansowanych krajach rozwijających się oraz w krajach powstałych w wyniku rozpadu ZSRR, Jugosławii i Czechosłowacji astronomowie często zakładali własne, zazwyczaj dość małe, stowarzyszenia. Kraje o jeszcze mniejszej populacji zawodowych astronomów zwykle przystępują do MIĘDZYNARODOWEJ UNII Astronomicznej za pośrednictwem komitetu krajowego pod auspicjami Narodowej Akademii Nauk. Nowe czasopisma wydawane są głównie przez wydawców komercyjnych, czasami za zachętą ze strony członków społeczności astronomicznej, którzy uważali, że starsze publikacje nie są w wystarczającym stopniu obsługiwane. Żaden z nich nie jest obecnie poważnym konkurentem w tym sensie, że jest zarówno duży, jak i wysoko ceniony. W rzeczywistości, jak zobaczymy, dominującą tendencją była dalsza koncentracja ważnych artykułów w największych recenzowanych czasopismach, z których wszystkie są obecnie publikowane niemal wyłącznie w języku angielskim. Czas pokaże, w jakim stopniu publikacje elektroniczne zmienią obecne wzorce. Już w XIX wieku niektórzy astronomowie zauważyli, że literatura staje się zbyt obszerna, aby każdy mógł ją całą prześledzić. Próba stworzenia Bibliographica Astronomica trwała zaledwie rok lub dwa (około 1895). Bardziej udany był Astronomischer Jahresbericht, zapoczątkowany przez Astronomische Gesellschaft w 1899 r., zawierający początkowo wszystkie streszczenia w języku niemieckim (ale tytuły artykułów zwykle w języku oryginalnym). Przetrwał obie wojny światowe (choć w drugiej z niepełnym pokryciem literatury) i w 1969 roku został przekazany komercyjnemu wydawcy i wydał tekst w języku angielskim, jako Astronomy and Astrophysics Abstracts.
Amatorzy astronomii
Od chwili założenia Królewskie Towarzystwo Astronomiczne zapraszało astronomów pracujących w pełnym i niepełnym wymiarze godzin, płatnych i ochotniczych, astronomów zawodowych i amatorów. Jednakże w miarę jak jego działalność i publikacje skupiały się w coraz większym stopniu na zainteresowaniach i produktach pełnoetatowego, płatnego sektora zawodowego, nieuchronnie zaczęły powstawać amatorskie towarzystwa astronomiczne. Spośród tych, które przetrwały, pierwszym było Leeds (1859), drugim Liverpool (1881), a w 1890 r. pojawiło się szerzej zakrojone Brytyjskie Stowarzyszenie Astronomiczne. ukazała się w tym samym roku i nadal kwitnie. W USA pierwsze stowarzyszenia amatorskie pojawiły się w Chicago (1863) i Baltimore (1881) jeszcze przed założeniem Amerykańskiego Towarzystwa Astronomicznego w 1899 roku. Towarzystwo Astronomiczne Pacyfiku i jego publikacje pochodzą z 1889 r. Od samego początku (w związku z koordynacją obserwacji zaćmienia słońca widocznego z Kalifornii) organizacją "pro/am" i taką pozostała, choć ostatecznie odrębna seria wydawnicza konieczne stało się Publikacje służące płatnym profesjonalistom oraz seria Ulotek (1925-71), a ostatnio czasopismo Mercury skierowane do amatorów. AMERYKAŃSKIE STOWARZYSZENIE OBSERWATORÓW GWIAZ ZMIENNYCH, założone w 1911 r., jest zdominowaną przez amatorów wspólną organizacją, której wkład w badania astronomiczne jest osiągany jedynie przez nieco podobne Stowarzyszenie Française des Observateurs d′Étoiles Variables (1921), a w tamtych czasach przez Korporacja Obserwacyjna Towarzystwa Astronomów Amatorów w Moskwie, której Biuletyn (1925-1937) został później włączony jako jedno z wydawnictw Akademii Nauk ZSRR.
Współpraca międzynarodowa
Międzynarodowa współpraca astronomiczna rozpoczęła się w XVIII wieku współpracą przy wyprawach mających na celu obserwację tranzytów Wenus, a w 1800 roku w Lilienthal zorganizowano korpus 24 "policji niebieskiej", aby monitorować ekliptykę w poszukiwaniu planety pomiędzy Marsem a Jowiszem, zgodnie z przewidywaniami przez prawo Bodego. Projekty, w wyniku których powstał masywny Bonner Durchmusterung (gwiazd), rozpoczęty w 1859 r., i jego południowe przedłużenie, Cordoba Durchmusterung, miały w dużej mierze charakter zaściankowy, ale doprowadziły do porozumienia między 17 obserwatoriami w sprawie zapewnienia bardzo dokładnych pozycji gwiazd Durchmusterung aż do dziewiąta wielkość. Jednak prace postępowały powoli i zostały wyprzedzone przez pojawienie się płyt fotograficznych na sucho emulsji. Udane fotografowanie obiektów astronomicznych w wielu obserwatoriach skłoniło dyrektora w Paryżu, admirała EB Moucheza, przy wsparciu Davida Gilla na Przylądku Dobrej Nadziei, do podjęcia od 1885 r. próby koordynacji międzynarodowej Carte du Ciel, opartej na fotografii mapy nieba oraz towarzyszący mu katalog pozycji i wielkości do 11 m. Stały Komitet Międzynarodowy i jego Biuletyn (1892-1915) działał aż do wybuchu pierwszej wojny światowej, organizując regularne konferencje, zachęcając do postępu wśród około 20 obserwatoriów i organizując publikację części Carte w miarę udostępniania materiałów. Prace zakończono właściwie dopiero w 1964 roku, ale wcześniejsze płyty stanowią cenne źródło do określenia ruchów właściwych w długim okresie. Początkowo odnosząca sukcesy, ale także ofiara I wojny światowej, odniosła sukces Międzynarodowa Unia Współpracy w Badań nad Energią Słoneczną (Transakcje publikowane od 1906 do 1914), której głównym inicjatorem był Hale. Unia podjęła na przykład próbę standaryzacji pomiarów rotacji Słońca, aby można było zidentyfikować rzeczywiste różnice w zależności od szerokości geograficznej i czasu. Ostatnim na przedwojennej scenie był plan Jacobusa Kapteyna dla wybranych obszarów (aby pomiary jasności gwiazd, koloru, ruchu własnego, prędkości radialnej itd. Galaktyka). W 1919 r. przedstawiciele 16 zwycięskich narodów zebrali się w Brukseli, aby utworzyć Międzynarodową Radę ds. Badań (obecnie Międzynarodowa Rada Związków Naukowych, ICSU), do której zaproszono do współpracy narody neutralne. W tym samym czasie odbyło się spotkanie organizacyjne Międzynarodowej Unii Astronomicznej. W ciągu następnych kilku lat dodatkowych 16 krajów uznano za kwalifikujące się do członkostwa w IRC, co stanowiło istotne ograniczenie dla IAU, ponieważ żaden kraj nie mógł do niej przystąpić (ani początkowo nawet wysyłać ludzi na jej spotkania) bez uprzedniego uzyskania członkostwa w IRC. Pierwsze oficjalne Zgromadzenie Ogólne IAU odbyło się w Rzymie w 1922 r. i wzięło w nim udział dziewięć krajów (Belgia, Kanada, Francja, Wielka Brytania, Grecja, Włochy, Japonia, Meksyk i Stany Zjednoczone). Do drugiego Zgromadzenia liczba ta wzrosła do 22. Chiny i Związek Radziecki były ważnymi dodatkami w okresie międzywojennym, ale Niemcy, Austria, Węgry, Bułgaria i Turcja były nadal niemile widziane aż do roku 1945. IAU ostatecznie przejęła odpowiedzialność za obie Carte du Ciel i Wybrane Obszary, choć z pewnymi trudnościami, ponieważ w obu przypadkach Niemcy były w dużym stopniu zaangażowane. Po drugiej wojnie światowej zajmowała się gromadzeniem i rozpowszechnianiem (telegramem, a ostatnio pocztą elektroniczną) szybko aktualnych wiadomości astronomicznych. Liczba członków IAU, licząca około 150 astronomów u jej podstaw, wzrosła obecnie do około 8000 w 81 krajach. Od samego początku IAU wydawała własną serię publikacji, początkowo po prostu sprawozdania z odbywających się co trzy lata Zgromadzeń Ogólnych, ale obecnie obejmującą materiały z specjalistycznych sympozjów i kolokwiów sponsorowanych lub zatwierdzony przez IAU. Unia staje się coraz bardziej aktywna w promowaniu edukacji i badań astronomicznych w krajach rozwijających się i pozostaje wyjątkowa wśród międzynarodowych związków naukowych ze względu na to, że posiada zarówno indywidualnych członków, jak i kraje przystępujące
Wzory publikacji
Czołowy astronom XIX wieku mógłby równie dobrze opublikować połowę lub więcej swoich artykułów w czasopismach nieastronomicznych, a prawie wszystkie wydały książki rejestrujące ich bardziej zaawansowane wysiłki. Sto lat później astronom lub astrofizyk prawdopodobnie opublikuje wszystkie swoje prace pozakonferencyjne w tym czy innym z nielicznych specjalistycznych, prestiżowych czasopism i opublikuje monografie jedynie w formie podręczników lub książek branżowych, jeśli w ogóle. Zmiany, jakie zaszły w pierwszej połowie XX wieku, ukazuje analiza objętości Astronomischer Jahresbericht dla lat 1900, 1925 i 1955 (te ostatnie daty wybrano w celu uniknięcia zniekształcenia przez wojny światowe). Pierwszą i najbardziej oczywistą tendencją jest rozwój tej dziedziny: nie tylko wzrasta liczba artykułów, ale także ogromnie wzrosła ich średnia długość. Drugim jest stopniowe przejście od obserwacji do teorii, które niewątpliwie trwa w ostatnich dziesięcioleciach, chociaż wiele dzisiejszych "obserwacji" (takich jak obfitość pierwiastka w gwieździe obliczona na podstawie jej widma) można by uznać za teorię w roku 1925. (i czary w 1900 r.). Po trzecie, okres rozkwitu publikacji obserwacyjnych nastąpił w okresie międzywojennym, kiedy istniało ich ponad 200, a zawierały one około jednej szóstej czasopism w porównaniu z jedną dziesiątą w 1900 i 1955 r.; odsetek ten spadł obecnie znacznie niżej. Czwarty trend dotyczy zmian w równowadze między narodami, w szczególności wzrostu składek ze Stanów Zjednoczonych. Wreszcie, co jest jeszcze bardziej oczywiste, jeśli spojrzymy na czasy późniejsze, stopniowa koncentracja "władzy wydawniczej" w kilku rękach redakcyjnych. W 1997 r. w Astronomical Journal ukazało się 5272 stron, 9136 w Monthly Notices, 17 141 w serii Astronomy and Astrophysics i jego suplementach oraz 22 948 w Astrophysical Journal, jego Letters and Suplements. Nic innego (z wyjątkiem być może materiałów konferencyjnych i abstraktów) nie może w najmniejszym stopniu konkurować pod względem wielkości i poziomu jakości w postrzeganiu społeczności astronomicznej.
Spektroskopia astronomiczna
Jako nauka pasywna, astronomia czerpie większość informacji z przychodzącego PROMIENIOWANIA z nieba. Taka analiza byłaby aż nazbyt prosta, gdyby nie kwantowa natura materii i promieniowania. Elektrony są związane na skwantowanych orbitach wokół swoich jąder i muszą emitować promieniowanie o dyskretnych długościach fal, które są dokładnie określone przez przejścia pomiędzy dyskretnymi stanami energetycznymi. Powstałe linie widmowe są niezwykle ważnymi narzędziami do identyfikacji i charakteryzowania źródła emitującego.
Sygnatury widmowe
Pierwszą koncepcję spektroskopii wywodzi się od Newtona, który jako pierwszy zauważył, że rozproszenie światła słonecznego na różne kolory przez pryzmat odzwierciedla właściwości samego światła słonecznego. Co więcej, niezwykłe jest to, że około 200 lat później, pod koniec XIX wieku, kiedy Balmer rozpoznał szereg wodorowy w liniach absorpcyjnych widma słonecznego, dostrzeżonych po raz pierwszy przez Fraunhofera, nastąpiło to przed odkryciem elektronu, teorią kwantową czy tezą Bohra. atom. Ta wskazówka z niebios, że materia będzie absorbować światło w bardzo grzeczny sposób, z widmem, które można modelować jako szereg wodorowy i które można zastosować do innych rodzajów atomów, stała się motywacją do rozwoju współczesnej fizyki. Dziś wiemy oczywiście, że skwantowane stany energetyczne elektronu krążącego wokół atomu zależą od masy jądra i ładunku jądrowego. Dlatego każdy izotop każdego gatunku atomowego ma charakterystyczny zestaw poziomów elektronowych. Stąd powstałe przejścia tworzą unikalny i jednoznaczny podpis umożliwiający identyfikację.
Pomiar ruchów na dużą skalę
Być może najważniejszą cechą widm atomowych jest częstotliwość spoczynkowa lub długość fali przejść. Są one bardzo dokładnie znane, albo poprzez obliczenia mechaniki kwantowej, albo pomiary laboratoryjne, z typową dokładnością większą niż jedna część na miliard. Ta wysoka dokładność umożliwia pomiar dowolnego przesunięcia długości fali spoczynkowej w wyniku ruchu źródła emitującego. Przesunięcia Dopplera mierzone za pomocą precyzyjnej spektroskopii są kamieniem węgielnym współczesnej astronomii. Tak różnorodne zjawiska, jak ruchy orbitalne gwiazd podwójnych, krzywe rotacji galaktyk i ruchy promieniowe wokół masywnych czarnych dziur to tylko kilka przykładów ważnych ruchów kinematycznych ujawnionych za pomocą spektroskopii. Być może najważniejszym ze wszystkich pomiarów było rozpoznanie przepływu galaktyk przez Hubble′a. Systematyczne PRZESUNIĘCIE CZERWONEJ widm galaktyk, rozpoznanie ich kosmologicznej natury i stale rosnącej wielkości ruchów wraz z odległością stanowią podstawę modelu rozszerzającego się wszechświata. Wynik ten ma ogromne znaczenie, że światło, które obserwujemy przy różnych przesunięciach ku czerwieni, pochodzi z różnych odległości. Ze względu na skończoną prędkość światła oznacza to, że mamy środki do badania historii wszechświata w funkcji czasu, próbkując jedynie w naszej własnej epoce. W ostatniej dekadzie przesunięte ku czerwieni ruchy Dopplera galaktyk wykorzystano do mapowania przestrzennego rozkładu materii w bardzo dużych skalach, co sugeruje powstawanie struktur we wczesnym Wszechświecie. Badanie galaktyk i KWASARÓW przy bardzo dużych przesunięciach ku czerwieni stało się jednym z podstawowych problemów współczesnej astrofizyki
Pomiar ruchów lokalnych
Ze względu na dyskretny charakter stanów energii elektronów, następujące przejścia mają nie tylko precyzyjnie określoną częstotliwość przejść, ale także wewnętrznie wąskie szerokości linii, zazwyczaj zdominowane przez ruchy Dopplera w systemach emitujących. Kiedy spektrometry stały się wystarczająco mocne, a detektory wystarczająco czułe, zaczęto rozpoznawać profile linii. Stwierdzono, że zmierzone profile widmowe niosą ważne informacje na temat lokalnej kinematyki. Na przykład niezwykle szerokie profile linii widoczne w kierunku GALAKTYK SEYFERTA zinterpretowano jako materię wypływającą z obszarów jądrowych, ponieważ na podstawie wielkości ruchów nie wydaje się, aby były one powiązane grawitacyjnie. Za dowód wypływających wiatrów uznano profile linii P Cygni w otoczkach gwiazdowych, z emisją przesuniętą ku czerwieni i absorpcją z przesunięciem ku błękitowi. Wynika to z założenia, że materię znajdującą się przed gwiazdą można zidentyfikować na podstawie jej absorpcji w stosunku do gwiazdy, podczas gdy jej widma mogą być przesunięte w kierunku błękitu w wyniku ruchu wypływającego w naszą stronę. Z tego samego argumentu odwrotne profile P Cygni, w których ruchy widm emisji i absorpcji są odwrócone, zinterpretowano jako skrócenie. W jeszcze innych źródłach asymetryczne profile linii ze znacznymi ulepszeniami po jednej stronie profilu linii były dowodem kinematycznym na obecność gazu w szoku. Stało się to jeszcze bardziej przekonujące w połączeniu z argumentami pobudzającymi. Stwierdzono, że w pobliskich układach zaobserwowane ruchy Dopplera w kierunku promieniowym są zgodne z wykrywalnymi WŁAŚCIWYMI RUCHAMI w linii wzroku. Jest to zgodne z naszymi oczekiwaniami, że Ziemia nie jest wyjątkowym punktem obserwacyjnym. Po usunięciu ruchów systematycznych widma często nadal wykazują ruchy nietermiczne. Oznacza to, że profile linii są szersze, niż można to wytłumaczyć samymi ruchami termicznymi. Doprowadziło to do badań turbulencji, zwłaszcza w odniesieniu do roli pól magnetycznych.
Pomiar wzbudzenia
Różne poziomy energii w atomie zostaną określone w zależności od warunków otoczenia, takich jak temperatura, gęstość cząstek i pole promieniowania. Próbkując odpowiedni zestaw przejść, możemy skonstruować rozkład populacji, a tym samym zmierzyć wzbudzenie źródła emitującego. W szczególności łatwo zauważyć, że sukcesywnie wyższe stany jonizacji będą wymagały większego wzbudzenia, ponieważ elektrony będą widzieć słabiej osłonięte jądro (patrz WZBUDZENIE I JONIZACJA). Zatem jeśli w wykrytym promieniowaniu dominują linie pochodzące od silnie zjonizowanych atomów, możemy wywnioskować, że obszar emitujący musi być zjonizowany przez energetyczne fotony. Względne siły różnych linii atomowych są zatem środkiem do identyfikacji typu widmowego gwiazdy, oprócz jej kolorów. Względne intensywności linii określają również twardość promieniowania. Pozwoliło nam to rozróżnić normalne jądra galaktyczne, których jonizację można łatwo wytłumaczyć promieniowaniem młodych gwiazd, od LINERSÓW i Seyfertów, których pole promieniowania musi być stopniowo zmniejszane., trudniej. Innym przykładem potęgi spektroskopii była identyfikacja obiektów HERBIG-HARO jako obszarów wzbudzenia uderzeniowego. Choć kiedyś uważano, że źródła te są miejscami młodych gwiazd, spektroskopia wykazała coś innego. Wraz z właściwymi ruchami i pomiarami prędkości Dopplera oraz profilami linii względne intensywności różnych zjonizowanych linii były zgodne z modelami wstrząsów.
Pomiar obfitości
Wykrycie licznych przejść atomowych pozwala na ocenę liczebności pierwiastków. Dzięki zwiększonej czułości można mierzyć ich liczebność nie tylko na Słońcu i innych gwiazdach, ale także w chmurach i galaktykach zewnętrznych. Dane takie mają kluczowe znaczenie dla sprawdzenia modeli NUKLEOSYNTEZY, zrozumienia obfitości metali w funkcji czasu i miernika ewolucji. Na przykład gwiazdy POPULACJA I i POPULACJA II można rozróżnić na podstawie ich metaliczności. To, czy CHMURY O DUŻEJ PRĘDKOŚCI w Galaktyce mają charakter pierwotny, czy pochodzą z dysku Galaktyki, można również określić, mierząc względną obfitość metali. Szczegółowe pomiary różnych pierwiastków w wyrzutach SUPERNOVA można również wykorzystać do sklasyfikowania rodzaju zdarzenia supernowego, a także do sprawdzenia mechanizmów wytwarzania pierwiastków.
Ważne linie atomowe
Istnieje wiele linii atomowych, które są szczególnie interesujące. Należą do nich linie Balmera w zakresie optycznym, linie Bracketta w bliskiej podczerwieni, linie rekombinacji radiowej, linia wodoru atomowego o długości 21 cm i linia zjonizowanego węgla w dalekiej podczerwieni. Ogólnie rzecz biorąc, linie widmowe zjonizowanego wodoru są ważne dla śledzenia REGIONÓW H II. W szczególności linie podczerwone i radiowe są przydatne do badania głęboko osadzonych źródeł.
Linie optyczne
Szereg Lymana wodoru, który składa się z linii rekombinacji kończących się w stanie n = 1 (gdzie n jest całkowitą liczbą kwantową orbit Bohra - Sommerfelda), występuje w zakresie fal ultrafioletowych. Szereg Balmera, którego linie kończą się w stanie n = 2, znajduje się w optyce. Linie wodoru wraz z liniami innych pierwiastków wykorzystano do klasyfikacji typów widmowych gwiazd. Temperatura w fotosferze, wywnioskowana z rodzaju wzbudzonych linii, jest ważną częścią diagramu HERTZSPRUNGA - RUSSELLA dotyczącego ewolucji gwiazd. Linia Hα przy 6563 Å, czyli linia Balmera n = 3-2, jest jedną z najbardziej przydatnych linii w pracach optycznych, śledzących obszary, które zostały fotojonizowane przez pobliską gwiazdę. Jest to szczególnie ważne w przypadku galaktyk zewnętrznych, ponieważ obszary jądrowe są często silnie zjonizowane przez koncentrację masywnych gwiazd lub aktywne jądro zasilane przez CZARNĄ DZIURĘ. Jasną emisję jądrową w linii Hα można wykorzystać do pomiaru jasności jonizującej, bezwzględnego ruchu gazu od jego przesunięcia ku czerwieni, co z kolei pozwala określić odległość na podstawie zależności Hubble′a, a co być może najważniejsze, charakteru jądra na podstawie obserwowanej szerokości linii. Pojawienie się SPECTROGRAPHÓW o wysokiej rozdzielczości pozwala astronomowi rozróżnić wąskie linie linii zgodne z rotacją galaktyki od znacznie szerszych linii, które mogą reprezentować wiatry wychodzące z obszaru jądrowego. W przypadku aktywnych jąder zasilanych procesami nietermicznymi promieniowanie ma twardsze widmo niż zwykłe światło gwiazd. Dlatego linie pochodzące z wyższych stanów wzbudzenia wodoru lub rzadszych pierwiastków stają się wykrywalne, a czasami nawet silniejsze. W ostatniej dekadzie spektroskopia optyczna poczyniła ogromne postępy dzięki budowie instrumentów o dużej aperturze, takich jak teleskopy Kecka i wystrzeleniu teleskopu Hubble′a. Większy obszar zbierania oznacza, że wykrywane są systemy o coraz większym przesunięciu ku czerwieni. Teleskop Hubble′a ze swoimi znakomitymi możliwościami obrazowania nad atmosferą oznacza, że spektroskopię można wykonywać z rozdzielczością poniżej 0,1. Niektóre z najlepszych dowodów na istnienie masywnych czarnych dziur w jądrach galaktyk pochodzą z pomiarów Hubble′a bardzo dużych ruchów obrotowych w środkowych kilku dziesiątych sekundy łukowej (patrz rysunek 1). W przypadku prac gwiazd jednym z najważniejszych osiągnięć było opracowanie spektrografów o ogromnych zdolnościach rozdzielczych. Spektrografy Eschelle′a są obecnie w stanie rozróżnić linię z rozdzielczością lepszą niż 100 000. Dopasowując wiele linii widmowych jednocześnie, można wykryć ruchy Dopplera rzędu kilku metrów na sekundę. Umożliwiło to rozwój badań planet pozasłonecznych, w przypadku których planety krążące po orbitach wokół pobliskich gwiazd można wywnioskować na podstawie wzajemnych ruchów gwiazd spowodowanych przyciąganiem grawitacyjnym ciała wtórnego. Z ruchów Dopplera tych chwiejących się gwiazd wywnioskowano obecnie około 20 planet.
Linie ultrafioletowe
Ponieważ seria Lymana leży w ultrafiolecie, do czasu udostępnienia teleskopów kosmicznych poczyniono niewielkie postępy. Za pomocą spektrografu o wysokiej rozdzielczości Goddarda na Teleskopie Hubble′a można zmierzyć linie absorpcyjne dla wielu gatunków atomowych i molekularnych. Umożliwiło to pomiar obfitości pierwiastków w źródłach galaktycznych i pozagalaktycznych. W szczególności zawartość metali jest ważna dla ustalenia, czy materia ma charakter pierwotny lub została już przetworzona w procesie powstawania gwiazd. Obfitość pierwiastków w obłokach międzygwiazdowych mierzona w fazie gazowej można porównać z liczebnością kosmiczną, aby wywnioskować, jaka część różnych pierwiastków jest zamknięta w ziarnach pyłu. Pomiar linii Lymana z deuteru można porównać z odpowiednimi liniami wodoru w celu oszacowania frakcji deuteru. Jest to oczywiście sprawdzenie syntezy pierwiastków we wczesnym Wszechświecie, ponieważ deuter nie powstaje w wyniku nukleosyntezy gwiazdowej. Frakcja deuteru zależy od pierwotnej
gęstości barionów w ciągu pierwszych kilku minut Wielkiego Wybuchu. Wyższa gęstość barionów spowodowałaby szybsze tempo tworzenia helu 4, co prowadziłoby do zubożenia deuteru. Linie Ly α są również badane pod kątem absorpcji w stosunku do kwazarów. Ponieważ w drodze do odległych kwazarów znajduje się dużo wodoru, wszystkie linie absorpcyjne Lymana tworzą pasmo absorpcji po niebieskiej stronie linii Lymana, które jest nieodłączną częścią układu kwazara. Tak zwany LYMAN ALPHA FOREST stał się ważnym narzędziem do badania ośrodka międzygalaktycznego.
Chociaż linia Hα i inne linie optyczne są bardzo przydatne, są one podatne na efekty ekstynkcji pyłu. Jest to szczególnie uciążliwe w przypadku rdzeni obłoków molekularnych, w których młode gwiazdy są głęboko osadzone, lub w przypadku dysków jądrowych położonych krawędziowo, gdzie ekstynkcja w linii wzroku może mieć wiele wielkości w zakresie długości fal optycznych. Można porównać intensywność linii Hα i Hβ celu oszacowania skutków ekstynkcji. Jednak w praktyce jest to zawodne, jeśli obie linie są poważnie wymierane. Co więcej, jeśli ekstynkcja jest wystarczająco wysoka, linia Hα może w ogóle nie być wykrywalna. W bliskiej podczerwieni ekstynkcja spowodowana pyłem jest znacznie zmniejszona. W rezultacie linie wodoru Bracketta przy 2 &mmu;m i 4 μm okazały się bardzo przydatne do badania źródeł wbudowanych zarówno w Galaktyce, jak i w układach zewnętrznych. W średniej podczerwieni występują również linie o drobnej strukturze wynikające z interakcji spin-orbita elektronów, gdzie występuje różnica energii w zależności od tego, czy spin elektronu jest zgodny z orbitalnym wektorem pędu elektronu. Na przykład szczególnie przydatne przejście wynika z linii 2P3/2-2P1/2 dla Ne II przy 12,8 μm. Linię tę z powodzeniem wykorzystano do badania eegionów H II, mgławic planetarnych, jąder pozagalaktycznych i najsłynniejszych strumieni zjonizowanego gazu wokół Centrum Galaktyki. Wykryto, że zjonizowany gaz nie tylko ma postać strumieni krążących wokół centrum Galaktyki, ale także kinematykę określa się na podstawie profili linii Ne II. Orbity dopasowane do ruchów zjonizowanego gazu sugerują centralny, masywny obiekt o masie około trzech milionów mas Słońca. Wraz z rozwojem coraz bardziej czułych detektorów i teleskopów kosmicznych, okno bliskiej podczerwieni staje się bardzo ważnym narzędziem diagnostycznym dla galaktyk zewnętrznych. Obserwatorium Kosmiczne w Podczerwieni było w stanie wykryć i zmierzyć wiele linii atomowych w bliskiej i średniej podczerwieni w kierunku wielu systemów. Dostarczają one informacji na temat obfitości substancji chemicznych i wzbudzenia , a także ruchu tych galaktyk. Informacje te okazały się bardzo przydatne do zrozumienia, czy galaktyki świecące w podczerwieni mogą być napędzane samymi procesami formowania się gwiazd.
Neutralny wodór atomowy
Ponieważ 90% wszechświata ma postać wodoru, jest on niewątpliwie najważniejszym atomem. Podczas gdy pierwotna identyfikacja serii Balmera koniecznie dotyczyła światła optycznego, seria Lymana dotyczy ultrafioletu, podczas gdy serie Aschen, Brackett i późniejsze - podczerwieni. Wszystkie te linie wymagają dużej ilości energii do wzbudzenia, co czyni je dobrymi znacznikami w środowiskach gwiazdowych i otaczających je zjonizowanych obszarach. Dla niższych obszarów wzbudzenia istnieje linia odwrócenia spinu o długości 21 cm. Linia ta powstaje w wyniku oddziaływania spinów elektronu i protonu. Atom wodoru ma nieco więcej energii, gdy spiny są równoległe i antyrównoległe. Powstały foton po odwzbudzeniu emitowany jest przy długości fali 21 cm. Wymagane wzbudzenie jest tak małe, że linię tę można wykryć w całej Galaktyce i łatwo w galaktykach zewnętrznych. Co więcej, w odróżnieniu od linek optycznych, linka o długości 21 cm jest odporna na efekty ekstynkcji. Stąd informacje kinematyczne z profili linii można prześledzić w całej Galaktyce, nawet jeśli obserwujemy krawędź systemu na dysku i wewnątrz dysku. Jednym z pierwszych wyników 21 cm była identyfikacja szeregu RAMION SPIRALNYCH w Galaktyce, wcześniej niewidzianych. Ta 21-centymetrowa linka stała się najważniejsza narzędzie do badania dynamiki galaktycznej, oddziałujących galaktyk, środowiska gromad i przesunięć ku czerwieni w pobliskim wszechświecie. Jedną z ważnych cech linii wodoru jest to, że może ona istnieć tam, gdzie nie ma materii gwiazdowej. Stąd daleko w Galaktyce, gdzie materia nie jest już wystarczająco gęsta, aby tworzyć gwiazdy, wciąż możemy prześledzić MATERIĘ MIĘDZYGWIAZDOWĄ. Badania w odległości 21 cm wykazały, że często galaktyki zawierają kilka razy więcej wodoru atomowego niż ich zasięg optyczny. Stwierdzono dwa niezwykle ważne efekty. Najpierw w GALAKTYKACH SPIRALNYCH, gdzie możemy zobaczyć ruchy rotacyjnych gwiazd i gazu odkryto, że krzywa rotacji galaktyki prześledzona w wodorze atomowym wydaje się płaska na tyle, na ile jesteśmy w stanie wykryć wodór. Sugeruje to, że w zewnętrznych częściach galaktyki znajduje się mnóstwo materii. W przeciwnym razie krzywa rotacji będzie opadać wraz ze wzrostem promienia ze względu na malejące działanie grawitacyjne zamkniętej masy wraz ze wzrostem odległości. To jeden z kluczowych wyników sugerujących istnienie CIEMNEJ MATERII. Jeśli jest tam wystarczająca ilość ciemnej materii, może to mieć wpływ na pytanie, czy Wszechświat jest otwarty, czy zamknięty, tj. czy jest wystarczająco dużo materii, aby ograniczyć ekspansję Wszechświata Hubble′a. Drugim ważnym rezultatem było wykrycie osobliwych ruchów i struktur w zewnętrznych częściach galaktyk, które można przypisać interakcjom z pobliskimi układami . Takich interakcji zwykle nie widać w układzie optycznym, który śledzi wewnętrzne części galaktyki. Ma to konsekwencje dla dynamicznej natury powstawania i ewolucji galaktyk, a także dla powstawania i zasilania masywnych czarnych dziur, zwłaszcza w oddziałujących układach. Linie radiowe i linie dalekiej podczerwieni W przypadku wodoru wyższe linie rekombinacji, kończące się na wyższych stanach n, występują w zakresie fal radiowych. Główną zaletą tych linii jest brak ekstynkcji pyłu na falach radiowych, co sprawia, że intensywność tych linii jest bardzo dokładną miarą całkowitej jasności jonizującej. Główną wadę badań radiowych, czyli grubą rozdzielczość kątową, przezwyciężono dzięki opracowaniu INTERFEROMETRÓW RADIOWYCH. Podczas gdy linie rekombinacji na długościach fal centymetrowych mogą podlegać efektom nietermicznego wzbudzenia, linie na falach milimetrowych są na ogół wolne od takich efektów i mają siłę linii prawie równą emisji kontinuum radiowego z obszarów H II. W dalekiej podczerwieni istnieje wiele ważnych linii. Jedną z interesujących linii jest linia drobnej struktury C II 2P3/2-2P1/2
Linie molekularne
Chociaż za pomocą optycznych linii absorpcyjnych wykryto kilka cząsteczek, takich jak CN, wrota do astronomii molekularnej otworzyły się dopiero pod koniec lat sześćdziesiątych. Było to częściowo spowodowane koniecznością oczekiwania na rozwój technologii detektorów. Jednak istniał również wielki sceptycyzm, czy cząsteczki w ogóle mogą istnieć w ośrodku międzygwiazdowym. Pesymizm ten opierał się częściowo na niskiej gęstości gazu związanej z atomowymi chmurami wodoru, co sugerowało, że cząsteczki ulegną dysocjacji pod wpływem pól promieniowania otoczenia. Z perspektywy czasu możemy teraz stwierdzić, że skoro gwiazdy powstają z gazu, gaz musi przejść przez gęstą fazę, która jest znacznie gęstsza niż faza atomowa. Taka gęsta faza zapewniałaby oczywiście osłonę przed promieniowaniem międzygwiazdowym i umożliwiałaby tworzenie się cząsteczek. Jednak w latach sześćdziesiątych XX wieku nie istniały żadne teoretyczne podstawy dotyczące FORMOWANIA GWIAZD, CHEMII MIĘDZYGWIAZDOWEJ ani ewolucji CHMUR MIĘDZYGWIAZDOWYCH. Wytrwałość kilku radioastronomów doprowadziła do odkrycia OH, H2O, NH3, CO i wielu innych cząsteczek.
Cząsteczki
Podczas gdy przejścia atomowe zazwyczaj mieszczą się w zakresie długości fal optycznych lub bliskiej podczerwieni, przejścia molekularne zazwyczaj zachodzą przy znacznie dłuższych falach. Dzieje się tak dlatego, że w przypadku cząsteczek możliwe są również ruchy obrotowe i wibracyjne atomów w cząsteczce. Zapewniają one nowe zestawy skwantowanych stanów energetycznych. Przejścia między stanami rotacyjnymi zazwyczaj przypadają na długości fal radiowych, a przejścia wibracyjne zazwyczaj na podczerwień. Podczas gdy przejścia atomowe charakteryzują się temperaturami rzędu tysięcy kelwinów, przejścia molekularne wymagają temperatur od dziesiątek do setek kelwinów. Cząsteczki te są zatem dobrymi sondami dla większości Wszechświata, który jest chłodny przy temperaturach bliskich 10 K. Od wczesnego wykrycia kluczowych cząsteczek H2O i NH3 pod koniec lat 60. XX wieku oraz CO na początku lat 70. XX w. zidentyfikowano ponad 110 gatunków molekularnych zostały obecnie zidentyfikowane w ośrodku międzygwiazdowym. Dostępność przejść molekularnych o różnych wymaganiach dotyczących wzbudzenia umożliwia badanie ośrodka międzygwiazdowego w szerokiej kombinacji temperatur i gęstości. W szczególności przejścia o wysokich momentach dipolowych z powodzeniem wykorzystano do badania bardzo gęstych obszarów obłoków molekularnych, w których powstają gwiazdy. Dzięki ogromnemu udoskonaleniu technologii detektorów na falach radiowych i budowie teleskopów o dużej aperturze, cząsteczki są obecnie łatwo wykrywane w galaktykach zewnętrznych. Być może najważniejszymi wynikami było odkrycie i uświadomienie sobie, że obłoki molekularne są dominującym składnikiem ośrodka międzygwiazdowego, że linie molekularne wraz z pyłem są ważnymi czynnikami chłodzącymi dla fazy gazowej oraz że cząsteczki mogą śledzić masę, temperaturę, gęstość i ruchy ośrodka międzygwiazdowego.
Rozwój oprzyrządowania
Postęp w dziedzinie spektroskopii atomów i cząsteczek w astronomii nastąpił dzięki szeregowi innowacji technologicznych. Opracowano spektroskopię siatkową o coraz większej rozdzielczości. Podczas gdy spektroskopia długich szczelin może uzyskać widma wycinka nieba, obecnie panuje trend w kierunku spektroskopii wielowłóknowej. W tym schemacie setki włókien optycznych jest rozmieszczonych jednocześnie na wcześniej określonych źródłach docelowych w płaszczyźnie ogniskowej. Włókna są następnie podawane do spektrometru w celu pomiaru widm dla setek źródeł jednocześnie. W przypadku fal radiowych interferometria ze spektroskopią jest jeszcze skuteczniejsza, ponieważ jednocześnie obrazowana jest cała wiązka główna jednego z elementów teleskopu układu. Dzięki opracowaniu potężnych cyfrowych KORELATORÓW można analizować duże szerokości widma dla każdego piksela wiązki pierwotnej. Duże postępy osiąga się także w zakresie kompensacji skutków atmosferycznych. Platformy kosmiczne, wysoko latające samoloty i balony otworzyły nowe okna widmowe. OPTYKA ADAPTACYJNA na falach optycznych i techniki samokalibracji na falach radiowych skutecznie kompensują atmosferyczne efekty WIDZENIA. Oznacza to, że możliwa jest spektroskopia słabszych źródeł. Oczywiście technologia detektorów uległa poprawie dla wszystkich długości fal, podczas gdy budowane są coraz większe teleskopy. Wysiłki te przyniosły ogromną poprawę czułości.
Astronomia i astrofizyka w Indiach
Rozwój astronomii i astrofizyki w Indiach nastąpił głównie od czasu uzyskania przez kraj niepodległości w 1947 r. Obecne prace są prowadzone w kilku wybranych instytutach badawczych i na niektórych wydziałach uniwersyteckich. Indyjskie Towarzystwo Astronomiczne zrzesza około 300 pracujących naukowców z A&A oraz kolejnych 50-60 absolwentów.
Udogodnienia
W sektorze instytucjonalnym do najważniejszych obiektów należą Teleskop Optyczny Vainu Bappu o średnicy 2,3 m i 1-metrowy teleskop w Kavalur w południowych Indiach, pod kierownictwem Indyjskiego Instytutu Astrofizyki (IIA) w Bangalore, 1-metrowy teleskop w Obserwatorium Stanowe Uttar Pradesh (UPSO) w Naini Tal u podnóża Himalajów oraz 1-metrowy teleskop na podczerwień w Gurushikhar w południowym Radżastanie pod kierownictwem Laboratorium Badań Fizycznych (PRL) w Ahmedabadzie. Teleskopy słoneczne istnieją w Kodaikanal w południowych Indiach, w UPSO w Naini Tal i w Udaipur, pierwszy zarządzany jest przez IIA, a trzeci przez PRL. W latach sześćdziesiątych XX wieku radioastronomia wkroczyła na szeroką skalę wraz z paraboliczną, cylindryczną anteną o długości 550 m, ustawioną na północno-południowym zboczu wzgórza w pobliżu południowego kurortu w Ooty, przy czym oś cylindra była równoległa do osi Ziemi. Teleskop ten jest obsługiwany przez TATA INSTITUTE OF FUNDAMENTAL RESEARCH (TIFR) w Bombaju, który właśnie zakończył jeszcze bardziej ambitny projekt znany jako Giant Metrewave Radio Telescope (GMRT) w Khodad, około 90 km od Pune. System ten, kontrolowany i obsługiwany przez KRAJOWE CENTRUM ASTROFIZYKI RADIOWEJ (NCRA) w Pune, składa się z 30 anten, każda o średnicy 45 m, rozmieszczonych na układzie ramion w kształcie litery Y o długości około 14 km. Działa optymalnie w zakresie długości fal metrowych. Przy niższych częstotliwościach (34,5 MHz) w Gauribidnur niedaleko Bangalore znajduje się układ radiowy w kształcie litery T, obsługiwany wspólnie przez IIA i Instytut Badań Ramana (RRI) w Bangalore. Indyjscy astronomowie zbudowali podobną tablicę na wyspie Mauritius. W swojej siedzibie w Bangalore RRI posiada również 10-metrową antenę do astronomii fal milimetrowych. Astronomia kosmiczna w Indiach rozpoczęła się od badań promieni kosmicznych pod kierunkiem HJ Bhabha w TIFR, a później pod kierunkiem VA Sarabhai w PRL. Krajowa placówka balonowa w Hyderabad obsługuje różne eksperymenty z balonami. Działalność ta przekształciła się w pełnoprawny program kosmiczny, który obecnie rutynowo wysyła satelity i przygotowuje ładunki o charakterze komercyjnym i naukowym. Jej siedziba znajduje się w Indyjskiej Organizacji Badań Kosmicznych w Bangalore. W sektorze uniwersyteckim jedynym znaczącym działającym obiektem jest 1,2-metrowy teleskop w Obserwatorium Japal Rangapur pod kontrolą Uniwersytetu Osmania w Hyderabadzie. Jednakże główne źródło zasobów dla uniwersytetów zostało utworzone w 1988 r. przez Komisję ds. stypendiów uniwersyteckich (UGC) w New Delhi w Pune. Centrum to, znane jako Międzyuczelniane Centrum Astronomii i Astrofizyki (IUCAA), zapewnia doskonałą bibliotekę zasobów A&A, zaawansowane centrum komputerowe z oprogramowaniem związanym z A&A, centrum danych i laboratorium oprzyrządowania. Z obiektów tych mogą korzystać odwiedzający pracownicy naukowi i studenci uniwersytetów, których podróże pokrywane są z dotacji zapewnianych przez UGC w IUCAA. IUCAA pomaga także pracownikom naukowym uniwersytetów w korzystaniu z obiektów obserwacyjnych w Indiach i za granicą w ramach różnych programów obserwacji gościnnych. Na różnych etapach budowy znajdują się trzy nowe teleskopy optyczne. IUCAA będzie miała 2-metrowy teleskop w pobliżu Giravali, około 70 km od Pune, podczas gdy IIA zbudowała niedawno 2-metrowy teleskop w Han Le, na wysokości 4000 m w pobliżu Ladakhu w północnych Himalajach. UPSO i TIFR wspólnie planują instalację 3-metrowego teleskopu w Devasthal, niedaleko Naini Tal.
Obszary badawcze
INDYJSKA ASTRONOMIA tradycyjnie zajmuje się astronomią i spektroskopią gwiazd, astronomią słoneczną i planetarną. Jednak w ciągu ostatnich trzech dekad XX wieku rozszerzyła swój zakres o fizykę Słońca, w tym oscylacje Słońca, astronomię i modelowanie pulsarów, problemy promieni kosmicznych i astrofizykę wysokich energii, soczewkowanie grawitacyjne, zjawiska pozagalaktyczne astronomia i kosmologia. Teleskop Ooty był odpowiedzialny za szeroko zakrojone badanie rozmiarów kątowych źródeł radiowych metodą zakrycia Księżyca. Kosmologia teoretyczna rozciąga się od abstrakcyjnych modeli matematycznych w ogólnej teorii względności (ponieważ Indie zawsze miały silną szkołę w zakresie ogólnej teorii względności) po dopasowanie modeli do obserwacji dyskretnych populacji źródeł pozagalaktycznych. Dzięki mniej sztywnemu spojrzeniu na alternatywy dla idei głównego nurtu, rozkwitły one w Indiach bardziej niż na Zachodzie. Indyjska astronomia dała o sobie znać na arenie międzynarodowej. Nieżyjący już Vainu BAPPU był prezesem Międzynarodowej Unii Astronomicznej, natomiast kilku indyjskich astronomów zajmowało stanowiska przewodniczących różnych komisji IAU.
Astrofizyczne granice właściwości cząstek
Odkąd NEWTON zaproponował, że Księżyc na swojej orbicie podlega tym samym prawom ruchu, co jabłko spadające z drzewa, niebo stało się ulubionym laboratorium do testowania podstawowych praw fizyki, zwłaszcza teorii grawitacji Newtona i EINSTEINA. Niedawno astrofizyka i kosmologia stały się kluczowymi poligonami doświadczalnymi dla mikrokosmosu cząstek elementarnych. Ten obszar badań naukowych jest częścią dyscypliny często nazywanej fizyką astrocząstek lub astrofizyką cząstek. Istnieje kilka ważnych przypadków, w których niewyjaśnione zjawiska astrofizyczne można przypisać nowym cząstkom elementarnym lub nowym właściwościom znanych cząstek; Dobrymi przykładami są deficyt neutrin słonecznych i problem ciemnej materii. W tym miejscu omówiona zostanie inna szeroko rozpowszechniona metoda, w której wykorzystuje się ustalone właściwości gwiazd, a nawet całego wszechświata, aby ograniczyć możliwe modyfikacje spowodowane nowymi właściwościami cząstek elementarnych.
Masy neutrin
Jednym z najwcześniejszych astrofizycznych ograniczeń cząstek jest kosmologiczne powiązanie z masami trzech znanych NEUTRINO, elektronu, mionu i neutrina taonowego ?e, ?μ i ?τ. Główną ideą jest to, że cząstki te, pomimo swoich słabych interakcji, musiały zostać wytworzone termicznie w gorącym i gęstym wczesnym Wszechświecie, tworząc w ten sposób "kosmiczne morze neutrin", podobnie jak kosmiczne mikrofalowe promieniowanie tła 3K. Szczegółowe obliczenia ujawniają, że obecna gęstość neutrin i antyneutrin wynosi około 113 cm-3 dla każdego z trzech "smaków" ve, vμ i v?τ, co można porównać z fotonami mikrofalowymi o powierzchni około 400 cm-3. Masy wszystkich neutrin muszą odpowiadać mv 40 eV, w przeciwnym razie ich działanie grawitacyjne spowolniłoby ekspansję Wszechświata poniżej obserwowanego tempa. To odkrycie ?μ w 1962 r. wraz z odkryciem kosmicznego mikrofalowego tła w 1963 r. zainspirowało S. S. Gershteina i Ya B. ZELDOVICHA do wysunięcia tej tezy w 1966 r. Bezpośrednie eksperymentalne granice m? są znacznie mniej restrykcyjne niż granice kosmologiczne, z wyjątkiem ?e i nie wiadomo, czy neutrina w ogóle mają masę. Jednakże wiele dowodów na "oscylacje smaku neutrin" zgromadzono na podstawie pomiarów neutrin atmosferycznych i słonecznych, co sugeruje, że mają one masy, a różnice mas między nimi są niezwykle małe, mniejsze niż około 0,1 eV. W każdym razie masy neutrin wydają się być znacznie mniejsze niż masy innych podstawowych fermionów, elektronu i jego dwóch cięższych braci (mionu i tau), a także sześciu kwarków . Pochodzenie tego widma masowego pozostaje tajemnicą fizyki cząstek elementarnych. Kosmologiczna granica m? stanowi standardowy argument ograniczający właściwości wszelkich teoretycznie proponowanych nowych cząstek, takich jak monopole, aksiony lub cząstki supersymetryczne. Ich udział w kosmicznej gęstości masy musi być zgodny z wiekiem i tempem ekspansji współczesnego wszechświata. Zwykle ich gęstość reliktowa, czyli gęstość cząstek, która przetrwała z wczesnego Wszechświata, jest trudniejsza do oszacowania niż w przypadku neutrin, gdzie po prostu skaluje się wraz z gęstością kosmicznych fotonów mikrofalowych. Ogólnie rzecz biorąc, należy martwić się szczegółowym mechanizmem pierwotnej produkcji i szybkością anihilacji nowych cząstek. Zupełnie inna astrofizyczna metoda ograniczania mas neutrin opiera się na czasie przelotu ze źródła impulsowego. Neutrina o masie m?, wyemitowane ze źródła w odległości D w czasie t = 0, ale o różnych energiach E?, docierają do
t = D / c√1 - (m?c2/Ee)2
gdzie Ev ≥ mvc2 to całkowita energia łącznie z masą spoczynkową, a c to prędkość światła. Są opóźnione, ponieważ poruszają się wolniej niż c. Mierzenie czasów ich przybycia i energii pozwala w zasadzie wyodrębnić mv . Supernowa typu II (SN), czyli zapadnięcie się masywnej gwiazdy, powoduje powstanie ogromnego wybuchu neutrin trwającego kilka sekund. Zdarzenie takie zostało zmierzone raz 23 lutego 1987 roku, kiedy antyneutrina elektronowe z SN 1987A w DUŻYM CHMURZE MAGELLANIC (D ≈ 50 kpc = 163 000 lat świetlnych) zostały zarejestrowane w trzech działających wówczas detektorach neutrin . Sygnał jest kompatybilny z oczekiwanym wewnętrznym czasem trwania wybuchu, bez dowodów na rozproszenie w czasie przelotu, co prowadzi do limitu m?e 20 eV. Supernowe w naszej galaktyce lub w jej pobliżu są rzadkie, być może kilka na stulecie. Jeśli jednak ktoś miał szczęście i zaobserwował kolejny wybuch neutrina z jednym z nich, znacznie większym z dostępnych obecnie detektorów, można by je poprawić, nawet w przypadku ?? i ??, które są trudniejsze do wykrycia. Dzięki nadchodzącym dużym "teleskopom neutrinowym" być może będzie można mierzyć impulsy neutrin z bardziej spekulacyjnych źródeł, takich jak rozbłyski gamma, z potencjalnie znacznie lepszą czułością m?.
Nukleosynteza Wielkiego Wybuchu
Inny standardowy argument kosmologiczny opiera się na tempie ekspansji wczesnego Wszechświata w epoce pierwotnej NUKLEOSYNTEZY, około 3 minuty po Wielkim Wybuchu. Gęstość promieniowania w tym czasie determinuje szybkość ekspansji, co z kolei wpływa na zawartość pierwotnego helu, która, jak się szacuje, wynosi 22-25% masowych, resztę stanowi wodór oraz śladowe ilości deuteru, helu-3 i litu-7. Niezależnie od niepewności, zaobserwowane pierwotne liczebności pierwiastków świetlnych implikują gęstość promieniowania odpowiadającą dwóm do czterech rodzin neutrin, ładnie obejmując w nawiasie trzy znane rodzaje ve, vμ i vτ. Są to jedyne możliwe rodziny, ponieważ dodatkowe rodziny przyczyniłyby się do szerokości rozpadu bozonu cechowania Z0, który jest precyzyjnie mierzony od około 1990 r. Jednakże metodę nukleosyntezy Wielkiego Wybuchu, polegającą na liczeniu rodzin neutrin, można zastosować do bardziej egzotycznych cząstek, które są nie objęte argumentem szerokości
zaniku Z0. Każda forma promieniowania, która została wzbudzona termicznie we wczesnym Wszechświecie, przyczynia się do tempa ekspansji. Dlatego siła interakcji i masy wszelkich proponowanych nowych cząstek muszą przejść test, czy nie prowadzą one do nadmiernej kosmicznej gęstości masy i energii w epoce nukleosyntezy. Masa fotonów W przeciwieństwie do neutrin, od których oczekuje się masy, fotony powinny być całkowicie bezmasowe, co jest teoretycznym założeniem wymagającym weryfikacji eksperymentalnej. Limity czasu przelotu sygnału radiowego pulsarów nie są dużo lepsze niż około 10-11 eV, czyli częstotliwość plazmy ośrodka międzygwiazdowego imitująca masę fotonu. Badania laboratoryjne prawa Coulomba dają mγ 10-14 eV; nie znikający mγ zmodyfikowałby zachowanie odwrotne kwadratowe. Podobnie zmienność przestrzenna wyższych wielobiegunowych składników wielkoskalowych pól magnetycznych daje 0,6 × 10-15 eV i 0,8 × 10-15 eV odpowiednio z pola magnetycznego Jowisza i Ziemi. Najbardziej restrykcyjna granica 10?27 eV opiera się na równowadze magneto-grawitacyjnej gazu w MAŁYM OBŁOKU MAGELLANA, która wymaga, aby zasięg oddziaływania przekraczał charakterystyczną skalę pola wynoszącą około 3 kpc. Ta granica jest zaskakująco bliska 10-33 eV, gdzie długość fali fotonu Comptona przekraczałaby promień obserwowalnego Wszechświata i tym samym przestałaby mieć jakiekolwiek zauważalne konsekwencje.
Gwiezdna utrata energii
Szczególnie udany astrofizyczny argument przemawiający za ograniczeniem właściwości słabo oddziałujących cząstek o małej masie, zwłaszcza neutrin, wywodzi się od J. Bernsteina, M. Rudermana i G. Feinberga (1963). Argumentowali, że przypuszczalny magnetyczny moment dipolowy neutrina prowadziłby do niedopuszczalnie dużej utraty energii w gwiazdach w wyniku procesu plazmowego ,
który jest kinematycznie dozwolony, ponieważ częstotliwość plazmy we wnętrzu gwiazdy nadaje fotonom efektywną masę. Ten kanał utraty energii przyczyniłby się do emisji neutrin z wnętrz gwiazd w standardowych procesach. Niestandardowy kanał strat energii, spowodowany emisją neutrin z niestandardowymi sprzężeniami lub emisją hipotetycznych cząstek, takich jak aksiony, może powodować różnorodne obserwowalne efekty. Pozostałości gwiazd (BIAŁE KARLERY, GWIAZDY NEUTRONOWE) schładzałyby się szybciej. Normalne gwiazdy zużywałyby paliwo jądrowe szybciej, a tym samym spalałyby się wcześniej. Czas życia gwiazd o gałęziach poziomych spalających hel, mierzony liczbą gromad kulistych, jest szczególnie precyzyjnym miernikiem nowych kanałów utraty energii. Podobnie możliwe opóźnienie zapłonu helu w wyniku chłodzenia cząstek rdzeni czerwonego olbrzyma może być dobrze ograniczone przez obserwowaną granicę jasności wierzchołka gałęzi czerwonego olbrzyma w gromadach kulistych. Nawet nasze Słońce zapewnia interesujące ograniczenia. Zwiększona szybkość spalania spowodowałaby, że byłby on bardziej rozwinięty niż odpowiada jego wiekowi, powodując zauważalne przesunięcia jego precyzyjnie zmierzonych częstotliwości oscylacji pmod, co jest dziedziną badań znaną jako heliosejsmologia. Argumenty tego rodzaju stosowano do najróżniejszych przypadków; być może najbardziej użytecznym ograniczeniem jest ograniczenie μ? ≾ 3×10-12μB na magnetycznym momencie dipolowym dowolnego neutrina. Tutaj μB = eh/2me, gdzie e jest ładunkiem elektronu, a ja masą elektronu, jest magnetonem Bohra odpowiadającym momentowi magnetycznemu elektronu, który jest zwykle stosowany jako miara możliwych momentów magnetycznych neutrin. Eksperymenty laboratoryjne dają znacznie słabsze limity. Podobnie można wyprowadzić granicę hipotetycznego ładunku elektrycznego neutrina, ev ≾ 2 × 10-14e, mającą zastosowanie do wszystkich smaków. W przypadku zmierzonych antyneutrin elektronowych z SN 1987A galaktyczne pole magnetyczne spowodowałoby odchylenie zależne od energii, a tym samym rozproszenie sygnału w czasie przelotu; wynikowa granica wynosi e?e ≤? 3 × 10-17e. Granica laboratoryjna, oparta na zachowaniu ładunku w rozpadzie β, wynosi e?e ≾ 3 × 10-21e. Jeśli neutrina mają masę, mogą ulec rozkładowi; jednym z możliwych kanałów jest emisja fotonu. Brak anomalnych strumieni promieniowania X lub gamma ze Słońca lub w połączeniu z wybuchem neutrina SN 1987A, a także ograniczenia dotyczące deformacji widmowej natury ciała doskonale czarnego w kosmicznym mikrofalowym tle ograniczają ten kanał rozpadu radiacyjnego. Jednakże element matrycy tego procesu zależy od momentu przejścia elektromagnetycznego, który podlega powyższemu ograniczeniu utraty energii gwiazdowej; jest bardziej restrykcyjny dla m? 1 eV niż bezpośrednie ograniczenia rozpadu fotonów.
Supernowa 1987A
Sygnał neutrina SUPERNOVA 1987A umożliwił szczególnie przydatne zastosowanie argumentu dotyczącego utraty energii gwiazdowej. Powstająca gwiazda neutronowa, która powstała po zapadnięciu się, ochładza się w wyniku emisji neutrin w ciągu kilku sekund, a skala czasu jest wyznaczona przez szybkość dyfuzji neutrin; gwiazda protoneutronowa jest tak gorąca i gęsta, że nawet neutrina nie mogą swobodnie uciec. Konkurujący kanał chłodzący ze słabiej oddziałującymi cząstkami, które nie są uwięzione, skróciłby i osłabił sygnał neutrina, ponieważ całkowita ilość energii, czyli energia wiązania grawitacyjnego gwiazdy neutronowej, jest stała. Ten prosty argument był stosowany w wielu przypadkach, ale być może najciekawszy jest ten dotyczący aksjonów, hipotetycznych cząstek o małej masie, które pierwotnie zaproponowano w kontekście chromodynamiki kwantowej, teorii silnego oddziaływania między kwarkami. Później odkryto, że aksjony są również dobrymi kandydatami na cząstki ciemnej materii wszechświata. Modele Axion zasadniczo charakteryzują się jednym dowolnym parametrem, którym można wybrać masę ma. Wymóg, aby osie nie przenosiły większości energii SN 1987A, przekłada się na granicę ma ≲ 10-2 eV. Z drugiej strony wymóg, aby ich kosmiczna gęstość masy nie była zbyt duża, prowadzi do ma ≳ 10-5 eV, w przeciwieństwie do powyższego przypadku neutrin, dla których kosmologia zapewnia górną granicę masy. W pozostałym zakresie mas mogą istnieć osie, które dostarczają większość lub całość kosmicznej ciemnej materii.
Dziwne gwiazdy
Podstawowymi składnikami materii jądrowej są kwarki, a nie protony i neutrony, i można się zastanawiać, czy gwiazdy neutronowe nie przechodzą przejścia fazowego do ośrodka składającego się z wolnych kwarków. Nawet dziwny kwark jest stosunkowo lekki, więc można spekulować, że "gwiazdy neutronowe", pozostałość masywnych gwiazd po zapadnięciu się supernowej typu II, są w rzeczywistości "dziwnymi gwiazdami" składającymi się z silnie oddziałującego ośrodka up (u), kwarki dolne (d) i dziwne (s). Zaskakująco trudno jest rozróżnić te dwa przypadki obserwacyjnie. Uważa się, że dziwne gwiazdy mogą obracać się szybciej, zanim się rozpadną, więc pulsary submilisekundowe, jeśli kiedykolwiek zostaną wykryte, mogłyby być może rozwiązać kwestię stanu podstawowego materii jądrowej. Podsumowując, astrofizyka i kosmologia zapewniają ważne ograniczenia dotyczące właściwości i interakcji cząstek elementarnych, które często uzupełniają się z tym, co można zmierzyć w eksperymentach laboratoryjnych.
Dżety astrofizyczne
W astronomii istnieje wiele sytuacji, w których stwierdza się, że gaz krąży wokół centralnej masy grawitacyjnej. Dzieje się tak w GWIAZDACH PODWÓJNYCH, gdzie jednym ze składników jest zwarty obiekt - biały karzeł, gwiazda neutronowa lub czarna dziura - a masa jest przenoszona od normalnego gwiezdnego towarzysza. Dzieje się tak w jądrach galaktyk, gdzie obiektem grawitacyjnym jest masywna czarna dziura, a także ma to miejsce podczas najwcześniejszej fazy ewolucji protogwiazdy. Te przepływy gazu nazywane są DYSKAMI AKRECJI i często towarzyszą im szybkie wypływy, uruchamiane w kierunkach przeciwnych, mniej więcej prostopadle do dysków. Wypływy są zwykle nazywane strumieniami i w tym artykule opisano część tego, co o nich wiemy. Pierwszy przykład astrofizycznego dżetu odkrył HEBER CURTIS w 1918 roku przy użyciu Obserwatorium Licka w Kalifornii. Obserwował galaktykę znaną jako M87 w gromadzie galaktyk w Pannie, a kiedy zbadał jądro, znalazł "ciekawy promień prosty". . . najwyraźniej połączony z jądrem cienką
linią materii. Była to niezwykła obserwacja (dokonana przez wybitnego astronoma), a dżet w M87 jest nadal jednym z najdokładniej zbadanych obiektów tej klasy. To, co obserwujemy bezpośrednio w M87, to dość prosty obiekt o długości około 2 kpc. Można go dostrzec od długich fal radiowych po wysokoenergetyczne promieniowanie rentgenowskie i stwierdzono, że na całej swojej długości wykazuje około ośmiu obszarów o dużej intensywności, zwanych "węzłami". Dżet można prześledzić w skali rzędu 0,01 pc, która jest mniejsza niż 10-5 razy jego całkowita długość i mniej niż 100 razy promień czarnej dziury, która, jak stwierdzono, znajduje się w jądrze M87 i której masa jest mierzona na około 3 miliardy mas Słońca (patrz M87: JĄDRO I STRUMIEŃ. Wiemy, że gaz wypływa z czarnej dziury w M87, ponieważ możemy użyć bardzo długiej interferometrii bazowej do pomiaru jego prędkości. Odkryto, że że niektóre części dżetu wydają się poruszać na zewnątrz z prędkością, która wydaje się być aż sześciokrotnie większa od prędkości światła. W rzeczywistości jest to dość powszechne zjawisko zwane ekspansją nadświetlną. Nie narusza to szczególnej teorii względności (co stanowi, że wszelki ruch materialny zachodzi wolniej niż prędkość światła). Zamiast tego nadświetlna ekspansja jest iluzją, która wymaga jedynie, aby gaz w strumieniu poruszał się w naszą stronę z prędkością bliską prędkości światła. Z tego powodu dżety jak które w M87 są często stylizowane na dżety relatywistyczne. To całkiem naturalne, że te strumienie poruszają się z prędkością bliską prędkości światła; w końcu jest to prędkość ucieczki z centralnej czarnej dziury. Dżet w M87 wykazuje inną wspólną cechę tych obiektów, a mianowicie, że jego przeciwrównoległy dżet, którego obecność oczekuje się, nie został jeszcze wykryty. To jest ilustracja efektu zwanego ABERRACJĄ. Kiedy źródło promieniowania porusza się z prędkością bliską prędkości światła, wydaje się, że emituje emisję wzdłuż kierunku swojego ruchu. W rezultacie, jeśli źródło się do nas zbliży, będzie wyglądało na bardzo jasne, natomiast jeśli źródło się od nas oddali, będzie wydawało się słabe. To wyjaśnia, dlaczego jesteśmy w stanie wykryć tylko jeden dżet w M87 i dlaczego duża część najjaśniejszych źródeł, które widzimy, wykazuje RUCH NADŚWIETLNY. Przejdźmy teraz do węzłów. Uważa się, że są to fale uderzeniowe powstające w wypływających strumieniach, gdy na przykład prędkość strumienia u źródła wzrasta o wartość większą niż prędkość dźwięku w strumieniu, a zatem jest większa niż prędkość, z jaką informacja może być przekazywana przez strumień. poruszający się płyn strumieniowy. W przepływie musi w końcu powstać silna nieciągłość uderzeniowa, co okazuje się doskonałym miejscem do przyspieszania wysokoenergetycznych, relatywistycznych elektronów o energiach do 100 TeV. Elektrony te promieniują, wirując spiralnie w polu magnetycznym przenikającym dżet - proces znany jako PROMIENIOWANIE SYNCHROTRONOWE - i uważa się, że to właśnie jest odpowiedzialne za całą emisję promieniowania radiowego w zakresie rentgenowskim. Dżet M87 jest stosunkowo słaby. Wiemy o nim tak dużo, ponieważ jest tak blisko. W przeszłości niemal na pewno był zaopatrywany w paliwo gazowe w znacznie większym tempie niż obecnie. Zostałby wówczas sklasyfikowany jako KWASAR. Kwazary to nadpobudliwe jądra bardzo odległych galaktyk, które w zakresie fal optycznych mogą przyćmić swoje gwiezdne gospodarze. Emitują potężnie w całym spektrum elektromagnetycznym. Kwazary często wykazują gigantyczne, podwójne źródła radiowe - dwa "płaty" intensywnej emisji radiowej zlokalizowane po przeciwnych stronach galaktyki. Historycznie rzecz biorąc, tak to wyglądało w którym pierwotnie zidentyfikowano kwazary. Przez długi czas pozostawało tajemnicą, w jaki sposób te płatki radiowe mogą powstawać i utrzymywać się. Wraz z odkryciem dżetów relatywistycznych zagadka została rozwiązana. Źródłem ich mocy jest centralna czarna dziura i otaczający ją dysk akrecyjny. Tworzy to relatywistyczne cząstki i pole magnetyczne, które wypływają na zewnątrz, wzdłuż dwóch przeciwrównoległych kierunków, aby uzupełnić płatki radiowe i wypchnąć je z galaktyki, podobnie jak spaliny kojarzone z samochodami i samolotami odrzutowymi. W pewnym sensie dżety przenoszą produkty przemiany materii na czarną dziurę. Znamy tysiące takich podwójnych źródeł radiowych i udokumentowaliśmy ich właściwości, dzięki czemu zaczynamy rozumieć, w jaki sposób pasują one do sekwencji ewolucyjnej. Najpotężniejsze dżety relatywistyczne, które są wysyłane niemal bezpośrednio na nas, nazywane są czasami BLAZARSAMI i powszechnie obserwuje się je jako źródła promieniowania ?. Fotony o energiach sięgających kilku GeV powstają, gdy foton promieniowania rentgenowskiego jest rozpraszany przez relatywistyczny elektron - proces znany jako odwrotne rozpraszanie Comptona. (W kilku lokalnych przykładach udało się wykryć bardzo wysokoenergetyczne promienie ? o energiach TeV, które prawdopodobnie powstają w pobliżu centralnej czarnej dziury.) Zaskakująco duże natężenie tych dżetów promieniowania ? mówi nam, że w wielu W niektórych przypadkach odprowadzają one dużą część całkowitej mocy generowanej przez silniki centralnych czarnych dziur. Nie wszystkie dżety są powiązane z odległymi galaktykami. W naszej Galaktyce i pobliskich galaktykach odkryto wiele czarnych dziur wielkości gwiazd. Kiedy mają one gwiezdnych towarzyszy, którzy mogą utracić gaz, gaz zostanie przyciągnięty przez czarną dziurę i może również utworzyć dysk akrecyjny. Wczesnym przykładem było źródło SS433, w którym odkryto dwa poprzedzające je antyrównoległe dżety poruszające się z prędkością nieco ponad jedną czwartą prędkości światła. W niektórych przypadkach źródła te wytwarzają również dżety relatywistyczne, czyli mniejsze wersje pozagalaktycznych źródeł radiowych. Wykazują gigantyczne wybuchy, ekspansję nadświetlną i promienie, w związku z czym czasami nazywane są "mikrokwazarami". Są one szczególnie dobre do badania, ponieważ astronomowie mogą obserwować wiele cykli zmian w czasie potrzebnym na zmianę kwazara. Odkryto także, że dżety są powiązane z nowo powstałymi gwiazdami. Tutaj ponownie znajduje się krążący dysk zbudowany z gazu, który nie osiadł jeszcze na gwieździe (ani nie skondensował się w planety). Te "MŁODE OBIEKTY GWIAZDOWE" obserwuje się głównie w liniach emisyjnych w świetle optycznym i podczerwieni, a dżet porusza się z prędkościami kilku stu km na sekundę, co jest porównywalne z prędkością ucieczki z centralnej protogwiazdy. Dżety te czasami wykazują również poruszające się fale uderzeniowe, zwane obiektami Herbiga-Haro (rysunek 2), które rozprzestrzeniają się wzdłuż dżetów. (Ponieważ prędkości strumieni są znacznie mniejsze niż prędkość światła, w tym przypadku nie ma ani ruchu nadświetlnego, ani aberracji.) Jest prawie prawdopodobne, że tutaj również zachodzą podobne podstawowe procesy fizyczne. Te "dżety protogwiazdowe" są szczególnie dobre do badania, ponieważ prędkości przepływu można dokładnie zmierzyć za pomocą linii widmowych. Charakter mechanizmu powstawania i kolimacji dżetów jest nadal przedmiotem kontrowersji. Wielu astronomów uważa, że w dysku akrecyjnym generowane są silne pola magnetyczne, które są odpowiedzialne za uruchomienie i skupienie wypływu. Większość energii dżetu pochodzi prawdopodobnie z obiektu znajdującego się blisko centralnego obiektu, czarnej dziury, gwiazdy neutronowej, białego karła lub protogwiazdy, również za pośrednictwem pola magnetycznego. Symulacje komputerowe przepływów namagnesowanego gazu wokół centralnych ciał grawitacyjnych zaczynają dawać pewien wgląd w to, w jaki sposób i dlaczego dżety są tak częstym towarzyszem dysków akrecyjnych.
Astrofizyka do 1900 roku
W praktyce nie ma wyraźnej linii podziału między astrofizyką a astronomią. Pierwszą z nich definiuje się zwykle jako badanie właściwości fizycznych ciał niebieskich, drugą zaś z ich położeniem i ruchem. Jednakże te dwa rodzaje pomiarów są często ze sobą powiązane. Na przykład masę gwiazd - właściwość fizyczną - zwykle mierzy się obserwując orbity dwóch gwiazd wokół siebie. Jednakże od początku było oczywiste, że używany sprzęt i wiedza wymagana w przypadku tych dwóch rodzajów działalności były różne. W drugiej połowie XIX wieku, gdy przedmiot ten zaczął się szybko rozwijać, uznano go za odrębny kierunek studiów, chociaż minęło trochę czasu, zanim "astrofizyka" stała się akceptowaną nazwą. W tamtym czasie pomiary astrofizyczne opisywano równie często w kategoriach "chemii nieba", jak i "fizyki nieba". Ponieważ obserwacje te różniły się od tradycyjnych pomiarów pozycyjnych, astrofizykę czasami nazywano "nową astronomią". (Aby zwiększyć zamieszanie, badania ruchu nazywano czasami "astronomią fizyczną"). Te współczesne terminy zostaną tutaj zignorowane: odpowiednie prace będą po prostu nazywane "astrofizycznymi".
Wczesne obserwacje astrofizyczne
Niektóre właściwości fizyczne ciał niebieskich można określić poprzez bezpośrednią obserwację przez teleskop. Z tego punktu widzenia obserwacje o znaczeniu astrofizycznym sięgają wynalezienia teleskopu na początku XVII wieku. Wcześniej spekulowano - na przykład, że gwiazdy są ciałami podobnymi do Słońca - ale nie było to żadnych solidnych dowodów. Kilka obserwacji Galileusza przeprowadzonych w 1610 roku za pomocą nowo wynalezionego teleskopu astronomicznego okazało się mieć implikacje fizyczne. Jednym z nich było odkrycie, że topografia Księżyca jest w pewnym stopniu podobna do ziemskiej (pierwszy krok w kierunku księżycowej geologii ery kosmicznej). Najważniejszymi jego obserwacjami dla późniejszej astrofizyki było odkrycie PUNKTÓW SŁOŃCOWYCH. Oprócz rejestrowania złożonej i zmieniającej się natury plam słonecznych Galileusz wykorzystał je także do pokazania, że Słońce, podobnie jak Ziemia, obraca się wokół własnej osi. Później, w XVII wieku, kolejne odkrycie Galileusza - księżyce Jowisza (patrz Jowisz: SATELITY) - doprowadziło do pierwszego określenia prędkości światła. R?MER pracujący w nowo powstałym Obserwatorium Paryskim odkrył, że godziny pojawiania się i znikania księżyców za Jowiszem wydają się systematycznie zmieniać. Przypisał to zmianom odległości Ziemia-Jowisz oraz skończonej prędkości światła. Pomiary R?mera stanowią wczesny przykład faktu, że choć badania astrofizyki polegają głównie na tym, że astronomowie opierają się na rozwoju fizyki, czasami byli w stanie wnieść coś w zamian. W drugiej połowie XVII wieku NEWTON zbadał, w jaki sposób światło słoneczne po przejściu przez pryzmat rozkłada się na kolory składowe. Takie obserwacje spektroskopowe miały stać się najważniejszą częścią astrofizyki, ale dopiero z pewnym opóźnieniem. W 1800 roku WHerschel w Anglii powtórzył eksperyment Newtona (patrz RODZINA HERSCHEL), ale z nowym celem pomiaru mocy grzewczej różnych części widma słonecznego. Termometr, którego użył, zarejestrował istnienie znacznego ogrzewania poza czerwonym końcem widma widzialnego. Była to pierwsza identyfikacja promieniowania podczerwonego (choć, jak to często bywa w przypadku ważnych osiągnięć, Herschel zinterpretował to inaczej). Równolegle do tego w następnym roku doszło po raz pierwszy wykrycie promieniowania ultrafioletowego. Ritter w Niemczech, zainspirowany pracą Herschela, badał działanie widma słonecznego na chlorek srebra. Odkrył, że maksymalny rozkład substancji chemicznej nastąpił poza fioletowym końcem widma widzialnego. (Był to wczesny krok na drodze do fotografii). Jeszcze rok później, w 1802 roku, Wollaston, który również badał widmo słoneczne w Anglii, odkrył, że jest ono przecięte kilkoma ciemnymi liniami. Uważał, że reprezentują one po prostu punkty rozgraniczenia, w których zaczynają się i kończą różne kolory widmowe. Dziesięć lat później Fraunhofer w Niemczech odkrył, że całe widmo słoneczne przecinają ciemne linie. Wykrył ich prawie 600; nic więc dziwnego, że zaczęto je nazywać LINIAMI FRAUNHOFERA.
Widmo słoneczne
Jak sugeruje ten zalew odkryć, to zainteresowanie Słońcem, a w szczególności jego widmem, spowodowało rozwój astrofizyki w XIX wieku. Powody tego zainteresowania były różne. Jednym z nich było to, że Słońce jest doskonałym źródłem światła. W porównaniu z innymi źródłami światła, czy to niebieskimi, czy laboratoryjnymi, Słońce wytwarzało obfite ilości światła. W rezultacie nawet bardzo nieefektywny sprzęt optyczny może dać rezultaty. Innym powodem było szczególne zainteresowanie naukowców z początku XIX wieku zjawiskami koloru. Najłatwiejszym sposobem ich badania było widmo słoneczne. Badania laboratoryjne wykazały, że różne substancje wytwarzają różne zestawy linii widmowych. Dlatego też od początku istniała tendencja do przypuszczeń, że linie Fraunhofera mogą być powiązane z substancjami chemicznymi występującymi na Ziemi. Przypuszczenie to zostało jednak w pełni potwierdzone dopiero w drugiej połowie XIX wieku. Najpierw należało rozwiązać wiele problemów. Na przykład stwierdzono, że niektóre linie Fraunhofera nie pochodziły w ogóle na Słońcu, ale byli pod wrażeniem światła słonecznego podczas jego przejścia przez atmosferę ziemską. Mówiąc bardziej zasadniczo, widma laboratoryjne składały się z jasnych, a nie ciemnych linii. Jak połączono tę dwójkę? W 1849 roku FOUCAULTowi w końcu udało się wykazać tożsamość linii pojawiających się w emisji i absorpcji. Aby to zrobić, eksperymentował z parą linii w widmie słonecznym, które Fraunhofer oznaczył jako "D", ponieważ były szczególnie intensywne. Jednakże te same linie były również odpowiedzialne za opóźnianie prób interpretacji widm. Trudność polegała na tym, że linie D wydawały się być wszechobecne w laboratorium. Bez względu na to, jaką substancję badano, zawsze zdawała się ona pojawiać. Dopiero w latach pięćdziesiątych XIX wieku w pełni rozpoznano powszechne zanieczyszczenie chemikaliów laboratoryjnych solą, co doprowadziło do pojawienia się linii D sodu. Całe to oczyszczenie ziemi musiało nastąpić, zanim widmo słoneczne mogło zostać właściwie zinterpretowane. Ostatni krok w tym procesie można uznać za kluczowe wydarzenie w podstawach astrofizyki. Zrobił je KIRCHHOFF we współpracy ze swoim kolegą z Heidelbergu, Bunsenem, około 1860 roku. Ich badania rozpoczęły się w laboratorium wraz z wynalezieniem palnika Bunsena. Bunsen zamierzał zastosować powstały w ten sposób nieświecący płomień do badania kolorów emitowanych przez różne pierwiastki podczas ich spalania. W tym celu zaproponował zastosowanie zestawu filtrów barwnych. Kirchhoff zasugerował, że Bunsen powinien zamiast tego użyć pryzmatu, co doprowadziło do porównania ze widmem słonecznym. Kirchhoff ustalił dwie podstawowe zasady analizy widm. Po pierwsze, żarzące się ciała stałe lub ciecze dają widmo ciągłe, natomiast gazy tworzą linie lub pasma (których położenie zależy od konkretnego obecnego gazu). Po drugie, gdy źródło widma ciągłego ogląda się przez chłodniejszy gaz, długości fali, przy których zachodzi absorpcja, odpowiadają tym, przy których następuje emisja podczas ogrzewania gazu. Bezpośrednie konsekwencje dla Słońca były podobnie dwojakie. Po pierwsze, ciało Słońca musi składać się z gorącej, gęstej materii, aby wytworzyć obserwowane widmo ciągłe. Po drugie, linie absorpcyjne powstające w chłodniejszej atmosferze słonecznej można wykorzystać do badania składu chemicznego Słońca. Chociaż było to badanie linii atmosferycznych, które zdominowało późniejszą astrofizykę XIX wieku, wnioski Kirchhoffa dotyczące ciała Słońca wywarły natychmiastowy wpływ na współczesną myśl. Powszechnie rozpowszechniony w pierwszej połowie XIX wieku obraz Słońca przedstawiał plamy słoneczne jako dziury w świetlistej chmurze, przez które można było oglądać zimniejsze wnętrze. W istocie W. Herschel spekulował, że wnętrze Słońca, wyobrażane jako posiadające stałą powierzchnię, może być nawet zamieszkane. Analiza widma Kirchhoffa wykazała, że taki obraz jest niemożliwy.
Inne badania słoneczne
W tym czasie pojawił się kolejny problem dotyczący Słońca. W pierwszej połowie XIX wieku podjęto pierwsze znaczące próby pomiaru ilości ciepła docierającego do nas ze Słońca. Takie pomiary tego, co zaczęto nazywać "STAŁĄ SŁONECZNĄ", dostarczyły ilościowego oszacowania ogromnej ilości istoty energetycznej emitowane przez Słońce. Mniej więcej w tym samym czasie zaczęła się kształtować idea oszczędzania energii. Pojawiło się więc pytanie - skąd Słońce czerpie energię? Było jasne, że źródła chemiczne zapewnią świecenie Słońca jedynie przez bardzo krótki czas, więc potrzebne było źródło fizyczne. Rozwiązanie, które zyskało szeroką akceptację w drugiej połowie XIX wieku, zaproponował HELMHOLTZ w 1854 roku. Zasugerował on, że Słońce uzyskuje ciepło w wyniku skurczu grawitacyjnego. Wymagana szybkość była znacznie niższa od granicy obserwacyjnej, a proces był w stanie utrzymać energię słoneczną przez kilka milionów lat. Naukowcom zajmującym się fizyką ten czas życia wydawał się rozsądny, ale spotykał się z coraz większym atakiem ze strony geologów i biologów. Myśleli - jak się okazało słusznie - że ewolucja powierzchni Ziemi i jej mieszkańców wymagała znacznie dłuższego okresu czasu. W połowie XIX wieku zwrócono uwagę na jeszcze jedną cechę Słońca. To była jego zmieniająca się działalność. Na początku lat czterdziestych XIX wieku SCHWABE, niemiecki astronom amator, na podstawie obliczeń plam słonecznych odkrył, że liczba widocznych na dysku słonecznym zmienia się okresowo w czasie. Jego wnioski zostały opublikowane kilka lat później przez HUMBOLDTA, w czasie, gdy prowadzono szereg badań nad fluktuacjami pola magnetycznego Ziemi. W 1852 roku SABINE z Anglii zauważyła, że te fluktuacje magnetyczne zmieniają się w okresie pokrywającym się z cyklem plam słonecznych. Wniosek ten został wkrótce potwierdzony i rozszerzony przez innych, co doprowadziło do ciągłego zainteresowania . Stosunki słoneczno-ziemskie w drugiej połowie XIX wieku. Główne cechy atmosfery Słońca zostały już dostrzeżone, zanim Kirchhoff zainteresował się widmem słonecznym. Ponieważ atmosfera słoneczna była zbyt słaba, aby można ją było dostrzec w pełnym świetle słonecznym, należało zbadać jej właściwości podczas zaćmień słońca. Wyprawy na zaćmienia w latach 1842 i 1851 pokazały, że powierzchnię Słońca zwieńcza CHROMOSFERA (tzw. ze względu na jej czerwony kolor). Powyżej rozciągała się znacznie cieńsza KORONA. Z chromosfery rozciągały się duże "płomienie" (później zwane "występami"). Wyjaśnienie widma słonecznego przez Kirchhoffa otworzyło teraz drogę do bardziej szczegółowego badania struktury atmosfery. Pierwszy postęp astrofizyczny nastąpił w 1868 roku. W tym samym roku z Indii można było zobaczyć zaćmienie słońca i jeden z obserwatorów - Francuz JANSSEN - przyglądał się widmom protuberancji. On i inni znaleźli jasne linie, które wskazywały, że protuberancje to chmury gazu. Janssen doszedł do wniosku, że linie są tak jasne, że powinny być widoczne podczas zaćmienia. Następnie przeskanował kończynę słoneczną i wykazał, że rzeczywiście tak było. W tym samym czasie LOCKYER w Anglii przeprowadził obserwacje spektroskopowe Słońca i zaobserwował te same linie. Oznaczało to, że zarówno chromosferę, jak i protuberancje można było odwzorować na krańcu Słońca, bez konieczności zaćmienia. Ponieważ korona była tak słaba, w XIX wieku nadal można ją było obserwować tylko podczas zaćmień. Podczas zaćmienia w 1869 roku odkryto pierwszą jasną linię koronalną. Teraz stało się oczywiste, że linie emisyjne zarówno chromosfery, jak i korony znacznie różnią się od widma absorpcyjnego Słońca. Z pracy Kirchhoffa oznaczało to, że żadne z nich nie mogło być źródłem linii Fraunhofera. Podczas zaćmienia w 1870 roku amerykański astronom YOUNG wykazał, że linie absorpcyjne w rzeczywistości powstały w ograniczonym obszarze - zwanym "warstwą odwracającą" - pomiędzy chromosferą a pozorną powierzchnią Słońca. Wyjaśnienie jasnej powierzchni Słońca również rozwinęło się dalej w latach sześćdziesiątych XIX wieku. Pod koniec tej dekady Andrews w Anglii wykazał, że gazów o wystarczająco wysokiej temperaturze nie można skroplić. Potwierdziło to to, co już podejrzewano: że ciało Słońca musi składać się z gazu pod wysokim ciśnieniem, a nie z cieczy, jak przypuszczał Kirchhoff. To zrodziło nowe pytanie - dlaczego Słońce w ogóle wydawało się mieć wyraźnie określoną powierzchnię (oznaczoną jako fotosfera)? Powszechnie uznano, że fotosfera musi reprezentować poziom na Słońcu, przy którym gazy stały się wystarczająco chłodne, aby mogły nastąpić skroplenie materiałów ogniotrwałych. Odnowiona wiara w zachmurzoną powierzchnię Słońca pozostawała w modzie aż do początków XX wieku. Zatem w ciągu kilku lat obserwacje spektroskopowe dostarczyły w miarę wyraźny obraz atmosfery Słońca. Następnych kilka dekad poświęcono na wyjaśnianie niektórych niejasności tego obrazu. Jeden związany ze składem chemicznym. Następny Kirchhoffa wielu obserwatorów porównało widma ziemskie z widmem słonecznym, próbując określić skład chemiczny Słońca. Stwierdzono, że prawie wszystkie pierwiastki, które można było wykryć, to metale (chociaż wodór odnotowano wcześnie). Jednak nie udało się zidentyfikować jednej bardzo jasnej linii w widmie chromosferycznym. Lockyer zasugerował, że tak wytwarzany przez nowy pierwiastek, zwany w związku z tym "helem", którego nie znaleziono jeszcze na Ziemi. Sugestia ta została mocno zakwestionowana, ale Lockyer został potwierdzony w latach 90. XIX wieku, kiedy Ramsay odkrył gaz w skałach lądowych, poprzez jego widmo. Podobnie stwierdzono, że niemożliwe jest zidentyfikowanie linii koronalnych. Dlatego też wysunięto równoległą sugestię, że są one spowodowane nowym pierwiastkiem, oznaczonym jako "koronium". W tym przypadku nigdy nie znaleziono żadnego odpowiadającego elementu. (Dopiero w połowie XX wieku wykazano, że linie koronalne powstają w wyniku znanych pierwiastków w stanach silnie zjonizowanych.)
Astrofizyka gwiazd
W początkach astrofizyki Słońce było tak popularnym celem obserwacji, że cały temat nazywano czasem po prostu "fizyką Słońca". Pominęło to fakt, że odkrycia Kirchhoffa zostały natychmiast zastosowane do obserwacji widm gwiazd. Wkrótce stało się jasne, że widma gwiazd mogą znacznie się od siebie różnić. Zatem oprócz badania składu chemicznego gwiazd konieczne było również zbadanie możliwości klasyfikowania gwiazd w grupy. Zajmował się tym w latach sześćdziesiątych XIX wieku przede wszystkim jezuicki astronom SECCHI. Po zbadaniu kilku tysięcy gwiazd doszedł do wniosku, że można je wszystkie podzielić na cztery grupy, w zależności od wyglądu ich widm. Zauważono, że te typy widmowe były skorelowane z kolorami gwiazd - białym, żółtym lub czerwonym. W tym samym okresie projekt HUGGINS w Anglii wykorzystał widma o większym rozproszeniu do poszukiwania składników chemicznych. Pomimo różnic pomiędzy widmami odkrył, że wiele linii można utożsamić z pierwiastkami występującymi na Ziemi i Słońcu. W tych wczesnych dniach widma gwiazd - podobnie jak widmo Słońca - były obserwowane wizualnie. Podczas gdy Słońce wytwarzało odpowiednią ilość światła, nie dotyczyło to gwiazd. Oczywistą odpowiedzią było użycie fotografii, ale modny w latach sześćdziesiątych XIX wieku proces "mokrej płyty" był niewystarczająco czuły. Fotografowanie widm gwiazd stało się możliwe dopiero pod koniec lat 70. XIX wieku, kiedy dostępna stała się metoda "suchej płyty". Wkrótce nastąpiły nowe odkrycia. Ważna z nich wynikała z faktu, że klisze fotograficzne były bardziej czułe na ultrafiolet niż ludzkie oko, w wyniku czego w tym obszarze wykryto wiele nowych linii. Huggins w Anglii i VOGEL w Niemczech znaleźli tam linie, które ich zdaniem przedłużały sekwencję linii wodoru występujących w widzialnym. Badanie długości fal tych linii doprowadziło Szwajcara BALMERA do ogłoszenia wzoru numerycznego na długości fal linii wodorowych, nazywanych obecnie jego imieniem. Jego sukces ugruntował pogląd, że linie widmowe powstają w wyniku powiązanych sekwencji wibracji atomowych. Fotograficzna rejestracja widm gwiazd umożliwiła także pierwszy w miarę dokładny pomiar prędkości radialnych. Doprowadziło to do odkrycia spektroskopowych układów podwójnych: pierwszy znaleziony - Mizar - został odkryty przez pannę Maury na Harvardzie pod koniec lat osiemdziesiątych XIX wieku.
Gwiazdy i mgławice
Fotografia ostatecznie pomogła także w innym rodzaju pomiarów astrofizycznych - jasności gwiazd. W latach osiemdziesiątych XIX wieku E C PICKERING na Harvardzie i Pritchard na Oksfordzie stworzyli katalogi fotometryczne jaśniejszych gwiazd na półkuli północnej w oparciu o wizualne szacunki jasności. Zostały one rozszerzone na gwiazdy półkuli południowej na początku lat 90. XIX wieku przez Baileya obserwującego w Peru. Powszechnie panowało już wówczas przekonanie, że przyszłością będzie fotometria fotograficzna. Niestety, trudno było osiągnąć porozumienie co do tego, jak zredukować obrazy fotograficzne do równoważnych wielkości (dopiero powoli zdano sobie sprawę, że wielkość fotograficzna i wizualna mogą znacznie się różnić w zależności od koloru gwiazdy). W rezultacie fotometria fotograficzna do końca XIX wieku przyczyniła się jedynie w niewielkim stopniu. Pod koniec stulecia hotografia - zwłaszcza prace badawcze na Harvardzie - okazała się cenną metodą wykrywania gwiazd zmiennych. Zainteresowanie wizualną obserwacją zmiennych, na które pierwotnie zwracał uwagę Argelander w Niemczech, wzrosło od połowy stulecia. System oznaczania gwiazd zmiennych za pomocą liter alfabetu obowiązywał już w latach osiemdziesiątych XIX wieku, a pod koniec stulecia badano przykłady głównych typów zmiennych. Największą uwagę przykuły NOVAE (supernowe wyodrębniono jako odrębną kategorię dopiero w XX wieku). Hug ins w 1866 roku jako pierwszy zbadał widmo nowej. Odkrył, że składa się ono ze zwykłego widma absorpcyjnego gwiazd z nałożonymi na siebie jasnymi liniami. Dlatego zarówno to, jak i późniejsze widma nowych zostały zinterpretowane jako wskazujące na eksplozję chmury gazu z ciała gwiazdowego. W latach sześćdziesiątych XIX wieku Huggins przeprowadził przegląd widm jasnych mgławic. (W XIX wieku "mgławica" oznaczała dowolną rozległą plamę światła w porównaniu z gwiazdami, które były źródłami punktowymi). Od czasów WHerschela toczyła się debata na temat natury mgławic. Czy były to jakieś ciecze, czy też gwiazdy skupione tak blisko siebie, że nie dało się ich rozróżnić? Pierwszym obiektem zbadanym przez Hugginsa była Mgławica Planetarna. Pokazał jasne widmo liniowe, co natychmiast zinterpretowano jako oznaczające, że mgławice są obłokami gazu. Problem polegał na tym, że niektórych linii widmowych nie można było powiązać z żadnymi znanymi elementami ziemskimi. Dlatego zasugerowano, analogicznie do helu, że obecny jest nowy pierwiastek - "mgławica". Chociaż pomysł pozostawał w użyciu przez resztę stulecia, mgławica, podobnie jak korona, ostatecznie okazała się fałszywa. W XX wieku wykazano, że jasne linie wynikają z obecności tlenu w stanie rozrzedzonym. W miarę obserwowania większej liczby widm mgławic początkowe wnioski dotyczące ich natury stawały się coraz bardziej wątpliwe. Mgławice planetarne i tak zwane mgławice "nieregularne" (których najlepszym przykładem była mgławica Oriona) zawsze dawały linie emisyjne. Jednakże inne mgławice (kluczowym przykładem jest mgławica Andromeda) dały widma, które wydawały się być ciągłe, bez ciemnych i jasnych linii. Interpretacja tego rodzaju widma była przedmiotem sporu przez resztę stulecia. Pierwsza wskazówka dotycząca dalszych działań pojawiła się dopiero w 1899 r., kiedy SCHEINER w Niemczech odkrył słabe ślady linii absorpcyjnych na fotografii widma mgławicy Andromedy z długim czasem naświetlania. Do tego czasu bezpośrednie zdjęcia dostarczyły dalszych informacji na temat tego ostatniego typu mgławic. LordROSSE, obserwując w Irlandii w latach czterdziestych XIX wieku, zauważył wizualnie, że kilka mgławic wydawało się mieć strukturę spiralną. Kiedy pod koniec stulecia dostępne stały się czułe klisze fotograficzne, wykazano - zwłaszcza KEELER w Stanach Zjednoczonych - że istnieje znacznie więcej mgławic spiralnych. Naturalnym było przypuszczenie, że niezwykłe widmo i niezwykły kształt takich mgławic są ze sobą powiązane. Pod koniec XVIII wieku francuski matematyk LAPLACE zasugerował sposób, w jaki mógł powstać Układ Słoneczny. Wyobraził sobie kurczącą się mgławicę, która w miarę kurczenia się wirowała szybciej. Szybkość wirowania w końcu osiągnęła punkt, w którym materiał został wyrzucony w pierścieniach wokół równika. Materia ta następnie skondensowała się, tworząc planety, a końcowa centralna kondensacja utworzyła Słońce. Obraz nakreślony przez tę "hipotezę mgławicy" sugerował, że kurcząca się materia będzie wyglądać bardzo podobnie do mgławicy spiralnej. Dlatego zaczęto sądzić, że takie mgławice są po prostu pobliskimi układami planetarnymi w procesie formowania. W 1885 roku zamieszanie pogłębiło pojawienie się nowej gwiazdy - właściwie supernowej - w mgławicy Andromedy. Można to oczywiście porównać z innymi nowymi gwiazdami - zwykłymi gwiazdami nowymi - obserwowanymi w Drodze Mlecznej w XIX wieku. Odpowiednie błędne oszacowanie odległości sugerowało, że mgławica Andromedy była częścią naszej własnej Galaktyki. Innym czynnikiem mającym wpływ na to było rozmieszczenie mgławic spiralnych. Stało się jasne, że nie miały one miejsca w pobliżu płaszczyzny Drogi Mlecznej (tzw. "strefa unikania"). Chociaż przyczyna nie była znana (później stwierdzono, że jest to zasłaniający pył w Drodze Mlecznej), rozkład ten sugerował, że mgławice są powiązane z naszą Galaktyką. Na początku stulecia szeroko dyskutowano pogląd, że wiele mgławic to gromady gwiazd, niektóre pod względem wielkości dorównujące naszej Drodze Mlecznej. Pod koniec stulecia większość uważała, że Wszechświat jest zdominowany przez Drogę Mleczną.
Ewolucja gwiazd
W tym czasie rozwinęło się żywe zainteresowanie ewolucją gwiazd. Po ustaleniu różnych kategorii gwiazd nieuniknione było pytanie, w jaki sposób grupy są ze sobą powiązane. Współczesne zainteresowanie ewolucją w geologii i biologii w naturalny sposób zachęcało do poszukiwania zależności o charakterze ewolucyjnym. Pierwszym szeroko rozpowszechnionym poglądem, opracowanym szczególnie przez Zöllnera i Vogela w Niemczech, było to, że gwiazdy tworzą pojedynczą sekwencję ewolucyjną. Urodziły się gorące i białe. W miarę rozpraszania ciepła stawały się kolejno żółte, a następnie czerwone. Wystąpił problem. Jedynym znanym mechanizmem fizycznym napędzającym zmiany było kurczenie się. Zarówno Lane w USA, jak i Ritter w Niemczech wykazali, że kurcząca się kula w rzeczywistości nagrzewa się, a nie chłodzi. Jednak ich wyniki zakładały, że gwiazda jest kulą gazu doskonałego. Nikt wówczas nie przypuszczał, że taki model może reprezentować prawdziwą gwiazdę. Pod koniec stulecia zaczęły gromadzić się dowody na to, że gwiazdy tego samego koloru mogą znacznie różnić się innymi cechami, takimi jak rozmiar. Najbardziej radykalna rewizja XIX-wiecznego obrazu ewolucji gwiazd - "hipoteza meteorytyczna" Lockyera zaproponowana w latach osiemdziesiątych XIX wieku - zakładała, że tak właśnie było. Lockyer zasugerował, że gwiazdy powstają z mgławic składających się z obłoków meteorytów (popularnych obiektów badań w drugiej połowie stulecia). Kurczenie się mgławicy doprowadziło do zwiększonej szybkości zderzeń pomiędzy wchodzącymi w jej skład meteorytami, a tym samym podniosło jej temperaturę. Mgławica, widoczna teraz jako gwiazda, stopniowo zmieniała swój kolor z czerwonego, przez żółty, aż do białego. Zanim osiągnięto ten ostatni punkt, wszystkie meteoryty wyparowały. Dlatego też biała gwiazda teraz ostygła i stała się mniejsza w miarę powracania do sekwencji z żółtej na czerwoną. W przeciwieństwie do innych schematów, hipoteza Lockyera zakładała zatem, że czerwone gwiazdy można podzielić na dwie kategorie - albo bardzo duże, albo bardzo małe.
Interpretacja widm
Lockyer oparł swoje argumenty na porównaniu widm meteorytów w laboratorium z widmami szerokiego zakresu gwiazd. Niektóre z tych prac zostały zaatakowane, a jego hipoteza nie zyskała szerokiego wsparcia. Niemniej jednak szczegółowe badania widm gwiazd stawały się coraz bardziej tematem zainteresowania. W połowie lat osiemdziesiątych XIX wieku EC Pickering z Harvardu zainicjował zakrojone na szeroką skalę badania spektroskopii i fotometrii gwiazd. Pierwsze wyniki pojawiły się w latach 90. XIX wieku jako pamiątkowy katalog widm gwiazd Drapera. (Draper był pionierem amerykańskiego astrofizyka, którego rodzina przekazała pieniądze na projekt po jego śmierci.) W katalogu wprowadzono alfabetyczną klasyfikację widm gwiazd, która jest nadal używana. Widma użyte do klasyfikacji na Harvardzie były zbyt małe, aby je szczegółowo zbadać, ale panna Maury zbadała bardziej szczegółowo podzbiór gwiazd. Odkryła, że gwiazdy tego samego koloru mogą nadal wykazywać subtelne różnice w wyglądzie swoich widm. Spekulowała, że mogą one mieć wpływ na ewolucję gwiazd. (W istocie jej prace doprowadziły do rozróżnienia dokonanego przez Hertzsprunga na gwiazdy olbrzymy i karły na początku XX wieku). Podstawowy problem polegał na tym, że teoretyczne rozumienie widm pozostawało przez cały XIX wiek dość prymitywne. Trudność polegała na tym, że widma nie tylko same w sobie były często złożone, ale co gorsza, mogły się zmieniać w zależności od źródła światła. Na przykład widmo laboratoryjne pierwiastka wytworzonego za pomocą łuku elektrycznego może mieć pewne linie różniące się od widma tego samego pierwiastka wytworzonego za pomocą iskry elektrycznej. Jedno z proponowanych wyjaśnień było takie, że elementy można rozbić w stopniu zróżnicowanym w zależności od warunków, jakim były poddawane. Sugestia ta spotkała się ze znacznym sprzeciwem, między innymi dlatego, że podstawową zasadą XIX-wiecznej nauki było przekonanie, że atomy są niezniszczalne. Niestety Lockyer, który był najsilniejszy zwolennik tego argumentu, początkowo miał błędne wyobrażenie o tym, co się dzieje. Już wcześniej zauważono, że w widmach laboratoryjnych różnych pierwiastków niektóre linie często pokrywały się w swoich pozycjach. Locker nazwał je liniami "podstawowymi" i uważał, że ujawniają one obecność wspólnego produktu rozpadu z pierwiastków początkowych. Gdy stały się dostępne spektroskopy o wyższej dyspersji, odkryto, że te podstawowe linie po prostu znajdowały się blisko siebie, a nie pokrywały się. W związku z tym nie miały one żadnego zasadniczego znaczenia. Pod koniec stulecia Lockyer pod wpływem swojego asystenta, FOWLERA, zmienił swoje poglądy na temat rozkładu pierwiastków. Zwrócono teraz uwagę na inną grupę wersetów - oznaczonych jako "udoskonalone" - które różniły się w zależności od źródła. Linie te rzeczywiście były powiązane z tym, co obecnie nazwalibyśmy zjonizowanymi atomami. Jednak współcześni Lockyerowi byli w większości tak zdezorientowani jego reinterpretacją, że nowy pomysł nie wzbudził początkowej uwagi. Do tego czasu - końca stulecia - dowody zaczynały się gromadzić, tak że atomy mogły zostać rozbite. Kluczowym tego przykładem jest praca JJ Thomsona nad elektronem. Szczegółowe zrozumienie widm astronomicznych musiało poczekać na rozwój teorii kwantowej w XX wieku. Próbując zinterpretować widma, Słońce pozostawało głównym źródłem danych porównawczych przez cały XIX wiek. Na przykład odkryto, że widma plam słonecznych mają pasma podobne do widm czerwonych gwiazd. Ponieważ uważano, że plamy słoneczne są chłodniejsze od Słońca jako całości, zgadzało się to z oczekiwaniami dotyczącymi temperatur gwiazd. Problem polegał na tym, aby faktycznie przedstawić liczbę związaną z temperaturami. Biała gwiazda może być gorętsza niż czerwona, ale o ile gorętsza? Ponownie spodziewano się, że najpierw uda się odpowiedzieć na to pytanie w odniesieniu do Słońca. W połowie XIX wieku możliwości powiązania temperatury ciała z emitowanym przez nie promieniowaniem były ograniczone. Opierały się one głównie albo na prawie Newtona, albo na prawie Dulonga i Petita, ale dawały one bardzo różne wyniki. Na przykład jedno oszacowanie z 1860 r. sugerowało, że powierzchnia Słońca ma temperaturę około 7 000 000 ?C, podczas gdy inne z 1872 r. sugerowało 1400 ?C. Spośród różnych proponowanych poprawek, ta, która ostatecznie okazała się najbardziej użyteczna, została wysunięta przez Stefana w 1879 roku. Jego sugestia dotycząca zależności od czwartej potęgi temperatury nie miała oparcia teoretycznego aż do rozwoju teorii kwantowej. Dlatego w XIX wieku traktowano go z pewną rezerwą.
Rozwój astrofizyki
W 1859 roku po raz pierwszy zaobserwowano rozbłysk słoneczny. Było ono na tyle intensywne, że było widoczne w białym świetle na tle tarczy Słońca, a towarzyszyła mu potężna burza magnetyczna i rozległe zorze polarne na Ziemi. Trudność polegała na tym, że takie zdarzenia były zwykle niewidoczne, ponieważ ograniczenia instrumentalne oznaczały, że większość obserwacji Słońca prowadzono na żywo. Zmieniło się to w latach 90. XIX wieku, kiedy HALE w USA (a także DESLANDRES we Francji) wprowadzili pomysł oglądania całego Słońca w świetle pojedynczej linii, umożliwiając w ten sposób skanowanie aktywności słonecznej na całym dysku. Rozwój ten dobrze ilustruje ciągły związek między nowymi badaniami astrofizycznymi a lepszym instrumentarium. Pod koniec stulecia na końcach teleskopów zawieszano nie tylko coraz większą różnorodność sprzętu: same teleskopy przechodziły zmiany. Zatem fakt, że klisze fotograficzne były wrażliwe na inny obszar widma niż ludzkie oko, oznaczał, że teleskopy refrakcyjne do zastosowań fotograficznych musiały być specjalnie zaprojektowane i dostosowane. Co więcej, potrzeba maksymalnego uchwycenia światła doprowadziła do rosnącego zainteresowania wykorzystaniem teleskopów zwierciadlanych w badaniach astrofizycznych. W początkach swojej działalności wielu astronomów uważało astrofizykę za słabszy dodatek do astronomii klasycznej. Było mniej rygorystyczne i nie wymagało podstaw matematycznych niezbędnych w astronomii klasycznej. Pomimo prób powiązania aktywności słonecznej z ziemską pogodą, przyniosło to mniej praktyczne skutki niż klasyczna astronomia, która stanowiła tradycyjną podstawę ziemskiego pomiaru czasu i położenia. Przede wszystkim nie istniała zadowalająca teoria, która umożliwiłaby zintegrowanie tego wszystkiego w jedną całość. Nic dziwnego, że wielu pionierów strofizyków było amatorami lub wywodziło się z innych dyscyplin. Jednak w ciągu kilku dziesięcioleci astrofizyka stała się odrębnym tematem: w latach 90. XIX wieku poświęcono jej już główne czasopismo - Astrophysical Journal (patrz ASTRONOMICAL TOWARZYSTWA I PUBLIKACJE). Co istotne, rozwiązanie to wprowadzono w Stanach Zjednoczonych. Ameryka Północna odegrała jedynie niewielką rolę w rozwoju astronomii klasycznej. Wraz z nastaniem nowego stulecia w świecie astronomicznym powszechnie przyjęto, że odegra on znacznie większą rolę w rozwoju astrofizyki.
Atom
Najmniejsza cząsteczka pierwiastka chemicznego, która zachowuje właściwości tego pierwiastka. Każdy atom składa się ze zwartego jądra, w którym znajduje się cała jego całkowita masa z wyjątkiem niewielkiej części, otoczonego chmurą elektronów - lekkich cząstek o ujemnym ładunku elektrycznym. Typowe jądro atomowe ma promień około 10-14 m; całkowity promień atomu (czyli promień jego chmury elektronów) jest około 10 000 razy większy (około 10?10 m). Jądro składa się z pewnej liczby protonów (masywnych cząstek o dodatnim ładunku elektrycznym) wraz z pewną liczbą neutronów (cząstek o masie podobnej do protonu, ale o zerowym ładunku elektrycznym), przy czym wszystkie te cząstki są powiązane ze sobą silnym oddziaływaniem jądrowym. Otaczająca chmura ujemnie naładowanych elektronów jest utrzymywana wokół dodatnio naładowanego jądra dzięki sile elektromagnetycznej. Kompletny (neutralny) atom zawiera taką samą liczbę protonów jak elektrony, a ponieważ ma taką samą liczbę cząstek naładowanych dodatnio i ujemnie, ma zerowy ładunek wypadkowy. Atom, który utracił jeden lub więcej elektronów i dlatego ma ładunek dodatni, nazywany jest jonem dodatnim. Atom, który pozyskał jeden lub więcej dodatkowych elektronów i w związku z tym ma ładunek ujemny, nazywany jest jonem ujemnym. Każdemu pierwiastkowi przypisany jest symbol chemiczny w formie litery lub pary liter; na przykład wodór oznacza się H, hel He i tak dalej. Atom charakteryzuje się liczbą atomową (oznaczoną symbolem Z), która oznacza liczbę protonów w jego jądrze, oraz liczbą masową (A), która oznacza całkowitą liczbę protonów i neutronów zawartych w jego jądrze. Tradycyjnie pierwiastek jest oznaczony jego symbolem chemicznym, poprzedzonym liczbą masową jako indeksem górnym i liczbą atomową jako indeksem dolnym. Zatem pierwiastek X o liczbie atomowej Z i liczbie masowej A można zapisać jako A ZX. Na przykład normalny atom wodoru z jednym protonem i bez neutronów w jądrze (Z = 1; A = 1) byłby oznaczony przez 11 H; jądro helu z dwoma protonami (Z = 2) i dwoma neutronami (A = 2 + 2 = 4) byłoby oznaczone jako 42 He i tak dalej. Liczba atomowa określa pierwiastek chemiczny, którego przykładem jest dany atom. Zatem na przykład każdy atom wodoru ma Z = 1, każdy atom helu ma Z = 2 i tak dalej. Jądra tego samego pierwiastka chemicznego mogą jednak zawierać różną liczbę neutronów. Atomy, które mają tę samą liczbę protonów, ale różną liczbę neutronów w swoich jądrach, a zatem mają tę samą liczbę atomową, ale różną liczbę masową, nazywane są izotopami. Na przykład "ciężki wodór" lub deuter, oznaczony jako 21H (lub 2D), to izotop wodoru, który w swoim jądrze ma jeden proton i jeden neutron, a nie tylko jeden proton. Hel występuje w dwóch postaciach, hel-4 (42 He) i hel-3 (32 He), lżejszy izotop z dwoma protonami, ale tylko jednym neutronem w jądrze. Średnia liczba różnych naturalnie występujących izotopów danego pierwiastka, ważona według ich względnej liczebności, jest masą atomową tego pierwiastka. Chociaż mechanika kwantowa wykazała, że elektronów w atomach nie można traktować ściśle jako punktów zlokalizowanych w przestrzeni i że chmury elektronów otaczające jądro reprezentują obszary, w których prawdopodobieństwo znalezienia elektronów jest największe, model atomu wodoru Bohra zaproponowany w 1913 r. autorstwa duńskiego fizyka Neilsa Bohra (1885-1962) w dalszym ciągu stanowi dobrą podstawę do opisu sposobu, w jaki atomy emitują i pochłaniają promieniowanie. Według tego modelu atom wodoru składa się z pojedynczego protonu, wokół którego pojedynczy elektron porusza się po jednej z szeregu dozwolonych orbit, z których każda odpowiada innemu poziomowi energii. Jeśli elektron spadnie z wyższego poziomu na niższy (dokonuje "przejścia w dół"), emituje foton (ilość energii promieniowania) o energii równej różnicy energii pomiędzy górnym i dolnym poziomem. Długość fali emitowanego promieniowania jest odwrotnie proporcjonalna do energii fotonu (im większa różnica poziomów energii, tym krótsza długość fali emitowanego promieniowania). I odwrotnie, jeśli elektron pochłonie ilość energii równą różnicy energii między niższym i wyższym poziomem, przeskoczy na wyższy poziom (dokonuje "przejścia w górę"). Emisja i absorpcja promieniowania, która zachodzi, gdy elektrony dokonują przejść w dół i w górę pomiędzy różnymi poziomami energii atomów wodoru, powoduje powstanie szeregu linii emisyjnych lub absorpcyjnych tworzących widmo wodoru. W przypadku masywnych atomów, które mają wiele elektronów ułożonych w koncentrycznych powłokach, zbiór poziomów energii i dozwolonych przejść jest bardziej złożony, ale obowiązuje ta sama ogólna zasada: przejścia w dół powodują emisję promieniowania, a przejścia w górę mają miejsce po absorpcji energii.
Zorza polarna
Zorza polarna to rozległe źródło światła o różnych formach i kolorach, które można zaobserwować na dużych, a czasami na średnich szerokościach geograficznych. Ich jasność może osiągnąć intensywność światła pełni księżyca. Owal zorzy polarnej (po jednej na każdej półkuli) to miejsce, w którym można zaobserwować większość zórz polarnych. Jest to pas otaczający każdą z Ziemi bieguny magnetyczne o maksymalnym zasięgu równoleżnikowym o północy magnetycznej. Zorze polarne (wewnątrz owalu) i zorze dzienne są zwykle słabe i rozproszone, natomiast w owalu są bardziej intensywne i zmienne w czasie. W obu przypadkach zorze powstają w wyniku interakcji cząstek pochodzenia słonecznego z atomami i cząsteczkami górnych warstw atmosfery ziemskiej w wyniku bezpośrednich zderzeń i reakcji chemicznych. Jednakże w przypadku owalu zorzy polarnej cząstki są przyspieszane przez pewne złożone procesy magnetosferyczne prowadzące do zjawisk o jaśniejszej intensywności i różnych formach, przy czym oba znaki są w dużym stopniu zależne od czasu. Zorze polarne obserwuje się zwykle na wysokości od 80 do 300 km, w zależności od charakterystyki wytrącających się cząstek (energii elektronów i protonów) oraz składu atmosfery, co prowadzi do widma zorzy składającego się z wielu linii atomowych i molekularnych obojętnych lub zjonizowanych. Występowanie i intensywność zorzy polarnej zależą od aktywności Słońca; na przykład w obserwacjach można znaleźć typowy 11-letni cykl słoneczny. Charakterystyka zorzy polarnej stanowi ostatni etap szeregu procesów rozpoczynających się w atmosferze słonecznej i biorących pod uwagę ziemską magnetosferę i fizykę atmosfery.
Krótkie tło historyczne
Obserwując nasze otoczenie, ujawniają się różne zjawiska. Występują regularne zjawiska, takie jak wschody i zachody słońca, ruchy gwiazd i planet. Występują także zjawiska występujące nieregularnie, o charakterze astronomicznym lub geofizycznym, takie jak tęcze, komety, aureole i zorze polarne. Zanim stały się przewidywalne, ich wystąpienie było powiązane z kilkoma ważnymi wydarzeniami. Dlatego właśnie zjawiska te zostały odnotowane w celach wróżbiarskich, a także prawdopodobnie dla ciekawości. W pierwszych wiekach naszej ery Chińczycy, Grecy i Rzymianie odnotowali zorze polarne. Jednak ludzie zamieszkujący obszary położone na dużych szerokościach geograficznych byli bardziej przyzwyczajeni do ich występowania i nazwali je Zorzą Polarną. Pierwsze współczesne obserwacje zorzy rozpoczęły się w drugiej połowie XVI wieku za sprawą Tycho Brahe z jego obserwatorium w Uraniborgu. Jakiś czas później występowanie zorzy zorzy zmniejszyło się, szczególnie na średnich szerokościach geograficznych. P. Gassendi opisał kilka zorzy obserwowanych na początku XVII wieku i zaproponował nazwę "aurora borealis". Po odkryciu plam słonecznych w 1609 roku, regularnie obserwowano Słońce. Występowanie plam słonecznych znacznie spadło od 1645 do 1715 roku, czyli do "minimum Maundera", podczas którego wystąpiło niewiele zorzy. Aktywność słoneczna została wznowiona na początku XVIII wieku, a na średnich szerokościach geograficznych (1716 i 1726) zaobserwowano kilka intensywnych zórz polarnych. E Halley, a później JJ Dortou de Mairan zostali poproszeni o zbadanie ich pochodzenia odpowiednio przez Towarzystwo Królewskie (Londyn) i Acad′emie Royale des Sciences (Paryż). Wcześniej wysunięto różne hipotezy wyjaśniające występowanie zorzy polarnej. Mairan zasugerował w 1733 roku, że światło zorzy zostało wygenerowane przez płyn słoneczny uderzający w ZIEMSKĄ SATMOSFERĘ. Choć była to hipoteza przybliżona, była to pierwsza hipoteza oparta na związku Słońca z Ziemią. W drugiej edycji swojego raportu Mairan stwierdził, że istnieje związek pomiędzy plamami słonecznymi i zorzą polarną, a także ich sezonowym występowaniem. Związek między występowaniem zorzy polarnej a zaburzeniami magnetycznymi został eksperymentalnie wykazany przez P. Hiortera w 1741 r., obserwując jednocześnie maleńkie zaburzenia doświadczane przez igłę kompasu (podawana w stopniach Celsjusza). Mairan podejrzewał, że zorze polarne mogą pojawiać się na półkuli południowej i skierował notatkę do Don Ulloa, hiszpańskiego oficera marynarki, który potwierdził obserwacje zorzy polarnej podczas okrążania Przylądka Horn w 1745 roku. J. Cook badający wysokie południowe szerokości geograficzne potwierdził występowanie " aurora australis" w 1770 r. W drugiej połowie XVIII wieku W. Wargentin (1717-1783) na podstawie różnych obserwacji wywnioskował, że zorze polarne można obserwować z różnych miejsc w tym samym czasie i rozciągają się poziomo jako pas otaczający Biegun Północny. Po odkryciu elektronu K. Birkeland zaproponował w 1896 r., że zorze polarne powstają w wyniku elektronów wyrzucanych ze Słońca i kierowanych przez ziemskie pole magnetyczne do regionów położonych na dużych szerokościach geograficznych. Poparł tę ideę eksperymentami laboratoryjnymi. Jednak ze względu na odpychanie elektrostatyczne konieczne było uwzględnienie PLAZMY wyrzuconej przez Słońce, a nie samych elektronów. S Chapman i V Ferraro wykazali, że poruszająca się plazma będzie oddziaływać z polem magnetycznym Ziemi, zamykając ją we wnęce. To były narodziny fizyki magnetosferycznej. Kilka ekspedycji pod koniec XIX wieku z dużą dokładnością zlokalizowało strefę zorzową. Zorze były przedmiotem wielu obserwacji (form, widma itp.) i opracowań teoretycznych.
Główne właściwości
Nowoczesnymi sposobami obserwacji zórz polarnych są spektrometry analizujące ich widmo, fotometry badające zachowanie jednej lub kilku linii emisyjnych, kamery rejestrujące formy zorzy w funkcji czasu oraz radar. Instrumentów tych można używać na ziemi lub z platform orbitujących, gdzie umożliwiają globalne badanie zórz polarnych. Jednak przed instrumentalnym badaniem zórz polarnych przeprowadzono obserwacje wizualne. Aby umożliwić porównania obserwacji dokonanych przez różnych autorów, na arenie międzynarodowej przyjęto nomenklaturę opisującą cechy zorzy polarnej (intensywność, forma i kolor). Jest nadal w użyciu.
Intensywność
Linia o największym natężeniu wynika z emisji tlenu atomowego przy 557,7 nm, często nazywana w literaturze naukowej "zieloną linią". Jasność zorzy polarnej jest skalowana do intensywności zielonej linii za pomocą Międzynarodowego Współczynnika Jasności (IBC), jak pokazano w tabeli .
Dla porównania podano równoważne źródła jasności. We współczesnych pomiarach intensywność emisji zorzy polarnej podaje się w Rayleighu. Jednakże w przypadku wykorzystywania starych zapisów do badań długoterminowych odniesienie do równoważnego natężenia źródła jest przydatne pomimo jego względnej niedokładności.
Formy i kolory
Obserwacje wizualne i obrazy zarejestrowane przez kamery ujawniają kilka typowych form, jak pokazano na przykład na rysunku 1. Są one dokładnie opisane jako łuki, pasma, promieniste lub nie, powierzchnia rozproszona lub pulsująca, korona i płomienie. Opis form zorzowych opiera się na nomenklaturze międzynarodowej Kolory zorzy są zwykle zielone, czerwone lub niebieskie, w zależności od gatunków atmosferycznych biorących udział w procesach wzbudzenia. Zorze o intensywności IBC I lub II wydają się bezbarwne. Żółte zorze powstają w wyniku zmieszania się czerwieni i czerwieni , zielone zorze. Intensywność zorzy jest funkcją czasu. Zmiana może być powolny, jak w przypadku powierzchni pulsującej (0,1 Hz), lub osiągać 10 Hz w przypadku niektórych form jednorodnych. Zmiany w czasie mogą być spowodowane podróżującymi formami, jak w przypadku zorzy typu płonącego, które wydają się poruszać w górę. Pozorne ruchy poziome występują w zorzach łukowych lub pasmowych o prędkościach sięgających 100 km na s-1. To oczywista prędkość generalnie wzrasta wraz z amplitudą burzy magnetycznej. Podczas obserwacji wizualnych takich zdarzeń, szybkość zmian w czasie jest z pewnością najbardziej uderzającą i spektakularną cechą zjawiska zorzy. Zdarzenia zorzowe są spowodowane wytrącaniem się cząstek w górnych warstwach atmosfery ziemskiej. Ich wzory są złożone i dlatego należy dokładnie zdefiniować opis zorzy polarnej. Na tej podstawie możliwa była klasyfikacja zdarzeń zorzowych i uzyskanie informacji o procesach ich powstawania.
Lokalizacja
Kiedy prowadzi się obserwacje naziemne w funkcji szerokości geograficznej, można określić średnią częstotliwość występowania. Umożliwia zdefiniowanie obszaru maksymalnego występowania, zwanego obecnie "strefą zorzową". Strefa zorzowa i owal zorzowy to dwa różne pojęcia, które zostaną wyjaśnione później. Zdjęcia owalu zorzy polarnej uzyskano z orbity za pomocą sondy kosmicznej DYNAMICS EXPLORER 1 (rysunek 2). Owalny środek zorzy polarnej jest przesunięty o około 3? od bieguna geomagnetycznego w kierunku ciemnej półkuli. Jego grubość jest maksymalna o północy magnetycznej. Owal zorzowy leży na około 70? szerokości magnetycznej i ma średnią szerokość około 5? w spokojnych warunkach. Kiedy zorze są obserwowane w tym samym czasie z dwóch magnetycznie sprzężonych miejsc (jednego na północy, a drugiego na południowym owalu zorzowym), tworzą się podobne wzory. Występowanie zórz polarnych jest większe w owalu zorzowym niż w jego środkowej części. Ten ostatni obszar nazywany jest CZAPKĄ POLARNĄ, a zorze polarne mają słabszą intensywność i mniejsze tempo zmian w czasie niż w owalu zorzowym. Czasami wewnątrz można zobaczyć niezwykłe pokazy zorzy polarnej. Na przykład łuk obserwowany w pobliżu zenitu pozostaje zgodny z kierunkiem Słońca. Zostało to odkryte przez D. Mawsona w 1913 roku na stacji Dumont d′Urville (Antarktyda). Łuk ten może rozciągać się aż do obu wewnętrznych krawędzi owalu zorzowego. Został nazwany theta aurora, ponieważ wyglądem przypomina grecką literę. Powyższe zorze obserwowane są w nocy. Inny rodzaj zorzy można zaobserwować w ciągu dnia. Zwykle są słabe i rozproszone.
Wysokość i zasięg przestrzenny
Najpierw mierzono wysokości metodą paralaktyczną z ziemi. Obecnie powszechnie stosuje się pomiary z rakiet i statków kosmicznych. Większość zórz polarnych ma miejsce na wysokościach od 80 do 120 km. Jednak dolna granica bardzo intensywnych zorzy może spaść do 70 km. Ich pionowy zasięg zależy od procesów wytwarzania i w przypadku niektórych zorzy może osiągnąć wysokość 300 km. Rozkład intensywności nie jest jednorodny wzdłuż pionu; jego pionowa konstrukcja zbudowana jest z elementów o grubości od setek metrów do kilku kilometrów. Zorze polarne pozostają w pasie szerokości geograficznej, którego grubość jest funkcją czasu magnetycznego (definiowanego jako lokalny czas słoneczny, ale liczony od południka zawierającego bieguny magnetyczne i geograficzne), jak widać na ryc. 2. W owalu zorzowym znajduje się spokojna łuki są przeważnie zorientowane wzdłuż owalu i mogą mieć długość 500 km. Częstotliwość występowania Dla danej stacji naziemnej w strefie zorzy polarnej, średnie roczne występowanie jest zgodne z 11-letnim cyklem słonecznym, jednakże z opóźnieniem od roku do dwóch lat. Korzystając z danych z kilku lat, posortowanych według średniej miesięcznej, pokazana jest zmienność półroczna z maksymalnym występowaniem zorzy w pobliżu równonocy. Podobnie można wskazać 27-dniową rotację Słońca. Występowanie czapy polarnej i zorzy dziennej nie przestrzega ściśle tych zasad, szczególnie w przypadku najbardziej intensywnych wydarzeń.
Związek z aktywnością magnetyczną
Słońce jest gwiazdą zmienną. Doświadcza zmian mniej lub bardziej cyklicznie, inne mają charakter bardziej chaotyczny. Jego zmienna aktywność powoduje wahania charakterystyki WIATR SŁONECZNEGO (prędkość, gęstość, temperatura jonów i elektronów oraz pole magnetyczne) o większym lub mniejszym znaczeniu. Powoduje to niewielkie wahania pola magnetycznego Ziemi, które są wykrywane przez magnetometry na ziemi. Ich amplitudy służą do określenia wskaźników aktywności magnetycznej. Zdarzenia te nazywane są burzami magnetycznymi. Występowanie i intensywność zorzy polarnej zbadano jako funkcję zaburzeń magnetycznych i określono odpowiadający im owal zorzy. Z typowego kształtu (ryc. 2), wraz ze wzrostem aktywności magnetycznej, owal przesuwa się nieco w kierunku równika i rozciąga się w kierunku biegunowym i równikowym. To wyjaśnia, dlaczego niektóre zorze można zaobserwować na średnich szerokościach geograficznych. Aktywność magnetyczna przebiega zgodnie z 11-letnim cyklem słonecznym. Jednakże, biorąc pod uwagę chaotyczną naturę Słońca, silne zjawiska magnetyczne mogą wystąpić nawet podczas niskiej aktywności słonecznej. Zorze elektronowe i protonowe Zorze powstają głównie w wyniku zderzeń pomiędzy substancjami atmosferycznymi a cząstkami, elektronami lub protonami. Większość właściwości omówionych powyżej dotyczy zórz elektronowych. Różnice między zorami elektronowymi i protonowymi wynikają z ich odmiennego sposobu propagacji w górnych warstwach atmosfery. Ze względu na masę protonu jego promień wirowania jest znacznie większy (200 m) niż elektronu. Co więcej, protony poruszające się w polu magnetycznym mogą zderzać się z niektórymi cząsteczkami i wychwytywać elektron. W efekcie atom wodoru porusza się po linii prostej, wolny od wpływu ziemskiego pola magnetycznego. Kolejna kolizja może później przywrócić początkowy proton. W rezultacie zorze protonowe mają słabą intensywność (maksymalna IBC I) i są rozproszone. Wysokość występowania wynosi około 100 km. Owal zorzy protonowej jest nieco przesunięty w stronę równika w stosunku do owalu zorzy elektronowej.
Widmo zorzy polarnej i mechanizmy emisji
Większość zórz polarnych ma kolor zielony ze względu na linię emisyjną O(1S) przy 557,7 nm. Istnieje jednak wiele innych linii pochodzących z atomów, cząsteczek lub gatunków zjonizowanych. Jest to superpozycja wielu linii z: O i N; O2, N2, NO i OH; O+, N+; i O+2, Nsup>+2. Kolor niebieski pochodzi z pasma Nsup>+2 przy 391,4 nm. Widmo zorzy polarnej powstaje w wyniku zderzeń elektronów/protonów z substancjami występującymi w atmosferze ziemskiej oraz reakcji fotochemicznych:
(a) Zderzenia z elektronami. Pierwotne elektrony z magnetosfery zderzają się z atomami (A) i cząsteczkami (M) atmosfery ziemskiej i ustawiają te gatunki w stany metastabilne (?), takie jak
A+e ? A? + e
M+e ? M? + e
z podobnymi reakcjami prowadzącymi do jonów. Elektrony po lewej stronie to elektrony pierwotne, a te po prawej stronie to elektrony wtórne, które również mogą zderzać się z innymi gatunkami i generować wzbudzone stany molekularne i atomowe, aż do ich pełnej termalizacji. Stany wzbudzone (?) są dezaktywowane albo przez wypromieniowanie fotonów, albo przez zderzenia z innymi substancjami przed emisją światła (wygaszenie). Ponieważ zagęszczenie gatunków neutralnych rośnie w dół, wygaszanie wyjaśnia, dlaczego na małych wysokościach (zwykle poniżej 70 km) nie obserwuje się zórz polarnych. (b) Pośrednie mechanizmy wzbudzenia. Dwa najważniejsze mechanizmy to:
(1) Rekombinacja dysocjacyjna; typowym przykładem jest O+2 + e ? O(1D lub 1S)+O.
(2) Transfer i hartowanie energii; typowym przykładem jest
O(1D)+N2 ? O(3P)+N2.
Symbol oznacza stan wzbudzony lub stan podstawowy. W pierwszym przypadku mamy do czynienia z transferem energii, w drugim zaś z dezaktywacją kolizyjną. Skuteczność hartowania jest funkcją wysokości i czasu życia stanu wzbudzonego zderzających się gatunków. (c) Zderzenia z protonami. Reakcje obejmują rotony i obojętny wodór zderzający się z cząsteczkami. Podczas tych zderzeń obojętny wodór może rozbić swój elektron, zjonizować cząsteczkę lub przekazać jej energię. Jeśli chodzi o proton, może on również jonizować cząsteczkę, przekazywać jej energię lub wychwytywać elektron. Aby obliczyć różne intensywności linii emisyjnych, konieczne jest pozbycie się widma energii elektronów pierwotnych. Zwykle mierzy się to na dużych wysokościach (zwykle 300 km). Obliczenia widma zorzy polarnej opierają się na widmie energii elektronów pierwotnych, przekroju poprzecznym atomów i cząsteczek oraz procesach zachodzących, gdy elektrony przenikają do atmosfery w kaskadzie kolejnych zderzeń. Problem jest dość trudny i obarczony jest również niepewnością wpływającą na przekroje poprzeczne. Obserwacje wizualne, a także instrumenty pokładowe rakiet i statków kosmicznych wykazały zależność intensywności emisji liniowej od wysokości. Rozważmy przypadek emisji tlenu atomowego przy długości fali 630 nm. Mechanizm emisji (rekombinacja dysocjacyjna i wzbudzenie przez zderzenie), pionowy rozkład cząstek obojętnych i widmo energii wytrącających elektronów pozwalają nam obliczyć szybkość wytwarzania stanu wzbudzonego (1D) w funkcji wysokości. Uwzględnienie dezaktywacji wzbudzonych atomów tlenu w wyniku zderzeń zapewnia profil szybkości emisji wraz z wysokością. W przypadku tej emisji czas życia stanu wzbudzonego 1D wynoszący 110 sekund tłumi całą emisję na małych wysokościach. Dlatego właśnie zorzę polarną obserwowaną przy 630 mil morskich można znaleźć na wysokości 250 km. Ten sam proces pozwala nam obliczyć profil wysokości zielonej linii stanu wzbudzonego tlenu atomowego 1S. Jego czas życia wynoszący 0,7 s pozwala uniknąć dezaktywacji na małych wysokościach, a emisję tę będzie można zaobserwować już na 80 km, w zależności od intensywności wytrącania elektronów. Dla danej linii emisyjnej, im silniejsze jest wytrącanie elektronów, tym niższa będzie zorza polarna.
Zorza polarna i magnetosfera Ziemi oraz inne powiązane zjawiska
Sugeruje się, aby czytelnik zapoznał się z rozdziałami poświęconymi magnetosferze ziemskiej, aby mieć na uwadze jej reprezentację oraz terminologię . Ponieważ Słońce jest gwiazdą zmienną, wiatr słoneczny charakteryzuje się różnymi reżimami, które wpływają na stan magnetosfery Ziemi. Międzyplanetarne pole magnetyczne (IMF) ulega zmianom w czasie. W stanie cichym MFW ma składową północną (tj. równoległą do ziemskiego pola magnetycznego), która podczas burz magnetycznych skręca na południe. Aby zbadać mechanizm emisji zorzy polarnej, podczas prezentacji zorzy zmierzono widmo wytrącających się cząstek. W przypadku zorzy dziennej i zorzy polarnej stwierdzono, że jest ona rzędu energii wiatru słonecznego. W związku z tym uważa się, że zorze dzienne powstają w wyniku przedostawania się cząstek wiatru słonecznego górne warstwy atmosfery poprzez północne i południowe wierzchołki dzienne, gdzie w magnetycznie spokojnych warunkach istnieje punkt neutralny (północny IMF). Zorze polarne powstają w wyniku cząstek wiatru słonecznego z ogona magnetycznego. W owalu zorzowym energia cząstek jest 50-krotnie lub więcej większa niż w wietrze słonecznym. W związku z tym zasadniczym pytaniem jest mechanizm przyspieszania cząstek. Kwestia ta jest wciąż przedmiotem dyskusji i nie można jej jeszcze uznać za całkowicie zrozumianą. Jednak najbardziej prawdopodobnym mechanizmem jest ponowne połączenie pola magnetycznego Ziemi z MFW. Ponowne połączenie następuje, gdy MFW ma składową południową (przeciwrównoległą do ziemskiego pola magnetycznego). W tym przypadku generuje neutralną osłonę, do której strumienie plazmy są wtryskiwane w górę i w dół od tego obszaru. Powoduje to rozrzedzenie arkusza plazmy i ruch cząstek do wewnątrz. Kurczenie się arkusza plazmy prowadzi do wzrostu energii cząstek. Proponowanych jest kilka procesów. Najbardziej prawdopodobna metoda opiera się na adiabatycznej kompresji pewnej ilości plazmy zamkniętej w sprężonej rurze strumienia magnetycznego podczas jej konwekcji do przodu, aż w końcu wytrąci się w górnych warstwach atmosfery ziemskiej w chwili, gdy system staje się niestabilny. Owal zorzowy jest wówczas przecięciem warstwy plazmy z górną atmosferą na wysokości 100-200 km. Owal zorzowy jest ustalony względem Słońca, ale stacja naziemna na szerokościach zorzowych obraca się poniżej, wokół bieguna geograficznego. W zależności od czasu może znajdować się w czapie polarnej, wewnątrz lub na zewnątrz owalu, doświadczając różnych reżimów występowania zorzy. Ich średnia określa strefę zorzową widzianą z ziemi. Kiedy magnetosfera jest umiarkowanie zakłócona z powodu niewielkich zmian IMF, odpowiednie zdarzenia nazywane są podburzami magnetycznymi i składają się z czterech odrębnych faz (ciszy, wzrostu, ekspansji i regeneracji) mających specyficzne cechy, takie jak typowe zmiany w polu magnetycznym Ziemi. Duże zdarzenia słoneczne, takie jak rozbłyski, generują burze magnetyczne, które są analizowane jako seria następujących po sobie burz. Podczas burzy magnetycznej poruszające się cząstki wytwarzają pole magnetyczne, które łączy się z polem ziemskim. Zmienna charakterystyka wytrącających się cząstek (prędkość, kierunek i gęstość liczbowa) oraz zderzenia z ziemską atmosferą są przyczyną złożoności zaburzeń pola magnetycznego. W związku z tym zorze stanowią wizualną ilustrację zaburzeń pola magnetycznego Ziemi. W niektórych przypadkach układ pola jest prosty, jak na przykład promienie, które pojawiają się jako prawie pionowe kolumny światła, wskazujące na duże nachylenie linii pola na szerokości geograficznej strefy zorzowej. Z zorzami wiąże się wiele innych zjawisk, takich jak elektroodrzutowy zorzowy krążący w obszarze E (na wysokości około 100 km), który jest podgrzewany przez rozpraszanie Joule′a i prąd pierścieniowy na niskich szerokościach geograficznych. Generowane są również promienie rentgenowskie i fale radiowe w zakresie od 40 do 500 MHz. Podczas zorzy powstają pola elektryczne, które oddziałują na ruch elektronów, protonów i jonów. Co więcej, wszystkie te gatunki poruszają się w neutralnej atmosferze, której siłą napędową są zderzenia z jonami. W rezultacie dynamika jest silnie powiązana z wydarzeniami zorzowymi, co ilustruje rozwój pionowych neutralnych wiatrów podczas burz.
Wykorzystanie obserwacji zorzowych
Na podstawie obserwacji statystycznie ustalono związek między występowaniem zorzy polarnej a aktywnością Słońca. Dlatego też do rekonstrukcji aktywności Słońca przed pierwszymi obserwacjami instrumentalnymi wykorzystano występowanie zórz polarnych. Długie okresy aktywności słonecznej stwierdzone w zmianach 14C zostały potwierdzone przez występowanie zórz polarnych. Mówiąc bardziej bezpośrednio, występowanie zorzy polarnej reprezentuje ostateczny etap różnych zjawisk zachodzących od wiatru słonecznego po atmosferę ziemską. Zrozumienie szczegółowych cech zorzy polarnej (występowanie, formy, widmo) gwarantuje zrozumienie całego procesu fizycznego. To samo dotyczy zorzy obserwowanej w atmosferze Jowisza i Saturna. Dane zorzowe pokazują, jak ważne w nauce są długie serie starannie wykonanych obserwacji.
Aurorae: obserwacja przez amatorów
Naukowcy-amatorzy od dawna interesują się niebem, dlatego obserwacje zorzy polarnej były amatorskie już od dawna, odkąd istnieją zapisy. W epoce nowożytnej amatorom przypisuje się znaczący wkład w badania zorzy polarnej, ponieważ postęp w wielu naukach zaczął się nasilać w XVIII wieku. Ponieważ zorza polarna jest zjawiskiem na dużą skalę i ma charakter globalny, wcześnie dostrzeżono wartość międzynarodowej współpracy obejmującej zarówno profesjonalistów, jak i amatorów. Jeden z najbardziej udanych pokazów takiej współpracy miał miejsce podczas Międzynarodowego Roku Geofizycznego (1957/58). Wraz z nadejściem ery kosmicznej badacze zaczęli w większym stopniu polegać na satelitach i wyrafinowanym naziemnym sprzęcie obserwacyjnym do monitorowania zorzy polarnej, ale nadal przywiązuje się dużą wagę do raportów wizualnych jako ich uzupełnienia. Ważnym celem obserwacji wizualnych jest kontynuacja pisemnych zapisów aktywności zórz polarnych, które zachowały się od czasów greckich przez kilka cywilizacji. Do przeprowadzenia użytecznych obserwacji wizualnych zorzy polarnej wymagane jest minimum sprzętu, a jedynym potrzebnym instrumentem optycznym jest nieuzbrojone oko. Do pewnego stopnia możliwe jest prognozowanie wystąpienia zorzy polarnej na podstawie ostatnich wydarzeń na Słońcu, dzięki czemu wysiłki obserwacyjne można zaplanować tak, aby pokrywały się z nocami, w których prawdopodobieństwo wystąpienia zorzy jest największe. Magnetometry i krótkofalówki mogą być również pomocne w ostrzeganiu obserwatora o obecności zorzy polarnej (chociaż nie zawsze ma to wizualny odpowiednik). Najczęściej jednak zobaczysz zorze polarne, jeśli będziesz wytrwale dokonywał regularnych inspekcji wzrokowych nieba na biegunie w ciągu nocy, między zachodem a świtem, gdy tylko pozwoli na to pogoda i światło księżyca. Amatorzy obserwatorzy mieszkający w miastach lub tam, gdzie występują częste zachmurzenia, mogą nie być w stanie zbyt często obserwować zorzy wizualnie, mogą jednak przedstawić obserwację, że aktywność zorzy została wykryta za pomocą magnetometru lub radia krótkofalowego. W tym wypadku obserwacja nie ogranicza się do godzin nocnych, jak w przypadku obserwatora czysto wizualnego. Do podstawowych obserwacji słuchowych nie jest potrzebny żaden specjalny sprzęt. Jednakże przydatne może być posiadanie instrumentu, takiego jak prosty teodolit lub alidada, do dokładnego określenia położenia i wysokości obiektów w zorzy polarnej. Jako dodatek do zapisu wizualnego, obserwatorzy-amatorzy czasami wykrywają subwidzialne szczegóły na obrazach zorzy polarnej za pomocą fotografii lub obrazowania za pomocą URZĄDZENIA CHARGE-COUPLED DEVICE (CCD). Fotografia to popularny sposób rejestrowania zorzy polarnej i idealny sposób na podzielenie się spektaklem pokazowym po wydarzeniu . Wystarczy dowolny aparat, który może wykonywać czas ekspozycji od kilku sekund do kilku minut, z obiektywem otwartym na najszerszą przysłonę - wielu fotografów wybiera szybki film kolorowy (taki jak ISO 400) i szybki, szerokokątny obiektywu (np. ogniskowa f/3 i ogniskowa 28 mm). Fotografie stanowią także trwały zapis położenia i struktury wyświetlacza, co może być przydatne w pracach triangulacyjnych. Dla osób zainteresowanych zastosowaniem innych technik w celu poszerzenia swoich obserwacji można również zastosować wideografię, obrazowanie CCD i spektroskopię. Aby wykryć obecność lub prognozować prawdopodobieństwo aktywności zorzy, obserwatorzy zainteresowani elektroniką mogą używać magnetometrów lub krótkofalowych urządzeń radiowych do wykrywania zaburzeń w polu geomagnetycznym lub jonosferze. Zachęcamy autorów do przesyłania obserwacji zorzy polarnej w formacie zalecanym na mocy umowy międzynarodowej, co zwiększa wartość obserwacji i także ocena zjawiska przez obserwatora. Zapis zawiera lokalizację obserwatora i warunki obserwacji, datę i godzinę zaobserwowania wyświetlacza, a także szczegóły dotyczące jasności, koloru, formy, aktywności, kierunków i wysokości obiektów oraz zachodzących zmian. Informacje te można zapisać w formie notatek lub diagramów, przedstawionych z różnym stopniem szczegółowości, w zależności od preferencji lub doświadczenia indywidualnego obserwatora. Do wszelkich zdjęć lub innych rodzajów obserwacji zorzy polarnej należy również dołączyć zapis zawierający co najmniej lokalizację, datę i godzinę, a także odpowiednie informacje techniczne, aby nadać im wartość naukową. To także zwiększa zainteresowanie i użyteczność zapisu dla innych obserwatorów. Aby jak najlepiej wykorzystać obserwacje, wyniki można przekazać jednej z kilku organizacji o ugruntowanej pozycji, które gromadzą, analizują i archiwizują raporty do wykorzystania w przyszłości. Wstępna analiza raportów zwykle obejmuje porównanie z prognozami i korelację zdarzenia zorzy z aktywnością na Słońcu i w polu geomagnetycznym Ziemi. W dłuższej perspektywie interesujące jest określenie częstotliwości pokazów obserwowanych z poszczególnych lokalizacji oraz ich częstotliwości w określonych warunkach lub w określonych porach roku lub cyklu plam słonecznych. Zorza odnotowana przez wielu obserwatorów z różnych lokalizacji pozwala opisać kształt, rozmiar, położenie, rozwój i czas trwania zorzy polarnej. Wyniki udostępniane organizacjom regionalnym i międzynarodowym umożliwiają sporządzenie wykresu całego zdarzenia zorzowego, poza granicami światła dziennego i pomiędzy półkulami, co pozwala na zbadanie globalnego wzorca aktywności zorzy polarnej. Obserwacje wizualne można ostatecznie porównać ze zdjęciami i innymi danymi dotyczącymi owalu zorzowego uzyskanymi z satelitów i profesjonalnych obserwatoriów. Brytyjskie Stowarzyszenie Astronomiczne (BAA) gromadzi obserwacje zorzy polarnej za pośrednictwem swojej Sekcji Aurorów i posiada sieć obserwatorów, w skład której wchodzą członkowie BAA lub innych towarzystw astronomicznych, obserwatorzy indywidualni, zawodowi meteorolodzy i oficerowie statków na morzu. BAA gromadzi i publikuje obserwacje, głównie zorzy burzowej na średnich szerokościach geograficznych, z Wysp Brytyjskich, Europy, Islandii, Kanady i Stanów Zjednoczonych Ameryki; są one również publikowane przez Brytyjskie Biuro Meteorologiczne. Na półkuli południowej obserwacje koordynuje Królewskie Towarzystwo Astronomiczne Nowej Zelandii (RASNZ), które otrzymuje i publikuje obserwacje z Nowej Zelandii i Australii. Istnieje ścisła współpraca i wymiana pomiędzy BAA i RASNZ. Raporty koordynowane przez BAA i RASNZ są następnie archiwizowane na Uniwersytecie Aberdeen w Szkocji, gdzie są udostępniane badaczom. Podobne archiwa istnieją w takich krajach jak Chiny, Korea i Japonia. Obserwacje radiowe zorzy polarnej koordynują Towarzystwo Radiowe Wielkiej Brytanii i Amerykańska Liga Przekaźników Radiowych w USA. Profesjonaliści korzystają z danych dostarczonych przez amatorów; na przykład wyniki amatorów pomogły odkryć procesy zachodzące w termosferze. Obserwatorzy-amatorzy również wnoszą istotny wkład w trwające badania nad złożoną korelacją między zorzą polarną a nocnymi obłokami. Procesy zorzowe i złożone interakcje, które je powodują, nie są jeszcze w pełni poznane, dlatego zorza jest nadal przedmiotem intensywnych badań. Ponieważ naukowcy nie rejestrują już zorzy wizualnej, jedynym źródłem takich obserwacji jest amatorska społeczność astronomiczna. Zapisy dotyczące wizualnej zorzy polarnej są przechowywane od setek lat i w przeszłości dostarczyły cennych informacji na temat aktywności Słońca i górnych warstw atmosfery Ziemi - istnieją jeszcze obszerne archiwa, które nie zostały jeszcze wykorzystane, a które mogą mieć podobne znaczenie w nowych badaniach w Ziemi przyszły. Niektóre obszary, w których można wykorzystać zapisy zorzy wizualnej, obejmują geomagnetyzm, magnetyzm słoneczny i międzyplanetarny, pogodę ziemską, górne warstwy atmosfery i pogodę kosmiczną.
Zorzowe promieniowanie kilometrowe
Ziemia jest potężnym naturalnym źródłem radiowym, które emituje jasną emisję na falach kilometrowych: zorzowe promieniowanie kilometrowe (AKR). Jak sama nazwa wskazuje, regiony źródłowe AKR znajdują się na dużych szerokościach geograficznych, na wysokościach wahających się zazwyczaj od 0,5 do 2 promieni Ziemi. Jego maksymalna częstotliwość (rzędu 700 kHz) jest mniejsza od częstotliwości odcięcia jonosfery i dlatego promieniowania tego nie można obserwować z ziemi. W ten sposób odkryto go i zbadano już po rozpoczęciu ery kosmicznej . AKR organizuje się w burze radiowe trwające kilka 10 minut i posiadające moc kilku megawatów. Ta sporadyczna aktywność jest skorelowana z okresami intensywnych opadów cząstek zorzy polarnej, podczas których obserwuje się energetyczne elektrony o typowych energiach kilku keV spływające wzdłuż linii pola magnetycznego zorzy i tworzące zorzę polarną (patrz AURORA). Te wytrącające się populacje elektronów wynikają ze złożonego łańcucha procesów fizycznych powiązanych z głównymi zakłóceniami ogona magnetosferycznego, znanymi jako podburze magnetosferyczne (patrz MAGNETOSFERA ZIEMI: SUBSTORY). AKR jest zatem bezpośrednio powiązany z globalną aktywnością magnetosferyczną i może nawet być uważany za wskaźnik tej aktywności. Jeśli chodzi o jego wewnętrzne właściwości, AKR charakteryzuje się ekstremalną temperaturą jasności (do 1020 K), która jest całkowicie niewytłumaczalna za pomocą klasycznych mechanizmów promieniujących (takich jak promieniowanie żyrosynchrotronowe). Aby wyjaśnić ich powstawanie, należy zatem przywołać spójne procesy związane z rozwojem mikroniestabilności plazmy. Oprócz tej ekstremalnej jasności, dobra teoria AKR musi również opisywać polaryzację emisji oraz jej silną organizację czasową i widmową. AKR sama w sobie nie jest szczególnie potężnym zjawiskiem. Jest to nawet do pominięcia w globalnym budżecie energetycznym aktywności magnetosferycznej. Jednakże budzi pewne zainteresowanie astrofizyczne, gdyż należy do szerokiej klasy emisji radiowych bezpośrednio związanych z rozwojem mechanizmów przyspieszania w bezkolizyjnych plazmach otaczających większość obiektów astrofizycznych. Rzeczywiście zaobserwowano emisje radiowe o charakterystyce porównywalnej z AKR, pochodzące z obiektów astrofizycznych tak różnych, jak inne namagnesowane planety Układu Słonecznego, Słońce, niektóre gwiazdy i układy podwójne. Ponieważ jego źródła mogą być bezpośrednio badane przez statki kosmiczne, AKR stanowi zatem bardzo interesujący przypadek zjawiska astrofizycznego, dla którego modele teoretyczne można sprawdzić za pomocą pomiarów in situ. Większość wspomnianych emisji radiowych prawdopodobnie pochodzi z samego miejsca przyspieszania cząstek, a ich analiza może służyć jako narzędzie diagnostyczne do badania uwalniania energii w środowiskach plazmy. W tym kontekście kluczowe jest zrozumienie mechanizmu generowania AKR. Poniższe obserwacje dotyczą tego szczególnie ważnego aspektu problemu.
Warunki fizyczne w źródłach AKR
Przykład precyzyjnych obserwacji fal przeprowadzonych w pobliżu i wewnątrz źródła AKR przedstawiono na rysunku 1. Pomiary te zostały wykonane przez szwedzką sondę kosmiczną - Viking - specjalnie zaprojektowaną do analizy mechanizmów przyspieszania i promieniowania zachodzących w zorzy polarnej. strefy MAGNETOSFERY ZIEMI. Kiedy dokonał tej obserwacji, Viking znajdował się na wysokości około 10 000 km, na szerokości magnetycznej bliskiej 70° szerokości geograficznej północnej, około północy czasu lokalnego i przeleciał przez obszar magnetycznie połączony z dyskretnym łukiem zorzowym. Na rysunku przedstawiono wykres czasowo-częstotliwościowy składowej elektrycznej fal elektromagnetycznych. Intensywność jest podawana za pomocą kodu kolorowego (od niebieskiego do czerwonego i białego w miarę wzrostu intensywności od mniej niż 10-8 V m-1 Hz-1/2 do ponad 10-5 V m-1 Hz-1/2) . Zakres częstotliwości wynosi 10 kHz-500 kHz i wyświetlanych jest 20 minut danych. Biała linia wskazuje częstotliwość żyroskopową elektronów (fce) zmierzoną przez sondę. AKR obserwuje się powyżej tej charakterystycznej częstotliwości (tutaj około 150 kHz), tworząc emisje w kształcie litery V. Jego niższe częstotliwości, które odpowiadają wyraźnemu odcięciu, mają minimum około 22,39 UT. W tym czasie częstotliwości AKR sięgają fce. Ten obszar częstotliwości minimalnych jest jednocześnie obszarem maksymalnego poziomu fal (biały kod intensywności). To jest źródło AKR. Kształt V widm dynamicznych AKR jest łatwo zrozumiany, jeśli założy się, że fale powstają w fce (a więc przy rosnących częstotliwościach w miarę zmniejszania się wysokości) w źródle wydłużonym wzdłuż pola magnetycznego, pod kątem ukośnym do linii pola magnetycznego oraz w kierunek w górę. Daleko od źródła (na przykład o 22:35 lub 22:45) wykrywane są jedynie fale generowane znacznie poniżej statku kosmicznego (a więc przy wysokich częstotliwościach). Gdy statek kosmiczny zbliża się do źródła, wykrywane są fale generowane coraz bliżej statku kosmicznego, a tym samym o coraz niższych częstotliwościach, aż statek kosmiczny przetnie źródło, co odpowiada maksymalnemu natężeniu i minimalnym częstotliwościom. Na tym spektrogramie można również zaobserwować systematyczną modulację AKR w całym zakresie częstotliwości w okresie 20 s. Modulacja ta jest powiązana z wirowaniem statku kosmicznego (anteny elektryczne znajdują się wówczas na przemian równolegle i prostopadle do pola magnetycznego) i jest oznaką silnej polaryzacji fal. Można to wykorzystać do zidentyfikowania sposobu propagacji AKR. Okazuje się, że jest to tak zwany mod X, elektromagnetyczny mod nadświetlny, który ma prawoskrętną polaryzację kołową (składnik elektryczny fal obraca się w płaszczyźnie prostopadłej do pola magnetycznego w tym samym sensie, co elektrony). W najniższej części spektogramu obserwuje się emisję szerokopasmową (syk zorzy). Górna częstotliwość odcięcia tej emisji (przejście z żółtego na zielony na spektrogramie) to lokalna częstotliwość plazmy. Jest rzędu 30 kHz, co wskazuje, że gęstość plazmy wynosi zazwyczaj około 10 cm-3. Tuż około godziny 22.39, podczas przeprawy przez źródło AKR, odcięcie to zanika. W rzeczywistości jest to poniżej pasma częstotliwości analizatora (10 kHz). Źródłem AKR jest wówczas obszar znacznego ubytku plazmy, typowa gęstość waha się od typowo 10 cm-3 do mniej niż 2 cm-3 na krótkim dystansie (kilka km). Źródła można wówczas postrzegać jako "kurtyny" zubożonej plazmy, z dość dużymi odcinkami pionowymi i ze wschodu na zachód, ale bardzo cienkimi (mniej niż 50 km) w kierunku północ-południe. Pomiary cząstek są ważne dla zrozumienia mechanizmu wytwarzania. Ze względu na wirowanie statku kosmicznego strumienie cząstek mierzone są pod różnymi kątami w stosunku do pola magnetycznego (ząb piły poniżej strumieni protonów). 0? odpowiada kierunkowi równoległemu do pola magnetycznego, skierowanemu w stronę Ziemi (wytrącające się cząstki). Ten przedział czasu odpowiada detekcji wiązek jonów, które rozchodzą się w górę z typowymi energiami rzędu 4 keV. Jednocześnie maksymalna energia elektronów spada z 8-10 keV (przed pierwszą strzałką i za drugą) do typowo 4 keV (pomiędzy strzałkami). Najprostszym wyjaśnieniem tych obserwacji jest to, że wchodząc do źródła AKR, sonda wchodzi również w obszar przyspieszeń cząstek, który odpowiada istnieniu spadku potencjału wzdłuż pola magnetycznego. Tuż przed lub po przejściu źródła ten spadek potencjału znajduje się całkowicie nad statkiem kosmicznym, dzięki czemu wykrywane są wytrącające się elektrony o maksymalnej energii. Wewnątrz źródła część potencjalnego spadku znajduje się teraz poniżej statku kosmicznego; energia elektronów maleje, ale obserwuje się pobudzenie jonów pochodzących z dołu. Stanowi to jedną z podstawowych obserwacji dotyczących AKR: źródłami tego promieniowania są jednocześnie miejsca przyspieszania cząstek . Zostało to niedawno potwierdzone przez obserwacje statku kosmicznego FAST. Dokładniejsze badanie strumieni cząstek może pomóc nam zrozumieć rodzaj funkcji rozkładu odpowiedzialnych za generowanie fal. Rozkłady te charakteryzują się rozszerzonymi stożkami strat (duża przerwa w strumieniu elektronów skierowanych w górę) i akumulacją elektronów przy dość dużych prędkościach prostopadłych i małych równoległych. Powstawanie takich rozkładów można wytłumaczyć powstaniem równoległego pola elektrycznego odpowiedzialnego za przyspieszenie cząstek. Odpowiada to również ewakuacji plazmy niskoenergetycznej i utworzeniu obszaru wyczerpania gęstości. Te dwie cechy funkcji rozkładu, akumulacja elektronów przy dużych prędkościach prostopadłych i niskich gęstościach, mają fundamentalne znaczenie dla najbardziej prawdopodobnego mechanizmu generacji AKR: niestabilności masera cyklotronowego.
Teoria masera cyklotronowego
W przeszłości zaproponowano wiele teorii wyjaśniających powstawanie AKR (liniowa konwersja elektrostatycznych górnych fal hybrydowych, nieliniowe dudnienie fal elektrostatycznych, promieniowanie z zapadających się kawitonów). Obecnie powszechnie przyjmuje się, że szczególna niestabilność mikroskopowa - niestabilność masera cyklotronowego (CMI; po raz pierwszy zaproponowana przez Wu i Lee (1979)) - adekwatnie opisuje to zjawisko. Teoria ta opiera się na rezonansowym oddziaływaniu pomiędzy polem elektrycznym fal a wirującymi elektronami i opisuje przeniesienie momentu pędu z populacji elektronów do falowego pola elektromagnetycznego. Sukces tej teorii tłumaczy się faktem, że uwzględnia ona niektóre z najważniejszych wyników eksperymentalnych zaprezentowanych wcześniej. Przeniesienie pędu jest szczególnie ważne, jeśli pole elektryczne podąża za ruchem elektronów, tj. Jeśli fale mają prawoskrętną polaryzację kołową (co ma miejsce w przypadku fal w trybie X). Co więcej, to przeniesienie jest korzystne dla fal, jeśli plazma wykazuje nadmiar momentu pędu w stosunku do równowagi termicznej. Taki nadmiar może odpowiadać istnieniu dodatnich zboczy ?f/?P? w pewnym obszarze przestrzeni faz pędu (gdzie P? jest składową pędu cząstki prostopadłą do pola magnetycznego), co dokładnie obserwuje się wewnątrz regiony źródłowe AKR. Ten mechanizm generowania jest zatem tylko szczególnym przykładem wzbudzenia fali przez plazmę poza równowagą, charakteryzującą się inwersją populacji w energii "prostopadłej". Mechanizm ten można opisać w sposób bardziej matematyczny za pomocą układu równań Maxwella - Własowa. Jeśli zachowa się tylko najważniejsze interakcje między falami i elektronami (czysty ruch cyklotronowy i oddziaływanie z jednorodnym polem elektrycznym, które wiruje we właściwym sensie z częstotliwością bliską częstotliwości żyroskopowej elektronów), układ można zapisać jako
Tutaj f0 to funkcja rozkładu tła, E1, J1, f1 to odpowiednio zaburzone pole elektryczne, prąd i funkcja rozkładu, indeksy dolne +, ? i || odnoszą się do składowych lewoskrętnych, prawoskrętnych i równoległych, θ to kąt Larmora elektronów, ich współczynnik Lorentza ((1?v2/c2)-1/2) a ωc elektronową częstotliwość żyroskopową. Z czasową transformatą Fouriera równania (1) otrzymuje się uproszczone równanie dyspersji:
Następnie można łatwo obliczyć tempo wzrostu fal. Jest proporcjonalna do całki ∂f0/∂P⊥ wzdłuż krzywej rezonansowej określonej przez Γω = ωc. Oznacza to, że maksymalne przeniesienie pędu następuje wtedy, gdy częstotliwość fali dokładnie odpowiada częstotliwości żyroelektronowej elektronów. Nieco bardziej złożone obliczenia dają dokładny warunek rezonansowy: ω ? k|| v ? ωc/Γ = 0. Dla ∂f0/∂P⊥ > 0 wzdłuż krzywej rezonansowej współczynniki absorpcji mogą stać się ujemne, prowadząc w ten sposób do niestabilności : tak zwany CMI. Dokładne i pełne obliczenia powodują, że równanie dyspersji jest bardziej złożone, ale nie zmienia jego fizycznego znaczenia. Za powstawanie nietermicznych cech ∂f0/∂P⊥ w funkcji rozkładu mogą być odpowiedzialne dwa procesy fizyczne: (1) jonosferyczna absorpcja elektronów, która wytwarza funkcje rozkładu stożka strat oraz (2) adiabatyczna ewolucja populacji elektronów przyspieszane w dół wzdłuż linii pola magnetycznego. Ze względu na siłę lustra ich energia prostopadła rzeczywiście stopniowo wzrasta kosztem ich energii równoległej, tak że może powstać lokalny nadmiar pędu prostopadłego. Obecność przyspieszającego pola elektrycznego sprzyja występowaniu niestabilności masera także w inny sposób: usuwa zimne elektrony, składnik plazmy, który zawsze przyczynia się do stabilizacji CMI. Aby mody X były niestabilne, w przybliżeniu konieczne jest, aby (ωpc/ωc)2 = W/2mc2, gdzie ωpc to częstotliwość zimnej plazmy, a W typowa energia elektronów - o masie spoczynkowej m - dla której ∂f0/∂P⊥ . Chociaż obserwacje in situ dostarczają mocnych dowodów na to, że AKR jest generowany przez CMI, stopy wzrostu określone bezpośrednio za pomocą zmierzonych funkcji rozkładu niekoniecznie są zbyt znaczące. Dzieje się tak ze względu na wrażliwość niestabilności na różne niejednorodności występujące w plazmie i/lub jej szybkie nasycanie procesami nieliniowymi. Spośród różnych gradientów występujących w ośrodku magnetosferycznym, dwa z nich prawdopodobnie wpływają na generację AKR: (1) niejednorodność pola magnetycznego, która powoduje niewielkie modyfikacje częstotliwości żyroskopowej wraz z wysokością, tak że warunek rezonansowy nie może być spełniony na bardzo dużej odległości oraz (2) niejednorodność prostopadłą powiązaną z występowaniem ostrych gradientów gęstości, które ograniczają źródła AKR . Efekty te mogą mieć pewne znaczenie przy określaniu makroskopowych właściwości promieniowania (w szczególności kształtu listków emitujących). Jeśli chodzi o efekty nieliniowe, wzrost fal może zostać nasycony albo poprzez relaksację quasiliniową, albo przez proces nasycania typu pułapkowego, co jest nadal przedmiotem dyskusji. Nieliniowe nasycenie i efekty niejednorodności mogą być ważne dla wyjaśnienia powstawania niektórych drobnych struktur obserwowanych w widmach dynamicznych AKR.
Wniosek
AKR można uznać za stosunkowo dobrze poznane zjawisko magnetosferyczne. Zbadano źródła tego promieniowania, a teoria - CMI - daje dobre jakościowe wyjaśnienie jego powstawania. Jednakże nie ma pełnej teorii, która mogłaby wyjaśnić niektóre ilościowe aspekty promieniowania. Na przykład, wychodząc z danej niestabilnej funkcji rozkładu, przewidywanie końcowego natężenia fal i ich charakterystyk widmowych pozostaje kwestią otwartą. Jest to istotna kwestia, gdyż tylko w przypadku rozwiązań tego typu problemów fale radiowe mogłyby zostać wykorzystane jako precyzyjne narzędzia diagnostyczne.
Australijska astronomia
Astronomia jest jedną z głównych nauk w Australii od czasu pierwszego osadnictwa europejskiego ponad 200 lat temu. W epoce nowożytnej dostęp do bogatego południowego nieba i tradycja innowacji w oprzyrządowaniu podtrzymują aktywny i zróżnicowany program badawczy.
Wczesna historia
Głównym celem podróży kapitana Jamesa Cooka w 1769 r., podczas której odkrył i sporządził mapę wschodniego wybrzeża Australii, była obserwacja tranzytu Wenus znad Morza Południowego. Dokładny czas, w którym Wenus przeszła przez dysk Słońca, zapewnił dokładniejszą wartość odległości od Ziemi do Słońca, a nawet wielkości całego Układu Słonecznego, jak po raz pierwszy zasugerował Kepler. Kiedy w 1788 r. w Sydney Cove założono pierwszą europejską osadę, znaczenie nawigacji, badań geodezyjnych i pomiaru czasu było powodem założenia obserwatorium. Później założono oficjalne obserwatoria państwowe, z których pierwszym było Obserwatorium w Sydney w 1855 r. Zapewniało ono usługę pomiaru czasu dla statków w porcie w Sydney i przyczyniło się do ówczesnych badań astronomicznych, zwłaszcza astronomii pozycyjnej gwiazd. Ostatecznie wydano 53 tomy projektu Cart du Ciel (Międzynarodowy katalog astrograficzny). Obserwatoria państwowe utworzono także w Perth i Melbourne - to ostatnie stało się dobrze znane dzięki przejęciu Wielkiego Teleskopu Melbourne. Był to teleskop o średnicy 1,2 m (48 cali), a w chwili jego montażu w 1869 roku był największym w pełni sterowalnym teleskopem na świecie. Niektóre z wczesnych zdjęć Księżyca okrzyknięto najlepszymi jak dotąd, a obserwacje wizualne południowych mgławic zostały znacznie ulepszone w stosunku do tych wykonanych przez Sir Johna Herschela w jego pionierskiej pracy z Przylądka Dobrej Nadziei (patrz RODZINA HERSCHELA). Niemniej jednak problemy ze zwierciadłem wziernika i drgania wiatru, wynikające między innymi z zastosowania podnoszonego budynku, doprowadziły do tego, że teleskop wyszedł z użycia pod koniec stulecia. Problemy z Wielkim Teleskopem Melbourne opóźniły budowę dużych teleskopów o wiele lat, a kolejnym był Mount Wilson 60 cali (1,5 m) zbudowany w Kalifornii w 1908 roku i prawdopodobnie pierwszy z nowoczesnych teleskopów. Wielki Teleskop Melbourne został sprzedany Obserwatorium Mount Stromlo i w ostatnich latach (wraz z nową optyką) był używany w poszukiwaniach MACHO w zakresie soczewkowania grawitacyjnego przez gwiazdy. Dziś z byłych obserwatoriów kolonialnych jedynie Obserwatorium w Perth pełni rolę badawczą.
Rozwój powojenny
Nowoczesna era astronomii w Australii rozpoczęła się zaraz po II wojnie światowej. Wpływ rozwoju technicznego w czasie wojny był najbardziej zauważalny w nowej dziedzinie radioastronomii, gdzie wiedza specjalistyczna w zakresie systemów radarowych i nadmiar dostępnego sprzętu stanowiły idealną bazę. W Australii prace prowadzono w Laboratorium Radiofizyki CSIR (Rada ds. Badań Naukowych i Przemysłowych, później CSIRO). W tym czasie niewiele wiedziano o emisji radiowej spoza Ziemi: Karl Jansky odkrył fale radiowe z Galaktyki Drogi Mlecznej w 1932 roku, pracując nad źródłami hałasu w transmisjach radiowych, a inny Amerykanin, Grote Reber, zbudował antenę o długości 31 stóp antenę na własnym podwórku i wykonał pierwsze mapy emisji galaktycznej na szeroką skalę. Wreszcie wojenne dochodzenie w sprawie podejrzenia zakłócania radaru wykazało niezwykle intensywną emisję radiową ze Słońca. W takim klimacie rozpoczęły pracę grupy radioastronomiczne w Wielkiej Brytanii, Holandii i Australii. Prace radiofizyczne przeprowadzono w wielu stacjach terenowych w rejonie Sydney i szybko przyszły odkrycia: na przykład korelacja emisji słonecznej z liczbą plam słonecznych i wykazanie efektywnej temperatury około miliona kelwinów, znacznie powyżej powierzchni optycznej temperatura około 6000 K. Być może najbardziej znane prace przeprowadzono przy użyciu INTERFEROMETRA na szczycie klifu, który wykorzystano do odkrycia szeregu izolowanych źródeł radiowych i wykazania, że mają one bardzo mały rozmiar kątowy. Identyfikacja kilku z tych źródeł ze znanymi obiektami optycznymi, w tym Mgławicą Krab i galaktykami zewnętrznymi w konstelacjach Panny i Centaura, pokazała, że radioastronomia może nas wiele nauczyć o odległych obiektach. Kontynuowano rozwój interferometrii, aby przezwyciężyć grubą rozdzielczość kątową wczesnych radioteleskopów. Wykazano, że wczesna teoria "gwiazd radiowych" dotycząca natury dyskretnych źródeł radiowych jest błędna, ponieważ większość źródeł radiowych oddalonych od płaszczyzny Galaktyki Drogi Mlecznej ma rozmiary kątowe większe niż 1 minuta łuku. Stały się znane jako RADIO GALAXIE, ze względu na moc wyjściową radiową tysiące, a nawet miliony razy większą niż normalna galaktyka. Badania takich źródeł wykazały nadmiar źródeł słabych, jednak mniej wyraźny niż we wczesnych badaniach przeprowadzonych w Cambridge, które, jak wykazano, miały wpływ na "pomieszanie" wielu źródeł w obrębie szerokości wiązki instrumentalnej. Późniejsze obliczenia tych odległych źródeł pozagalaktycznych, zarówno z Cambridge, jak i Sydney, były zgodne i odegrały kluczową rolę w kontrowersjach kosmologicznych, w szczególności w upadku TEORII STANU STAŁEGO. Wydarzenia wojenne miały także wpływ na astronomię optyczną, choć była to już jedna z najstarszych nauk uznanych za granicą. Obserwatorium Słoneczne Wspólnoty Narodów w Mount Stromlo niedaleko Canberry zostało założone w 1924 roku, a podczas wojny zostało rozbudowane w celu produkcji celowników i innej amunicji optycznej. Po wojnie kierunek badań zmieniono na astronomię gwiazdową, a nazwę zmieniono na Commonwealth Observatory, a później na Mount Stromlo Observatory. Modernizacja oprzyrządowania, m.in. wprowadzenie technik fotoelektrycznych, przebiegała równolegle z licznymi programami badawczymi. CHMURKI MAGELLANIC są od dawna intensywnie badane na Górze Stromlo: te bliskie sąsiadom galaktyki mają tę wielką zaletę, że znajdują się w znanej odległości, a jednocześnie są na tyle blisko, że gromady gwiazd i jaśniejsze gwiazdy mogą być rozróżnione pojedynczo. W 1955 roku na górze Stromlo oddano do użytku 74-calowy (1,88 m) teleskop, który wraz z podobnym teleskopem w Pretorii był przez około 20 lat największym instrumentem optycznym na półkuli południowej. Pod wpływem rozwoju pobliskiego miasta Canberra dla przyszłych teleskopów wybrano miejsce w Siding Spring Mountain w pobliżu miasta Coonabarabran w Nowej Południowej Walii, a nazwę zmieniono na MOUNTSTROMLO AND SIDING SPRING OBSERVATORIES (MSSSO). Obserwatorium od wielu lat jest częścią Australijskiego Uniwersytetu Narodowego, a obecnie mieści się w Szkole Badawczej Astronomii i Astrofizyki. Era radiofizycznych stacji terenowych CSIRO dobiegła końca na początku lat sześćdziesiątych XX wieku wraz z decyzją, że rosnące zaawansowanie radioastronomii wymaga skoncentrowania zasobów w znacznie mniejszej liczbie głównych instrumentów. Były to w pełni sterowalny paraboloid o długości 210 stóp (64 m) w Parkes i Culgoora Radioheliograph. Teleskop Parkesa został ukończony w 1961 roku, kiedy jedynym innym teleskopem z dużą czaszą był Jodrell Bank (Wielka Brytania) 250 stóp (76 m). Godnym uwagi wczesnym rezultatem uzyskanym za pomocą teleskopu Parkesa była obserwacja zakrycia Księżyca, która określiła położenie 3C 73, umożliwiając identyfikację z obiektem gwiazdopodobnym, który jako pierwszy ujawnił duże optyczne przesunięcia ku czerwieni kwazarów. Teleskop wkrótce stał się dobrze znany ze swoich badań radiowych o wysokiej częstotliwości, które zaowocowały odkryciem wielu kwazarów, a także ze wsparcia w latach 60. i 70. XX w. misji NASA Apollo na Księżyc. Teleskop przez lata zajmował się wieloma innymi projektami, obejmującymi zarówno linię widmową, jak i kontinuum, źródła galaktyczne (w tym pulsary) i pozagalaktyczne, badania polaryzacji itp. Radioheliograf Culgoora składał się z 96 prostych czasz o średnicy 13 m, ułożonych w okrąg o średnicy 3 km na terenie niedaleko Narrabri w Nowej Południowej Walii. Zakończono go w 1967 roku. W erze, zanim zaczęto używać komputerów do tworzenia obrazów z surowych danych, używano genialnego sprzętu, aby umożliwić syntezę dwuwymiarowego obrazu Sunto co sekundę. Oddzielne zdjęcia w obu polaryzacjach ujawniły dalsze informacje na temat procesów emisji plazmy na dysku słonecznym i nad nim. Oryginalna częstotliwość robocza 80 MHz została później rozszerzona o możliwości w zakresie 43, 160 i 327 MHz. Radioheliograf zamknięto w 1984 roku, a miejsce to wykorzystano dla Australia Telescope Compact Array. W latach sześćdziesiątych XX wieku zbudowano także radioteleskop Molonglo Mills Cross o długości 1 mili, instrument tranzytowy przeznaczony do szybkiego badania nieba na częstotliwości 408 MHz. Obsługiwany przez Uniwersytet w Sydney, już wkrótce po odkryciu obiektów tej klasy w Cambridge, odniósł sukces w znajdowaniu wielu pulsarów. Krzyż Molonglo dokonał następnie przeglądu południowego nieba, a także licznych badań poszczególnych klas obiektów. W 1978 roku wstrzymano pracę w układzie krzyżowym, a ramię wschód-zachód przekonwertowano na syntezę aperturową przy 843 MHz, jako OBSERWATORYJNY TELESKOP SYNTEZY MOLONGLO (MOST). W tej formie ma lepszą czułość i zdolność tworzenia obrazu. Od tego czasu pole widzenia zostało jeszcze bardziej powiększone do prawie 2?, a teleskop przeprowadza przegląd "SUMSS" całego południowego nieba z rozdzielczością i czułością podobną do przeglądu północnego (i równikowego) NVSS. Innym projektem radioteleskopu z lat sześćdziesiątych XX wieku był Teleskop Syntezowy Fleurs, przerobiony przez Uniwersytet w Sydney z wcześniejszego instrumentu krzyżowego siatkowego CSIRO na operację syntezy aperturowej. Przez wiele lat zapewniał obrazowanie radiowe o najwyższej rozdzielczości kątowej na południu, ale został zastąpiony przez Teleskop Australijski i od tego czasu został zamknięty. Nowatorskim instrumentem z lat sześćdziesiątych XX wieku był interferometr intensywności gwiazdowej Narrabri (NSII). Zasada interferometrii intensywności została opracowana i przetestowana w kontekście radioastronomii i miała tę zaletę, że obserwacja przez turbulentny ośrodek nie miała na nią wpływu. W zastosowaniu do obserwacji optycznych umożliwiło to NSII obserwację średnic kątowych gwiazd aż do 0,0004 sekundy łuku. Instrument był obsługiwany przez Uniwersytet w Sydney i składał się z dwóch dużych (6,5 m) REFLEKTORÓW umieszczonych na okrągłym torze kolejowym o średnicy 188 m. Udało mu się zaobserwować rozmiary 32 gwiazd w granicach swojej czułości, określając w ten sposób rzeczywistą skalę temperatur gorących gwiazd. Następnie instrument zamknięto i rozpoczęto prace nad interferometrem gwiazdowym Uniwersytetu w Sydney (SUSI), "nowoczesnym instrumentem Michelsona", wykorzystującym interferencję dwóch wiązek światła z szeroko oddalonych siderostatów zamiast korelować wahania częstotliwości radiowej, jak w NSII. SUSI znajduje się w tym samym miejscu, co Australia Telescope Compact Array, a po całkowitym uruchomieniu będzie miał linie bazowe do 640 m, co zapewni najwyższą rozdzielczość kątową spośród wszystkich obecnych projektów interferometru optycznego. Oprócz rozszerzenia średnicy gwiazd, a tym samym efektywnych pomiarów temperatury na znacznie większy zakres gwiazd, kluczowym programem będzie bezpośrednia obserwacja promieniowej pulsacji zmiennych cefeid, co poprawi wykorzystanie tych gwiazd jako wskaźników odległości.
Instrumenty Krajowego Instrumentu
W latach sześćdziesiątych XX wieku było jasne, że potrzebny jest większy teleskop optyczny ogólnego przeznaczenia, zarówno w celu rozszerzenia istniejących prac gwiazdowych i galaktycznych, jak i w celu optycznej identyfikacji źródeł radiowych. Astronomowie w Wielkiej Brytanii również poczuli potrzebę większego instrumentu i osiągnięto porozumienie między rządami Australii i Wielkiej Brytanii, w wyniku którego zbudowano 150-calowy (3,9 m) instrument Teleskop Anglo-Australijski (AAT) na istniejącym terenie Siding Springs. Ukończony w 1974 roku, AAT obejmował innowacje w systemach serwonapędów, obsłudze lusterek, a zwłaszcza w sterowaniu komputerowym. Uzyskana w ten sposób precyzja wskazywania wynosząca kilka sekund łukowych była wówczas niespotykana i umożliwiała każdemu obserwatorowi łatwe zlokalizowanie nawet słabych obiektów. AAT jest obsługiwany przez powołaną w tym celu organizację ANGLOAUSTRALIAN OBSERVATORY (AAO). Wczesnym sukcesem AAT było wykrycie impulsów optycznych z pulsara Vela, wówczas najsłabszego obiektu, jaki kiedykolwiek zarejestrowano (24 mag). Chociaż lokalizacja w Siding Spring nie jest tak dobra, jak najlepsza na Hawajach czy w Chile, AAT jest teleskopem wysoce produktywnym, głównie dzięki silnemu wsparciu technicznemu i ciągłym inwestycjom w nowe instrumentarium. W obecnej erze teleskopów klasy 8-10 m, AAT w dalszym ciągu oferuje obrazowanie i spektroskopię ogólnego przeznaczenia, ale został przesunięty w stronę badań szerokokątnych. Szczególnie godny uwagi jest główny instrument o polu dwustopniowym (2dF), który zapewnia jednoczesną spektroskopię światłowodową 400 obiektów w polu o wielkości 2?. Głównym programem dla tego instrumentu jest badanie przesunięcia ku czerwieni 250 000 galaktyk, mające na celu znaczne poszerzenie wiedzy na temat struktur wielkoskalowych. Pod koniec lat siedemdziesiątych XX wieku było jasne, że Australia potrzebuje zwiększonych możliwości w zakresie obrazowania radiowego i spektroskopii o wysokiej rozdzielczości kątowej i wysokiej czułości. Potrzeba ta została zaspokojona poprzez budowę teleskopu Australia Telescope (AT), otwartego w 1988 roku. Głównym komponentem jest teleskop AT Compact Array w Culgoora. Jest to teleskop z syntezą apertury, składający się z sześciu anten o średnicy 22 m, które można przenosić do różnych stacji wzdłuż linii bazowej o długości 6 km ze wschodu na zachód. Zestaw jest obecnie modernizowany do działania na falach tak krótkich jak 3 mm, poprzez dodanie nowych odbiorników, ulepszonych powierzchni anten i toru odgałęzienia północnego. AT jest obsługiwany jako obiekt krajowy przez AUSTRALIA TELESCOPE NATIONAL FACILITY (ATNF), oddział CSIRO, który w tym celu został wydzielony z macierzystego oddziału radiofizyki. Podobna antena 22mantenna znajduje się również w Mopra niedaleko Coonabarabran, używana do VLBI lub do samodzielnych programów. Australijski przemysł zyskał cenne korzyści dzięki projektowi AT: firma, która skonstruowała anteny, zdobyła kontrakty na anteny do satelitarnych stacji naziemnych w Australii i Azji Południowo-Wschodniej. Dobrze znanym wcześniej produktem ubocznym, także z radioastronomii, był mikrofalowy system lądowania samolotu Interscan. ATNF obsługuje także teleskop z talerzem Parkesa o średnicy 64 m, który na przestrzeni lat był unowocześniany, aby zachować konkurencyjność. Niedawno rozpoczął pracę system wielowiązkowy z 13 jednoczesnymi źródłami zasilania na odległość 21 cm i jest używany do przeglądu H I całego południowego nieba z prędkością radialną 12 700 km na s-1.
Astronomia w różnych instytucjach
Inne obiekty radioastronomiczne obejmują 26-metrowy paraboloid Uniwersytetu Tasmanii zlokalizowany w Mt Pleasant niedaleko Hobart oraz 30-metrową antenę dawnej firmy Telstra w Ceduna w Australii Południowej. Obie anteny są używane głównie w VLBI, w połączeniu z AT Compact Array i teleskopami w Parkes i Mopra. Uniwersytet ten obsługuje także kilka teleskopów optycznych i kosmicznych. Szereg innych grup uniwersyteckich zajmuje się astronomią, korzystając z obiektów krajowych (np. uniwersytety w Melbourne i Western Sydney oraz Macquarie University) lub za pomocą własnych instrumentów (np. Uniwersytet w Adelajdzie zajmuje się wysokoenergetycznymi promieniami kosmicznymi, Uniwersytet Zachodni rozwój australijskich detektorów fal grawitacyjnych i teleskopów balonowych Australijskiej Akademii Sił Obronnych). Australijscy astronomowie w dużym stopniu korzystają także z zagranicznych obiektów i obserwatoriów satelitarnych, w tym z HST, a dzięki ścisłej współpracy międzynarodowej około 350 astronomów z zagranicy odwiedza Australię każdego roku. Najważniejszym nowym teleskopem optycznym lat 80. XX wieku jest teleskop o średnicy 2,3 m zbudowany przez MSSSO w Siding Spring. Podobnie jak praktycznie wszystkie nowoczesne duże teleskopy, wykorzystuje montaż alt-az, aby zmniejszyć koszty budowy obudowy. Wczesnym godnym uwagi rezultatem uzyskanym za pomocą tego teleskopu była demonstracja, że Mały Obłok Magellana jest podzielony wzdłuż linii wzroku na dwie części, prawdopodobnie w wyniku zderzenia z Wielkim Obłokiem Magellana około 300 milionów lat temu. Innym ważnym obiektem w Siding Spring Mountain jest teleskop Schmidta o średnicy 1,2 m, pierwotnie działający wyłącznie w Wielkiej Brytanii, ale od 1988 roku połączony z AAO. Teleskop ten jest dobrze znany z wysokiej jakości fotograficznych przeglądów południowego nieba. Oprócz kontynuowania dużych przeglądów i mniejszych projektów fotograficznych, teleskop jest również używany do spektroskopii wielowłóknowej w polu 6°.
Przyszłe możliwości
Australijscy astronomowie uznali potrzebę dostępu do teleskopu optycznego na podczerwień klasy 8 m, aby zachować konkurencyjność w obecnych warunkach. W rezultacie Australia dołączyła do międzynarodowego projektu Gemini jako partner na poziomie 5%. Zapewni to australijskim obserwatorom dostęp zarówno do półkuli północnej, jak i południowej, z różnorodnymi wysokiej jakości instrumentami optycznymi i podczerwonymi. Jednakże przy alokacji odpowiadającej 10% pojedynczego teleskopu, w porównaniu z 50% AAT w epoce, w której wiodły teleskopy klasy 4 m, dostęp do czasu 8 m będzie poważnie ograniczony. Dlatego niezwykle ważne będzie utrzymanie AAT przy wysokim standardzie konkurencyjnego oprzyrządowania. Na uwagę zasługuje kilka innych inicjatyw rozwojowych. Australijscy astronomowie aktywnie uczestniczą w rozwoju Antarktydy jako miejsca obserwacyjnego. Niskie temperatury i minimalna ilość pary wodnej w atmosferze stwarzają wyjątkowo dobre warunki do obserwacji w podczerwieni, w tym w zakresie długości fal, które normalnie nie są obserwowalne z ziemi. Istnieje również możliwość, że wysoki płaskowyż Antarktyczny będzie miał najlepszą WIDOCZNOŚĆ ze wszystkich miejsc naziemnych. Wspólne Australijskie Centrum Badań Astrofizycznych na Antarktydzie (JACARA) z siedzibą na Uniwersytecie Nowej Południowej Walii obsługuje już 60-centymetrowy teleskop na podczerwień na biegunie południowym. Planowane jest przeniesienie teleskopu w późniejszym terminie do jednego z prawdopodobnie lepszych (ale mniej dostępnych) miejsc na płaskowyżu. Jeśli chodzi o radioastronomię, Australia aktywnie uczestniczy w planowaniu i rozwoju układu kilometrów kwadratowych, międzynarodowego projektu mającego na celu zbudowanie radioteleskopu o długości fali cm o czułości 1-2 rzędów wielkości większej niż jakikolwiek obecny instrument. Jednym z głównych celów astrofizycznych byłoby wykrycie i zbadanie emisji 21 cm z obojętnego wodoru przy dużych przesunięciach ku czerwieni, w protogalaktykach i obszarach powstawania gwiazd. Podsekcje sieci rozciągałyby się na setki km, a jedną z najlepszych perspektyw na utworzenie wolnego od zakłóceń miejsca o wymaganej wielkości znajdują się zachodnie obszary pustynne Australii.
Organizacja
W 1989 roku raport dotyczący astronomii w Australii odnotował słabość astrofizyki teoretycznej. Obszar ten został wzmocniony na początku lat 90. XX wieku poprzez utworzenie Centrum Badawczego Astrofizyki Teoretycznej (RCfTA) na Uniwersytecie w Sydney, a później Australijskiego Uniwersytetu Astrofizycznego Teorii Centrum w Canberze. Obie grupy potrafią czerpać obopólne korzyści wynikające z bliskiego kontaktu teoretyków z obserwatorami. RCfTA utworzono przy wsparciu finansowym Australijskiej Rady ds. Badań Naukowych (ARC), która wypłaca fundusze rządowe w wielu obszarach nauki i technologii. Poprzez swoje programy stypendialne ARC wspiera także większość prac badawczych prowadzonych na australijskich uniwersytetach. Społeczność zawodowa astronomów w Australii składa się z około 200 stanowisk, z czego około 30 to stanowiska na czas określony. Na różnych uniwersytetach w całym kraju studiuje około 75 doktorantów, a każdego roku około 15 kończy studia. Głównym stowarzyszeniem astronomów zawodowych i studentów jest ASTRONOMICAL SOCIETY OFAUSTRALIA (ASA), zrzeszające około 300 członków. Do głównych działań ASA należy organizacja corocznych spotkań naukowych, zarządzanie publikacjami ASA oraz reprezentowanie interesów astronomów wobec rządu i ogółu społeczeństwa. Oficjalną współpracę z rządem zapewnia Narodowy Komitet Astronomii (NCA), który działa pod auspicjami Australijskiej Akademii Nauk. NCA zarządza stosunkami Australii z MIĘDZYNARODOWĄ UNIĄ Astronomiczną (IAU), a Australia liczy obecnie 190 członków IAU.
Astronomia babilońska
Cywilizacje Mezopotamii pielęgnowały bogatą tradycję astronomiczną przez około dwa tysiące lat, od początków drugiego tysiąclecia p.n.e. - jeśli nie wcześniej - aż do I wieku naszej ery. Zachęceni wiarą, że wydarzenia widziane na niebie są zwiastunami przyszłych, ziemskich warunków, Babilończycy i Asyryjczycy rozwinęli skomplikowaną praktykę obserwowania wróżb, dzięki której poznali różnorodne zjawiska niebieskie i opracowali zasady przewidywania ich wystąpienia. Od VII wieku p.n.e. w Babilonie prowadzono zapisy obserwacji Księżyca, pięciu widzialnych planet i Słońca. Babilończycy odkryli nie tylko okresowy charakter wielu obserwowanych przez siebie zjawisk, ale także to, że pewne zjawiska obejmowały kilka okresowych elementów, co im się udało, izolowanie, mierzenie i wreszcie naśladowanie za pomocą ciągów arytmetycznych. W ten sposób powstała astronomia matematyczna, która działała na zupełnie innych zasadach niż modele geometryczne ASTRONOMII greckiej i średniowiecznej. Pomimo tej rozbieżności w metodach wpływ astronomii babilońskiej na jej grecką odpowiedniczkę był głęboki, a niektóre elementy pochodzenia babilońskiego przetrwały w żywych tradycjach astronomicznych w całej Eurazji od średniowiecza do czasów współczesnych.
Źródła
Prawie wszystko, co wiemy o astronomii babilońskiej, pochodzi ze współczesnych dokumentów spisanych w języku akadyjskim pismem klinowym na glinianych tabliczkach. Tablice klinowe odnaleziono obficie podczas wykopalisk w połowie XIX wieku, a wkrótce potem rozszyfrowano pismo. Teksty związane z astronomią liczą się w tysiącach. Duża i wciąż rosnąca ich część dostępna jest w wydaniach i tłumaczeniach na języki nowożytne, jednakże nadal istnieje wiele niepublikowanych tabliczek, zwłaszcza wśród tekstów omenowych i zapisów obserwacyjnych. Tabliczki przechowywane we współczesnych muzeach i innych kolekcjach tylko częściowo uzyskano w wyniku wykopalisk naukowych, które dostarczyły informacji o ich pochodzeniu, a resztę zakupiono od handlarzy. niemniej jednak większość tablic astronomicznych można odnaleźć w trzech miejscach: w bibliotece królewskiej i archiwum stolicy Asyrii, Niniwie, najważniejszym źródle tekstów odnoszących się do niebiańskich wróżb, datowanych głównie na pierwszą połowę VII wieku p.n.e., tabliczkach z niepewne lokalizacje w Babilonie, prawie jedyne źródło zapisów obserwacyjnych, a także bogate w astronomię matematyczną, oraz archiwum świątynne z południowo-babilońskiego miasta Uruk, które jest źródłem pozostałej części tekstów matematycznych. Przed współczesnym rozszyfrowaniem pisma klinowego praktycznie jedyne dostępne informacje na temat astronomii w Mezopotamii składały się z rozproszonych wypowiedzi klasycznych autorów greckich i łacińskich. Obejmują one od ewidentnie absurdalnych twierdzeń pochodzących z tysięcy lat obserwacji po konkretne dane techniczne, które zostały triumfalnie potwierdzone na tablicach babilońskich. Rozprzestrzenianie się babilońskich metod i koncepcji można obecnie pełniej prześledzić w greckich i egipskich fragmentach papirusów astronomicznych z rzymskiego Egiptu oraz w niektórych indyjskich tekstach astronomicznych.
Astronomia w tradycji omenów Mezopotamii
Niebiańskie wróżby stanowiły dużą część szerokiego repertuaru wydarzeń uznawanych przez Mezopotamczyków za złowieszcze. Wiara w znaki była zasadniczo religijna: przypuszczano, że bogowie informują ludzi o ich nastroju i zamiarach za pomocą widocznych znaków, których interpretacja była zadaniem doświadczonych wróżbitów. teksty omenowe, zwykle wyrażane jako zdania warunkowe łączące zapowiedź z przewidywanym rezultatem (np. "Jeśli księżyc w chwili swego pojawienia się prześlizgnie się przez chmury: nadejdzie powódź"), zostały zebrane w kompendiach, takich jak seria niebiańskich wróżb En?uma Anu Enlil (" kiedy bogowie Anu i Enlil", od słów początkowych), która składała się z około 70 tablic. En?uma Anu Enlil przetrwał we fragmentarycznych kopiach z VII wieku p.n.e. i późniejszych, lecz niektóre niebiańskie wróżby, zarówno zawarte w tym zbiorze, jak i zachowane poza nim, pochodzą z pierwszej połowy drugiego tysiąclecia p.n.e., a niewielka liczba odnosi się do wydarzeń historycznych trzecie tysiąclecie. Wróżby Enumy Anu Enlila są w najszerszym znaczeniu "wróżbami nieba", obejmującymi zjawiska meteorologiczne, a także obserwacje Księżyca, Słońca, pięciu planet i gwiazd stałych. Nawet w przypadku obserwacji ciała niebieskiego kolor i jasność, aureole i towarzysząca im pogoda są traktowane na równi z czasami, datami i pozycjami. Nazywanie obserwacyjnego elementu tego wróżenia astronomią byłoby mylące, ale kryje się w nim wiele z astronomii. Zatem aspekty zaćmienia Księżyca, które pomogły określić jego złowieszcze znaczenie - zazwyczaj śmierć króla - obejmowały datę i przybliżoną porę dnia, kierunki, z których dysk Księżyca był zasłonięty na początku i na końcu zaćmienia, a czasami także konstelacja, w której miało miejsce zaćmienie. W archiwach królów asyryjskich w Niniwie, obecnie w British Museum, zachowały się liczne listy i raporty adresowane do królów Asarhaddona (680-669 p.n.e.) i Asurbanipala (668-627 p.n.e.) przez sieć obserwatorów wróżb z Niniwy i innych asyryjskich i miasta babilońskie. W tej fascynującej korespondencji widać, że czujne obserwowanie Księżyca, Słońca i planet było sprawą najwyższej wagi politycznej, wpływającej na decyzje dotyczące wszelkich poczynań króla. Uczeni, na których polegał król, mieli najlepsze motywy, aby z wyprzedzeniem dowiedzieć się, kiedy można spodziewać się lub wykluczyć złowieszcze zjawiska: koledzy byli zawsze gotowi wskazać królowi błędne lub spóźnione obserwacje. Prognozy, które często pojawiają się w korespondencji królewskiej, dotyczą głównie zaćmień Księżyca i Słońca oraz pierwszych widzialności planet. Typowe prognozy są albo z pewnością negatywne ("zaćmienie nie nastąpi w tym miesiącu" lub "pojawienie się określonej planety nie jest bliskie"), albo warunkowo potwierdzające ("jeśli zaćmienie nastąpi w tym miesiącu, powinniśmy go wypatrywać w określonym czasie dnia lub nocy"). Oprócz metod wróżbiarskich, na których trudno było polegać, obserwatorzy omenów najwyraźniej polegali na wiedzy o przybliżonych możliwych odstępach czasu pomiędzy zaćmieniami oraz pomiędzy kolejnymi pojawianiami się i znikaniem planet. Nie wiadomo, czy korzystali również z dłuższych okresów. MUL.APIN ("Gwiazda Pługowa") to najważniejszy z nielicznych tekstów z II i początków I tysiąclecia p.n.e., które dotyczą przede wszystkim autentycznych tematów astronomicznych. Najdłuższą część tego zestawienia stanowią wykazy konstelacji i gwiazd, noszące mniej lub bardziej obrazowe nazwy, takie jak "wóz", "liść Eru" i "najemnik". Gwiazdy wschodzące i zachodzące są pogrupowane w trzy "ścieżki", najwyraźniej według części wschodniego horyzontu, w których wschodzą, ale nie podejmuje się dalszych prób opisania ich układu ani położenia. Podano testy astronomiczne w celu ustalenia, kiedy należy wstawić miesiąc przestępny do kalendarza księżycowego, aby był on zgodny z porami roku. MUL.APIN zawiera niewiele astronomii księżycowej, a omówienie planet ogranicza się do przybliżonych szacunków odstępów czasu między pojawianiem się i znikaniem. Drugim tekstem cieszącym się dużym zainteresowaniem jest czternasta tablica Enuma Anu Enlil, która w odróżnieniu od reszty kompilacji nie jest zbiorem tekstów omenowych, lecz zbiorem tablic liczbowych. Jedna z tych tabel przedstawia zmienny czas trwania nocnej widoczności Księżyca w ciągu miesiąca synodycznego, przy założeniu, że długość nocy jest maksymalna, tj. blisko przesilenia zimowego, a druga tabela przedstawia miesiąc po miesiącu w sposób schematyczny rok słoneczny, dzienna zmiana czasu trwania nocnej widoczności Księżyca. Z wyjątkiem początku i końca pierwszej tabeli, gdzie zastosowano ciekawy wzór stałych drugich różnic, liczby rosną do maksimum, a następnie ponownie maleją w wyniku stałych różnic, co jest rodzajem sekwencji, którą współcześni autorzy nazywają (od jej wyglądu na wykresie) liniową funkcję zygzakowatą. Proste funkcje zygzakowate składające się z małych liczb całkowitych są oczywistym sposobem opisu okresowo zmieniającej się wielkości, a najstarszym znanym przykładem jest przybliżona tabela przedstawiająca zmieniającą się długość światła dziennego w ciągu roku na papirusie z drugiego tysiąclecia p.n.e. z Egiptu, kraju nienotowanego dla swojej astronomii matematycznej. Godne uwagi jest to, że około 1000 roku p.n.e. astronomowie mezopotamscy próbowali wyizolować i przedstawić modele matematyczne dwóch niezależnych pierwiastków okresowych w zjawisku, które oscyluje w złożony sposób.
Dzienniki i teksty dotyczące roku docelowego
Nie wiadomo, w jakim stopniu obserwatorzy omenów prowadzili zapisy tego, co widzieli na niebie. W co najmniej jednym mieście, Babilonie, grupa skrybów, którzy być może lub nie byli obserwatorami omenów, zaczęła już w połowie VII wieku zapisywać niezwykłą różnorodność datowanych zjawisk na tablicach, które obecnie nazywamy Dziennikami. Zachowało się wiele setek fragmentów tabliczek Dziennika z Babilonu, obejmujących lata od 652 do 61 p.n.e., przy czym większość z nich pochodzi z ostatnich trzech wieków p.n.e. Zazwyczaj tabliczka Dziennika obejmowała pół roku księżycowego, czyli sześć lub siedem miesięcy księżycowych. Dla każdego miesiąca, noc po nocy i dzień po dniu, Dziennik odnotowuje obserwacje ciał niebieskich i pogody, a każdy miesiąc kończy się zapisami cen towarów, poziomu rzeki Eufrat i bieżących wydarzeń. Najbardziej rzucającym się w oczy obiektem w Dziennikach jest Księżyc. Co miesiąc mierzono sześć przedziałów czasowych ("księżycowa szóstka") w jednostkach zwanych us lub "stopniami czasu", tak że 360 stopni czasu równa się jednemu (średniemu) dniu od zachodu do zachodu słońca:
1. od zachodu słońca do zachodu księżyca wieczorem pierwszej widoczności Księżyca;
2. od zachodu Księżyca do wschodu słońca rano przed pełnią Księżyca;
3. wschód i zachód Księżyca wieczorem przed pełnią Księżyca;
4. wschód słońca do zachodu księżyca rano po pełni księżyca;
5. zachód słońca do wschodu księżyca wieczorem po pełni księżyca;
6. wschód księżyca do wschodu słońca rankiem ostatniej widoczności Księżyca.
Jest to rozwinięcie zainteresowania księżycową widocznością w nocy, ujawnionego na tabliczce 14 Enuma Anu Enlil. W Dziennikach z dużą częstotliwością rejestrowane są również przejścia Księżyca przez około 30 jasnych gwiazd w pobliżu EKLIPTYKI, znanych jako gwiazdy normalne. Okoliczności zaćmień Księżyca i Słońca podano szczegółowo. W przypadku planet Pamiętniki rejestrują przejścia Gwiazd Normalnych i bliskie wzajemne zbliżenia, a także pewne wydarzenia w ich cyklach synodycznych. Opisywane zjawiska synodyczne Saturna, Jowisza i Marsa to ich pierwsze widzialności i zaginięcia, stacje i wschody akronychalne (zachody słońca). Pierwsze widzialności i zaginięcia gwiazd porannych i wieczornych odnotowano dla Wenus i Merkurego. Położenie planet w ich zjawiskach synodycznych jest określone, jeśli w ogóle, tylko w przybliżeniu w odniesieniu do konstelacji lub, w późniejszych Dziennikach, przez znak zodiaku zajmowany przez planetę. Wydaje się, że przejście od konstelacji do konwencjonalnych znaków zodiaku obejmujących równe dwunaste ekliptyki miało miejsce około połowy V wieku p.n.e. Wiele wpisów w Dziennikach nie ma charakteru obserwacji. Przewidywane lub skorygowane dane są rejestrowane w przypadku, gdy pogoda opóźnia lub utrudnia obserwację, czemu często towarzyszy uwaga "Nie oglądałem". Źródła wielu z tych przewidywań nie zostały ustalone poza dyskusją. Ważną metodą prognozowania zjawisk planetarnych i księżycowych było z pewnością zastosowanie "okresów Roku Docelowego". Były to okresy od zaledwie 8 lat dla Wenus do aż 83 lat dla Jowisza, po których następuje przybliżona powtarzalność zjawisk (zdarzenia synodyczne lub normalne przejścia gwiazd). Wszystkie okresy planetarne są liczbami całkowitymi lat słonecznych. Ważną okresowością dla Księżyca był tak zwany "SAROS", okres zaćmień obejmujący 223 miesiące synodyczne (około 18 lat), który obejmuje również prawie całą liczbę okresów anomalii księżycowych i szerokości geograficznej Księżyca. Na tabliczkach zwanych Tekstami Roku Celu gromadzone są raporty z obserwacji wydobyte z Dzienników jeden Rok Celu wstecz, aby zapewnić podstawę do przewidywań na nadchodzący rok. Aby dokonać rzeczywistych przewidywań, należałoby zastosować poprawki, aby uwzględnić niedokładność okresowości. Produktem tego procesu będą prawdopodobnie tabliczki znane jako Almanachy i Almanachy Normal Star, zawierające przewidywania pewnych kategorii zjawisk typu Pamiętnika na dany rok.
Astronomia matematyczna
Podstawowym celem babilońskiej astronomii matematycznej było obliczenie niektórych zjawisk odnotowanych w Dziennikach. Obejmowały one daty i długości geograficzne zjawisk synodycznych planet, przedziały czasowe "Księżycowej Szóstki" i zaćmienia. Przewidywania realizowano za pomocą ciągów liczb generowanych arytmetycznie według zasad, tak aby każdy ciąg powtarzał się z dokładnie taką częstotliwością, jaka jest wymagana dla danej składowej ruchu ciała niebieskiego. Modele predykcyjne można podzielić na dwie kategorie. Modele, w których wśród sekwencji dominują liniowe funkcje zygzakowate, nazywane są modelami systemu B. Te, w których liczby odpowiadają "funkcjom schodkowym" zależnym numerycznie od położenia ciała niebieskiego w przegrodach ekliptyki, nazywane są modelami systemu A. Modele systemu A i systemu B były używane jednocześnie w Babilonie i Uruk. Modele planetarne wykorzystują "łuki synodyczne", czyli liczbę stopni, o jakie planeta przechodzi przez ekliptykę od jednego wystąpienia zjawiska synodycznego do następnego wystąpienia tego samego zjawiska, oraz "czasy synodyczne", czyli liczbę miesięcy i dni od jednego wydarzenia do drugiego. Rzeczywiste długości geograficzne (stopnie w obrębie znaków zodiaku) i daty zjawisk są uzyskiwane jako suma bieżąca łuków synodycznych i czasów, które są generowane jako sekwencje okresowe. Okresowość można wyrazić równaniem występowanie = Z obrotów ekliptyki = Y yr gdzie , Z i Y są liczbami całkowitymi, a i Z są względnie pierwsze. Zatem w tabeli zjawisk planetarnych przewidywanych według modelu babilońskiego, po liniach długość geograficzna powróci dokładnie do swojej pierwotnej wartości. W modelach planet Układu A zasady równoważne następującym założeniom: (1) ekliptyka jest podzielona na dwie lub więcej stref o ustalonych granicach, (2) wystąpienia zjawiska w pełnym okresie Y roku są rozmieszczone wzdłuż ekliptyki w taki sposób że są one rozmieszczone w równych odstępach wewnątrz każdej ze stref oraz (3) postęp od jednego wystąpienia do następnego to odstępy Z. Babiloński zapis wartości miejsca o podstawie 60 dla liczb wprowadza pewne nieastronomiczne ograniczenia do modelu, ponieważ zawsze chce się, aby obliczenia prowadziły do liczb kończących się po małej liczbie miejsc ułamkowych, zwykle dwóch. Niemniej jednak sekwencję łuków synodycznych można kształtować poprzez odpowiedni dobór parametrów, tak aby z powodzeniem odtworzyć rzeczywiste zachowanie planety, co ilustruje rysunek 1, na którym przebieg łuków synodycznych pomiędzy pierwszymi stacjonarnymi punktami Marsa obliczony przez system Model porównuje się z tymi samymi przedziałami obliczonymi przez współczesną teorię. System B, według którego łuki synodyczne i czasy są funkcjami zygzakowatymi, jest modelem bardziej restrykcyjnym i mniej skutecznym w odtwarzaniu zjawisk. Pełna tabela obliczonych zjawisk planety może zawierać kolumny podające daty i długości geograficzne pełnego cyklu zjawisk synodycznych, na przykład pierwsza widoczność Marsa, wschody akronychalne pierwszej stacji, stacja druga i zniknięcie. Długości geograficzne w datach pośrednich można uzyskać poprzez ekstrapolację lub interpolację między tabelarycznymi parami data-długość geograficzna. Babilońskie modele księżycowe są bardziej niezwykłym osiągnięciem niż modele planetarne. Na zaćmienia i czas widoczności Księżyca wpływa kilka niezależnych składników okresowych, których wyizolowanie i zmierzenie nie było łatwe. W modelach systemu A i systemu B występują co najmniej cztery okresy: rok (najwyraźniej nie wprowadzono rozróżnienia na lata gwiezdne, tropikalne i anomalistyczne), miesiąc synodyczny oraz okresy anomalii i szerokości geograficznej Księżyca. Do zilustrowania podejścia może posłużyć obliczenie dokładnego czasu koniunkcji. Zakłada się, że odstęp między poprzednią a obecną koniunkcją wynosi 29 dni plus dwa zmienne składniki (wyrażone w stopniach czasu), zwane J i G. G zmienia się w zależności od anomalistycznego okresu Księżyca. W systemie B jest to funkcja liniowa zygzakowata, natomiast w systemie Ait jest to funkcja zygzakowata "wciągnięta" w sinusoidalny kształt w jej skrajnych ciągach arytmetycznych drugiego rzędu. J ma rok słoneczny za swój okres. Modeluje się ją w systemieA za pomocą funkcji krokowej zależnej od długości geograficznej Słońca, natomiast w systemBit jest to gładka sekwencja sinusoidalna otrzymana jako suma liniowa funkcji zygzakowatej. Rysunek 2 przedstawia serię wartości G, J i ich sumę z tabletu systemu B. Błędy w obliczonych czasach, które mogą sięgać nawet 2 godzin, wynikają częściowo z zastosowania dość prostych funkcji arytmetycznych, a częściowo z nieodłącznej niedokładności przedstawiania prawdziwego miesiąca synodycznego jako sumy dwóch niezależnych funkcji okresowych. Okresowości, szczególnie te z teorii księżycowej układu B, są bardzo dokładne. Ostatnimi tabliczkami astronomii Mezopotamii są almanachy z lat 70. XX w. n.e. Jednak do tego czasu metody babilońskiej astronomii matematycznej rozprzestrzeniły się na świat greckojęzyczny, gdzie zapewniły podstawę obliczeniową ASTROLOGII grecko-rzymskiej, dopóki w późnej starożytności nie zostały zastąpione tablicami Ptolemeusza. HIPPARCHUS i PTOLEMEUSZ korzystali z babilońskich raportów obserwacyjnych i okresowości teorii księżycowej układu B, a na ich prace mogły mieć mniej bezpośredni wpływ inne aspekty modeli matematycznych.
Bariogeneza (geneza barionu lub asymetria materii / antymaterii)
Z każdym typem cząstki związana jest cząstka ANTYMATERIA o przeciwnych liczbach kwantowych. Na przykład pozyton (ładunek +1) jest antycząstką elektronu (ładunek -1), a antyproton (ładunek -1, liczba barionowa -1) jest antycząstką protonu (ładunek +1, liczba barionowa +1 ). Cząstki mogą anihilować wraz ze swoimi antycząstkami w promieniowanie, a pary cząstka-antycząstka mogą powstawać w próżni. Obserwacje wydają się sugerować, że wszechświat składa się z materii, bez żadnych znaczących ilości antymaterii. Domeny galaktyk antymaterii i gromad galaktyk antymaterii, jeśli istnieją, muszą być znacznie od siebie oddzielone. Najprostszym wyjaśnieniem jest to, że we wszechświecie występuje asymetria antymaterii: obecnie wszechświat składa się wyłącznie z cząstek bez dużych układów antymaterii. Asymetrię materii i antymaterii zwykle wyraża się w postaci bezwymiarowej liczby znanej jako "liczba barionowa wszechświata". Jeśli barionom (neutronom, protonom i masywniejszym rezonansom barionowym) przypisuje się liczbę
barionową +1, a antybarionom liczbę barionową -1, to z powodu braku dużych ilości antymaterii obecna gęstość liczby barionowej ( gęstość liczby barionowej minus gęstość liczby antybarionowej) można wyrazić w kategoriach całkowitej gęstości masy Wszechświata. Liczba barionowa to stosunek gęstości liczby barionowej do gęstości entropii Wszechświata. Przy niepewności wynoszącej od trzech do pięciu liczba barionowa Wszechświata wynosi około 10-10. Dopóki liczba barionowa jest zachowana w każdej indywidualnej reakcji, a ekspansja wszechświata jest izentropowa (zachowująca entropię), liczba barionowa wszechświata jest zachowana w historii wszechświata. Chociaż obecnie we wszechświecie nie ma antymaterii, gdyby temperatura wszechświata była kiedykolwiek wyższa niż około 1013 K, a tym samym jego energia cieplna przekraczałaby energię spoczynkową protonu, wówczas antymateria istniałaby w ogromnych ilościach. Wcześniej niż około milisekundę po WIELKIM WYBUCHU Wszechświat powinien być
wystarczająco gorący, aby promieniowanie mogło utworzyć pary cząstka-antycząstka. Jeśli liczba barionowa jest zachowana, to w wystarczająco wysokiej temperaturze liczba barionowa wynosząca 10-10 oznacza, że we wszechświecie było mniej więcej tyle samo barionów i antybarionów, ale na każde 10 miliardów antybarionów przypadało 10 miliardów i jeden barion. Gdy Wszechświat ostygł poniżej temperatury wymaganej do wytworzenia par proton-antyproton z promieniowania, wszystkie antybariony uległy anihilacji, pozostawiając nadmiarową liczbę barionową wynoszącą 1 część na 10 miliardów. Chociaż tak niewielka asymetria pomiędzy liczbą barionów i antybarionów może wydawać się nieistotna, bez asymetrii wszystkie bariony i antybariony uległyby anihilacji, w wyniku czego powstałby wszechświat pozbawiony materii (lub antymaterii) niezbędnej do powstania galaktyk, gwiazd i planety. Chociaż obecna liczba barionowa Wszechświata może po prostu odzwierciedlać początkowy stan Wielkiego Wybuchu, bardziej naturalne wydaje
się, że wszechświat o zerowej liczbie barionowej, co by nastąpiło, gdyby wszechświat przeszedł okres "INFLACJA", ewoluował we wszechświat z mała liczba barionowa. W 1967 roku rosyjski fizyk Andriej Sacharow nakreślił trzy "składniki" niezbędne do wygenerowania asymetrii barionowej z początkowo symetrycznych warunków. Pierwszym wymaganiem jest to, że niektóre reakcje cząstek muszą naruszać liczbę barionową. Drugim warunkiem jest naruszenie symetrii CP (parzystość razy koniugacja ładunku). Wreszcie bariogeneza wymaga odejścia od lokalnej równowagi termodynamicznej. Te trzy składniki Sacharowa mogły występować we wczesnym wszechświecie. Ekspansja wszechświata może prowadzić do warunków nierównowagowych. Naruszenie CP zostało odkryte w 1964 roku przez Jamesa Cronina i Val Fitcha w reakcjach z udziałem cząstek znanych jako kaony. Chociaż nigdy nie zaobserwowano naruszenia liczby barionowej, w kilku teoriach przewiduje się, że nastąpi to. Różne możliwości naruszenia liczby barionowej zaowocowały opracowaniem
różnych scenariuszy bariogenezy. W teoriach unifikacji oddziaływania silnego, słabego i elektromagnetycznego w WIELKĄ ZJEDNOCZONĄ TEORIĘ (GUT) przewiduje się, że liczba barionowa zostanie naruszona w wyniku rozpadu supermasywnych cząstek o masie aż 1016 mas protonu. W najprostszych wersjach bariogenezy GUT supermasywne cząstki były obecne w promieniowaniu cieplnym, a gdy temperatura Wszechświata spadła poniżej równoważnej masy supermasywnej cząstki, preferencyjnie rozpadały się na bariony. W scenariuszu GUT bariogeneza nastąpiła 10-35 sekund po wybuchu. Ujednolicenie oddziaływań elektromagnetycznych i słabych polega na złamaniu symetrii elektrosłabej, w której pole Higgsa przyjmuje wartość oczekiwaną próżni. Choć dziś zepsuta, to przy odpowiednio wysokich temperaturach symetria powinna zostać przywrócona. Oczekuje się, że przemiana fazowa związana z naruszeniem symetrii elektrosłabej, gdy temperatura Wszechświata spadnie poniżej około 1015 K. Przewiduje się, że powyżej
przejścia fazowego będą działać nieperturbacyjne procesy naruszające liczbę barionową. Opracowano scenariusz bariogenezy elektrosłabej, w którym asymetria barionowa jest generowana w czasie przejścia fazowego elektrosłabego, około 10-12 sekund po wybuchu. Teorie SUPERSYMETRY mają bozonowych partnerów dla kwarków i leptonów. Cząstki te, zwane skwarkami i spaniami, są bozonami i mogą osiągać wartości oczekiwane podciśnienia. Jakakolwiek zmiana wartości oczekiwanej próżni pola kwadratowego powoduje naruszenie liczby barionowej. W tym scenariuszu nie określono wieku Wszechświata w trakcie bariogenezy. Inne scenariusze bariogenezy obejmują odmiany lub kombinacje trzech powyższych scenariuszy. Chociaż dokładny mechanizm bariogenezy jest nadal przedmiotem intensywnych spekulacji, oczekuje się, że we wczesnym Wielkim Wybuchu obecne będą trzy składniki Sacharowa: w przyrodzie zaobserwowano naruszenie CP, ekspansja wszechświata w naturalny sposób prowadzi do odstępstw od równowagi, a barion Oczekuje się, że
naruszenie liczby -number będzie miało miejsce na różne sposoby. Chociaż szczegóły bariogenezy nie są znane, eksperymenty laboratoryjne mogą pomóc w rozwikłaniu zagadki. Badanie naruszenia CP z udziałem kwarków dolnych może doprowadzić do głębszego zrozumienia tego składnika. Znajomość masy elektrosłabego Higgsa jest ważna dla bariogenezy elektrosłabej. Odkrycie supersymetrii niskoenergetycznej miałoby ważne implikacje dla bariogenezy elektrosłabej, a także scenariuszy obejmujących wartości oczekiwane kwadratu. Wreszcie obserwacja rozpadu protonów lub inny bezpośredni dowód wielkiej unifikacji byłaby ważna dla scenariuszy bariogenezy GUT.
Kalendarz
Kalendarz to system organizowania jednostek czasu w celu liczenia czasu w dłuższych okresach. DZIEŃ jest najmniejszą kalendarzową jednostką czasu; pomiar ułamków dnia to mierzenie czasu. Niektóre kalendarze odtwarzają cykle astronomiczne według ustalonych zasad, inne regulują obserwacje astronomiczne. Powszechnie kalendarze przyjmują formę liczenia czasu ze względu na początek, długość i podziały ROKU. Przedstawiono je w formie tabelarycznego zestawienia dni każdego MIESIĄCA i tygodnia w roku. Okresy ruchu Słońca i Księżyca oraz dzienne obroty Ziemi są naturalnymi podstawami do tworzenia kalendarzy. Jednak niektóre cywilizacje oparły kalendarze na innych ciałach Układu Słonecznego, na przykład na wykorzystaniu Wenus przez Majów. Niestety, żaden z powstałych w sposób naturalny okresów (rok, lunacja czy dzień) nie jest dokładną wielokrotnością drugiego. Zatem kalendarze oparte na miesiącach księżycowych wymagają korekt, aby pozostawały zbliżone do roku opartego na pozornym ruchu Słońca. Dokładny okres ruchu Ziemi wokół Słońca nie jest całkowitą liczbą dni, dlatego wymaga dostosowania, aby pory roku, a co ważniejsze, święta religijne, znajdowały się w kalendarzu o tej samej porze. Pory roku i niektóre święta religijne wywodzą się z naturalnych ruchów ciała. Niektóre z nich definiuje się w kategoriach równonocy wiosennej, która ściśle podąża za ruchem Ziemi. Istnieje kościelna równonoc zdefiniowana w celu umożliwienia określenia Wielkanocy bez różnic wynikających z prawdziwego ruchu. Rok tropikalny definiuje się jako średni odstęp pomiędzy równonocą wiosenną. Obecna średnia wartość roku tropikalnego wynosi 365,242 190 dni. Wartość maleje z powodu hamowania pływowego o sześć milionowych dnia na stulecie. Prawdziwy odstęp między konkretną równonocą wiosenną a następną może różnić się od tej średniej o kilka minut. Dokładna długość roku tropikalnego zależy od ogólnej teorii planet lub integracji numerycznej stosowanej do określenia elementów orbity. Obecnym kalendarzem używanym na całym świecie jest kalendarz gregoriański. W niektórych krajach zostało to wprowadzone przez papieża Grzegorza w 1582 r., a w innych dopiero w 1927 r. Kalendarz gregoriański ma 365 dni w roku z wyjątkiem dnia przestępnego 366 dni. Lata przestępne to lata, które dzielą się równomiernie przez 4, z wyjątkiem lat, które są dokładnie podzielne przez 100; te lata centralne są latami przestępnymi tylko wtedy, gdy można je dokładnie podzielić przez 400. Zatem lata 1800, 1900, 2100 i 2200 nie są latami przestępnymi, ale rok 2000 jest rokiem przestępnym. Rok kalendarzowy gregoriański ma 365,2425 dni w porównaniu z obecnym rokiem tropikalnym wynoszącym 365,242 190 dni, co stanowi różnicę 0,000 310 dni, czyli 1 dzień na 3000 lat. MIĘDZYNARODOWA UNIA Astronomiczna (IAU) przyjęła rok juliański wynoszący 365,25 dni jako jednostkę czasu w wielu obliczeniach, takich jak elementy precesji i orbity, aby uniknąć zmienności i niepewności wartości roku tropikalnego. Pojawiły się niepotwierdzone oświadczenia dotyczące modyfikacji kalendarza gregoriańskiego dokonanych przez niektóre kraje w celu skorygowania pozostałych rozbieżności. Jednakże nie są znane żadne korekty długoterminowych rozbieżności, a ulepszone efemerydy mogą zmienić wielkość rozbieżności. Często pojawiają się także radykalne propozycje uproszczenia, ujednolicenia lub ulepszenia kalendarza gregoriańskiego. Obecne całkowite międzynarodowe wykorzystanie kalendarza gregoriańskiego będzie wymagało, aby jakakolwiek zmiana zapewniała ogólnoświatową korzyść, która uzasadnia tę zmianę. W wielu przypadkach kalendarze opierały się na cyklu księżycowym. Miesiąc synodyczny, średni odstęp między koniunkcjami Księżyca i Słońca, odpowiada cyklowi faz Księżyca. Średnia wartość miesiąca synodycznego wynosi 29.530 589 dni i zwiększa się z powodu efektów pływowych o dwie milionowe dnia na stulecie. Każdy cykl fazy księżycowej może odbiegać od średniej nawet o 7 godzin. Niektóre kalendarze księżycowe (np. islamskie) rozpoczynają nowy miesiąc na podstawie obserwacji półksiężyca po nowiu. W takich przypadkach początek miesiąca zależy od warunków pogodowych, przejrzystości atmosfery, ostrości wzroku i lokalizacji na Ziemi, ponieważ Księżyc można zazwyczaj obserwować dopiero około 15 godzin po nowiu i około dwóch stopni nad horyzontem. Warunki te można ogólnie dokładnie przewidzieć z około 30-stopniową niepewnością długości geograficznej Ziemi, aby zapewnić rzeczywistą obserwowalność. W niektórych przypadkach przewidywania nie są akceptowane i do określenia początku miesiąca wymagane są obserwacje. Ponieważ w roku słonecznym nie ma całkowitej liczby miesięcy księżycowych, w niektórych kalendarzach (np. hebrajskim) wprowadzono miesiące interkalowane w celu dostosowania miesięcy w taki sposób, aby święta religijne wypadały każdego roku w tej samej porze roku .Kalendarze mają funkcje nieastronomiczne, takie jak siedmiodniowy tydzień. Pochodzenie siedmiodniowego tygodnia jest niepewne, a wyjaśnienia sięgają od cykli pogodowych po teksty biblijne i talmudyczne. Istnieje również niepotwierdzone założenie, że cykliczna ciągłość tygodnia została zachowana bez przerwy od jej powstania w czasach biblijnych.
Kalendarz na Bliskim Wschodzie i w Europie
Kalendarze są sposobem na zaznaczenie upływu czasu. Mogą mieć charakter cywilny, do porządkowania życia codziennego, religijny, do oznaczania dni świątecznych lub do odnotowywania rytmu pór roku w celach rolniczych. Duża część struktury kalendarza jest całkowicie dowolna, np. długość godzin, godzin w dniu, dni w tygodniu i rok w epoce. Jednak większość kalendarzy odzwierciedla naturalne cykle astronomiczne - pozorne ruchy Słońca i Księżyca oraz codzienny obrót Ziemi. Pierwotne kalendarze mogły być używane w czasach neolitu , ale tutaj rozważamy rozwój, w czasach historycznych, idei kalendarzy na Bliskim Wschodzie i w Europie, których kulminacją był system używany dzisiaj na całym świecie. Kalendarze w tradycji zachodniej zakorzenione są w cyklicznych ruchach Słońca, Księżyca lub obu. Rok gwiazdowy mierzy czas potrzebny Słońcu na powrót w to samo miejsce na niebie w stosunku do gwiazd stałych. Rok tropikalny to czas od jednej równonocy wiosennej do następnej. Ta ostatnia jest nieco krótsza, ponieważ PRECESJA co roku przesuwa punkty równonocy na zachód. Kluczowym cyklem księżycowym jest okres synodyczny, przejście Księżyca przez jego fazy. Kiedy połączy się je w kalendarz księżycowo-słoneczny, koordynacja jest bardziej złożona. Ponieważ ani okresy słoneczne, ani księżycowe nie są dokładnymi wielokrotnościami dni, pierwsi astronomowie byli zmuszeni wprowadzać dni interkalarne w pewnych odstępach czasu, aby wyrównać cykle. W przeciwnym razie miesiące (lub lata) powoli cofałyby się w zależności od pory roku. Ponieważ cykle księżycowy i słoneczny są niewspółmierne, żadna liczba miesięcy synodycznych nie będzie równa danej liczbie lat tropikalnych, nawet w bardzo długich okresach. Niemniej jednak można je porównać na tyle blisko, aby stworzyć wykonalny kalendarz.
Starożytne kalendarze
Aby uregulować praktyki religijne, pierwsi Egipcjanie opracowali kalendarz księżycowy, inaugurowany każdego roku heliakalnym wschodem Syriusza, tj. kiedy Syriusz po raz pierwszy pojawił się na krótko o porannym zmierzchu. Do celów administracyjnych wprowadzili kalendarz słoneczny na początku trzeciego tysiąclecia p.n.e. System ten stał się podstawą naszego nowoczesnego. Zakładając, że rok ma 365 dni, podzielili go na 12 równych miesięcy po 30 dni, po których na końcu nastąpiło 5 dni. Każdy miesiąc miał trzy 10-dniowe tygodnie. Ponieważ do roku tropikalnego brakowało około ćwierć dnia, początkowy dzień kalendarza powoli cofał się, a nowy rok za około 4 lata nadszedł dzień wcześniej, ale rozbieżność została zignorowana. Egipcjanie również wprowadzili 24-godzinny dzień, chociaż 12 godzin nocnych, 10 godzin dziennych i 2 godziny świtu i zmierzchu były nierównej długości. Nierówne godziny sezonowe były powszechne na całym Zachodzie, aż do czasu, gdy w XIV wieku astronomowie rozpowszechnili system równych godzin wraz z zegarami mechanicznymi. Cywilizacje Mezopotamii rozwinęły kalendarz księżycowo-słoneczny oparty na 7-dniowym tygodniu. Długość ta mogła symbolizować siedem "planet" (Słońce, Księżyc i pięć planet widocznych gołym okiem). Chociaż mezopotamscy astronomowie interkalowali dodatkowe miesiące księżycowe wcześniej, dopiero w IV wieku p.n.e. pojawiła się systematyczna interkalacja siedmiu miesięcy księżycowych w okresie 19 lat. Schemat ten, zaproponowany mniej więcej w tym samym czasie przez ateńskiego astronoma METOSA, był później znany jako cykl Metosa. Obserwacje wykazały, że w ciągu 19 lat tropikalnych nastąpiło prawie dokładnie 235 lunacji. Do obliczenia dat nowiu księżyca stosowano naprzemienne miesiące 30 i 29 dni. Po 12 lunacjach łącznie 354 dni było mniej niż rok słoneczny o około 11,25 dnia. Jednak po 3 latach skumulowały się one do ponad 33 dni i wprowadzono dodatkową lunację. Zatem 12 lat z 12 lunacjami w połączeniu z 7 latami z 13 lunacjami spowodowałoby powrót cyklu do początku. Imperium Perskie ujednoliciło system, dodając interkalację w trzecim, szóstym, ósmym, jedenastym, czternastym, siedemnastym i dziewiętnastym roku cyklu. Żydzi i inne narody Bliskiego Wschodu przyjęły ten schemat. Greckie miasta-państwa stosowały mniej dokładny schemat interkalacji, oktaeteris, opracowany być może w VIII wieku p.n.e. Założono, że osiem lat tropikalnych to 96 regularnych plus 3 interkalowane lunacje trwające średnio 29,5 dnia. Jednak nie mając jedności politycznej, greckie miasta utrzymywały indywidualne kalendarze księżycowo-słoneczne, z różnymi datami rozpoczęcia i godzinami miesięcy interkalacyjnych. Metos w V wieku zauważył, że rok tropikalny trwa około 365,25 dni. Jego 19-letni cykl rozprzestrzenił się dalej w okresie hellenistycznym. HIPPARCHUS w II wieku p.n.e. rozpoznał precesję i określił bardzo dokładne wartości zarówno dla roku tropikalnego, jak i okresu synodycznego. Kalendarz rzymsko-republikański był mniej wyrafinowany niż babiloński. Bazując na starszym kalendarzu księżycowym, miał on 12 miesięcy, niektóre nazwane (Ianuarius, Februarius, Martius, Aprilis, Maius, Iunius) i inne ponumerowane (Quintilis, Sextilis, wrzesień, październik, listopad, grudzień). Ponieważ rok zaczynał się w marcu, Ianuarius i Februarius mieli odpowiednio 11 i 12 miesięcy. Ten kalendarz cywilny był o dzień dłuższy niż rok tropikalny i cierpiał na niesystematyczne wstawki. W I wieku p.n.e. nowy rok przypadał prawie 2 miesiące po równonocy wiosennej. Rynek ustalił 8-dniowy tydzień , chociaż na terytoriach tematycznych coraz bardziej powszechny stał się 7-dniowy tydzień żydowski. W przeciwieństwie do innych ludów śródziemnomorskich, Rzymianie rozpoczynali dzień o północy.
Reforma juliańska i kalendarze średniowieczne
Juliusz Cezar podczas swego pobytu w Egipcie dostrzegł wartość przyjęcia egipskiego kalendarza słonecznego i za radą aleksandryjskiego astronoma Sosigenesa w roku 46 p.n.e. ogłosił tak zwany kalendarz juliański. W tym całkowicie słonecznym kalendarzu rok wynosił 365,25 dni. Zamiast uwzględniać pięć dodatkowych dni na koniec roku, kalendarz juliański rozłożył dodatkowe dni w ciągu roku, naprzemiennie 31 i 30-dniowymi miesiącami. Rok zaczynał się w styczniu, który miał 31 dni. Taki podział dałby rok składający się z 366 dni, więc z lutego usunięto jeden dzień, który teraz miał 29 dni. Aby uwzględnić kumulację dodatkowego dnia co 4 lata, luty otrzymał 30 dni w roku przestępnym, przy czym dzień interkalowany był zwykle wstawiany po 24 dniu miesiąca. Później wprowadzono tylko drobne zmiany: w 44 roku p.n.e. miesiąc Quintilis został przemianowany na Iulius, na cześć zamordowanego Cezara, a w 8 roku p.n.e. Augustus nazwał go swoim imieniem Sextilis, zapewniając mu 31 dni. Zmieniło to kolejność naprzemiennych długości miesięcy i pozbawiło lutego jego 29 dnia. Augustowskie dostosowania dotyczące długości miesięcy przetrwały we współczesnym użyciu. August, zdając sobie sprawę, że od czasów Cezara kapłani co roku czynili rok przestępny, usunął wszystkie lata przestępne aż do 8 roku naszej ery. Kalendarz juliański, podobnie jak jego egipski model, miał wartość prostoty. Różnica między rokiem juliańskim a tropikalnym była na tyle mała, że różnica narastała powoli. Jako oficjalny kalendarz Cesarstwa Rzymskiego, od Bliskiego Wschodu po Szkocję obowiązywał system juliański; kiedy Kościół chrześcijański stał się religią dominującą w imperium, kalendarz przetrwał. Przed wygnaniem żydowski kalendarz był księżycowy, choć niewiele o nim wiadomo. Po podboju Babilonu Izraelski kalendarz żydowski, podobnie jak inne kalendarze semickie, stał się księżycowo-słoneczny i każdego roku miał 12 naprzemiennych miesięcy po 29 i 30 dni. Po zmianach w II i III w. n.e. nastąpił cykl metoński, z interkalacjami dokonanymi według porządku babilońskiego. Rok zaczynał się od równonocy jesiennej - przed wygnaniem do Babilonu rozpoczynał się od równonocy wiosennej - i miał 7 dni tygodni, rozpoczynających się o zachodzie słońca w piątek. Miesiące rozpoczęły się wraz z pierwszą obserwacją nowego sierpa Księżyca; w praktyce czas obliczony astronomicznie był używany przez niektóre społeczności żydowskie od III wieku. Dni rozpoczynały się o zachodzie słońca, chociaż we współczesnej praktyce oficjalnie rozpoczynają się o godzinie 18:00, a tydzień rozpoczyna się w szabat (piątek wieczorem). Zgodnie z tradycją babilońską każdą dobę dzieli się na 1080 jednostek w oparciu o obliczenia sześćdziesiętne. Lata liczone są od początku świata (anno mundi, czyli 3761 p.n.e.). Kalendarz islamski miał wspólne pochodzenie z kalendarzami żydowskim i chrześcijańskim, z tą różnicą, że porzucił powiązanie z rokiem tropikalnym. Dwanaście miesięcy księżycowych po 29 i 30 dni na przemian. Ponieważ jest to ściśle księżycowy (a nie księżycowo-słoneczny), nie ma miesięcy interkalowanych - chociaż do danego roku można dodać dzień interkalowany - tak więc święta religijne, takie jak Ramadan, przypadają w różnych porach roku na przestrzeni lat, przechodząc przez wszystkie pory roku w około 33 lata. Podobnie jak żydowski, kalendarz islamski ma 7 dni, każdy rozpoczynający się o zachodzie słońca. Rzeczywista wizualna obserwacja nowego sierpu Księżyca była początkiem każdego miesiąca księżycowego. W późniejszym średniowieczu islamscy astronomowie opracowali metody i tabele umożliwiające określenie czasu nowiu księżyca w różnych miejscach oraz momentu, gdy Księżyc był zasłonięty chmurami . Dla celów cywilnych Imperium Osmańskie przyjęło kalendarz juliański w XVII wieku, a Turcja przeszła na system gregoriański w XX wieku. Większość krajów islamskich używa obecnie kalendarza gregoriańskiego do celów cywilnych, ale używa także epoki datowanej na ucieczkę Mahometa do Medyny (622 r.). Natomiast Rzymianie jeszcze przed reformą juliańską rozpoczęli rok 1 stycznia, w ich ślady poszła tylko zachodnia część imperium. Cesarstwo Bizantyjskie przeniosło się na 1 września. Wczesnośredniowieczni chrześcijanie Zachodu nie mogli zgodzić się na datę inauguracji. W Anglii i Francji Boże Narodzenie było nowym rokiem; w innych obszarach pierwszeństwo miał 25 marca, a nawet Wielkanoc (która była datą ruchomą). Pod koniec średniowiecza dzień 1 stycznia odzyskał swój status. Żydowski 7-dniowy tydzień, przyjęty przez pierwszych chrześcijan, stał się prawnie wiążący w Cesarstwie Rzymskim dopiero za czasów Konstantyna (321 r.). Chociaż Kościół próbował usunąć rzymskie nazwy miesięcy - na przykład zastępując dies Saturni przez sabbata, a dies soli przez domenicus - starsze nazwy przetrwały w północnej Europie. W liczeniu dni miesiąca też było zamieszanie. Rzymsko-republikańska metoda rozpoczynania miesiąca od kalend, po których kilka dni później następują nony i idy oraz numeracja dni wstecz w stosunku do tych trzech stałych dni, przetrwały na niektórych obszarach aż do XV wieku, kiedy to powszechna stała się kolejna numeracja dni. Ponieważ kalendarz juliański obejmował dłuższy rok tropikalny niż faktycznie występuje, data równonocy wiosennej powoli przesuwała się do tyłu. Dla Kościoła chrześcijańskiego spowodowało to problem w ustaleniu daty Wielkanocy. Wielkanoc, powiązana z żydowską Paschą, opartą na kalendarzu księżycowo-słonecznym, była trudna do ustalenia. Sobór Nicejski (325 r.) ustalił dzień 21 marca jako datę równonocy wiosennej i przyjął cykl metoniczny. Dionizy Exiguus w VI wieku podał zasadę ustalania Wielkanocy: przypadała ona w pierwszą niedzielę po pierwszej pełni księżyca po równonocy wiosennej. Jeżeli pełnia księżyca przypadała w niedzielę, Wielkanoc przesuwano na następny tydzień. Te komplikacje dały początek literaturze kalendarzowej, computus, której Beda na początku VIII wieku był znaczącym współautorem. Powszechnym schematem było wstawienie 30-dniowych miesięcy przestępnych w 19-letni cykl, stosując ten sam schemat, co w kalendarzu żydowskim. W ciągu 19 lat kalendarz juliański liczył 6939 dni i 18 godzin, podczas gdy cykl księżycowy 6940 dni i 18 godzin. Aby zapewnić im synchronizację, usuwano dzień (saltus lunae), zwykle w ostatnim miesiącu cyklu. Bardziej złożone było zapewnienie, że Wielkanoc przypada w niedzielę i wiedza, kiedy ona nastąpi. Bede i inni wprowadzili wieczny kalendarz oparty na cyklach złożonych, złotych liczbach i epaktach. Dzięki takiemu schematowi można było sporządzić tabele z dużym wyprzedzeniem w celu obliczenia dat Wielkanocy. Porozumienie co do ery randek było już kwestią czasu. Wiele starożytnych krajów opierało swoje epoki na latach panowania lub kadencji wysokich urzędników. Niektóre greckie miasta uczestniczyły w olimpiadach. W czasach cesarstwa Rzymianie wykorzystywali zarówno lata panowania, jak i rok od założenia Rzymu (ab urbe condita). Założenie ery chrześcijańskiej (anno Domini) zostało zasugerowane przez Dionizego Exiguusa w VI wieku. Próbując rozwiązać problem liczenia Wielkanocy, Dionizjusz przyjął okres wiktoriański (wymyślony przez Wiktoryna z Akwitanii w V wieku), który pomnożył 19-letni cykl Metona przez 28-letni cykl słoneczny, uzyskując cykl 532-letni. Poganie obliczyli rok narodzin Chrystusa, od którego rozpoczynał się pierwszy cykl 532 lat. Uważał, że jest to 753 AUC. Anglicy pod wpływem Bedy przyjęli epokę chrześcijańską do celów kościelnych w VII wieku, ale w Europie została ona powszechnie zaakceptowana dopiero w XI wieku.
Reforma kalendarza
Do czasów Rogera Bacona w XIII wieku było jasne, że paschalne pełnie księżyca nie przypadały w obliczonych datach. Kiedy precesja została powszechnie zrozumiana i dostępne stały się lepsze tablice, zwłaszcza tablice Alfonsine z końca XIII wieku, wzrosła presja na reformę kalendarza. Pomimo różnorodnych propozycji, dopiero za papieskiego panowania Grzegorza XIII w 1582 r. ogłoszono poprawiony system, opracowany przez Aloisio Lilio. Długość roku tropikalnego w Alfonsine jest nieco o ponad 10,5 minuty krótsza niż rok juliański oznaczało, że trzeba będzie upuszczać jeden dzień co 134 lata. Komisja papieska zaleciła przestrzeganie układu juliańskiego roku przestępnego, ale pomijanie lat przestępnych w latach stuleci (takich jak 1900), które nie są podzielne przez 400. Reforma gregoriańska dostosowała również system liczenia Wielkanocy. Ponieważ w ciągu następnych stuleci data równonocy wiosennej cofnęła się o około 10 dni od 21 marca, Grzegorz zadekretował, że po 5 października 1582 r. nastąpi 15 października. Kraje katolickie przyjęły system w ciągu pierwszych 5 lat; została zaakceptowana w większości krajów protestanckich w XVIII wieku, np. w Wielkiej Brytanii w 1752 r. Ponieważ Kościół prawosławny nigdy nie zaakceptował reformy, kraje Europy Wschodniej opóźniły jej przyjęcie do XX wieku, np. Rewolucyjna Rosja w 1918 r. i Grecja w 1923 r. Niektóre kraje azjatyckie i muzułmańskie również przyjęły ten system na przełomie XIX i XX wieku. Na krótki okres (1793-1805) rewolucyjna Francja wprowadziła kalendarz oparty na starożytnym egipskim kalendarzu słonecznym, aby usunąć wszelkie konotacje religijne. Po dwunastu 30-dniowych miesiącach następowało pięć dni wakacji, wprowadzanych na początek lipca; poprawiony schemat roku przestępnego został zmodyfikowany z gregoriańskiego. Podobnie jak w kalendarzu egipskim, każdy miesiąc składa się z trzech 10-dniowych tygodni. Zmieniono nazwy samych miesięcy, aby odzwierciedlić sezonową pogodę i zajęcia. Ponieważ daty początkowe miesięcy nie pokrywały się z resztą Europy, problemy narosły i Napoleon I przywrócił kraj do systemu gregoriańskiego. Od XIX wieku pojawiały się różne propozycje reform kalendarza, zwłaszcza mające na celu rozwiązanie problemu miesięcy z nierówną liczbą dni. Międzynarodowy stały kalendarz zapewniałby 13 miesięcy po 28 dni każdy plus jeden nienazwany dzień, co równałoby się 365; dzień roku przestępnego byłby dodawany co cztery lata. Zaletą tego schematu jest to, że wszystkie miesiące rozpoczynają się w niedzielę i kończą w sobotę. Alternatywą jest Kalendarz Światowy, który miałby cztery 91-dniowe kwartały, każdy rozpoczynający się w niedzielę, a miesiące miałyby 31, 30 i 30 dni. Dzień światowy zostanie dodany po 30 grudnia oraz dodatkowy dzień światowy w latach przestępnych. Obydwa mają zalety, ale ani one, ani inne nie wzbudziły większego oficjalnego entuzjazmu. Chociaż w ciągu ostatnich kilku tysięcy lat wiele kultur opracowało kalendarze oparte na zjawiskach astronomicznych, hybryda utworzona z tradycji babilońsko-żydowskiej i tradycji egipsko-rzymskiej stała się dominującym systemem kalendarzowym na całym świecie. Chociaż nie może być dokładnie dokładny, biorąc pod uwagę niewspółmierność okresów księżycowego i słonecznego, jest całkowicie wystarczający dla potrzeb politycznych i gospodarczych. Reforma kalendarza, jeśli do niej dojdzie, będzie najprawdopodobniej racjonalizacją istniejącego systemu, a nie całościową zmianą jego struktury.
Kalippus z Kyzikos (ok. 370 - ok. 310 p.n.e.)
Grecki filozof urodzony w Kyzikos w Azji Mniejszej (obecnie Turcja), młodszy współczesny EUDOKSUSOWI, który dodał więcej kul do gniazd sfer Eudoksosa, aby lepiej uwzględnić niejednorodności ruchu planet. Słońce, Księżyc, Merkury, Wenus i Mars miały po pięć kul, podczas gdy Jowisz i Saturn miały cztery, a gwiazdy jedną. Zwiększyło to dokładność teorii, zachowując jednocześnie przekonanie, że ciała niebieskie poruszają się po okręgach. Współpracował z Arystotelesem. Określono długość pór roku. Skonstruował 76-letni cykl (okres kallippijski) jako dokładniejszą wersję (cztery cykle) 19-letniego cyklu metonicznego, czyli czasu, w którym kalendarze księżycowy i słoneczny powracają do tej samej synchronizacji i podczas którego można zaobserwować zaćmienia Księżyca przewidywane.
Callisto
Kalisto, najbardziej oddalony z satelitów Galileusza , ma około 38% większą średnicę niż ziemski Księżyc (promień Kallisto wynosi 2410 km, a promień Księżyca 1738 km). Jednak niższa masa, grawitacja powierzchniowa i wyższe albedo Kallisto odzwierciedlają jej skład lodowo-skalny. Uważa się, że powierzchnia Callisto składa się z mieszaniny lodu i pyłu lub materiałów skalistych. Pokryty kraterami teren Callisto można podzielić na podjednostki o nieregularnych kształtach w oparciu o ALBEDO, które różnią się dwukrotnie między jednostkami. W rozdzielczości VOYAGER kilka podjednostek wydaje się stosunkowo gładkich i pozbawionych kraterów uderzeniowych; obszary te zinterpretowano jako obszary możliwego wynurzania się wulkanu. Jednakże dane z MISJI GALILEO, których celem były te regiony, pokazują, że gładkość wynika raczej z degradacji powierzchni, a nie z lodowatego wulkanizmu. Sugerowano, że wczesny globalny tektonizm wyjaśnia obecność równoległych i promienistych zestawów lineamentów. Na podstawie danych z Voyagera nie można określić, czy Kallisto jest zróżnicowane. Obrazy powierzchni Kallisto wykonane przez Galileo nie dostarczają wyraźnych dowodów na RÓŻNICOWANIE lub obecność podpowierzchniowego oceanu w postaci ciekłej wody. Brakuje wyraźnych dowodów geologicznych na jakąkolwiek endogeniczną modyfikację powierzchni Kallisto. Przed misją Galileo naukowcy wierzyli, że powierzchnia Kallisto będzie pokryta kraterami we wszystkich skalach. Jednakże powierzchnia Kallisto jest widoczna na zdjęciach Galileo o średniej i wysokiej rozdzielczości jako gładka i lekko pofałdowana, zawierająca niewielką gęstość przestrzenną małych (<10 km/piksel) KRATERÓW uderzeniowych . Szeroki rozkład przestrzenny tej gładkiej tekstury sugeruje, że proces(y) wygładzania mają zasięg globalny. Ciemny materiał niebędący lodem, który wydaje się pokrywać powierzchnię, może się skoncentrować w wyniku utraty materiałów lotnych podczas uderzeń, bombardowania magnetosferycznego i/lub sublimacji. Materiał ten może być również rozprzestrzeniany w wyniku uderzeń i bombardowań mikrometeorytami, w wyniku czego następuje wypełnienie nisko położonej topografii. Lewitacja elektrostatyczna lub inne mechanizmy mogą dodatkowo przyczynić się do mobilizacji ciemnej materii Kallisto. Kratery uderzeniowe na Callisto wykazują różne rozmiary i stany degradacji, od świeżych z wyraźnie określonymi kożuchami wyrzutowymi po kratery, które są ledwo rozróżnialne. Wydaje się, że głównym procesem tej degradacji jest masowe niszczenie ścian kraterów. Przeważają osady w kraterach, które wydają się być wynikiem osuwania się gruzu do wewnątrz. Kilka z tych strumieni gruzu ma swoje źródło w zachodnich ścianach geologicznie niedawnych kraterów. Może to wskazywać na stromienie ściany krateru, być może w wyniku sublimacji, co skutkuje zmniejszeniem jego stabilności. Późniejsze zawalenie się może zostać wywołane energią sejsmiczną powstałą w wyniku pobliskiego uderzenia lub ostatecznym przechyleniem Kallisto. ściana prowadząca do zapadnięcia się grawitacyjnego. Ta ciągła erozja sublimacyjna i marnowanie masy najlepiej wyjaśnia preferowane cofanie się krawędzi zwróconej w stronę słońca i erozję ścian kraterów widoczne na zdjęciach Galileo, przyczyniając się do stopniowego wypełniania kraterów na powierzchni Kallisto. Zdjęcia z Voyagera pokazują, że powierzchnia Kallisto nie ma znaczącej topografii i jest pokryta kraterami. Dane z sondy Voyager wykazały braki w dużych kraterach uderzeniowych (o średnicy większej niż 60 km) w porównaniu z Księżycem i planetami ziemskimi. Jednakże na zdjęciach Galileo zidentyfikowano dodatkowe struktury o dużych uderzeniach, które ulegają znacznej degradacji. Zdjęcia Galileo o umiarkowanej rozdzielczości (0,4-1,1 km/piksel) pokazują bardziej szczegółowe cechy strukturalne w trzech systemach wielopierścieniowych Kallisto (interpretowane jako obiekty o dużym uderzeniu) niż te widoczne na danych z sondy Voyager. Najmłodsza, Walhalla, charakteryzuje się jasnymi równinami centralnymi otoczonymi nieciągłymi, koncentrycznymi, łukowatymi strukturami (rynny i skarpy skierowane na zewnątrz). System wielopierścieniowy Asgardu składa się z jasnej centralnej jednostki równinnej otoczonej kilkoma nieciągłymi pierścieniami składającymi się z rynien, ale brakuje mu skarp skierowanych na zewnątrz. Jasność centralnych równin Asgardu zwiększa obecność nowszego krateru uderzeniowego Doh, z którego wydobyto lodowszy (jaśniejszy) materiał podpowierzchniowy. Zdjęcia Asgardu w wysokiej rozdzielczości ujawniają pęknięcia wewnątrz i w sąsiedztwie najbardziej wewnętrznego pierścienia. Pęknięcia te są prawdopodobnie wynikiem pękania kruchej warstwy zewnętrznej Kallisto w wyniku uderzenia. Bliskość tych pęknięć (widocznych tylko w najbardziej wewnętrznym pierścieniu) do krateru uderzeniowego Doh może wskazywać, że pęknięcia te zostały reaktywowane w wyniku niedawnego uderzenia. Dobrze zachowane zewnętrzne rynny związane z Asgardem mają niższe albedo niż otaczające je równiny pokryte kraterami. Adlinda, najstarsza z tych trzech wielopierścieniowych struktur, nie posiada jasnej jednostki centralnej równiny. Widoczne są jednak koncentryczne pierścienie o niskim albedo, które są bardziej odporne na degradację. Szczegółową morfologię Adlindy przesłaniają liczne uderzenia, a także wyrzuty z Lofn, pobliskiego krateru uderzeniowego. Spektrometr mapujący bliskiej podczerwieni (NIMS) znajdujący się na statku kosmicznym Galileo dostarczył do 408-kanałowych widm powierzchni Kallisto, od 0,7 do 5,2 μm przy rozdzielczości przestrzennej w zakresie od jednego do setek kilometrów na element obrazu. Obszary o silnych cechach absorpcji lodu wodnego w widmach NIMS zwykle odpowiadają jasnym cechom (np. osadom świeżych kraterów uderzeniowych) na obrazach Galileo z filtrem przezroczystym. Interpretuje się, że słabe cechy absorpcji w pobliżu 3,88, 4,05, 4,25 i 4,57 μm wynikają z obecności odpowiednio wiązania S-H, SO2, CO2 i związków organicznych (np. tolin). Ogólnie rzecz biorąc, korelacje między tymi związkami a geologią powierzchniową są złożone i obecnie słabo poznane. Globalnie absorpcja 4,25 μm jest silniejsza na półkuli końcowej Kallisto, podczas gdy absorpcja 4,05 i 4,57 μm jest silniejsza na półkuli wiodącej. Oprócz zapewnienia wglądu w skład materiałów powierzchniowych i ich rozkład, analiza danych NIMS ujawniła obecność rzadkiej (powierzchnia = 7,5 × 10-12 barów) atmosfery dwutlenku węgla rozciągającej się około 100 km nad powierzchnią. Na podstawie modeli szybkości usuwania CO2 szacowany czas życia atmosfery Kallisto wynosi około 4 lata. W rezultacie albo atmosfera ta jest zjawiskiem przejściowym, albo jakiś proces(y) obecnie dostarcza do atmosfery dwutlenek węgla. Podobnie jak GANYMEDE, Kallisto jest znane jako lodowy satelita ponieważ jego stosunkowo niska średnia gęstość (1836 kgˇm-3) wymaga, aby był wykonany z mniej więcej równych masowo ilości lodu i metalu skalnego. Kalisto jest tylko nieznacznie mniejsza od Ganimedesa, ale różni się od niego pod wieloma uderzającymi względami. Chociaż średnia gęstość Kallisto i Ganimedesa jest podobna, Kallisto ma większy znormalizowany osiowy moment bezwładności C/(MR2)(C/(MR2) = 0,359±0,005, C to osiowy moment bezwładności, M to masa satelity i R to promień Księżyca, znany z radiowych pomiarów dopplerowskich wykonanych przez sondę Galileo), co sugeruje zupełnie inną strukturę wnętrza Kallisto w porównaniu z wnętrzem Ganimedesa. W przeciwieństwie do Ganimedesa, Kalisto jest tylko częściowo zróżnicowane i składa się z ciekłej powłoki z lodu i lodu o grubości mniejszej niż 350 km, otaczającej zasadniczo niezróżnicowany rdzeń z lodu, skał i metalu. Skały i lód w Callisto nie są całkowicie oddzielone, a Callisto może nie mieć centralnego metalowego rdzenia. Dane grawitacyjne uzyskane przez sondę Galileo podczas przelotu obok Kallisto nie wykluczają istnienia małego metalicznego rdzenia w Callisto o promieniu mniejszym niż około 25% promienia satelity. Jednak argumenty geofizyczne i inne właściwości Kallisto sprawiają, że istnienie małego metalicznego rdzenia na Księżycu jest mało prawdopodobne. Biorąc pod uwagę brak metalicznego rdzenia, Callisto nie ma wewnętrznego pola magnetycznego. Brak dowodów na jakąkolwiek endogenną modyfikację powierzchni Kallisto jest zgodny z częściowym zróżnicowaniem jedynie kilkuset kilometrów zewnętrznych Kalisto. Chociaż Kalisto nie posiada własnego pola magnetycznego, sonda Galileo wykryła w Kallisto zaburzenia magnetyczne związane z indukcją elektromagnetyczną. Indukcja występuje, gdy satelita doświadcza okresowych zmian w otaczającym polu magnetycznym magnetosfery Jowisza w wyniku jego ruchu orbitalnego wokół Jowisza, obrotu Jowisza i nachylenia pola magnetycznego Jowisza. Wielkość sygnału indukcji elektromagnetycznej wymaga, aby w pobliżu powierzchni Kallisto znajdowała się globalna warstwa o wysokiej przewodności elektrycznej. Jedynym wyjaśnieniem istnienia takiej warstwy jest to, że jest to podpowierzchniowy ocean wody w stanie ciekłym o zasoleniu podobnym do ziemskiej wody morskiej. W przeciwieństwie do powierzchni Europy, powierzchnia Callisto nie wskazuje na to, że pod nią może kryć się ocean ciekłej wody. Sygnał indukcyjny jest jedynie pośrednim dowodem na to, że Callisto może mieć podpowierzchniowy ocean ciekłej wody. Istnienie takiego wewnętrznego oceanu na Kalisto jest trudne do pogodzenia z brakiem endogenicznych modyfikacji jego powierzchni. Kallisto nie wchodzi w skład orbitalnego rezonansu dynamicznego Laplace′a trzech wewnętrznych satelitów Galileusza (IO, Europa i Ganimedes), w związku z czym nie jest ogrzewana przez pływy. Bez takiego źródła ciepła trudno zrozumieć, w jaki sposób można zapobiec zamarzaniu podziemnego oceanu wody w stanie ciekłym na Kallisto w czasie geologicznym. Oczekuje się, że konwekcja Subsolidus kontrolowana przez lepkość lodu skutecznie ochłodzi wnętrze Callisto. Przynajmniej w przypadku Europy, dla której istnieją geologiczne dowody istnienia wewnętrznego oceanu wody ciekłej w przeszłości lub obecnie, rozpraszanie pływów jest możliwym źródłem ciepła umożliwiającym utrzymanie podpowierzchniowej warstwy wody w stanie ciekłym. Ogrzewanie pływowe w odległej przeszłości może również wyjaśniać, dlaczego Ganimedes jest całkowicie zróżnicowany wewnętrznie, podczas gdy Kallisto jest zróżnicowane tylko częściowo. W końcu oba te księżyce są porównywalne pod względem wielkości i masy, mają podobną ilość radiogenicznych źródeł ciepła i doświadczyły podobnej ilości nagrzewania akrecyjnego podczas formowania się.
Aktualizacja najświeższych wiadomości (30 kwietnia 2002)
Niedawne zdjęcie wykonane przez należącą do NASA sondę Galileo stanowi dowód na teorię, że na Kallisto może znajdować się podziemny ocean. Zdjęcie pokazuje część powierzchni Kallisto, dokładnie naprzeciwko basenu Walhalli, w którym Kalisto zostało uderzone w wyniku poważnej kolizji. Punkt oporu nie wykazuje żadnego efektu uderzenia. Punkty naprzeciw głównych obiektów uderzeniowych na niektórych światach o podobnej wielkości, takich jak Merkury i Księżyc Ziemi, pokazują nierówny teren przypisywany wstrząsom sejsmicznym powodowanym przez odległe uderzenia. Nowy obraz jest spójny z modelem z lat 90. XX w., który sugerował, że warstwa cieczy może działać jako amortyzator wewnątrz Callisto
Basen Kalorii
Duża wielopierścieniowa struktura uderzeniowa na Merkurym, ześrodkowana na 30,5 °N, 170,2 °E. Jej oficjalna nazwa to Caloris Planitia, co oznacza "równina ciepła" - to właśnie w tym regionie sonda Mariner 10 zarejestrowała najwyższe temperatury powierzchni, która sfotografowała około połowę konstrukcji, a druga połowa znajdowała się w cieniu. Na podstawie zaobserwowanej połowy średnicę basenu Caloris szacuje się na 1340 km. Zewnętrzny pierścień wyznaczają góry Caloris (Montes Caloris), formacja o szerokości około 100-150 km, składająca się z gładkich jednostek blokowych o wysokości 1 lub 2 km i długości do 50 km. Wewnątrz tego pierścienia dno basenu pokryte jest zmarszczkami i spękaniami, z których wiele układa się w przybliżeniu według linii koncentrycznych łuków. Inne cechy są związane z wpływem, który utworzył basen. Pierścień górski jest przerywany małymi równinami i kraterami wtórnymi utworzonymi w wyniku cofania się wyrzutów i stopionego materiału. Na północny wschód od basenu znajduje się formacja Van Eycka, zawierająca szereg obiektów promienistych rozciągających się na długości około 1000 km i uważa się, że powstały w wyniku wyrzutu. W antypodalnym punkcie uderzenia (punkt diametralnie po drugiej stronie Merkurego) znajduje się teren niespotykany nigdzie indziej w Układzie Słonecznym: pogmatwany, popękany krajobraz składający się ze wzgórz o wysokości do 2 km i szerokości do 10 km, i zagłębienia, które przecinają starsze cechy. Uderzenie spowodowało powstanie sejsmicznych fal powierzchniowych wokół planety i fal kompresyjnych w jej jądrze. Oblicza się, że tam, gdzie fale te skupiły się w punkcie antypodalnym, skała skorupy ziemskiej uległa pęknięciu wskutek uderzenia i wypchnięciu w górę o 1 km. Obecny krajobraz ukształtował się po ustąpieniu przewrotu. Szacuje się, że Basen Caloris powstał w wyniku uderzenia obiektu o długości 150 km około 3,85 miliarda lat temu, pod koniec okresu znanego jako późne ciężkie bombardowanie, które oznacza ostatni poważny epizod kraterów uderzeniowych we wczesnym Układzie Słonecznym. O tym, że było to ostatnie poważne uderzenie w Merkurego, świadczy niższa od średniej gęstość kraterów na dnie basenu.
Kamery
Czytelnicy tego artykułu używają naturalnego aparatu, ludzkiego oka. Ma prosty obiektyw, ale fenomenalne przetwarzanie sygnału, co jest opracowaniem samym w sobie i nie jest tematem tego artykułu. Bardziej odpowiednimi przykładami aparatów są te, które wykorzystują kliszę fotograficzną jako detektor. Innymi przykładami są kamery wideo wyposażone w detektor CCD. Teleskop to duży aparat, ale w większych teleskopach zamiast soczewki wypukłej jako pierwszy element optyczny zastosowano zwierciadło wklęsłe. Niezależnie od tego, czy jest to lustro, czy soczewka, ten element optyczny nazywany jest obiektywem. Jeśli jest to zwierciadło, nazywa się je również zwierciadłem głównym. System Atelescope to seria kamer, z których ostatnia ma w swoim ognisku detektor. Czasami aparatem nazywa się tylko ostatni aparat. Rysunek przedstawia podstawową konstrukcję optyczną wszystkich systemów teleskopowych, w najprostszej formie składającej się z trzech soczewek singletowych. Każda z tych soczewek stanowi główny element systemu teleskopu, który w nowoczesnym teleskopie byłby bardziej złożony niż pojedyncza soczewka sferyczna.
Aberracje optyczne i straty odbiciowe
Układ optyczny
Pierwszy element na rysunku jest oznaczony jako cel. Przedstawiona jest jako soczewka singletowa, chociaż tak prostego obiektywu nie używano od 1733 roku. Obiektyw ukazany jest skupiając wiązki światła z dwóch gwiazd, przy czym każda wiązka składa się z promieni równoległych, na pierwszą powierzchnię ogniskową. Mówi się, że ma pozytywną moc, ponieważ zmienia cylindryczną wiązkę światła w zbiegający się stożek światła. Promienie krzyżują się w tym pierwszym ognisku, w ten sposób zbieżny stożek staje się rozbieżnym stożkiem, który jest przechwytywany przez soczewkę kolimatora, która zmienia rozbieżną wiązkę z powrotem w równoległą, skolimowaną wiązkę. Soczewka ta również ma dodatnią moc, ale jej funkcja jest odwrotnością SOCZEWKI OBIEKTYWNEJ. Soczewka kolimatora ma krótszą ogniskową niż obiektyw, dlatego skolimowana wiązka ma mniejszą średnicę niż wiązka padająca na soczewkę obiektywu. Soczewka ta wytwarza również obraz otworu wejściowego (który na rysunku znajduje się przy obiektywie). Ten obraz nazywa się źrenicą. Nazywa się to również przystankiem apertury lub przystankiem Lyota, jeśli znajduje się tam czarna płytka z otworem równym średnicy wiązki, która przepuszcza wiązkę, ale blokuje niepożądane, rozproszone światło. Obiektyw kamery na rysunku ponownie skupia wiązkę, aby skupić się na detektorze z taką samą szybkością zbieżności, jak przy pierwszym ogniskowaniu; zatem ma jednostkowe powiększenie. Gdyby ogniskowa obiektywu aparatu została potrojona, powiększenie M byłoby trzykrotne, a zatem M = 3. Część ogromnej równoległej wiązki gwiazdy, która może wejść do teleskopu, jest ograniczona średnicą ogranicznika apertury wejściowej , która na rysunku znajduje się na przedniej powierzchni soczewki obiektywu. Ten przystanek nie jest pokazany; jest to struktura mechaniczna wokół soczewki. Promień każdej gwiazdy lub punktu obiektu przechodzący przez środek przysłony nazywany jest głównym promieniem tego obiektu. Zatem główny promień przechodzi również przez dowolny obraz otworu wejściowego, taki jak źrenica między drugą a trzecią soczewką. Promienie przechodzące przez krawędzie soczewki nazywane są promieniami brzegowymi. Na rysunku promień krańcowy z krawędzi pola przecina soczewkę kolimatora daleko od jej środka, co powoduje tak duże rozmycie źrenicy i końcowego obrazu, że jest to zauważalne na rysunku. Gdyby w pierwszym ognisku znajdowała się soczewka dodatnia, przesunęłaby promienie bliżej środka soczewki kolimatora i źrenicę bliżej soczewki kolimatora, ale nie zmieniłoby położenia ogniska końcowego. Taka soczewka o ogniskowej pośredniej nazywana jest soczewką polową. To głównie to, co znajduje się pomiędzy drugim i trzecim elementem soczewki na rysunku , odróżnia jeden instrument od drugiego. Włożone urządzenie nazywa się procesorem. Czasami jest to zbieżne z źrenicą, ale nie jest to konieczne. Istnieje wiele opcji procesora optycznego, a każda z nich tworzy inny system teleskopu. Niektóre systemy mają dwa lub więcej instrumentów połączonych szeregowo, np. moduł OPTYKI ADAPTACYJNEJ, po którym następuje obrazowanie
SPEKTROGRAF
Niektóre opcje procesora
Jeśli procesorem jest ludzkie oko umieszczone w miejscu źrenicy, obiektyw aparatu nie jest potrzebny. Jeśli procesor jest wysokiej jakości, bardzo płaską, cienką parą okien, które powodują dodawanie lub odejmowanie fal świetlnych, instrumentem jest INTERFEROMETR. Jeśli procesorem jest polaryzator, taki jak pryzmat Wollastona w kształcie litery N, który powoduje oscylacje fal świetlnych w jednej płaszczyźnie, instrumentem jest polarymetr. Jeśli procesor składa się z dwóch pryzmatów w kształcie litery N, które można obracać w przeciwnych kierunkach, aby zwiększyć lub zmniejszyć ilość ROZPRASZAJĄC w celu dopasowania do tej w atmosferze, procesor jest kompensatorem dyspersji atmosferycznej, ADC. Często procesorem jest KRATA DYFRAKCYJNA, która zmienia kierunek światła o kąt odchylenia, a także rozprasza światło bardziej lub mniej niż średni kąt odchylenia w zależności od długości fali. Ze względu na odchylenie obiektyw kamery musi zostać przesunięty, aby przechwycić środek obracanej wiązki. Jeśli siatka znajduje się na zwierciadle, zwana siatką odbiciową, odbija światło z powrotem w kierunku kolimatora. Soczewka ta, odbita bezpośrednio z powrotem do kolimatora, służyłaby również jako soczewka aparatu w układzie zwanym spektrografem Littrowa. Zwykle nachylenie siatki dobiera się tak, aby odbita wiązka leżała obok kolimatora. W przypadku tego instrumentu obiektyw aparatu zostałby obrócony i umieszczony w tym miejscu. Ponadto przesłona pola byłaby umieszczona w pierwszym ognisku w postaci pojedynczej, długiej szczeliny w przypadku spektrografu z pojedynczą szczeliną lub w postaci szeregu krótkich szczelin, po jednej na każdym obrazie gwiazdy, w przypadku spektrografu z wieloma obiektami, MOS. Jeżeli zamiast siatki odbiciowej zastosowane zostanie zwierciadło odkształcalne DM, system będzie modułem optyki adaptacyjnej AOM. Niektóre systemy mają AOM i spektrograf połączone szeregowo, zatem na drodze światła znajduje się drugi kolimator i kamera, w którym to przypadku ostatecznym ogniskiem jest trzecie ognisko. Jeśli procesorem jest prosty pryzmat w kształcie odwróconego trójkąta, wiązka jest obracana o kąt odchylenia, ale dyspersja jest mniejsza niż w przypadku siatki transmisyjnej. Dlatego też, jeśli siatka transmisyjna jest połączona z pryzmatem w taki sposób, że kąty odchylenia znoszą się, wówczas wiązka nie ulega odchyleniu, ale nadal jest rozproszona. Dzięki temu nie trzeba przesuwać obiektywu aparatu. Taka kombinacja nazywana jest grizmem i zwykle znajduje się przed pierwszym ogniskiem; dlatego nie może być szczeliny, a system nazywa się spektroskopią bez szczeliny. Powierzchnia pryzmatu, która nie jest połączona z siatką, może być zakrzywiona i w ten sposób działać jak soczewka, która w przypadku Teleskopu Kanadyjsko-Francusko-Hawajskiego (CFHT) jest częścią soczewki korekcyjnej ogniskowej w pobliżu ogniska lustro główne. To urządzenie jest czasami nazywane grens. Jeśli zamiast umieszczać szczelinę w miejscu każdego obrazu gwiazdy, zostanie tam umieszczone włókno i zagięte tak, aby jego wyjście znajdowało się na długiej szczelinie w tym ognisku, w rezultacie otrzymamy spektrograf wieloobiektowy zasilany włóknem. Alternatywą jest umieszczenie w pierwszym ognisku układu małych mikrosoczewek lub lusterek, które dzielą część pola i ponownie ogniskują każdy segment wzdłuż długiej szczeliny; takie urządzenie nazywa się fragmentatorem obrazu.
Bardziej złożone cele
Soczewkę achromatyczną wynalazł w 1733 roku Chester Moor Hall, który zastosował ją w teleskopie o aperturze 3,5 cm. Achromat pozytywowy łączy w soczewce dwa rodzaje szkła: soczewkę wypukłą ze szkła koronowego połączoną z soczewką wklęsłą ze szkła flintowego. Szkło flintowe ma wyższą dyspersję niż szkło koronowe. Słaba soczewka krzemienna o wklęsłej powierzchni, a zatem o ujemnej mocy optycznej, w połączeniu z soczewką z wypukłą koroną o równej, ale przeciwnej wielkości aberracji chromatycznej, daje w rezultacie dodatnią moc netto, ale przy tej samej ogniskowej przy dwóch różnych długościach fal. Dwuwypukłe i meniskowe kształty soczewek służą do zmniejszenia aberracji sferycznej do poziomu mniejszego niż w przypadku soczewki singletowej. (Uwaga: aby uzyskać niską aberrację sferyczną, achromat musi być zamontowany we właściwej orientacji, przy odległościach obiektów i obrazu zbliżonych do tych, dla których obiektyw został zoptymalizowany.) Soczewki achromatyczne cierpią na wtórną aberrację chromatyczną, ponieważ ogniskowa przy pośrednich długościach fali różni się od tej w parach długości fali, gdzie jest taka sama. Apochromat to soczewka z trzema różnymi rodzajami szkła. Może mieć tę samą ogniskową przy trzech różnych długościach fal. Charakteryzuje się mniejszą wtórną (lub resztkową) aberracją chromatyczną niż achromat, ale nadal jest zauważalna w przypadku dużego obiektywu. Jeśli na rysunku 1 wklęsłą soczewkę negatywową dodamy przed pierwszym ogniskiem w odległości równej jej ogniskowej, powstanie skolimowana wiązka, w związku z czym soczewka ta będzie działać jak okular. Taki układ zastosowano w pierwszym teleskopie Galileusza w 1662 roku. Jakość obrazu była bardzo słaba. Jeżeli soczewkę negatywową przesunięto bliżej ogniska o połowę jej ogniskowej, wychodząca z niej wiązka nie byłaby już kolimowana, ale zbiegałaby się, aby skupić się poza pierwszym ogniskiem na odległość równą połowie ogniskowej obiektyw. Zatem liczba F zostanie podwojona, a zatem w tym przykładzie powiększenie będzie dwukrotnie większe. Jednakże odległość od obiektywu nie zostanie podwojona, ale efektywna ogniskowa EFL, która jest liczbą F w ognisku pomnożoną przez średnicę obiektywu, zostanie podwojona. Taki układ nazywa się teleobiektywem. Jego zaletą jest to, że jest bardziej kompaktowy, niż gdyby obiektyw był po prostu biorąc pod uwagę dłuższą ogniskową.
Cele odblaskowe i teleskopy kosmiczne
Główną zaletą stosowania LUSTER w teleskopie jest to, że są one wolne od aberracji chromatycznych i wymagają wypolerowania optycznego tylko z jednej strony półfabrykatu. Odpowiednikiem teleobiektywu w teleskopie zwierciadlanym jest umieszczenie wypukłego zwierciadła wtórnego przed głównym ogniskiem większego wklęsłego zwierciadła głównego. Taki układ dwóch zwierciadeł nazywa się klasycznym TELESKOPEM CASSEGRAINA, jeśli zwierciadło główne jest paraboliczne, lub Ritcheyem-Chretienem, jeśli zwierciadło główne jest hiperboliczne. Większość dużych teleskopów jest tego typu. Jednakże do planowanego Teleskopu Kosmicznego Nowej Generacji NGST zostanie dodane trzecie zwierciadło po pierwszym ognisku, które utworzy obraz źrenicy w zbieżnej wiązce, która następnie uzyska ostrość z wyjątkowo ostrymi obrazami w polu widzenia wynoszącym 6 minut łukowych. Aby wiązka od strony wtórnej do trzeciorzędowej miała prześwit po jednej stronie źrenicy, stosowane pole widzenia jest ograniczone do jednej strony osi, dlatego
potrzebny jest większy maksymalny kąt pola. Zwiększa to aberracje, ale teleskop z trzema zwierciadłami nadal daje ostrzejsze obrazy niż teleskop z dwoma zwierciadłami (Ritchey-Chretien), a także mniejsze zniekształcenia pola i mniejszą krzywiznę powierzchni ogniskowej. Układ optyczny NGST pokazano na rysunku
Lusterka tylne
Duże zwierciadła w teleskopach są zwierciadłami znajdującymi się na powierzchni przedniej, ale w przypadku mniejszych zwierciadeł istnieją zalety luster z powierzchnią tylną. Typowym przykładem jest pryzmat prostokątny. W takim przypadku nie jest wymagana żadna powłoka metaliczna, ponieważ odbicie po przekątnej jest całkowitym odbiciem wewnętrznym. Jeżeli kąt padania światła jest mniejszy od kąta krytycznego, konieczne jest zastosowanie powłoki odblaskowej na zewnętrznej stronie tylnej powierzchni, np. w lustrze w łazience. Ta odblaskowa powierzchnia może być dobrze zabezpieczona przed korozją i kurzem. Jeśli lustro jest zakrzywione z mniejszym promieniem z przodu niż z tyłu, nazywa się je lustrem Mangina. Aberracja sferyczna powstająca, gdy światło przechodzi przez przód, jest równoważona przez aberrację spowodowaną odbiciem od kulistej tyłu. Służy jako zwierciadło główne w niektórych małych teleskopach. Jeśli szkło jest grube i prawie płaskie, ale asferyzowany, wynik nazywa się solidną kamerą Schmidta. W czujniku położenia obrazu w systemie optyki adaptacyjnej teleskopu WIYN na Kitt Peak zastosowano szereg małych lusterek umieszczonych na tylnej powierzchni. Jest to opisane pod adresem http://claret.kpno.noao.edu/wiyn/wttm.html. Ponadto opcja projektowania fragmentatora obrazu dla NGST wykorzystuje tablice mikroluster na tylnej powierzchni. Zaletą jest to, że zmiana temperatury zmienia zarówno krzywiznę zwierciadeł, jak i ich odstępy, dzięki czemu pozostają one ostre.
Okulary
Okular jest odwróconym obiektywem aparatu, ale w szczegółach ma zupełnie inne zadanie niż obiektyw lub obiektyw aparatu komercyjnego ze względu na położenie źrenicy. W przypadku okularu źrenica musi znajdować się na zewnątrz soczewki, ponieważ musi znajdować się na oku patrzącego, które w przypadku rzęs znajduje się w odległości 10-15 mm od soczewki lub 18-20 mm, jeśli osoba nosi okulary. Odległość ta nazywana jest ODSTĘPEM OD OCZU. Ponadto średnica ŹRENICY WYJŚCIOWEJ powinna być na tyle mała, aby cała wiązka światła dostała się do ludzkiego oka, którego średnica tęczówki waha się od 2 do 5 lub 8 mm, w zależności od wieku. Kolejną komplikacją w konstrukcji optycznej okularu jest zwiększone POLE WIDZENIA, które jest odwrotnie proporcjonalne do średnicy źrenicy. Jeżeli średnica teleskopu wynosi 1 m i ma on pole widzenia 1/3 stopnia, to pole widzenia okularu o źrenicy 5 mm musi być 200 razy większe, czyli 67°, co wymaga skomplikowanej konstrukcji z kilkoma elementy. Wymagana ogniskowa okularu jest wprost proporcjonalna do liczby F obserwowanego ogniska, a zatem jest dwukrotnie dłuższa przy ogniskowaniu F-20 niż przy ognisku F-10. Nowoczesne okulary projektowane komputerowo posiadają aż osiem soczewek z kilku rodzajów szkła i pole widzenia aż do 82°, czyli więcej niż oko jest w stanie objąć na raz i sprawia wrażenie przebywania w przestrzeni.
Pasza włóknista
Włókna mają tę zaletę, że w spektroskopii wieloobiektowej wybierają obiekty z dowolnego miejsca w polu widzenia teleskopu i ustawiają je wzdłuż szczeliny spektrografu. Jednakże włókna ulegają degradacji współczynnika ogniskowego, FRD. Ta wada jest większa w przypadku teleskopów wytwarzających ostre obrazy, takich jak teleskopy kosmiczne. FRD jest mniejszą wadą w przypadku teleskopów naziemnych, gdzie jakość obrazu jest już obniżona z powodu turbulencji w atmosferze ziemskiej lub widzenia.
Lokalizacja teleskopu: Ziemia lub przestrzeń
Z powodu turbulencji atmosferycznych, zwanych widzeniem, obraz gwiazdy w ognisku systemu teleskopów naziemnych jest powiększony, dlatego wymagany jest krótszy EFL, aby dopasować ostrość obrazu do rozdzielczości detektora. Zatem potrzebna jest szybsza (mniejsza) liczba F, niż gdyby teleskop znajdował się w kosmosie. Dla dużej bazy naziemnej teleskopu elementy optyczne są nie tylko bardzo duże, ale także aparat jest bardziej skomplikowany i wymaga większej liczby elementów do korygowania aberracji optycznych. Rysunek przedstawia znakomity obiektyw aparatu spektrograficznego zaprojektowanego przez Harlanda Eppsa dla 10-metrowego teleskopu Keck.
Granica dyfrakcji
Granica dyfrakcji wyrażona jako pełna średnica AIRY DISK, która jest średnicą pierwszego ciemnego pierścienia dyfrakcyjnego, w sekundach łuku, wynosi
Φ=λ/2D
dla λ w mikronach i D w metrach. Dla 8 m NGST, przy λ = 2 μm (bliska podczerwień) Φ = 0,25 sekundy łukowej. Limit Rayleigha wynosi połowę tej wartości, 0,125 sekundy łukowej, co stanowi połowę szerokości dysku Airy′ego.
Optyka adaptacyjna i aktywna
Aktywna komórka optyczna może zginać podparte zwierciadło, aby skorygować niedoskonałości kształtu zwierciadła, np. zwierciadła głównego. Dla porównania optyka adaptacyjna to zwierciadło odkształcalne DM, umieszczone bliżej ogniska (ale nie w nim), gdzie wiązka jest znacznie mniejsza niż w zwierciadle głównym. DM ulega szybkiemu odkształceniu w celu skorygowania aberracji spowodowanych turbulencjami w atmosferze ziemskiej, a także koryguje błędy czoła fali spowodowane niedoskonałościami zwierciadła głównego. Pierwszy niemilitarny system optyki adaptacyjnej, nazwany Come-on, rozpoczął pracę w Europejskim Obserwatorium Południowym w 1989 roku na teleskopie o średnicy 3,6 m. Najnowszy, udoskonalony system nosi nazwę Adonis. W 1996 roku na Kanadyjsko-Francusko-Hawajskim Teleskopie CFHT oddano do użytku optykę adaptacyjną Bonnette (PUEO). System optyki adaptacyjnej, podobnie jak spektrograf, składa się z kolimatora, po którym następuje kamera, zwykle zwierciadła pozaosiowe, aby uniknąć przeszkód. Zamiast siatki lub pryzmatu, pomiędzy kolimatorem a kamerą znajduje się odkształcalne zwierciadło DM. W większości systemów lusterka kolimatora i kamery są paraboliczne, jedno dla kolimatora i jedno dla kamery. W przypadku tylko dwóch zasilanych lusterek powierzchnia ogniskowa jest zakrzywiona, ale nie na tyle, aby znacząco pogorszyć rozdzielczość pola o średnicy kilku minut kątowych. Ponieważ wiązka pomiędzy dwoma paraboloidami jest skolimowana, obraz w ognisku na osi w środku pola jest doskonały, niezależnie od ogniskowych dwóch paraboloid i niezależnie od odległości, w jakiej odcinają one oś zwierciadeł macierzystych . Powierzchnie ogniskowe są nachylone względem osi paraboloidów, ale nie są nachylone względem osi teleskopu. Dzięki temu nie ma konieczności pochylania czujki, gdy włożony jest układ optyki adaptacyjnej. Często wymagane jest, aby kamera miała dłuższą ogniskową niż kolimator, aby powiększyć wyostrzony obraz i dopasować go do rozdzielczości detektora. W takim przypadku aberracje pola (środka pola widzenia) są minimalizowane, jeśli odległość zwierciadła kamery od osi powierzchni zwierciadła macierzystego zwiększa się proporcjonalnie do kwadratu powiększenia. System optyki adaptacyjnej Gemini jest nietypowy pod tym względem, że moduł dostępny dla systemu optyki adaptacyjnej (na derotatorze potrzebnym, ponieważ teleskop ma montaż azymutalny) znajduje się dalej od ogniska niż liczba F pomnożona przez średnicę DM, a zatem aparat musi mieć formę odwróconego teleobiektywu - musi zwiększać średnicę wiązki z DM przed zbieżnością. I tak system Gemini, zwany Altair, oprócz lustra kolimatora posiada w aparacie dwa zwierciadła, wypukłe i wklęsłe, jest to więc rodzaj anastygmatu trójlustrowego, TMA. Zaletą posiadania trzech zwierciadeł zamiast dwóch jest to, że powierzchnia ogniskowa jest płaska, dzięki czemu obrazy są ostrzejsze na płaskim detektorze. Analizuje się czoło fali naturalnej gwiazdy przewodniej w celu wygenerowania sygnału deformującego DM. Przeanalizowane zostaną także gwiazdy lasera asodowego w atmosferze ziemskiej. Ponieważ w miejscu, gdzie naturalna gwiazda jest ostra w centrum cienia (zwierciadła wtórnego) wiązki lasera, jest nieostre, zwierciadło otworkowe pozwala na bardzo efektywną separację dwóch wiązek w projekcie Gemini. System w Mount Wilson jako pierwszy wykorzystuje ultrafioletową laserową gwiazdę prowadzącą, opisaną pod adresem http://www.astro.uiuc.edu/projects/unisis/. Najprostsze systemy optyki adaptacyjnej, takie jak teleskop WIYN na Kitt Peak, korygują jedynie drgania obrazu, zwane tip-tilt. Co zaskakujące, NGST będzie wyposażony w prosty system optyki adaptacyjnej, który będzie korygował drgania satelity, które mają wynosić nawet ±2,7 sekundy łuku.
Katalogi szklane
Kiedy promień światła pada w powietrzu na płaski kawałek szkła, kierunek promienia zmienia się wewnątrz szkła. Jeżeli kąt padania mierzony względem normalnej (prostopadle) do powierzchni szkła wynosi α, a kąt po załamaniu wynosi β, współczynnik załamania N jest zdefiniowany jako
N = sin α/ sin β
Współczynnik załamania światła N jest odwrotnie proporcjonalny do prędkości światła w szkle w porównaniu z prędkością w próżni. Jest on jednak mierzony w odniesieniu do prędkości w powietrzu, stąd konieczna jest niewielka korekta wskaźników podanych w katalogach szkła, jeśli materiał stosowany jest w próżni. Katalogi wymieniają około 250 różnych rodzajów szkła. Najstarszym producentem jest firma Schott w Niemczech. Nowszym dostawcą jest Ohara w Japonii . W teleskopach stosowane są okulary obu producentów. Hoya to kolejny ważny dostawca. Szkła można rozpoznać po współczynniku załamania światła Nd na linii widmowej żółtego helu o długości fali 587 nm oraz po różnicy w N między niebieską linią wodoru Nf przy 486 nm a czerwoną linią wodoru Nc przy 656 nm , wymienione w katalogach jako Nf - Nc. Trzecią, bardzo ważną identyfikacją jest wartość Abbego, która łączy w sobie zarówno współczynnik załamania światła, jak i dyspersję,
Vd = Nd - 1/Nf - Nc
Zatem szkło o niskiej dyspersji ma wysoką liczbę Vd. Każdy typ szkła ma sześciocyfrowy numer kodowy: pierwsze trzy cyfry Nd - 1, po których następują pierwsze trzy cyfry Vd. Każdemu rodzajowi szkła nadawana jest także nazwa, która różni się w zależności od producenta. Na przykład powszechnie stosowanym szkłem optycznym z koroną borokrzemową (o niskiej dyspersji) 517642 jest Schott BK7, Ohara S-BSL& i Hoya BSC7. Zwykłe szkło krzemienne 620364 to Schott F2, Ohara PBM2 i Hoya EF2. Diagram przedstawiający Nd w funkcji Vd, wymieniony jako diagram Nd/Vd, dla szkieł katalogowych jest dostępny w Internecie pod adresem http://www.schottglasstech.com/. Przeniesienie szkieł katalogowych zależy od typu. Jest on wymieniony dla zakresu długości fal od 0,28 do 2,4 μm, ale większość szkieł przepuszcza tylko ułamek tego obszaru. Specjalne materiały przepuszczające dalej ultrafiolet i podczerwień nie są ujęte w tych katalogach, ponieważ nie są to konwencjonalne szkła. Fluorek wapnia, który jest obecnie dostępny w dużych kawałkach, przepuszcza w znacznie szerszym zakresie długości fal, od 0,23 do 7,8 μm. Posiada bardzo niski współczynnik załamania światła i dyspersji: Nd = 1,4, Vd = 96. Selenek cynku ma bardzo wysoki współczynnik załamania światła: Nd = 2,6, Vd = 8.
Korektory do teleskopów z ciekłym zwierciadłem
. Obracając cienką warstwę rtęci, powstaje paraboliczna powierzchnia o jakości optycznej, służąca jako zwierciadło główne teleskopu z płynnym zwierciadłem LMT. Ze względu na naturalnie paraboliczny kształt obrazy w centrum pola widzenia są ostre. W Ameryce Północnej działa kilka LMT o średnicach od 2,4 do 3 m, a w Kanadzie budowany jest LMT o średnicy 6 m. Ermanno Borra z Laval, Paul Hickson z UBC i Mark Mulrooney z Obserwatorium Cloudcroft w Nowym Meksyku odegrali kluczową rolę w rozwoju LMT. 6-metrowy LMT budowany na Uniwersytecie Kolumbii Brytyjskiej będzie miał bardzo krótką ogniskową: 9 m, a więc f/1.5. Tę szybką ogniskową można uzyskać bez dodatkowych kosztów lustra, po prostu projektując jego mocowanie pod kątem większej prędkości obrotowej, co pozwala na zastosowanie mniejszej obudowy. Jednak krótka ostrość zwiększa trudność korekcji komy i astygmatyzmu. Dobrze znana soczewka korekcyjna typu zapoczątkowanego przez Raya Wilsona w Niemczech i nieżyjącego już Charlesa Wynne′a w Anglii składa się z trzech soczewek: dodatniej soczewki meniskowej, po której następuje soczewka ujemna i zakończona soczewką dodatnią w pobliżu ogniska. Nazywane soczewkami z korektorem ostrości stałoogniskowej, są używane w wielu teleskopach. Mają płaską powierzchnię ogniskową, ale charakteryzują się znaczną dystorsją poduszkową, która w czasach detektorów fotograficznych nie była uważana za niepożądaną. Po opracowaniu matrycy CCD umożliwiającej obrazowanie znacznie słabszych pól gwiazdowych, korzystne stało się zminimalizowanie zniekształceń pola w celu uproszczenia odejmowania światła tła od nieba. Takie korektory mają cztery elementy zamiast trzech. Przegląd LMT na całym świecie można znaleźć pod adresem http://www.astro.ubc.ca/lmt. Te niedrogie teleskopy służą do śledzenia śmieci kosmicznych, w lotnictwie i astronomii. W przypadku LMT istnieje dodatkowa potrzeba kontrolowania zniekształceń, ponieważ ekspozycję czasową ruchomych obrazów na detektorze CCD uzyskuje się poprzez integrację opóźnienia czasowego, TDI, zwaną także skanowaniem dryfu. W przypadku konwencjonalnych matryc CCD odczyt elektroniczny odbywa się ze stałą szybkością wzdłuż każdej kolumny pikseli, dlatego obrazy powinny poruszać się ze stałą prędkością i po liniach prostych, co wymaga zerowego zniekształcenia pola podczas obserwacji śmieci kosmicznych lub satelitów. Jednakże podczas obserwacji gwiazd za pomocą LMT, który nie jest położony na równiku Ziemi, obrót Ziemi powoduje, że obrazy poruszają się po zakrzywionej ścieżce i z szybkością zależną od deklinacji obiektu. Na szczęście tę zniekształcenie gwiazdowe można usunąć poprzez asymetryczną dystorsję korektora uzyskaną poprzez celowe decentrowanie i pochylanie elementów soczewki korektora. Układ takiej soczewki pokazano na rysunku , gdzie elementy są ustawione pod kątem deklinacji 49°.
Kanadyjska astronomia
Kanada jest duża (pod względem wielkości ustępuje tylko Rosji) i słabo zaludniona (30 milionów). Te fakty, choć banalne, wyjaśniają wiele o kraju, nawet o jego przedsięwzięciach naukowych. Prawie cała astronomia prowadzona w Kanadzie w ciągu wieków eksploracji przed 1900 rokiem była związana z geodezją i pomiarem czasu. Nawet wysiłki Sandforda Fleminga mające na celu wprowadzenie ogólnoświatowych stref czasowych w latach osiemdziesiątych XIX wieku wydają się właściwe w kraju o długości prawie 90° długości geograficznej. Przykładami XX wieku są: identyfikacja przez CS Bealsa dziesiątek starożytnych kraterów meteorytowych w prekambryjskiej tarczy kanadyjskiej, wystrzelenie satelity komunikacyjnego Alouette I w 1962 r. (Kanada była trzecim krajem na świecie, który zbudował satelitę) oraz pionierskie prace w radioastronomia o długiej linii bazowej, dzięki której w 1967 r. połączono dwa kanadyjskie radioteleskopy oddalone od siebie o tysiące kilometrów. Kolejnym banałem dotyczącym życia w Kanadzie jest kulturowa i gospodarcza dominacja jej gigantycznego sąsiada, Stanów Zjednoczonych. Niektórzy z najbardziej znanych amerykańskich astronomów XIX wieku, w tym SIMON NEWCOMB, urodzili się w Kanadzie, ale udali się na południe, do krainy możliwości. "Drenaż mózgów" nadal stanowi problem. W rzeczywistości Rada ds. Nauk Przyrodniczych i Inżynierii (NSERC), wspierana przez rząd agencja przyznająca granty, prowadzi programy zachęcające młodych, zdolnych naukowców do studiowania i pracy w Kanadzie. Na koniec należy uznać, że Kanada jest oficjalnie dwujęzyczna. Oznacza to, że wszystkie usługi federalne są dostępne zarówno w języku francuskim, jak i angielskim. Wyjaśnia także, dlaczego niektóre akronimy, takie jak CASCA (Kanadyjskie Towarzystwo Astronomiczne/Soci'et'e canadienne d'astronomie) odzwierciedlają ten podwójny charakter. W praktyce wśród instytucji, w których wykłada się astronomię, uniwersytety de Montr'eal i Laval w Quebecu działają w języku francuskim, uniwersytety w Moncton w Nowym Brunszwiku i Laurentian w Ontario posługują się obydwoma językami urzędowymi, a pozostałe opierają się na języku angielskim.
Wczesna historia
Niewiele napisano na temat rdzennych tradycji astronomicznych w Kanadzie, z wyjątkiem książki Johna MacDonalda The Arctic Sky, która zgłębia wiedzę Eskimosów z dalekiej północy. To właśnie w Arktyce europejska astronomia po raz pierwszy dotknęła wybrzeży Kanady. Angielscy odkrywcy zamierzający udać się na północny zachód na wschód, spoglądali na Słońce, Księżyc i gwiazdy, aby ustalić swoją szerokość i długość geograficzną. Najlepsze wyniki przedteleskopowe osiągnął Thomas James, który w 1632 roku zimował w zatoce noszącej jego imię. Jednak to misjonarze jezuici z Francji, którzy często spędzili tu większą część swojego życia, tak naprawdę wprowadzili astronomię do Kanady. Oni także zajmowali się położeniem geograficznym i w tym celu obserwowali zaćmienia. Najdokładniejszą z nich była obserwacja zaćmienia Księżyca przeprowadzona 30 stycznia 1646 roku przez księdza Josepha Bressaniego przy użyciu małego teleskopu podczas odległej misji w pobliżu dzisiejszego Midland w Ontario. Misjonarze w Quebecu zanotowali
pozycje jasnych komet z lat sześćdziesiątych XVII wieku i mniej więcej w tym samym czasie wraz z kilkoma świeckimi nauczycielami rozpoczęli nauczanie geodezji, nawigacji i hydrografii. Tradycja astronomii praktycznej jako podstawy kartografii była kontynuowana po zajęciu Quebecu przez Brytyjczyków w 1759 r., zarówno w regionie atlantyckim, jak i na rozległe zachodnie terytoria Kompanii Zatoki Hudsona. Naukowo znaczące były tranzyt Wenus w 1761 r., zaobserwowany w Nowej Fundlandii przez Johna Winthropa z Massachusetts oraz tranzyt Wenus w 1769 r. zaobserwowany przez geodetę Samuela Hollanda i jego asystenta w dwóch lokalizacjach w Quebecu oraz w imieniu Towarzystwa Królewskiego przez Williama Walesa w Fort Churchill brzegi Zatoki Hudsona. Za radą Walii firma wyznaczyła swojego pierwszego geodetę, Philipa Turnora, który sporządził mapę dużej części zachodniej Kanady wraz z dwoma młodszymi mężczyznami, Thompsonem i Fidlerem, których uczył procedur astronomii praktycznej, gdy stacjonowali w Cumberland House w
Saskatchewan. Wschodnia Kanada stała się bardziej zadomowiona po przybyciu lojalistów z nowo niepodległych Stanów Zjednoczonych. W 1789 roku założyli pierwszą anglojęzyczną instytucję szkolnictwa wyższego w Windsorze w Nowej Szkocji, nadając jej nazwę King&porime;s College. Chociaż kilka innych uniwersytetów powstało na początku XIX wieku, pierwszy, który został wyposażony w obserwatorium i oferował wykłady z astronomii, znajdował się w Fredericton w stanie New Brunswick w latach pięćdziesiątych XIX wieku. Inne wczesne obserwatoria to Obserwatorium w Toronto (pierwotnie obserwatorium magnetyczne, otwarte w 1840 r.), prywatne obserwatorium Charlesa Smallwooda w pobliżu Montrealu, wyposażone w 18-centymetrowy refraktor Fraunhofera pod koniec lat czterdziestych XIX wieku oraz obserwatoria z 15-centymetrowymi refraktorami w Quebecu i Kingston założone w Lata 50. XIX wieku. Do roku 1867, kiedy cztery kolonie utworzyły nowe Dominium Kanady, zaczęło pojawiać się pewne zainteresowanie "czystą" astronomią, chociaż nadal zajmowano się bardzo realnymi potrzebami geodezji i pomiaru czasu. Wielebny Bolduc w seminarium w Quebecu wykładał astronomię i miał do dyspozycji 40-centymetrowy reflektor Foucaulta, a astronomia była częścią programu nauczania na Queen's University w Kingston i King's College w Windsorze w Nowej Szkocji. EH Ashe z Obserwatorium w Quebecu udał się do Iowa, aby zbadać i sfotografować zaćmienie słońca w sierpniu 1869 roku. Smallwood w Montrealu pisał o zjawiskach księżycowych i słonecznych. Wydarzeniem, które ostatecznie miało trwałe znaczenie, było utworzenie w 1868 roku Toronto Astronomical Club przez małą grupę amatorów. W latach osiemdziesiątych XIX wieku jeden z nich obserwował widma Słońca i gwiazd, niektórzy robili zdjęcia Słońca i Księżyca, a jeszcze inni nadal obserwowali i szkicowali cechy powierzchni planet. W 1890 roku przekształcili się w stowarzyszenie i zaczęli publikować transakcje, które były rozprowadzane wśród uniwersytetów i obserwatoriów na całym świecie. Grupa ta przekształciła się w ROYAL ASTRONOMICAL SOCIETY OF CANADA (RASC), którego czasopismo nadal pozostaje jedyną krajową publikacją zawierającą kanadyjskie badania i wiadomości astronomiczne. Jednym z członków tej grupy w latach 90. XIX wieku był młody profesor fizyki na Uniwersytecie w Toronto , C A Chanta, który przewidywał połączenie astronomii na uniwersytecie z fizyką. W.F/ King, który w latach siedemdziesiątych XIX wieku brał udział w badaniu granic równoległych, a w roku 1890 awansował na stanowisko pierwszego "głównego astronoma" Kanady, również przyznał, że badania wykraczają poza tradycyjne pola czasu i pozycji. Tak więc na początku XX wieku założono znaczące obserwatorium rządowe w stolicy kraju, Ottawie, a na Uniwersytecie Toronto. utworzono oddzielny Wydział Astronomii. Chociaż astronomia pozycyjna i geofizyka stanowiły podstawę programu na Uniwersytecie Dominion Observatory (DO), kiedy zostało otwarte w 1905 r., jego głównym instrumentem był 38-centymetrowy refraktor Brasheara, a jego personel przez wiele lat składał się głównie z absolwentów Uniwersytetu.
Rozwój zawodu 1905-1970
Badania astrofizyczne w obserwatorium narodowym były niezwykłe i mogłyby nie zostać przeprowadzone w Ottawie, gdyby w kraju istniały uniwersytety posiadające odpowiednią infrastrukturę. Tak jednak nie było i uznano, że Obserwatorium będzie stanowić bodziec dla nauki w całym Dominium. Jest to rola, jaką rząd nadal odgrywa w kanadyjskiej astronomii, ponieważ wiele mniejszych instytucji nie jest w stanie samodzielnie zapewnić obiektów niezbędnych do nowoczesnych badań. Badania słoneczne i spektroskopia gwiazd były głównymi obszarami badań astrofizyki w DO, ale wkrótce stało się jasne, że zakres 38-centymetrowego instrumentu w niezbyt pożądanym środowisku jest ograniczony. Główny impuls do ulepszenia obiektów wyszedł od J. S. PLASKETTA, który jako dojrzały student ukończył Toronto i dołączył do personelu DO jeszcze przed jego otwarciem. W 1910 roku zdał sobie sprawę, że "nasze wyniki w zakresie obserwacji prędkości radialnych spektroskopowych układów podwójnych prawdopodobnie znacznie się zmniejszą" …. Jedynym lekarstwem jest zwiększenie apertury teleskopu. Jest to hołd złożony jego geniuszowi organizacyjnemu i politycznemu, że pomimo I wojny światowej w kwietniu 1918 roku w pobliżu Victorii w Kolumbii Brytyjskiej otwarto DOMINION ASTROPHYSICAL OBSERVATORY (DAO) wyposażone w reflektor o średnicy 1,8 m. Było to wówczas największy działający Teleskop na świecie od czasu Mount Wilson 2,5 m wciąż przechodził modyfikacje. DAO wciąż się rozwija - w 1961 roku dodano drugi teleskop, 1,2 m ze spektrografem Coud′e, a sprzęt detekcyjny w obu instrumentach jest stale udoskonalany i aktualizowany. Spektroskopia zawsze była podstawą programów DAO, a do najważniejszych osiągnięć zaliczały się prace Plasketta nad rotacją Galaktyki przy użyciu prędkości radialnych gwiazd typu O i B, prace McKellara nad absorpcją międzygwiazdową, kalibracja Petriego wielkości bezwzględnych gwiazd B oraz katalogi Battena dotyczące spektroskopowych orbit podwójnych. Rozpoczęto budowę jeszcze większego teleskopu zwierciadlanego (1,9 m), operacji w 1935 r. dzięki uporowi doktora Chanta na Uniwersytecie Toronto i bardzo hojnej prywatnej darowiznie OBSERWATORIUM DAVID DUNLAP (DDO). Przez wiele lat była to jedyna duża placówka astronomiczna na kanadyjskim uniwersytecie, a Uniwersytet w Torontp był jedynym miejscem w kraju, gdzie aż do lat pięćdziesiątych XX wieku student mógł odbyć specjalistyczne szkolenie z astronomii. Spektroskopia i fotometria były podstawą większości prowadzonych tam badań, przy czym szczególnie zapadają w pamięć trwająca całe życie praca HELEN HOGG nad gwiazdami zmiennymi w gromadach kulistych oraz przekonujące badania Boltona z 1972 roku nad Cygnus X-1 jako czarną dziurą. Po drugiej wojnie światowej narodziła się radioastronomia. W Kanadzie był to odgałęzienie prac radarowych przeprowadzonych przez A.E. Covingtona w KRAJOWEJ RADZIE BADAWCZEJ (NRC). Dostrzegł potencjał niektórych urządzeń do badań Słońca i w 1945 roku rozpoczął program monitorowania Słońca przy długości fali 10,7 cm - program, który trwa do dziś. W latach sześćdziesiątych XX wieku zainaugurowano dwa duże, sterowalne radioteleskopy - jeden o średnicy 45 m w ALGONQUIN RADIO OBSERVATORY (obecnie używany do pomiarów geodezyjnych), a drugi o średnicy 26 m w DOMINION RADIO ASTROPHYSICAL OBSERVATORY (DRAO) w Penticton w Kolumbii Brytyjskiej. Instrumenty te okazały się bardzo wszechstronne w badaniu ośrodka międzygwiazdowego i identyfikowaniu niektórych największych cząsteczek w przestrzeni. Do 1966 roku DRAO zainstalowało także dwa duże układy interferometryczne wykorzystywane do obrazowania dyskretnych źródeł w wysokiej rozdzielczości i mapowania płaszczyzny galaktycznej. Z powodu powojennego wyżu demograficznego i zimnej wojny w przestrzeni kosmicznej, w latach sześćdziesiątych XX wieku nastąpił ogromny wzrost liczby zakładanych uniwersytetów, niektórych z wydziałami astronomii lub ich częściami. W rzeczywistości jedna trzecia wszystkich kanadyjskich uniwersytetów powstała w latach sześćdziesiątych XX wieku. Pierwszy doktorat z astronomii uzyskał w Kanadzie w 1953 roku na Uniwersytecie Torontp, 20 lat później na siedmiu różnych uniwersytetach nagrodzono ich 12. W tym okresie prace doktorskie dotyczyły szerokiego zakresu tematów, ale preferowano strukturę i ewolucję gwiazd, a także prędkości radialne stosowane w badaniach zmiennych wewnętrznych i ruchów kosmicznych gwiazd w Galaktyce.
Najnowsze wydarzenia, stan obecny i plany na przyszłość
W 1970 roku stare Obserwatorium Dominion przestało być przydatne, więc zostało zamknięte, a wszystkie rządowe programy badań astronomicznych przekazano pod egidę NRC. W tamtym czasie oznaczało to, że niektóre programy, takie jak badania meteorów, które były dziełem życia Petera Millmana, były kontynuowane w Ottawie, ale większość astronomii skupiała się w Kolumbii Brytyjskiej w DAO i DRAO. W 1971 roku jeden z wybitnych naukowców pracujących w NRC, GERHARD HERZBERG, zdobył Nagrodę Nobla w dziedzinie chemii za "wkład w wiedzę o strukturze elektronowej i geometrii cząsteczek, zwłaszcza wolnych rodników". W 1975 r. NRC utworzyło INSTYTUT ASTROFIZYKI HERZBERGA (HIA) na jego cześć. Reorganizacja nastąpiła nie tylko w rządzie. Mając do dyspozycji większą społeczność naukową, w 1971 r. utworzono stowarzyszenie zawodowe CASCA, które na swoim pierwszym dorocznym zgromadzeniu liczyło 145 członków. Obecnie liczy 381 członków, z czego 281 znajduje się w Kanadzie. Fakt, że ponad jedna czwarta członków mieszka za granicą,
wynika głównie z emigracji. Multi-użytkownikowe zaplecze naukowe i współpraca międzynarodowa stały się jedynym sposobem, w jaki Kanada mogła sobie pozwolić na udział w dużych projektach będących w czołówce bieżących badań. MEGANTIC ASTRONOMICAL OBSERVATORY, otwarte w 1978 roku, jest prowadzone wspólnie przez Université de Montreal i Université Laval. HIA odpowiada za udział Kanady w trzech międzynarodowych przedsięwzięciach - 3,8 mCANADA-FRANCE-HAWAII TELESCOPE (CFHT), który został otwarty w 1979 r. i w którym Kanada ma 42,5% udziałów, a ostatnio także 15-metrowy JAMES CLERK MAXWELL TELESCOPE (25%) na Hawajach i 8-metrowe teleskopy GEMINI OBSERVATORY (14%) na Hawajach i Chile. We wszystkich trzech placówkach HIA zatrudnia na stałe personel, ale przydział czasu jest powszechnie dostępny. Ponadto HIA w dalszym ciągu ponosi odpowiedzialność za dwa kanadyjskie obserwatoria, o których już wspomniano - DRAO, obecnie główny współpracownik Canadian Galactic Plane Survey i DAO, w którym obecnie mieści
się Canadian Astronomy Data Center, centrum dystrybucyjne dla danych z Kosmicznego Teleskopu Hubble′a i centrum archiwalnego danych z CFHT. Dwa inne niedawne kanadyjskie projekty angażujące wielu użytkowników to Kanadyjski Instytut Astrofizyki Teoretycznej (CITA) zlokalizowany na Uniwersytecie w Toronto oraz Obserwatorium Neutrino Sudbury (SNO), wspólny projekt kilku kanadyjskich i amerykańskich uniwersytetów. Od 1984 r. cięcia finansowe były na porządku dziennym. W szczególności budżety na naukę i astronomię spadły w tym samym czasie, gdy międzynarodowe przedsięwzięcia kooperacyjne wykorzystywały większą część dostępnych środków. W latach 90-tych granty badawcze zapewniane przez NSERC w dziedzinie kosmosu i astronomii wynosiły zaledwie około 4 milionów dolarów rocznie. Obecnie istnieje około 35 kanadyjskich instytucji szkolnictwa wyższego, w których naucza się astronomii; około połowa tych badań jest prowadzona i oferuje stopnie doktora w astronomii lub dziedzinach pokrewnych. Co roku przyznawanych jest około 20 doktoratów, a najczęstsze tematy to astrofizyka teoretyczna, struktura i ewolucja normalnych galaktyk, gromad galaktyk, kosmologia, materia międzygwiazdowa i środowisko gwiazdowe. Większy udział w pracach teoretycznych, od kosmologii po dynamikę układów planetarnych w ostatnich latach, jest częściowo odzwierciedleniem powołania CITA. Opierając się na wiedzy technicznej, którą Kanadyjczycy już posiadają w takich obszarach, jak projektowanie instrumentów i oprogramowania, w ramach partnerstwa pomiędzy NRC, NSERC i CASCA opracowywany jest dalekosiężny plan dla astronomii w Kanadzie do 2015 roku. W chwili obecnej panel ten rozważa szeroką gamę zagadnień, w tym utrzymanie obecnych programów i obiektów wraz z udziałem w Kosmicznym Teleskopie Nowej Generacji, Atacama Large Millimeter Array i Square Kilometre Array działających na falach cm i dm. Prace nad małym kanadyjskim satelitą do badania mikrozmienności i oscylacji gwiazd (MOST) są również w przygotowaniu, a jego wystrzelenie możliwe jest w 2001 r. Zrównoważenie różnych wymagań i aspiracji jest trudnym zadaniem w środowisku, w którym przyszłe finansowanie badań jest niepewne. Na szczęście obecnie warunki gospodarcze są dobre i wydaje się, że istnieje polityczna świadomość, że przyszłość Kanady w nauce i technologii wymaga większego wsparcia rządu.
Capella
Capella - "Gwiazda Koza" w konstelacji Woźnicy, "Woźnica" - to szósta pod względem jasności gwiazda na niebie i trzecia na półkuli północnej. Jest dobrze znanym spektroskopowym układem podwójnym żółtych olbrzymów, który wydaje się tworzyć układ fizyczny z Capellą HL, odległą parą CZERWONYCH KARŁÓW i jest członkiem rozszerzonej GRUPY RUCHU Hiadów (równej z obszarem jądrowym pobliskiej młodej gromady ). Olbrzymy Capelli są prawie bliźniacze, ale różnią się masą na tyle, aby przypadać na wyraźnie oddzielne fazy ewolucyjne: wtórna to bogata w lit, szybko rotująca gwiazda szczelinowa Hertzsprunga, podczas gdy bardziej zaawansowana pierwotna to zubożona w lit, wolno rotująca "kępka" gigant. Capella jest filarem skali mas gwiazd i od dawna jest stanowiskiem testowym dla technik interferometrycznych i modeli ewolucyjnych. Capella charakteryzuje się znaczną emisją promieniowania rentgenowskiego i dalekiego ultrafioletu - być może jest to przesadna forma aktywności magnetycznej Słońca - co czyni ją popularnym celem wielu obserwatoriów kosmicznych. Pochodzenie znaczących, wysokoenergetycznych zjawisk w tym układzie oraz ciekawe różnice pomiędzy dwoma bardzo dobrze scharakteryzowanymi gigantami typu G w dalszym ciągu wywołują ożywioną debatę w społeczności gwiazd.
Tło
Capella (α Aurigae; HD 34029; BS 1708; Gl 194) to pobliski (d = 12,9 szt.) jasny (V = 0,08) układ wielokrotny gwiazd składający się z pary prawie identycznych żółtych olbrzymów (G8 III (Aa) + G1 III (Ab)) na ciasnej orbicie o małym mimośrodzie 0,7 AU i trwającej 104 dni, okrążanej w dużej odległości (∿104 AU) przez luźniejszy układ podwójny czerwonych karłów 50 AU, około 300 lat (Capella HL; Gl 195; dM2 (H ), dM5 (L)). System podziela ruch kosmiczny gromady otwartej Hiades i O. J. Eggen uznał go za członka Ruchomej Grupy Hyades (lub "Supergromady"). Spektroskopowo określone masy (2,6M⊙ dla pierwiastka pierwotnego, 2,5M⊙ dla wtórnego) wskazują na wiek ewolucyjny 600 milionów lat, podobny do czasu wyłączenia klastra w jądrze Hiadesa. Główna para żółtych olbrzymów tworzy SPEKTROSKOPOWĄ GWIAZDĘ PODWÓJNĄ o amplitudach prędkości radialnych 26 km s-1 i 27 km s-1 (odpowiednio dla Aa i Ab) oraz prędkości recesyjnej 29 km s>sup>-1. Oddzielenie dwóch olbrzymów o wartości 0,056 zostało łatwo rozwiązane za pomocą różnych technik interferometrycznych, poczynając od pionierskiej pracy Andersona na Mt Wilson w 1919 r., a kończąc na pierwszych prawdziwych mapach przestrzennych w 1995 r. wykonanych przez Cambridge Optical Aperture Teleskop Syntezowy (COAST). Spektroskopowe monitorowanie wahań prędkości radialnej towarzyszy, dokładna fotometria UV-optyczna-IR, interferometryczne pomiary wymiarów orbit, wąskopasmowe rekonstrukcje plamkowe jasności względnych oraz wysoce precyzyjna PARALLAX z Hipparcosa pozwalają na udoskonalenie parametrów gwiazdowych do stopień rzadko spotykany w astronomii gwiazd podwójnych. Fizyczne wymiary gigantów z Capelli i ich orbity porównano na ryc. 2 ze Słońcem, Układem Słonecznym i pobliskim układem podwójnym składającym się z karłów ? Centauri (G2V+ K1 V). &aplha; Cen ma powierzchowne podobieństwa z Capellą, ponieważ jest to układ wielokrotny składający się ze stosunkowo ściśle związanego podwójnego (karły G i K) z odległym, jaśniejszym towarzyszem (w tym przypadku gwiazdą dM Proxima Centauri). Jednakże ? Cen stanowi tylko jedną trzecią całkowitej masy układu Capella.
Zagadkowe spektrum wizualne
Wizualne widmo Capelli zostało zarejestrowane przez licznych obserwatorów pod koniec XIX wieku. W.W. Campbell i niezależnie H. F. Newall odkryli okresowe przesunięcia Dopplera , które wskazywały na podwójną naturę gwiazdy. Ogólne widmo było jednak zagadkowe: linie absorpcji jednego składnika były ostre i wyraźne, podczas gdy linie absorpcji drugiego składnika były ledwo rozpoznawalne. Jednocześnie prace interferometryczne przeprowadzone w latach dwudziestych XX wieku wykazały, że obie gwiazdy miały porównywalną jasność. W latach pięćdziesiątych O Struve i S.M. Kung, a później K.O. Wright, odnieśli sukces w pomiarze widma wtórnego. Wright - który zastosował sprytnie zaprojektowaną technikę mechanicznego odejmowania w celu odizolowania widma wtórnego od kompozytu - opisał widmo wtórne jako "rozproszone", co prowadzi do "zasłonięcia" (lub rozcieńczenia) widma pierwotnego. Wyblakły wygląd widma wtórnego przypisywano wówczas zwiększonym turbulencjom atmosferycznym lub szybkiej rotacji. W latach sześćdziesiątych
G. Wallerstein zwrócił uwagę na widmo absorpcji litu - oznakę ewolucyjnej "młodości", całkowicie zdominowanej przez gwiazdę wtórną - i wykazał, że hipoteza szybkiej rotacji jest słuszna. We wczesnych latach siedemdziesiątych A.M. Boesgaard wykrył słabą absorpcję Li I w uzwojeniu pierwotnym, co doprowadziło do scenariusza ewolucyjnego opracowanego przez Ibena . Obie gwiazdy Capelli rozpoczęły swoje życie w górnej ciągu głównym (MS) jako karły z późnego B. Nieco bardziej masywna część pierwotna wyewoluowała z MS jako źródło powłoki wodorowej, wspięła się na gałąź olbrzyma, zapaliła jej rdzeń helowy, a następnie powróciła do podstawy gałęzi czerwonego olbrzyma jako gwiazda spalająca hel z rdzeniem, tracąc lit w wyniku głębokiej konwekcji mieszając po drodze. Faza spalania helu trwa stosunkowo długo, około 20% czasu trwania stwardnienia rozsianego; w ten sposób wyewoluowane gwiazdy mają tendencję do gromadzenia się w tej części diagramów jasności barw, co prowadzi do "skupienia". Tymczasem nieco mniej masywna
cząsteczka wtórna dopiero niedawno wyewoluowała z MS i obecnie znajduje się w powłoce wodorowej, spalając "pierwsze przejście". , a etap rozcieńczania litu należy do jego przyszłości. Ponieważ pozioma część trajektorii płonącej powłoki pokonuje bardzo szybko, być może w ciągu zaledwie 0,1% czasu życia MS, na diagramach jasności i koloru widać tam niewiele gwiazd, a obszar ten zaczęto nazywać "przerwą Hertzsprunga". Zatem chociaż olbrzymy z Capelli znajdują się blisko siebie na diagramie Hertzsprunga-Russella (tj. pod względem temperatury powierzchni i jasności), olbrzymy pierwotne pokonały znacznie większą "dystans" ewolucyjną niż olbrzymy wtórne, aby dotrzeć do swojej obecnej pozycji; właściwości pomocnicze, takie jak rotacja, zawartość litu i stosunki izotopowe CNO, mówią prawdę. W latach 80. XX w. F.C. Fekel i współpracownicy uzyskali bardzo precyzyjne prędkości obrotowe obu elementów: vAa sin i = 6 km s?1; vAb sin i = 36 km s?1. Od tego czasu do chwili obecnej
wymiary orbity układu Capella są stale udoskonalane za pomocą interferometrii i dalszych udoskonaleń orbity spektroskopowej. Całkiem niedawno nowa paralaksa Hipparcosa dla Capelli daje odległość (12,9 pc.) o około 3% bliższą niż poprzednie szacunki trygonometryczne, co sugeruje jasność o około 6% mniejszą. Promień pierwotnego wynosi 13R; wartość wtórna wynosi 9R⊙. Efektywne temperatury wynoszą odpowiednio 4940 K i 5700 K. Φ = 0,25 (kwadratura, gdy Aa oddala się z maksymalną prędkością, a Ab zbliża się z maksymalną prędkością) i pół cyklu później przy Φ = 0,75 (Aa zbliża się do Ab cofa się).
Pomiary wysokoenergetyczne
Capella była pierwszą "normalną" gwiazdą pozasłoneczną wykrytą w promieniach rentgenowskich (nieoczekiwanie podczas lotu rakiety sondującej) i jest jasnym źródłem linii emisyjnej w dalekim ultrafiolecie. Wysoka "aktywność" systemu sprawiła, że stał się on popularnym celem obserwatoriów statków kosmicznych, począwszy od programu Copernicus w połowie lat 70. obserwatorium BeppoSAX. We wczesnych pracach Kopernika A.K. Dupree odkrył silnie przesunięte w stronę błękitu wysokie wzbudzenie O VI λ1032 w Capelli w stosunku do oczekiwanej prędkości gwiazdy głównej w konkretnej obserwowanej fazie orbity. Zinterpretowała te przesunięcia jako dowód na masywny wiatr T ∿ 105 K emanujący z gwiazdy głównej. Później, podczas przeglądu całego nieba przeprowadzonego przez HEAO-1, odkryto, że Capella ma podobny wysoki poziom promieniowania rentgenowskiego z krótkotrwałymi (P ∿ kilka dni) zamkniętymi pływowo układami podwójnymi RS Canum Venaticorum i został wyznaczony na długookresowego członka tej klasy. Późniejsze badania T.R. Ayresa i J.L. Linsky′ego przy użyciu spektrometru echelle dalekiego ultrafioletu na pokładzie International Ultraviolet Explorer, rozpoczęte wkrótce po jego wystrzeleniu w 1978 r., nieoczekiwanie odkryły, że szybko rotująca gwiazda wtórna G1 III była odpowiedzialna za praktycznie wszystkie zjawiska o wysokim wzbudzeniu emisje układu (z gatunków takich jak Si IV λ1393 i C IV λ1548, tworzących się w T ∿ 6 × 104-105 K, warunki charakterystyczne dla Słońca podkoronowego REGIONU PRZEJŚCIOWEGO). Wykryto jedynie niewielki udział wolno obracającej się części pierwotnej G8 III. (Z perspektywy czasu wcześniejsze wyniki programu Copernicus dla O VI można zreinterpretować jako lekko przesuniętą ku czerwieni emisję gwiazdy wtórnej w określonej fazie orbitalnej.) Dolne panele rysunku ilustrują wpływ dubletu C IV na podstawie szerokości linii i względnych przesunięć oraz intensywności kontinuum zmierzone w widmach Kosmicznego Teleskopu Hubble′a (instrument GHRS) przez BE Wooda i współpracowników. Pionowa przerywana linia oznacza położenie spoczynkowe C IV λ1548. W przeciwieństwie do obszaru widzialnego, gwiazda wtórna G1 całkowicie dominuje w linii dalekiego ultrafioletu i (słabej) emisji kontinuum, podczas gdy gwiazda pierwotna G8 jest jedynie niewielkim zaburzeniem. Zwróć także uwagę na ogromne szerokości (∿150 kms-1 pełnej szerokości przy połowie intensywności) składników C IV w gwieździe wtórnej (biorąc pod uwagę, że skala prędkości na tym obrazie jest "skompresowana" czterokrotnie w dolnych panelach w porównaniu z widma widzialnego ze względu na krótszą długość fali, ale taki sam odstęp 10 Å). Trudniej dojrzeć na tym odwzorowaniu systematyczne przesunięcia ku czerwieni linii C IV (w obu gwiazdach) w stosunku do prędkości oczekiwanych w każdej fazie orbity. Takie przesunięcia są powszechnie rejestrowane w widmach ultrafioletowych Słońca, na liniach wychodzących ze strefy przejściowej 105 K, i uważa się, że są spowodowane ruchami masowymi materii w złożonym systemie cyrkulacji w koronalnych pętlach magnetycznych. We wczesnych latach 80. szybką rotację uważano za kluczowe ogniwo pomiędzy nadpobudliwością koronalną krótkookresowych RS CVns i długookresowych Capelli. (Synchronizacja pływów w półrozłączonych układach podwójnych RS CVn powoduje, że każda z gwiazd składowych obraca się w okresie orbitalnym, a zatem szybko, ponieważ Porb jest krótki.) W rzeczywistości Capella to "połowa RS CVn", ponieważ tylko jedna z gwiazd gwiazdy obracają się szybko. Związek między szybkim wirowaniem a wzmożoną aktywnością koronalną prawdopodobnie zachodzi poprzez silne powierzchniowe pola magnetyczne, wytwarzane w gwiezdnej powłoce konwekcyjnej w wyniku katalizowanego obrotowo działania "dynama". Dychotomię między szybkościami rotacji dwóch prawie identycznych współczesnych olbrzymów przypisano dużej separacji ewolucyjnej, która może powstać nawet na skutek niewielkiej różnicy mas (jak opisano wcześniej w scenariuszu Ibena). Rzeczywiście, istnieje wyraźny gwałtowny spadek spinów gwiazd tuż za G1 III. Przyczyna epizodu szybkiego hamowania jest obecnie przedmiotem debaty (głównymi pretendentami są ewolucyjna redystrybucja momentu pędu we wnętrzu gwiazdy i utrata pędu przez silny wiatr gwiazdowy), ale nie ma wątpliwości, że wiele ciekawych obiektów ultrafioletowych (i wizualne) właściwości Capelli można zrozumieć, jeśli gwiazda G8 przeszła już fazę gwałtownego hamowania, podczas gdy gwiazda G1 stoi na krawędzi.
Aktualne badania
Ostatnie badania skupiły się na pomiarach w ultrafiolecie Capelli w wysokiej rozdzielczości widmowej w krytycznych fazach orbity, w szczególności na procesach dynamicznych ujawnionych w postaci globalnych przesunięć ku czerwieni linii wysokiej temperatury oraz tajemniczych "szerokich składowych" (rozciągniętych skrzydeł o dużej prędkości na profilach linii emisyjnych ) zidentyfikowane przez B.E. Wooda, które mogą być sygnaturami gwiezdnych analogów słonecznych "zdarzeń wybuchowych w strefie przejściowej". Innym obszarem zainteresowań jest stwierdzenie, że pomimo silnej emisji dalekiego UV, gwiazda wtórna G1 (i inne szybko rotujące olbrzymy z przerwą Hertzsprunga) ma stosunkowo słabą jasność koronalnego promieniowania rentgenowskiego. W rzeczywistości gwiazda G1 ma prawdopodobnie mniej więcej taką samą jasność w promieniowaniu rentgenowskim jak główna gwiazda G8, pomimo 10-krotnej przewagi przy C IV λ1548. Paradoks jest wyraźnie widoczny w pomiarach UV za pomocą HST koronalnej linii zabronionej Fe XXI λ1354, która jest wykrywana w obu gigantach przy mniej więcej równym natężeniu. Sama gwiazda pierwotna należy do odrębnej klasy aktywnych olbrzymów zbitych, której prototypem jest β Ceti (K0 III), do której należą dwa z czterech czerwonych olbrzymów Hiades (ewolucyjni kuzyni gwiazd Capelli). Kolejną ciekawostką Capelli jest to, że pomimo znacznych emisji koronalnych (obu składników) i intensywnych badań prowadzonych przez historyczne i współczesne misje rentgenowskie i ultrafioletowe, istnieje zaskakująco niewiele raportów na temat zmienności i niezwykłego braku BŁYSKÓW. Natomiast dramatyczna zmienność promieniowania rentgenowskiego i aktywność rozbłysków (w tym emisja nietermiczna na częstotliwościach radiowych) są znakami towarowymi klasycznych układów podwójnych RS CVn
Streszczenie
Jako pobliski jasny spektroskopowy układ podwójny żółtych olbrzymów - jeden z nich to rzadka gwiazda szczeliny Hertzsprunga - i podążający za młodą gromadą otwartą Hiades, Capella przyciąga uwagę spektroskopistów od ponad stulecia. Astronomowie testowali techniki interferometryczne na "podwidzialnej" orbicie niemal tak długo. Około 30 lat temu natura nieco tajemniczej gwiazdy wtórnej została odkryta i wyjaśniona w kontekście przekonującego scenariusza ewolucyjnego. Wraz z rozwojem obserwatoriów kosmicznych w połowie lat 70. XX wieku Capella ponownie znalazła się w centrum uwagi astronomów, często zajmując ważne miejsce na liście celów nowej misji. Zainteresowanie układem i jego przesłaniem dotyczącym roli struktury gwiazd w ewolucji koronalnej aktywności magnetycznej nie słabnie do dziś.
Gwiazdy węglowe
Wewnętrzne właściwości gwiazd węglowych
W 1868 roku ANGELO SECCHI S.J. ogłosił, że odkrył czwarty typ widma gwiazd. Jego pierwsze trzy typy, oznaczone cyframi rzymskimi, to gwiazdy z liniami wodorowymi (obecnie gwiazdy A i B), gwiazdy z liniami metalicznymi (obecnie typy F, G i K) oraz gwiazdy z pasmami absorpcji, które zmniejszają się w kierunku dłuższych fal (obecnie typy M i S). Typ IV Secchiego pokazał pasma zmierzające w stronę krótszych fal. Umieszczając łuk węglowy w swoim spektroskopie wizualnym, natychmiast rozpoznał, że nowe pasma wynikają z obecności C2 i innych związków C, o których obecnie wiadomo, że składają się głównie z CN. Fujita uznał, że różnica między pasmami tlenkowymi typu III Secchiego i pasmami C typu IV jest kontrolowana przez chemię bardzo stabilnej cząsteczki CO. Jeśli liczebność O przekracza zawartość C, pozostały O po utworzeniu CO jest dostępny do tworzenia cząsteczek tlenku widocznych w widmach typów Mand i S. Jednakże w gwiazdach z C > O, O jest zużywane w CO, a pozostały C jest dostępny do tworzenia
cząsteczek węgla, takich jak C2, CN i CH. Nowoczesny system klasyfikacji gwiazd węglowych został stworzony przez Keenana (1993), który podzielił je na trzy sekwencje C-R, C-N i C-H odpowiadające dawnym klasyfikacjom gwiazd RN i CH. Następnie znajdują się cyfry wskazujące kolejność temperatur, np. od C-N1 do CN9. Pełny opis widm Keenana obejmuje mocne strony pasm C2, CN i Merrill-Sanford, a także stosunek 12C/13C i siłę linii Li. Przydałby się wskaźnik wzmocnienia procesu s, ale trudno go zaobserwować z wyjątkiem wysokich rozdzielczości widmowych. Własną jasność gwiazd węglowych można wyznaczyć albo na podstawie PARALAKS HIPPARCOS, albo na podstawie powiązania gwiazdy węglowej z układem gwiazd, którego odległość została określona. Dodatkowo konieczna jest fotometria od pasma K (2,2 μm). Ograniczając próbkę do gwiazd z paralaksami co najmniej trzykrotnie przekraczającymi ich prawdopodobny błąd i błędami mniejszymi niż 1,5 marcsec, Wallerstein i Knapp (1998)
sporządzili listę 33 obiektów. Większość gwiazd jest typu C-N, a reprezentowanych jest tylko kilka gwiazd C-H, C-R i Mira. Jeśli kryteria przyjęcia do próby zostaną obniżone, wpada się w statystyczne bagno, a widoczny rozrzut MV i MK gwałtownie wzrasta. Istnieje wiele gwiazd węglowych w innych galaktykach, takich jak Obłoki Magellana, gdzie przeprowadzono szeroko zakrojone badania. Ponieważ odległości do obłoków są obecnie dość dobrze znane, można obliczyć jasność gwiazd węglowych. Występują wartości MK tak jasne jak -9, podczas gdy wspomniana powyżej próbka gwiazd Hipparcosa zawierała tylko cztery gwiazdy jaśniejsze niż MK = -8 i żadną jaśniejszą niż MK = -8,8. Gwiazdy CR wykazują MK ≃ -5 i MV ≃ +1,0, znacznie słabsze niż gwiazdy C-N. Obliczenie efektywnej temperatury Teff zależy jedynie od pomiaru całkowitego strumienia promieniowania gwiazdy i średnicy kątowej. Tego ostatniego można dokonać albo poprzez zakrycie Księżyca, albo za pomocą
interferometrii. Od 1998 r. w ten sposób oszacowano wartości Teff 26 gwiazd C-N. Zakres wartości mieści się w przedziale od 2000 do około 3300 K. Gwiazdy C-R i C-H są znacznie cieplejsze, a wartości Teff mieszczą się w zakresie 4000-5000 K, jak określono na podstawie analizy ich linii widmowych. Masy gwiazd węglowych są znane jedynie na podstawie pośredniego wnioskowania. Modele gwiazd, które prowadzą do karbonizacji atmosfery w wyniku błysków i mieszania powłoki helu, można śledzić w przypadku gwiazd o wielkości około 1-3M⊙. Górna granica może wynosić nawet 5 lub 6 M⊙, ale funkcja masy gwiazd ciągu głównego gwarantuje, że takie obiekty powinny być stosunkowo rzadkie. Spektroskopowe orbity gwiazd C-H wskazują masy bliskie 0,8 M⊙, ale wydaje się, że atmosfery pierwotne C-H uzyskały bogatą w węgiel atmosferę w wyniku przeniesienia od swoich obecnych białych karłów, których pierwotne masy są nieznane, ale prawdopodobnie ograniczały się do
liczb sugerowanych powyżej. Jednakże gwiazdy C-H w Wielkim Obłoku Magellana są bardzo jasne, a ich pochodzenie jest niepewne. Ewolucja gwiazd węglowych intryguje astronomów gwiazdowych od około 50 lat; tj. odkąd znaczenie reakcji 3 4He → 12C zostało niezależnie wskazane przez Öpika i Salpetera odpowiednio w latach 1951 i 1952. Do zajścia reakcji potrójnej alfa potrzebne są temperatury powyżej około 108 K, natomiast nadmiar węgla ostatecznie pojawia się w atmosferze gwiazdowej, gdzie temperatura waha się od 2-5 × 103 K. Ponadto należy wziąć pod uwagę szczegółowe wskaźniki liczebności, takie jak 12C/13Cratio i wzmocnienie wielu ciężkich pierwiastków. W gwiazdach o średnicy mniejszej niż około 2,0 M⊙ reakcja potrójnej alfa zapala się na końcu gałęzi czerwonego olbrzyma w postaci "błysku rdzenia" (ponieważ początkowo jej szybkość wzrasta wykładniczo), ale powstały hel wytwarzany przez błysk i następujące po nim spokojne
spalanie wydaje się być ograniczony do jądra gwiazdowego. W bardziej masywnych gwiazdach pali się spokojnie, tworząc rdzeń C z pewnym rozszerzeniem do 16O, gdy 12C wychwytuje dodatkowe jądro 4He. Ostatecznie gwiazdy o małej masie z rdzeniami C i otoczką helową mogą zapalić swoje ogrzewanie granicy C-He w "błysku powłoki". W wyniku serii zdarzeń obejmujących nagłe mieszanie konwekcyjne 12C reaguje z protonami, tworząc 13C, który z kolei może reagować z jądrami helu, wytwarzając tlen i wolne neutrony. Wychwytywanie wolnych neutronów przez żelazo i inne ciężkie pierwiastki powoduje następnie powstanie wielu ciężkich pierwiastków, od rubidu po ołów ze szczególnie rzucającymi się w oczy pierwiastkami, takimi jak Sr, Y, Zr, Ba i lekkie pierwiastki ziem rzadkich. Nawet niestabilny pierwiastek Tc, którego okres półtrwania wynosi 2 × 105 lat, jest wytwarzany i konwekowany na powierzchnię gwiazdy, gdzie obserwuje się go w niektórych gwiazdach węglowych i wielu
gwiazdach typu S. Ile z tego obserwuje się na powierzchniach gwiazd węglowych? Obserwacja gwiazd węglowych przy wysokiej rozdzielczości widmowej od 400 do 2400 nm nie jest trudna. Jednak analiza obserwowanych widm jest niezwykle skomplikowana i niepewna ze względu na ogromną liczbę linii atomowych i pasm molekularnych w widmach gwiazd węglowych. Chociaż pełne analizy są trudne, można z powodzeniem przeprowadzić analizy ograniczone. Na przykład stosunek 12C/13C można dokładnie określić i waha się od około 100 do prawie 4 w gwiazdach węglowych, pokazując w ten sposób niejednorodność historii ewolucji. Większość gwiazd C-N wykazuje stosunki ⊙ powyżej 30, podczas gdy tylko kilka wykazuje stosunki w pobliżu 4. Stosunki C/O wahają się od 1,01 do 1,76 ze średnią 1,15 ± 0,03. Azot prawie nigdy nie ulega wzmocnieniu, nawet w gwiazdach o niskiej temperaturze 12C/13C, co jest zaskakujące. W rzeczywistości suma C+N+O rzadko ulega zwiększeniu w gwiazdach C-N,
pomimo konieczności wzmocnienia węgla, aby gwiazda była gwiazdą węglową. Gwiazdy CR są łatwiejsze do analizy ze względu na ich wyższe wartości Teff, od 4200 do 5000 K, ale są rzadkie i niewiele jest jasnych. Wszystkie wykazują zwiększoną zawartość 13C przy stosunku 12C/13C w zakresie od 4 do 9. Zwiększona jest także zawartość azotu, co wskazuje na systematyczne cykle CNO po wzmocnieniu 12C. Żaden z nich nie wykazuje wzmocnień w postaci ciężkich elementów. Przeanalizowano dwie cefeidy z wczesnymi widmami typu R, które wykazały podobne właściwości do niezmiennych gwiazd R. Gwiazdy C-H są najłatwiejsze do analizy, ponieważ są stosunkowo gorące i zasadniczo ubogie w metale, więc stopień wymieszania jest znacznie zmniejszony. Jak wspomniano powyżej, wydaje się, że odziedziczyli atmosferę po swoich nieistniejących już towarzyszach. Ich stosunki 12C/13C są mniejsze niż 8 lub większe niż 25. Niektóre z tej ostatniej grupy mogą wynosić 100
lub więcej. Wszystkie z nich są ubogie w metale od 3 do 50 razy. Węgiel i azot są zwiększone około 10-krotnie, tlen jest normalny, a zatem C+N+O okazuje się zwiększone 2-5-krotnie. Najwyraźniej ich niska początkowa obfitość wszystkiego, od C do Fe, uczyniła ich procesy nukleosyntezy bardziej widocznymi. Największe ulepszenia wykazują elementy procesu s, tj. Sr, Y, Zr, Ba i pierwiastki ziem rzadkich. Źródłem neutronów jest prawdopodobnie reakcja 13C(α n)16O.
Koperty okołogwiazdowe
Oprócz tego, że są same w sobie interesujące z punktu widzenia EWOLUCJI GWIAZD, gwiazdy węglowe są ważne dla ewolucji ośrodka międzygwiazdowego, a tym samym całej Galaktyki. Obserwacje CZERWONYCH GIGANTÓW w bliskiej podczerwieni do 2,2 μm przeprowadzono po raz pierwszy w latach 60. XX wieku i wkrótce ujawniły wiele gwiazd, których promieniowanie powyżej około 1,0 μm znacznie przekracza to, czego oczekiwano od atmosfer modelowych. Wkrótce odkryto, że nadmiar podczerwieni musi być spowodowany stosunkowo chłodnym gazem i pyłem, podczas gdy jego intensywność można zrozumieć tylko wtedy, gdy materia okołogwiazdowa wypełnia objętość znacznie większą niż objętość samej gwiazdy. Wcześniejsze obserwacje niektórych czerwonych olbrzymów i nadolbrzymów wykazały linie widmowe NaI i Ca II. Przesunięcia Dopplera odpowiadające materiom opuszczającym powierzchnię gwiazdy z prędkością do 20 kms-1. W ciągu kolejnych dziesięcioleci obserwacje otoczek okołogwiazdowych rozszerzono na średnią podczerwień (5-30 μm), daleką podczerwień (30-200 μm), submilimetrową (0,2-1,0 mm), milimetrową (1-10 mm) i radiową (10 mm) i dłuższe) obszary widmowe. Wiele instrumentów przyczyniło się do poszerzenia naszej wiedzy o obwiedniach okołogwiazdowych, ale badanie IRAS, a ostatnio satelita ISO, przyczyniły się do znaczących postępów. Pył okołogwiazdowy promieniuje w zakresie fal bliskiej i średniej podczerwieni. Pył pochłania światło gwiazd i w pobliżu gwiazdy nagrzewa się do temperatur w zakresie 1000-100 K, które maleją w większych odległościach. Widma w podczerwieni gwiazd M i C różnią się ze względu na różne właściwości pyłu krzemianowego i związków węgla. Pył węglowy jest nieprzezroczysty w zakresie widzialnym, co znacznie zmniejsza strumień widzialny, podczas gdy krzemiany są częściowo przezroczyste (sadza jest czarna, a szkło przezroczyste). Gaz osiąga równowagę termiczną z pyłem w wyniku zderzeń, podgrzewając gaz. Zapewnia to wystarczające wzbudzenie, aby wiele cząsteczek mogło promieniować na długościach fal odpowiadających przejściom rotacyjnym. Najpowszechniejszą cząsteczką promieniującą jest oczywiście CO, gdzie często wykrywane są przejścia (1-0), (2-1), (3-2) itp. Otoczki wokół gwiazd węglowych stanowią laboratorium chemii organicznej, a nawet nieorganicznej, której nie można zrealizować na Ziemi. W pobliżu gwiazdy wysoka gęstość w połączeniu z temperaturami sięgającymi 1500 K zapewnia równowagę chemiczną, ale w warstwach zewnętrznych należy dokładnie rozważyć szybkość reakcji. Gwiazda IRC+10216 wydaje się wykazywać najbogatszy skład chemiczny z ogromną liczbą związków organicznych, a nawet niektórymi chlorkami i fluorkami pojawiającymi się w wewnętrznej otoczce. Dalsze reakcje fotochemiczne stają się ważne, ponieważ pole promieniowania międzygwiazdowego o energiach fotonów do 10 eV przenika przez otoczkę; obecne są pewne jony, dlatego ważna staje się chemia jonowo-cząstkowa. Badania w podczerwieni, takie jak IRAS, ujawniły, że wszystkie gwiazdy C-N mają nadmiar podczerwieni wskazujący na utratę masy. Gwiazdy C-R i C-H nie wykazują oznak utraty masy. Wskaźniki utraty masy można obliczyć z równania ciągłości: ˙M = 4πr2ρ?(r)V∞, gdzie gęstość ρ w odległości r należy oszacować z modelu, a V∞, prędkość ruchomej obwiedni, może można oszacować na podstawie szerokości lub odstępu linii emisyjnych CO w obszarach mm i submm. Utratę masy można łatwo wykryć do 10-7M⊙ rok-1, a w kilku przypadkach do prawie 10-8. Na drugim końcu skali obliczono współczynniki utraty masy sięgające 10-5 lub nawet kilkukrotnie 10-5M⊙ rok-1-1 delikatnego wiatru pochodzącego od gwiazdy węglowej. Ten tak zwany "superwiatr" może osiągnąć prędkość 1-200 km s-1 i może porwać wcześniej wyrzucony materiał. Wstrząs powstanie w miejscu interakcji wiatrów, powodując znaczne podgrzanie szoku gazu. Ponadto ewoluująca gwiazda będzie się kurczyć, aż jej temperatura osiągnie 1-2 × 105 K. Promieniowanie takiej gwiazdy będzie jonizować otaczający gaz, a powstała konfiguracja utworzy Mgławicę PLANETARNĄ. Stąd końcowe etapy utraty masy gwiazdy węglowej można opisać jako "Śmierć i Przemienienie" - tego tytułu użył G.R. Knapp na konferencji zorganizowanej w 1989 r. z okazji 50-tej rocznicy otwarcia obserwatorium McDonalda.
Misja Cassini/Huygens
Misja Cassini/Huygens to misja planetarna, której celem jest szczegółowe zbadanie układu Saturna. Misja jest wspólnym przedsięwzięciem Narodowej Agencji Aeronautyki i Przestrzeni Kosmicznej Stanów Zjednoczonych (NASA) oraz EUROPEJSKIEJ AGENCJI KOSMICZNEJ (ESA). Został pomyślnie wystrzelony z Cape Canaveral na Florydzie 15 października 1997 r. w ramach trwającej 7 lat podróży międzyplanetarnej. Sonda Cassini/Huygens składa się z głównego statku, Saturn Orbiter i Titan Probe, Huygens. Celem misji jest przeprowadzenie szczegółowych badań planety SATURN, jej pierścieni, satelitów i magnetosfery. TITAN, największy księżyc Saturna, jest głównym celem misji. Nadrzędnym celem misji jest także zbadanie powiązań pomiędzy pierścieniami a satelitami, interakcji pomiędzy plazmą magnetosferyczną a satelitami, pierścieniami i atmosferą Tytana. Cassini będzie badać nie tylko każdą część układu Saturna, ale także system jako całość. Misja prowadzi 26 badań naukowych, w tym 18 badań instrumentalnych i osiem badań interdyscyplinarnych, które będą opierać się na danych uzyskanych za pomocą więcej niż jednego instrumentu. Saturn Orbiter ma na pokładzie 12 instrumentów naukowych, a sześć instrumentów umieszczono w sondzie Huygens. Cassini/Huygens to przedsięwzięcie międzynarodowe. Planowanie misji Cassini/Huygens rozpoczęto w 1984 r., kiedy zainicjowano wspólne badanie ESA-NASA. Aby obie agencje mogły rozpocząć działalność, wymagało to ponad 6 lat intensywnych badań i starannego planowania w 1990, która jest najbardziej ambitną misją na planetę zewnętrzną, jaką dotychczas podjęto. W fazie rozwoju sprzętu zaangażowanych było łącznie 18 krajów. WŁOSKA AGENCJA KOSMICZNA (ASI, Agencia Spatiale Italiana) dostarczyła główne elementy statku Orbiter w ramach programu współpracy dwustronnej nawiązanego z NASA w 1992 r. Antena o dużym wzmocnieniu 4 m jest jednym z elementów dostarczonych przez ASI. Podróż na Saturna trwa 7 lat. Chociaż Cassini/Huygens została wystrzelona przez najpotężniejszą rakietę (Titan IVB/Centaur), jaka istniała w tamtym czasie, statek kosmiczny o masie 5,6 t był zbyt ciężki, aby wynieść go na bezpośrednią trajektorię do Saturna. Ścieżka jego podróży obejmuje kilka spotkań planet, które są wykorzystywane do manewrów wspomaganych grawitacją w celu przyspieszenia statku kosmicznego w kierunku następnej planety. Pierwsze trzy spotkania planet miały miejsce na Wenus 27 kwietnia 1998 r. i 24 czerwca 1999 r. oraz na Ziemi 17 sierpnia 1999 r. Ostatnie spotkanie planet przed Saturnem nastąpi pod koniec grudnia 2000 r. na Jowiszu. Sonda Cassini/Huygens dotrze do Saturna w lipcu 2004 roku. Nominalna misja w układzie Saturna potrwa 4 lata. Sonda Cassini/Huygens zostanie umieszczona na orbicie wokół Saturna 1 lipca 2004 r., kiedy odbędzie się manewr wprowadzenia na orbitę Saturna (SOI). Pięć miesięcy po SOI sonda Huygens zostanie wycelowana i wypuszczona z Orbitera w celu spotkania z Tytanem 3 tygodnie później. Pod koniec listopada 2004 r. Huygens wejdzie w atmosferę Tytana i opadnie na spadochronie przez gęstą, mglistą atmosferę Tytana, aż dotrze na powierzchnię. Po misji Huygens, sonda Cassini Saturn Orbiter podejmie własną misję eksploracji układu Saturna podczas 75 orbit wokół planety. Czterdzieści cztery orbity obejmą bliski przelot Tytana na wysokościach zaledwie 850 km nad powierzchnią, zarówno w celu prowadzenia obserwacji, jak i manewrów wspomaganych grawitacją. Pod koniec misji Tytan będzie rekordzistą jako ciało planetarne najczęściej wykorzystywane do wspomagania manewrów grawitacją. Misja została nazwana na cześć francusko-włoskiego astronoma JEAN-DOMINIQUE CASSINI. W latach 1671-1685 odkrył cztery satelity Saturna oraz dużą szczelinę w pierścieniu (przedział Cassiniego), nazwaną jego imieniem. Sonda została nazwana na cześć holenderskiego astronoma CHRISTIAANA HUYGENSA, który odkrył Tytana w 1655 roku podczas obserwacji pierścieni Saturna. Huygens był także pierwszym, który wyjaśnił prawdziwą naturę pierścieni.
Cele naukowe i ładunek
Misja Cassini/Huygens będzie opierać się na odkryciach dokonanych przez niezwykle udane misje VOYAGER i umożliwi milowy krok w zrozumieniu układu Saturna, powstawania i ewolucji układu planetarnego oraz pochodzenia i ewolucji Układu Słonecznego jako cały. Tytan, największy księżyc Saturna i drugi co do wielkości księżyc w Układzie Słonecznym po Ganimedesie Jowisza, jest specjalnym celem misji. Tytan to unikalny typ obiektu w Układzie Słonecznym. Jest spowita gęstą, bogatą w metan, mglistą, azotową atmosferą. Ciśnienie i temperatura na powierzchni wynoszą 1,5 bara (1,5 razy więcej niż interakcje między pierścieniami a aagnetosferą, jonosferą, atmosferą i satelitami Saturna. W odniesieniu do satelitów lodowych: w celu zbadania składu i rozkładu powierzchni , materiały i zdefiniować mechanizmy modyfikacji skorupy ziemskiej i powierzchni; określić ogólną charakterystykę satelitów, w tym nałożyć ograniczenia na skład masowy i struktury wewnętrzne; badać interakcje z magnetosferą. W odniesieniu do magnetosfery Saturna: określenie konfiguracji pola magnetycznego; określać właściwości, w tym źródła i pochłaniacze cząstek naładowanych magnetosferycznie; zbadać interakcję magnetosfery z wiatrem słonecznym oraz atmosferą i jonosferą Tytana. Ładunki Orbitera i Sondy wymieniono odpowiednio w tabelach 1 i 2, w których podajemy również krótki opis pomiarów, które zostaną wykonane i co będzie badane. Interdyscyplinarne badania, które będą wymagały danych z więcej niż jednego instrumentu, wymieniono w tabeli 3. Poniżej opisano przegląd obserwacji planowanych w układzie Saturna.
Planowane obserwacje
Tytan
Księżyc Tytan jest głównym celem misji Cassini/Huygens. Ze średnicą 5150 km Tytan jest drugim co do wielkości satelitą Układu Słonecznego po Ganimedesie Jowisza (5262 km). Jest większa od planet Merkury (4878 km) i Pluton (2300 km), a Ziemia (3476 km). Tytan ma gęstą, mglistą atmosferę, która przesłania powierzchnię w zakresie widzialnym. Sonda Huygens zmierzy właściwości fizyczne i określi profil składu atmosfery Tytana. Huygens wykona także zdjęcia powierzchni i zmierzy jej skład wzdłuż toru opadania. Rozdzielczość obrazów będzie się poprawiać w miarę zbliżania się sondy do powierzchni. W pobliżu powierzchni powinny być widoczne szczegóły mniejsze niż 1 m, a może nawet mniejsze niż 10 cm. Wysokościomierz radarowy zmierzy powierzchnię topografi poniżej sondy. Zmierzony zostanie również profil wiatru. Orbiter Cassini Saturn i sonda Huygens będą badać Tytana w ramach podejścia uzupełniającego. Za każdym razem, gdy Orbiter przelatuje obok Tytana, wykona zestaw obserwacji teledetekcyjnych atmosfery i powierzchni. Powierzchnia Tytana będzie mapowana za pomocą radarowego urządzenia mapującego Titan znajdującego się na statku Orbiter oraz, być może, instrumentów optycznych, które będą w stanie widzieć powierzchnię przez "okna atmosferyczne" w zakresie 0,8-2 μm. Obserwacje za pomocą Orbitera zostaną zaprojektowane tak, aby zapewnić globalne pokrycie właściwości atmosfery Tytana i powierzchni; obejmą także ponowne obserwacje atmosfery i powierzchni wzdłuż toru lotu sondy.
Planeta Saturn
Cassini zmierzy właściwości fizyczne atmosfery Saturna i określi jej skład na całym świecie w funkcji wysokości. Zbadane zostaną właściwości ciągle zmieniających się chmur i globalna cyrkulacja atmosfery. Szybki obrót planety (10 godz. 12 min) pozwoli nam wielokrotnie badać dobowe zmiany właściwości atmosfery. Ze względu na wyrównanie dipolarnej osi planety z jej osią obrotu, pole magnetyczne Saturna różni się od pola magnetycznego Ziemi, Jowisza, Urana i Neptuna. Głównym tematem badań jest mechanizm generowania pola magnetycznego Saturna (zobacz także SATURN: MAGNETOSFERA). Szczegółowe badanie magnetyzmu Saturna pozwoli nam zbadać wnętrze planety i lepiej ją zrozumieć , jak działa efekt dynama wewnątrz planety Ziemia. Wnętrze planety będzie również badane za pomocą technik pomiaru grawitacji, opartych na precyzyjnym pomiarze trajektorii statku kosmicznego nad planetą. Pozwoli nam to nałożyć ograniczenia na wnętrze planety.
Pierścienie
Słynne pierścienie Saturna będą fotografowane pod wszystkimi kątami fazowymi Słońca i z różnych perspektyw geometrycznych. Obserwowana będzie konfiguracja pierścieni, a skład i procesy dynamiczne odpowiedzialne za strukturę pierścieni zostaną wywnioskowane z obrazów i zakryć w zakresie fal optycznych i radiowych. Uważa się, że pierścienie składają się głównie z cząstek lodu wodnego. Uważa się, że zróżnicowanie składu pierścieni wynika z różnych rodzajów zanieczyszczeń w lodzie. Otrzymany zostanie rozkład wielkości i skład chemiczny cząstek pierścienia. Bezpośrednie pomiary in situ cząstek pyłu i meteoroidów w pierścieniach zostaną wykonane za pomocą analizatora Cosmic Dust Analyzer. Celem Cassini jest także poszukiwanie nowych księżyców w pierścieniach oraz badanie wzajemnych powiązań między pierścieniami a satelitami, w tym satelitami osadzonymi.
Lodowe satelity
Lodowe satelity oferują wiele nowych światów do odkrycia. Saturn ma 18 znanych księżyców. Cassini będzie fotografować i mapować ich powierzchnie podczas podróży orbitalnej. Pozwoli nam to uzyskać skład i rozkład materiału powierzchniowego. Głównym celem misji jest zbadanie historii geologicznej satelitów oraz zbadanie mechanizmów odpowiedzialnych za modyfikację ich powierzchni. Wykrywanie wewnętrznych pól magnetycznych satelitów jest również ważnym celem Cassini, ponieważ Galileo na Jowiszu pokazał, że należy się spodziewać niespodzianek. Pomiary radiowe trajektorii statku kosmicznego podczas przelotu każdego satelity pozwolą nam wywnioskować ich skład masowy i nałożyć ograniczenia na ich wewnętrzne struktury. Cassini będzie szukać materii organicznej na powierzchniach satelitów. Jednym z głównych celów Cassini jest zbadanie związku między lodowymi satelitami a pierścieniami. Poszukiwane będą podobieństwa w składzie między satelitami i pierścieniami. Cassini będzie także poszukiwać i, jeśli zostanie odnaleziona, scharakteryzować słabe atmosfery wokół księżyców Saturna. Chociaż pełne możliwości operacyjne statku kosmicznego Cassini/Huygens i systemu naziemnego będą dostępne dopiero na 2 lata przed przybyciem na Saturna, przeprowadzono pewne badania naukowe i obserwacje podczas przelotu każdej planety (Wenus, Ziemia-Księżyc, Jowisz). W misji Cassini/Huygens uwzględniono konkretny cel naukowy, który będzie wykorzystywał możliwości włączenia w podsystemie telekomunikacyjnym łączy w górę i w dół zarówno w paśmie X, jak i w paśmie Ka. Pozwoli to na wsparcie poszukiwań fal grawitacyjnych. Eksperymenty z falą grawitacyjną będą prowadzone przez okres co najmniej 40 dni; zaplanowano je podczas trzech opozycji po przelocie Jowisza w grudniu 2001 r., grudniu 2002 r. i styczniu 2004 r.
Sonda Cassini/Huygens
Sonda Cassini/Huygens to największy i najbardziej złożony statek kosmiczny z planetą zewnętrzną, jaki kiedykolwiek zbudowano. Jest dwukrotnie większy od statku kosmicznego Galileo, który obecnie bada układ Jowisz; ma 6,8 m wysokości i 4 m szerokości. Jego masa startowa, łącznie z Huygensem, wynosiła 5650 kg. Ponad połowę masy startowej stanowił materiał pędny (3130 kg).
Orbiter Saturna
Orbiter to statek kosmiczny stabilizowany trójosiowo. Korpus główny składa się ze stosu składającego się z dolnego modułu wyposażenia, modułu napędowego, górnego modułu wyposażenia i anteny o dużym wzmocnieniu (HGA). Do tego stosu przymocowana jest paleta teledetekcyjna, na której znajdują się przyrządy do przenoszenia ładunku optycznego, paleta z polami i cząsteczkami, na której znajduje się większość cząstek plazmy i przyrządy pyłowe, oraz sonda Huygens, przymocowana z boku do modułu napędowego. Wyposażenie elektroniczne radaru mocowane jest do górnego modułu wyposażenia. Długa antena elektryczna (pokazana w rozłożonej konfiguracji) oraz anteny magnetyczne Podsystemu Fal Radiowych i Plazmowych (RPWS) są przymocowane do dolnej części górnego modułu sprzętowego. Kanister wysięgnika magnetometru jest przymocowany w górnej części górnego modułu wyposażenia, poniżej HGA. Energię elektryczną zapewniają trzy radioizotopowe generatory termoelektryczne (RTG), które dostarczają ponad 700 W mocy elektrycznej.
Magistrala elektroniki statku kosmicznego i kilka podsystemów elektroniki przyrządów są umieszczone w górnym module wyposażenia, który jest regulowany termicznie, aby zapewnić łagodne środowisko (∿10-20 ° C). Będąc w wewnętrznym Układzie Słonecznym, statek kosmiczny leci z HGA skierowanym w stronę Słońca i wykorzystuje go jako osłonę przeciwsłoneczną. Na Saturnie, wykorzystując 20 W nadajnik w paśmie X i 4 m HGA, statek kosmiczny będzie w stanie komunikować się z siecią Deep Space Network NASA z szybkością transmisji danych do 166 kbit s-1. Dwie anteny o niskim wzmocnieniu (LGA) przesyłają dane z małą szybkością (co najmniej 40 bitów s-1) i odbierają polecenia telepolecenia, gdy HGA nie może być skierowany na Ziemię. Do napędu i manewrów w drodze na Saturna i podczas fazy orbitalnej Saturna Orbiter wykorzystuje jeden z dwóch redundantnych silników 445 N i 16 mniejszych silników odrzutowych 0,5 N, połączonych w grupy po cztery w redundantnych parach. Mechanizmy przegubowe
głównych silników umożliwiają skierowanie ich ciągu przez środek ciężkości statku kosmicznego. W głównych silnikach wykorzystuje się hipergoliczną mieszaninę paliwa monometylohydrazyny (N2H3CH3) i utleniacza czterotlenku azotu (N2O4) pod ciśnieniem helu. W sterach strumieniowych wykorzystuje się hydrazynę (N2H4). Główne silniki są zakryte chowaną osłoną, gdy nie są używane. Podsystem dowodzenia i danych Orbitera (CDS) odbiera polecenia naziemne za pośrednictwem podsystemu częstotliwości radiowej (RFS). CDS rozdziela polecenia do innych podsystemów, do instrumentu ładunkowego Orbitera lub do sondy (jeśli jest podłączona do Orbitera). Z kolei CDS zbiera dane z innych podsystemów, ładunku Orbitera lub sprzętu pomocniczego sondy zamontowanego na orbicie i przesyła je do jednego z dwóch redundantnych rejestratorów półprzewodnikowych 1,8 Gbit (SSR). CDS następnie pobiera te dane z SSR, formatuje je i dostarcza do RFS w celu przesłania na
Ziemię za pośrednictwem HGA lub jednego z dwóch LGA. Dynamiczną kontrolę orientacji Cassini zapewnia podsystem kontroli położenia i artykulacji (AACS). Gdy wymagana jest wysoka stabilność statku kosmicznego, obrót statku kosmicznego jest kontrolowany przez zespoły kół reakcyjnych (RWA). Pędniki stosuje się, gdy wymagane są duże prędkości obrotowe lub przyspieszenia. System AACS wykorzystuje dwie nadmiarowe inercyjne jednostki odniesienia (IRU), dwie nadmiarowe jednostki odniesienia gwiazd (SRU) i zespół czujnika słonecznego (SSA). AACS jest w stanie zapewnić dokładność wskazywania 1 mrad (3,4 minuty łuku) przy stabilności 8 μrad (0,2 sekundy łuku) i szybkościach obrotu 0,02-1° s-1. Kontrola termiczna Orbitera odbywa się na kilka sposobów, z których najbardziej widocznym jest czarno-złota izolacja wielowarstwowa (MLI). Ponadto sterowanie termiczne wykorzystuje żaluzje umieszczone na 12-polowej szynie elektronicznej, grzejniki elektryczne, jednostki grzewcze radioizotopowe (RHU) i grzejniki.
Przyrządy na podczerwień (VIMS i CIRS) są izolowane termicznie od szyny statku kosmicznego i zapewniają własną kontrolę termiczną jako integralna część instrumentu.
Sonda Huygensa
Sonda Huygens to sonda wejściowa. Jego masa wynosi 330 kg. Składa się z dwóch głównych elementów: systemu zabezpieczenia wejścia i zawartego w nim modułu zniżania. Sonda jest przymocowana bokiem do orbitera Saturn. Sonda oddziela się od Orbitera z prędkością względną 0,3 m s-1 i szybkością wirowania 7 obr/min-1, co zapewnia stabilność podczas 22-dniowego dotarcia do Tytana oraz podczas wejścia w atmosferę. Podsystem wejściowy składa się z przedniej osłony termicznej o średnicy 2,75 m i tylnej pokrywy, obydwie pokryte materiałem termoizolacyjnym na bazie krzemianów, chroniącym moduł wejściowy przed promieniowaniem i konwekcyjnymi strumieniami ciepła (do 1 MW m-2) generowane w fazie wejścia w zakresie wysokości 350-220 km, gdzie sonda zwalnia od około 6000 m s-1 do 400 m s-1 (1,5 Macha) w czasie krótszym niż 2 minuty. Przy prędkości 1,5 Macha, na wysokości około 170 km, sekwencja otwierania spadochronu jest inicjowana przez urządzenie pirotechniczne, które wyciąga spadochron pilotujący o średnicy 2,59 m w celu odciągnięcia tylnej pokrywy od reszty zespołu. Po chwili tylna pokrywa wyciąga z pojemnika spadochron główny o średnicy 8,3 m. Osłona ta napełnia się w fazie naddźwiękowej, aby wyhamować i ustabilizować sondę w trybie transsonicznym. Przednia osłona zostaje zwolniona z prędkością około 0,6 Macha, 30 sekund po napełnieniu głównego spadochronu. W rzeczywistości wymiary głównego spadochronu zapewniają wystarczające opóźnienie, aby zagwarantować pozytywne oddzielenie przedniej osłony od modułu zniżania.
Przegląd misji Cassini/Huygens
Sonda Cassini/Huygens została wystrzelona 15 października 1997 r. o godzinie 08:43 czasu GMT przez rakietę Titan IVB/Centaur ze stacji sił powietrznych Cape Canaveral na Florydzie. Statek kosmiczny o masie 5,6 t był zbyt ciężki, aby można go było wystrzelić bezpośrednio na trajektorię zbliżania się do Saturna; aby dotrzeć do celu, wymaga kilku planetarnych wzmocnień. Trajektoria międzyplanetarna (rysunek 4) obejmuje asysty grawitacyjne Wenus (26 kwietnia 1998 i 24 czerwca 1999), Ziemi (18 sierpnia 1999) i Jowisza (30 grudnia 2000). Przylot statku kosmicznego Cassini/Huygens do Saturna planowany jest na 1 lipca 2004 r. W tym momencie zostanie wykonany główny manewr, podczas gdy statek kosmiczny przetnie płaszczyznę pierścieni. Główny silnik będzie pracował przez około 90 minut, aby spowolnić statek kosmiczny i umożliwić mu uchwycenie go na orbicie wokół Saturna. Sonda ma zostać wypuszczona z orbitera Saturn pod koniec początkowej orbity wokół Saturna, nominalnie 22 dni przed spotkaniem Tytana. Przed wypuszczeniem sondy Orbiter jest kierowany na trajektorię kolizji z Tytanem, ponieważ sonda nie ma możliwości manewrowania samodzielnie. Krótko po wypuszczeniu sondy Orbiter wykona manewr odchylenia, aby nie wejść w atmosferę Tytana. Manewr ten ustawi także geometrię komunikacji radiowej pomiędzy sondą a orbiterem do wykorzystania podczas opadania sondy. Ustali także wstępne warunki kolejnej podróży satelitarnej, która rozpocznie się po zakończeniu misji Sonda. Wejście Huygensa w atmosferę Tytana planowane jest na 27 listopada 2004 r. Zejście pod spadochronem zajmie maksymalnie 2,5 godziny. Po drodze na dół Huygens zmierzy właściwości fizyczne i chemiczne atmosfery oraz wykona zdjęcia powierzchni pod sondą. Podczas opadania i prawdopodobnie przez krótki czas na powierzchni sonda będzie przesyłać zebrane dane drogą radiową do sondy Cassini Saturn Orbiter, która odbierze je za pośrednictwem HGA skierowanego na Tytana. Orbiter z kolei wyśle dane na Ziemię po zakończeniu misji Huygens, również wykorzystując HGA, a następnie wyceluje w Ziemię. Scenariusz wejścia i zejścia Huygensa przedstawiono na rysunku 5. Po zakończeniu misji sondy Saturn Orbiter rozpocznie trwającą 4 lata podróż po systemie Saturna, tzw. podróż satelitarną. W obecnym scenariuszu misji składa się ona z ponad 70 orbit skupionych wokół Saturna, połączonych przelotami w pobliżu Tytana przy wsparciu grawitacyjnym lub manewrami napędowymi. Rozmiar tych orbit, ich orientacja w stosunku do linii Słońce - Saturn oraz ich nachylenie w stosunku do równika Saturna są podyktowane różnymi wymaganiami naukowymi, które obejmują pokrycie śladów naziemnych Tytana, przeloty lodowych satelitów, zakrycie Saturna, Tytana lub pierścieni, pokrycie magnetosfery , nachylenia orbit i przejścia przez płaszczyznę pierścienia.
Operacje lotnicze
Operacje lotnicze w ramach misji Cassini/Huygens są wykonywane w JET PROPULSION LABORATORY (JPL) w Pasadenie w Kalifornii. Operacje łącza w górę i w dół są realizowane z Centrum Kontroli Misji w JPL. Dane są gromadzone za pośrednictwem sieci kosmicznej NASA i przechowywane na komputerach w JPL, gdzie rutynowo ocenia się stan i status statku kosmicznego. Operacje Cassini/Huygens opierają się na koncepcji operacji rozproszonych. W tej koncepcji zespoły instrumentalne analizują dane ze swoich instrumentów i przygotowują sekwencje operacji na instrumentach ze swoich macierzystych instytutów, a następnie przesyłają je do JPL w celu przesłania. Podczas głównej misji, od początku spotkania z Saturnem do końca misji, zespoły instrumentów Orbiter będą codziennie kontaktować się z zespołem operacyjnym statku kosmicznego w JPL. Operacje lotnicze sondy Huygens Probe są wykonywane z Centrum Operacyjnego ESA w ESOC w Darmstadt w Niemczech, gdzie utworzono Centrum Operacyjne Huygens Probe (HPOC). Wszystkie działania związane z misjami związane z Huygensem (okresowe kontrole podczas lotu i faza misji sondy) są realizowane z HPOC. Dane telemetryczne z Huygens są kierowane do HPOC, gdzie są przetwarzane i przekazywane badaczom z Huygens.
Przelot obok Jowisza
Sonda Cassini pomyślnie przeleciała obok Jowisza podczas wspomaganego grawitacyjnie obrotu w stronę Saturna, a ponadto została wykorzystana do wypróbowania niektórych swoich przyrządów, dokonując ważnych naukowych obserwacji Jowisza i jego księżyców. Obserwacje Cassini przeprowadzono w połączeniu z obserwacjami prowadzonymi przez sondę kosmiczną Galileo, również krążącą wokół Jowisza. Obserwacje wykonane przez obie sondy zostały uzupełnione niemal jednoczesnymi zdjęciami z krążącego wokół Ziemi Kosmicznego Teleskopu Hubble′a i Obserwatorium Rentgenowskiego Chandra. Wykorzystano także naziemne teleskopy radiowe i optyczne. Sonda Galileo znajduje się na orbicie wokół Jowisza od grudnia 1995 r., podczas gdy Cassini obserwował Jowisza od 1 października 2000 r. do 31 marca 2001 r. Najbliższe podejście Cassini miało miejsce 30 grudnia 2000 r., w odległości około 9,7 miliona kilometrów. Dało to Cassini impuls grawitacyjny Jowisza, który przyspieszył statek kosmiczny o około 2 km na godzinę (około 4500 mil na godzinę) i umożliwił mu dotarcie do ostatecznego celu, Saturna, w lipcu 2004 r. w ramach planowanych czteroletnich badań. Większy niż normalnie opór wykryty na jednym z kół reakcyjnych sondy Cassini nie pojawił się ponownie. Koła reakcyjne służą do obracania statku kosmicznego w różnych kierunkach, a problem doprowadził do zawieszenia od 19 do 28 grudnia obserwacji naukowych, które wymagałyby skierowania statku kosmicznego, na przykład w celu robienia zdjęć. Tylko dwa eksperymenty, spektrometr mas jonowych i obojętnych oraz Radio Science, a także sonda Huygens do badania księżyca Saturna, Tytana, nie zebrały danych podczas badań Jowisza. Wyniki obserwacji obejmują ujawnienie nowych danych na temat dynamiki magnetosfery Jowisza, jego pasów radiacyjnych, zórz polarnych i jego interakcji z wiatrem słonecznym.
Kataklizmiczne układy podwójne: klasyczne i nawracające nowe
Łacińskie słowo nova, oznaczające "nowy", było historycznie stosowane do określenia nagłego pojawienia się jasnej gwiazdy, wcześniej nienotowanego. Takie novae stellae pojawiają się we wschodnich zapisach z około 1500 roku p.n.e. oraz w zapisach europejskich z ostatnich trzech stuleci (jednak wiele z nich to starożytne SUPERNOWE). Odkrycie w połowie XIX wieku innego rodzaju nowych, karłowatych, doprowadziło do wykorzystania klasycznej nowej jako pierwotnego typu. Do 1887 roku, kiedy za pomocą fotografii szerokokątnej zaczęto odkrywać słabsze nowe, w epoce postteleskopowej odkryto tylko sześć nowych. Najjaśniejsze z nich to Nova Vulpecula 1670 (maksymalna jasność 2,6), Nova Ophiuchi 1848 (4,2mag) i Nova Cygni 1876 (3,0mag). Obserwacje Nowej Oph po wybuchu wykazały, że po kilku latach jej jasność spadła do 13,5mag, co pokazało, że niezależnie od przyczyny dramatycznej eksplozji nowej, nie zniszczyła ona całkowicie gwiazdy. Uświadomienie sobie, że niektóre nowe erupcje powtarzają się (np. Nova Corona Borealis w 1866 i 1946 r.), podkreśliło fakt, że proces ten ma raczej charakter kataklizmiczny niż katastrofalny. Przy obecnym zrozumieniu przyczyn erupcji uważa się, że wszystkie nowe muszą się powtarzać i że wszystkie rodzaje zmiennych kataklizmicznych muszą regularnie przekształcać się w nowe, ale odstępy między erupcjami są na ogół znacznie dłuższe niż kilka wieków zarejestrowanych historia. W swoim najjaśniejszym miejscu nowe zwykle osiągają wielkość absolutną Mv ∿? -9, co uczyniłoby je łatwo wykrywalnymi w całej naszej Galaktyce, gdyby nowe nie skupiały się w kierunku Płaszczyzny Galaktycznej i Centrum Galaktyki, co powoduje silne międzygwiazdowe wymieranie światła z najbardziej odległych nowe. W rezultacie, chociaż w Galaktyce może wybuchać około 80 nowych gwiazd rocznie, wykrywane są średnio tylko około trzech rocznie. W Obłokach Magellana i Galaktyce Andromedy (M 31) nowe są łatwo odkrywane (maksymalnie przy jasnościach pozornych odpowiednio mv ∿ 10 i ∿?15), a za pomocą dużych teleskopów naziemnych i detektorów CCD nowe można badać nawet w gromadzie w Pannie galaktyk, przy najjaśniejszej jasności mv ∿ 23. Lista nowych, które osiągnęły pozorną jasność 3,0 lub jaśniejszą, podana jest w tabeli 1. W tabeli 1 zastosowano oznaczenia gwiazd zmiennych; na przykład Nova Herculis 1934 jest również znana jako DQ HERCULIS.
Krzywe blasku nowych
Najprostszym pomiarem do wykonania jest zmiana pozornej jasności wizualnej podczas erupcji nowej. Chociaż rzadko zdarza się odkryć nową na długo przed jej maksymalną jasnością, jej wzrost można czasami określić na podstawie przypadkowego pojawienia się nowej na fotograficznych płytach pomiarowych o szerokim polu widzenia. Istnieje szeroki zakres prędkości, z jakimi nowe przechodzą przez okres erupcji, ale wszystkie można w przybliżeniu opisać za pomocą schematycznych krzywych pokazanych na ryc. 1. Początkowy wzrost, zwykle o 6-13 magnitudo, następuje w ciągu jednego lub dwóch dni, często z tymczasowe zatrzymanie trwające od kilku godzin dla szybkich nowych do kilku dni dla wolnych nowych, przed mniej stromym końcowym wzrostem od około ∿ 2 mag do maksimum. Wczesny spadek jest gładki w przypadku wszystkich gwiazd nowych z wyjątkiem najwolniejszych, w których widoczne są nieregularne zmiany. Klasa prędkości nowej jest określona przez tempo, w jakim następuje wczesny spadek. Jest to mierzone jako czas
t2 lub t3 potrzebny do spadku odpowiednio o 2 lub 3 wielkości; Począwszy od około 3 mag poniżej maksymalnej jasności wizualnej, aż do spadku o około 2,5 mag, znanego jako obszar przejściowy, nowe wykazują różnorodne zachowania. Niektóre, szczególnie szybsze nowe, nadal płynnie zanikają. Inne przechodzą przez głębokie minimum, sięgające 7-10 mag, trwające od 2 do 3 miesięcy, po czym następuje płynny spadek. Inne wykazują quasi-okresowe zmiany jasności z amplitudą 1-1,5 mag i quasi-okresy zazwyczaj w zakresie 5-25 dni. Końcowy spadek do postnowej jest zwykle gładki, ale w kilku przypadkach wybuchy nowej karłowatej mogą rozpocząć się w późnym okresie schyłku (np. Nova Per 1901, która rozpoczęła wybuchy o mocy 2-3 mag w 1950 r. w odstępach ∿2 lat). Bezwzględne wielkości gwiazdowe nowych przy maksymalnej jasności Mv(max) można znaleźć, jeśli można określić odległości i ekstynkcję międzygwiazdową. Paralaksa ekspansji dla niektórych pojedynczych nowych, uzupełnionych maksymalnymi jasnościami nowych w Obłokach Magellana i M31, pokazują, że istnieje silna korelacja pomiędzy t2 i Mv(max) lub Mpg(max) (dla jasności fotograficznych w niebieskim obszarze), znana jako " zależność bezwzględna wielkość od tempa spadku". Można to wyrazić równaniem Mpg(max) = 3,35 log t2?12,2. Zastosowanie tej zależności daje cenną metodę wyznaczania odległości do układów pozagalaktycznych, w których występują nowe. Inna technika wykorzystuje fakt, że wszystkie nowe, prawie niezależne od klasy prędkości, osiągają Mv ∿ -5,5 15 dni po maksymalnym świetle. Obserwacje satelitarne ultrafioletowych jasności nowych pokazują, że szczyty rozkładów strumieni przesuwają się stale w stronę krótszych fal po maksymalnym świetle. Wczesny spadek jasności wizualnej jest prawie całkowicie spowodowany redystrybucją strumienia w kierunku fal ultrafioletowych. Krzywe blasku gwiazd nowych zachowują się zupełnie inaczej niż krzywe blasku światła widzialnego. Strumień podczerwieni rośnie powoli podczas początkowego spadku i znacznie wzrasta, jeśli w obszarze przejściowym występuje głębokie minimum. Rozkład strumienia składnika IR jest typowy dla emisji ziaren pyłu o temperaturach ∿1000 K i jest interpretowany jako absorpcja promieniowania o krótkich falach, gdy ziarna pyłu rosną w rozszerzającym się i schładzającym gazie wyrzucanym przez eksplozję nowej. W skrajnych przypadkach pył staje się optycznie gruby w świetle widzialnym, powodując głębokie minimum wizualne. Dodanie strumieni światła widzialnego, ultrafioletowego i podczerwonego pokazuje, że wizualna krzywa blasku nowej jest bardzo myląca: całkowita jasność nowej w rzeczywistości pozostaje prawie stała przynajmniej aż do głębokiego obszaru przejściowego. Te "plateau" jasności nowych we wczesnych fazach mieszczą się w zakresie (2-4) × 104 L⊙ . Są to mniej więcej jasności Eddingtona dla gwiazd o masie około jednej masy Słońca. Krótkotrwała szczytowa jasność może być jeszcze kilka razy wyższa, szczególnie w przypadku szybkich nowych. Obserwacje te pokazują, że ciśnienie promieniowania jest prawdopodobnie siłą motywującą wyrzucenie gazu podczas wybuchu nowej.
Widma nowych
Po ostatecznym wzroście do maksymalnego światła widmo nowej przypomina widmo nadolbrzyma; klasa widmowa jest wczesnego typu B, przechodząca do późniejszego typu i osiągająca maksymalnie około A5. Linie są bardzo szerokie i występuje krótkie przesunięcie Dopplera długości fal; zarówno przesunięcia, jak i szerokości wynoszą (1-2) × 103 km s-1, co wskazuje na szybko rozszerzającą się optycznie grubą powłokę. Często widać profile linii P Cygni, ponownie wskazujące na rozszerzającą się muszlę. Po maksymalnym oświetleniu zmiany w widmie są dość złożone i wskazują na kilka rozszerzających się obwiedni z różnymi prędkościami. Podczas początkowego spadku rozwija się zestaw linii absorpcyjnych przypominających nadolbrzyma typu A lub F, z przesunięciem ku błękitu większym niż widmo przedmaksymalne. Nazywa się to widmem głównym; jej przemieszczenie prędkości jest silnie skorelowane z klasą prędkości, z prędkościami dochodzącymi do 4000 km s-1 dla bardzo szybkich nowych i zaledwie
100 km s-1 dla najwolniejszych. Linie absorpcyjne często wykazują zróżnicowaną strukturę, co wskazuje na obecność wielu podpowłok lub bąbli gazu w rozszerzającej się powłoce. Wkrótce po maksymalnym świetle najsilniejsze linie rozwijają profile P Cyg i pojawia się duża liczba linii emisyjnych, głównie H, Ca II, Na I i Fe II w świetle widzialnym. Później widmo główne (identyfikowane przez przesunięcie prędkości) słabnie i pojawiają się zabronione linie [O I], [O II] i [N II] - są one charakterystyczne dla gazu o małych gęstościach. Inny wyraźny zestaw linii absorpcyjnych - widmo wzmocnione rozproszone - pojawia się wkrótce po tym, jak widmo główne stało się jasne, ale przesunięte w kierunku błękitu około dwukrotnie większe niż to drugie. Jeszcze inny układ - widmo Oriona - pojawia się o jedną do dwóch magnitudo w dół od maksimum i charakteryzuje się pojedynczymi składnikami, przesuniętymi w kierunku niebieskim przynajmniej w takim samym stopniu jak rozproszony system wzmocniony. Na późnym etapie
erupcji nowej rozwija się widmo mgławicowe, początkowo jedynie wzmacniając zabronione linie emisyjne widma głównego, ale ostatecznie pojawiając się [O III], [Ne III], nadając widmu nowej wygląd podobny do mgławicy planetarnej. W nowych najwyższych energiach obserwuje się sukcesywnie wyższe stopnie jonizacji, aż do jonów typowych dla warunków koronalnych: m.in. linie z [Fe X] i [Fe XIV]. Ewolucję widma nowej rozumie się ogólnie jako generowaną przez rozszerzającą się, niejednorodną powłokę, zjonizowaną przez intensywne źródło wysokoenergetycznego promieniowania (temperatura 105-106 K) w jej środku. Ta ostatnia musi być gwiazdą centralną, ogrzaną przez eksplozję. Widma nowych można wykorzystać do określenia warunków fizycznych i składu chemicznego rozszerzającej się powłoki. Nowe zazwyczaj wykazują obfitość C, N, O, Ne, Mg i niektórych cięższych pierwiastków, znacznie zwiększoną w porównaniu ze Słońcem i innymi normalnymi gwiazdami. Względne liczebności różnią się w zależności od nowych; typowe ulepszenia to współczynniki od 10 do 100. Stosunek helu do wodoru jest również często inny niż w Słońcu i jest wyższy aż o współczynnik 1,5 lub niższy aż o współczynnik 5. Większa obfitość węgiel prawdopodobnie pomaga w tworzeniu się zasłaniającego pyłu w niektórych powłokach nowych. Wiele nowych wykazuje znacznie zwiększoną liczebność neonów - wystarczającą do zdefiniowania klasy nowych neonowych. Większość nowych neonowych jest szybkich lub bardzo szybkich, ale przynajmniej jedna (Nova Ophiuichi 1988) była nową wolną.
Powłoki Nova
Dowody na wyrzucenie powłoki pochodzą nie tylko z wykrytej spektroskopowo ekspansji, ale także z bezpośredniego obrazowania. Kosmiczny Teleskop Hubble′a był w stanie rozróżnić powłokę Nova Cygni 1992 467 dni po erupcji, gdy promień kątowy powłoki wynosił zaledwie 0,13. Emisja radiowa z powłok nowych (w zakresie częstotliwości 2-100 GHz) umożliwia interferometrię o bardzo długiej linii bazowej (VLBI), również w celu obrazowania powłok z rozdzielczością kątową sięgającą 0,1. Ostatecznie, przynajmniej w przypadku stosunkowo pobliskich gwiazd nowych, powłoka może rozszerzyć się na tyle, że będzie można ją zobaczyć bezpośrednio na zdjęciach wykonanych z ziemi. Ryc. 2 przedstawia obecny wygląd Nova Persei 1901; niejednorodną strukturę potwierdzają takie obrazy. Wiele pocisków nowych (np. Nova Herculis 1934) ma bardziej regularne kontury, często eliptyczne, co pokazuje, że średnie prędkości wyrzutów zmieniają się systematycznie w zależności od kierunku. Jest to zgodne z niektórymi analizami spektroskopowymi,
które wykrywają pasma "równikowe" i pióropusze "polarne" wyrzucane z różną szybkością. Szybkość kątową rozszerzania mierzoną bezpośrednio za pomocą VLBI lub na podstawie obserwowanego promienia powłoki zmierzonego na zdjęciach wykonanych w znanym czasie (dziesiątki lat) po erupcji nowej można połączyć z spektroskopową prędkością rozszerzania, aby określić odległość nowej. Z prostej geometrii, paralaksy rozszerzania lub jej odwrotności, odległość d w parsekach jest dana wzorem d = 0,20v/(dθ/dt) pc, gdzie v to prędkość rozszerzania w km s-1, a dθ/dt to prędkość szybkość wzrostu promienia kątowego, mierzona w sekundach łukowych na rok. Z tej zależności widzimy, że nowa w odległości 1 kpc i prędkości ekspansji 1000 km s-1 powinna ukazać powłokę o promieniu ∿ 20 lat po erupcji. Jednakże wraz z ochłodzeniem gwiazdy centralnej, ekspansją od tego centralnego ekscytującego źródła i spadkiem jasności powierzchni w miarę zwiększania się obszaru powłoki, większości powłok nowych w
rzeczywistości nie można sfotografować na niebie. Analiza widm powłok nowych może dostarczyć szacunków gęstości elektronów i jonów w obszarach, w których powstają linie emisyjne. Jeśli znana jest całkowita objętość skorupy, może to dać całkowitą masę skorupy. Jednakże niejednorodność powłoki prowadzi do znacznej niepewności co do tego, jaka część pozornej objętości jest faktycznie wypełniona gorącym gazem. Masy otrzymane spektroskopowo mieszczą się w przedziale (1-30) × 10-5M⊙ . Prawdopodobnie bardziej wiarygodne określenie uzyskuje się na podstawie emisji radiowej w czasie, gdy powłoka stała się optycznie cienka na falach radiowych. Następnie cały materiał powłoki uczestniczy w emisji radiowej, która powstaje w wyniku emisji termicznej (wolnej) w zjonizowanej powłoce. Wyznaczone w ten sposób masy pocisków mieszczą się w przedziale (5-40) × 10-5M⊙ . Te wyrzucone masy są zgodne z wcześniejszym stwierdzeniem, że erupcje nowej mogą wystąpić wiele razy w życiu kataklizmicznej gwiazdy z
miennej: jeśli eksplodująca gwiazda ma masę ∿1M, może przejść setki lub tysiące erupcji, zanim znacząco uszczupli swoją masę. Zanim opuścimy powłoki nowe, należy wspomnieć o jeszcze jednym efekcie, który można bezpośrednio sfotografować. Przez osiem miesięcy po erupcji Nowej Persei 1901 obserwowano mgliste plamy, najwyraźniej oddalające się od nowej z szybkością około 20 minut łuku rocznie. W odległości tej nowej prędkość kątowa odpowiada prędkości liniowej porównywalnej z prędkością światła. Stwierdzono zatem, że rozbłysk światła spowodowany eksplozją nowej oświetlał międzygwiazdową warstwę pyłu w pobliżu nowej. Takie zjawisko znane jest jako echo świetlne, ale zaobserwowano je tylko w przypadku dwóch gwiazd nowych.
Fizyka erupcji nowych
Podobnie jak w przypadku wszystkich zmiennych kataklizmicznych, nowe są ZBLIŻONYMI GWIAZDAMI PODWÓJNYMI, w których masa jest przenoszona z gwiazdy o normalnych wymiarach (tj. gwiazdy ciągu głównego lub rzadziej olbrzyma), zwanej gwiazdą wtórną, na gwiazdę pierwotną WHITEDWARF. W chwili powstania biały karzeł nie miał w swoim wnętrzu wodoru, który w zależności od masy zawierał hel lub węgiel, tlen lub neon i magnez. To ciągła akumulacja gazu bogatego w wodór na powierzchni białego karła prowadzi do eksplozji, którą rozpoznajemy jako erupcję nowej. Oprócz zewnętrznej warstwy o grubości około 10-4M⊙, wnętrze białego karła jest zdegenerowane. Zasadnicza fizyka wybuchu nowej zawarta jest w porównaniu równania stanu materii zdegenerowanej, P αρ?, z tym dla gazu doskonałego, P αρ?T, gdzie P, &rh i T to odpowiednio ciśnienie, gęstość i temperatura gazu, a γ jest stałą. Załóżmy, że obszar gazu zostaje lekko podgrzany, następnie ciśnienie w gazie doskonałym wzrasta i gaz może
się rozszerzać, pochłaniając w ten sposób ciepło. Jednak ciśnienie w zdegenerowanym gazie jest niezależne od temperatury, więc nie zachodzą żadne zmiany mechaniczne. Jeśli jednak temperatura wystarczająco wzrośnie, zostanie osiągnięta temperatura Fermiego, powyżej której gaz przestaje ulegać degeneracji - staje się gazem doskonałym, a jego ciśnienie gwałtownie wzrasta, aby dopasować się do gęstości i temperatury wymaganej przez zmianę równania stanu. Nagromadzenie wodoru na powierzchni białego karła tworzy warstwę, której podstawa staje się gorętsza i gęstsza w miarę ściskania i wypychania głębiej w kierunku gorącego wnętrza. Rozpoczynają się reakcje jądrowe (najpierw łańcuch proton-proton, później cykl CNO), które podgrzewają gaz. Masa Menv warstwy wierzchniej, wystarczająca do wywołania reakcji jądrowych u jej podstawy, zależy dość wrażliwie od masy białego karła: maleje od -1 × 10-4M⊙ przy 0,6M⊙ do ∿8 × 10-7M⊙ przy 1,4M⊙
. Ta warstwa podstawna leży w obszarze częściowej degeneracji, więc ogrzewanie spowodowane reakcjami jądrowymi zwiększa temperaturę bez rozszerzania warstwy. Podwyższona temperatura zwiększa tempo wytwarzania energii i następuje ucieczka termojądrowa (jak w bombie wodorowej), aż do osiągnięcia temperatury Fermiego, a następnie cała zewnętrzna warstwa zostanie wyrzucona w przestrzeń kosmiczną. W Mwielu przypadkach niewielka część zewnętrznego obszaru zdegenerowanego rdzenia może zostać porwana podczas eksplozji, tworząc nadmiary C, O, Mg i Ne, które są widoczne w niektórych nowych. Inną przyczyną wyjątkowych obfitości C, N lub O jest to, że eksplozja jest tak szybka, że cykl CNO nie osiąga równowagi, która wytworzyła obfitość tych pierwiastków obecnych w normalnych gwiazdach. Jeśli prędkość przenoszenia masy z gwiazdy towarzyszącej na białego karła wynosi dM/dt, wówczas czas pomiędzy erupcjami będzie równy Menv podzielony przez dM/dt. Szacuje się, że średnie szybkości przenoszenia masy w zmiennych
kataklizmicznych wynoszą ∿5 × 10-9M⊙ rok-1, zatem wartości Menv podane powyżej implikują przedziały ∿2x1046 K; biały karzeł o wielkości 1,25 M⊙ ostygnie następnie do 50 000 K w ciągu około 300 lat. Pochodzenie quasi-okresowych oscylacji występujących w niektórych nowych podczas obszaru przejściowego nie jest pewne; mogą to być promieniowe pulsacje otoczki otaczającej centralną gwiazdę podwójną.
Nowe nawracające
Obecnie wiadomo, że tylko osiem nowych jest rekurencyjnych (kilka innych gwiazd uważano kiedyś za należące do tej klasy, ale okazały się albo nowymi karłowatymi o dużej amplitudzie i długim odstępie czasu, albo nowymi, które później miały wybuchy nowych karłowatych). Jedna z nich znajduje się w Wielkim Obłoku Magellana. Istnieją trzy podklasy nowych nawracających. Pierwsza, obejmująca T CrB, RS Oph, V3890 Sgr i V745 Sco, wszystkie mają gigantyczne cząstki wtórne typu widmowego M, a zatem okresy orbitalne dłuższe niż 100 dni (gigant M nie zmieściłby się w układzie podwójnym o krótszym okresie). Biorąc pod uwagę krótkotrwałość erupcji, możliwe jest, że niektóre z ich erupcji w tym stuleciu zostały przeoczone. Gwiazdy T CrB podlegają zależności Mv(max)-t2. Ich krótkie czasy powtarzania są częściowo spowodowane dużą szybkością, z jaką olbrzymi towarzysze przekazują masę swoim towarzyszom - białym karłom, szybko gromadząc w ten sposób masę krytyczną Menv, która prowadzi do eksplozji. Druga klasa nowych powracających to ta typowana przez U Sco i obejmująca V394 CrA i LMC-RN. Należą do najszybszych znanych nowych; podlegają one także zależności Mv(max)-t2. Ponownie, niektóre z ich erupcji mogły zostać przeoczone ze względu na ich krótkotrwałość. Opadające części ich krzywych blasku różnią się w zależności od erupcji. Wszystkie mają okresy orbitalne około 1 dnia. W ich widmach dominują linie helu w fazie ponowej. Ostatnia gwiazda, T Pyx, jest wyjątkowa. Wzrasta powoli do maksimum, początkowy wzrost zajmuje około 7 dni i kolejne 20 do 30 dni do maksimum, po czym następuje powolny spadek. Jego odległość jest bardzo niepewna, dlatego nie wiadomo, czy spełnia zależność Mv(max)-t2. Zdjęcia przedstawiają podwójną powłokę, być może wyrzut z erupcji z 1944 i 1966 roku. Podejrzewa się, że w stanie spoczynku T Pyx może stale spalać część wodoru w wyniku reakcji jądrowych zachodzących w jego powłoce.
Symbiotyczne gwiazdy
Wśród GWIAZD SYMBIOTYCZNYCH jest kilkanaście takich, które są klasyfikowane jako nowe symbiotyczne. Są one powiązane z nowymi powracającymi typu T CrB: prawdopodobnie wszystkie mają długie okresy orbitalne (znane trwają od 200 do 1000 dni), a niektóre miały więcej niż jedną erupcję. Jednakże wzrost do maksimum jest bardzo powolny, w przedziale od 2 miesięcy do 16 lat, a czas trwania erupcji jest bardzo długi - od lat do ponad stu lat. Obecnie uważa się, że erupcje nowych symbiotycznych są wynikiem ucieczek termojądrowych na głównych białych karłach o mniejszej masie niż w typie T CrB.
Novae przy minimalnym oświetleniu
Podczas długich przerw między erupcjami oraz po całkowitym odzyskaniu sił po ostatnich erupcjach, nowe spędzają przynajmniej część swojego czasu jako niewybuchające, stosunkowo niepozorne obiekty gwiezdne. Dobrym przykładem jest DQ Herculis, który nie zwrócił na siebie uwagi przed erupcją w 1934 r. i który pozostawał stosunkowo niezbadany w swoim stanie po wybuchu nowej przez 20 lat, zanim M.F. Walker odkrył, że jest to układ podwójny zaćmieniowy z okresem orbitalnym wynoszącym 4 godziny 39 minut Była to pierwsza kataklizmiczna gwiazda zmienna, którą uznano za krótkookresowy układ podwójny, chociaż UX UMa i AE Aqr były wcześniej znane jako spektroskopowe układy podwójne, ale dopiero retrospektywnie sklasyfikowano je jako zmienne podobne do nowych. Większość nowych ostatecznie powraca do stanu sprzed nowych ,jasność (jak stwierdzono na archiwalnych kliszach fotograficznych) i stają się nie do odróżnienia od zmiennych podobnych do nowej. W przypadku najjaśniejszych nowych jasność w stanie spoczynku jest dość
jasna. Oznacza to, że obecnie znane nowe podobne prawdopodobnie obejmują nowe, które wybuchły niezauważone w ubiegłych stuleciach - a także, że niektóre z nowych podobnych są "pre-nowymi" w tym sensie, że staną się nowymi w przyszłości. Jak wspomniano wcześniej, niektóre nowe przechodzą przez fazę nowych karłowatych podczas upadku po nowej. Kilka nowych (Nova Her 1960, Nova Sgr 1919 i powtarzająca się Nova Sgr 1962) wykazały wybuchy nowych karłowatych przed erupcją; pierwsze dwa z nich ponownie rozpoczęły wybuchy w fazach postnowych. Istnieją dowody na to, że przynajmniej niektóre nowe blakną do bardzo słabych jasności (co oznacza duże zmniejszenie przenoszenia masy z ich gwiazd wtórnych) setki lat po ich erupcji. Przykładem jest Nova Vul 1670 , ale bardziej znaczące jest to, że żadna z nowych zarejestrowanych gołym okiem w zapisach wschodnich (a które, jak się spodziewano, miałaby pozorną jasność po nowej w zakresie 10-14) nie została odkryta w nowoczesne ankiety dotyczące obiektów typu nova. Przyczyną
niskiego stanu może być to, że nagrzewanie gwiazdy wtórnej przez promieniowanie gorącego białego karła po wybuchu nowej powoduje nadmierny transfer masy, a gwiazda wtórna później dostosowuje się do nieco mniejszego promienia, ograniczając przenoszenie masy przez wiele stuleci, co utrzymuje długoterminowa średnia szybkość transferu określona przez ewolucję orbity. Z istnienia opisanej powyżej zależności Mv(max)-t2 i gdyby wszystkie pozostałości nowych miały co najmniej tę samą jasność absolutną Mv(min), można by oczekiwać, że zakres Mv = Mv(min)-Mv(max ) byłoby dobrze skorelowane z tempem spadku, t2. (Zauważ, że zakres wielkości pozornej mv = mv(min) - mv(max) = Mv i jest niezależny od ekstynkcji międzygwiazdowej, ponieważ ekstynkcja ma zastosowanie zarówno do mv(min), jak i mv(max).) Rzeczywiście tak jest, ale istnieje duży rozrzut zależności, który wynika z dominacji dysku
akrecyjnego przy minimalnym świetle. W momencie maksimum erupcji nowa miałaby mniej więcej taką samą jasność, niezależnie od kierunku, z którego jest obserwowana. Minimalna jasność zależy jednak bardzo silnie od nachylenia orbity podwójnej: jeśli system jest widziany przy niskim nachyleniu, tj. Dysk widziany jest prawie twarzą w twarz, jest stosunkowo jasny. Jednakże, widziany pod dużym nachyleniem, krążek jest skierowany krawędzią i dość słaby. Rezultatem jest niezwykle duża wartość mv jak na układy zaćmieniowe takie jak DQ Herculis. Średnia Mv(min) dla nowych w stanie spoczynku wynosi około +4, ale zakres wynosi 2 Mv(min) 9, co jest skorelowane z nachyleniem orbity. Rzadkie wyjątki od tego zakresu minimalnej wielkości mogą wystąpić, jeśli główny biały karzeł ma silne pole magnetyczne, zapobiegające tworzeniu się dysku akrecyjnego. Przykładem jest V1500 Cyg, która wybuchła od minimalnej wielkości słabszej niż 21 magnitudo.
Zmienne kataklizmiczne: układy magnetyczne
Zmienne kataklizmiczne (CV) to ZAMKNIĘTE GWIAZDY PODWÓJNE, których najbardziej masywnym składnikiem jest BIAŁY KARZEŁ (WD), a towarzyszem jest zwykle bardziej normalna gwiazda - zwykle gwiazda ciągu głównego, ale czasami olbrzym. Większość CV stale przenosi masę z towarzysza na WD poprzez DYSK AKRECJI otaczający WD, ale podobnie jak około 5% izolowanych WD ma wykrywalne polal magnetyczne, podobnie jak około 25% WD występujących w CV. Jeśli pole magnetyczne jest silne (większe niż około 10 MG = 10×106 G), zapobiega to tworzeniu się dysku akrecyjnego, w wyniku czego gaz opuszczający towarzysza jest kierowany magnetycznie bezpośrednio na powierzchnię WD. Sam WD obraca się wokół własnej osi z taką samą szybkością, jak obrót układu podwójnego - jest połączony z układem wtórnym poprzez interakcję ich pól magnetycznych. Prototypem tego rodzaju obiektu jest AM HERCULIS, co prowadzi do określenia tej klasy jako gwiazd AM Her, lub (ponieważ opadający gaz wypromieniowuje swoją energię w silnym polu
magnetycznym WD i promieniowanie to jest zatem emisją cyklotronową, która jest silnie spolaryzowane), jako polarne. Najsilniejsze pole, jakie dotychczas zmierzono na biegunie polarnym, wynosi 230 MG w AR UMa; Sama AM Her ma jedno z najniższych pól polarnych, 14 MG. Jeśli WD ma słabsze pole magnetyczne (poniżej kilku milionów gausów), jego interakcja z (wewnętrznym lub indukowanym) polem towarzysza jest niewystarczająca, aby wymusić współrotację, w wyniku czego WD ma inny, zwykle znacznie krótszy , okres rotacji niż okres binarny. Co więcej, pole może jedynie zapobiegać tworzeniu się dysku całkiem blisko WD, w wyniku czego dysk akrecyjny rzeczywiście się tworzy, ale brakuje jego środkowej części - gdzie gęstość energii w polu jest większa niż gęstość energii kinetycznego napływu gazu i dlatego może określić przepływ akrecji. Prototypem tego typu obiektu jest DQ HERCULIS. Grupa jako całość jest zwykle nazywana biegunami pośrednimi (IP) (będącymi pośrednimi między silnie magnetycznymi i niemagnetycznymi), przy
czym gwiazdy DQ Her najlepiej trzymać jako opis podzbioru najszybciej rotujących cząstek podstawowych WD (np. sama DQ Her z okres rotacji 71 s) - chociaż niektórzy autorzy używają gwiazd DQ Her jako ogólnego typu. Większość adresów IP ma prawybory zmieniające się z okresami kilkudziesięciu minut. Promieniowanie spolaryzowane, modulowane w okresie wirowania WD, wykryto tylko w trzech IP, prawdopodobnie tych o najsilniejszych polach. Ze względu na dużą ilość niespolaryzowanego promieniowania z (skróconego) dysku akrecyjnego, promieniowanie spolaryzowane w IP jest bardzo osłabione; co więcej, słabsze pola powodują, że emisja cyklotronu osiąga szczyt w podczerwieni, gdzie jest trudniejsza do wykrycia. Proces akrecji materii na WD przenosi również moment pędu. Wynik nie jest jednak jednoznaczny - na WD działa nie tylko moment materialny, powstały w wyniku bezpośredniego (ale nie promieniowego) oddziaływania gazu, ale istnieją również momenty wynikające z oddziaływania linii pola magnetycznego łączących WD z dysk
akrecyjny, którego część obraca się szybciej niż WD, a część wolniej. Momenty te mogą się równoważyć, w wyniku czego okres obrotu WD osiąga stan równowagi. Jednak ogólnie rzecz biorąc, stwierdza się, że w niektórych przypadkach szybkości rotacji rosną, a w innych maleją - zazwyczaj tylko kilka sekund na stulecie - w miarę poszukiwania równowagi. Natężenie pola magnetycznego w izolowanych WD sięga do aktualnej granicy wykrywalności - około 50 000 G, więc można się spodziewać, że to samo będzie dotyczyć WD w CV. Takie pola są zbyt słabe, aby wykryć je bezpośrednio w CV (tj. za pomocą EFEKTU ZEEMANA lub poprzez obecność polaryzacji), ale istnieją pośrednie dowody na obecność takich słabych pól w niektórych CV poprzez pojawienie się oscylacji nowych karłowatych (DNO) podczas wybuch niektórych nowych karłowatych (znanych również jako U GEM STARS) i sporadycznie w niektórych zmiennych podobnych do nowych (które raczej przypominają nowe karłowate utknięte na stałe w wybuchu). DNO to okresowe zmiany jasności z
okresami zwykle w zakresie 5-40 s i obecnie są interpretowane jako magnetyczne kanałowanie akrecyjnego gazu w samym wewnętrznym obszarze dysku akrecyjnego, tuż nad powierzchnią WD. Jedna różnica w stosunku do adresów IP polega na tym, że podczas gdy adresy IP mają bardzo stabilne modulacje jasności, okresy DNO zmieniają się szybko - czasami zmienia się 2-krotnie w ciągu jednego dnia. Wyjaśnieniem tego jest to, że wewnętrzne pola WD są zbyt małe, aby zapobiec ślizganiu się akreującego gazu wokół równika. Podczas gdy w biegunach i IP akreujący gaz jest sprzężony z całym korpusem WD, w DNO widzimy efekt wirowania pasa równikowego w odpowiedzi na narosły moment pędu, niosąc jego (prawdopodobnie samogenerujący się) wokół niego pole magnetyczne. Istnienie długowiecznych, szybko wirujących pasów równikowych po wybuchach nowych karłowatych zostało niedawno ustalone na podstawie widm uzyskanych za pomocą Kosmicznego Teleskopu Hubble′a. Nie wszystkie nowe karłowate lub zmienne podobne do nowych wykazują DNO, prawdopodobnie dlatego, że istnieją pewne CV, które mają pole magnetyczne zbyt małe, aby wpłynąć na jakiekolwiek kanałowanie magnetyczne w całym przepływie akrecyjnym - w takich przypadkach dysk akrecyjny sięgałby aż do powierzchni WD. Może się to zdarzyć również w tych nowych karłowatych, gdzie Obserwuje się, że DNO zanikają w pobliżu maksymalnego wybuchu; w takich momentach przepływ akrecyjny prawdopodobnie miażdży magnetosferę WD aż do powierzchni WD. We wszystkich klasach magnetycznego CV obserwuje się modulowaną emisję promieniowania rentgenowskiego i EUV - w okresie orbitalnym na biegunach, w okresie rotacji WD w IP i w okresie DNO w wybuchach nowych karłowatych. Takie energetyczne promieniowanie jest emitowane z obszaru silnie nagrzanego szokowo, gdy kanałowy przepływ akrecyjny uderza w powierzchnię WD, wytwarzając bardzo wysoką jasność promieniowania rentgenowskiego (w istocie wiele biegunów i IP odkryto po raz pierwszy podczas badań rentgenowskich niebo). Część promieniowania opuszczającego takie rozgrzane plamy na powierzchni WD może przechwycić powierzchnię ściętych dysków akrecyjnych w IP i słabo magnetycznych CV. W efekcie obracająca się wiązka omiata powierzchnię dysku - a także stronę gwiazdy towarzyszącej skierowaną w stronę WD. Promieniowanie to jest częściowo przetwarzane (degradowane) do obszaru optycznego widma, co umożliwia nam pośrednią detekcję obracającej się wiązki. Można wytworzyć dwie modulacje optyczne o różnych okresach - jedną poprzez ponowne przetwarzanie z dysku i jedną z ponownego przetwarzania na gwieździe towarzyszącej. Podczas kolejnych ominięć towarzysz poruszał się trochę po swojej orbicie, więc sygnał od towarzysza ma dłuższy okres (jest to jak różnica między OKRESEM SIDEREALNYM a OKRESEM SYNODYCZNYM dla planet) i czasami jest to jedyny wykrywalny okres optyczny. W obszarze rentgenowskim widzimy bezpośrednią wiązkę z WD. W rezultacie w niektórych IP okres (gwiazdowy) promieni rentgenowskich i okres (synodyczny) w świetle optycznym różnią się (ich różnica w częstotliwości jest dokładnie równa częstotliwości orbitalnej - tak powstał ten model dla IP w pierwsza instancja). W przypadku DQ Her i niektórych wybuchających nowych karłowatych i zmiennych podobnych do nowych, obserwacje zmian szybkich modulacji jasności podczas zaćmienia przez gwiazdę towarzyszącą pokazują zmiany fazowe, które ponownie wskazują na wiązke obrotową emitowaną z WD. Nagromadzenie materiału bogatego w wodór z towarzysza na powierzchnię WD prowadzi ostatecznie do eksplozji nowej (patrz NOVAE). Systemy magnetyczne nie są wyjątkiem: Nova Cygni 1975 (znana również jako V1500 Cyg), jedna z najszybszych i najjaśniejszych nowych XX wieku, została odkryta po tym, jak powróciła do stanu spoczynkowego i była prawie polarna. Jego okres orbitalny (wyznaczony spektroskopowo i fotometrycznie) wynosi 0,139 612 9 d, a okres rotacji WD (wyznaczony z okresu modulacji polaryzacji) wynosi 0,137 154 d. Niewielka różnica była spowodowana skutkami eksplozji nowej w 1975 roku, podczas której zewnętrzne warstwy wyrzucone z WD wymieniły z towarzyszem część masy i momentu pędu. Obserwuje się, że okres rotacji WD w V1500 Cyg zmienia się w takim tempie, że synchronizacja z okresem orbitalnym zostanie odzyskana po około 180 latach. Znane są trzy inne zdesynchronizowane bieguny, które musiały być niewykrytymi nowymi w ostatnich stuleciach. Wśród znanych nowych znajdują się dwa IP (Nova Persei 1901 i Nova Puppis 1963)
Niebiańskie współrzędne
Współrzędne nieba służą do określenia położenia obiektu niebieskiego w pewnym układzie odniesienia. W astronomii konieczne i wygodne jest przedstawienie położenia obiektu, takiego jak gwiazda czy planeta, w kilku różnych układach współrzędnych, w zależności od kontekstu, w którym pozycja ma zostać wykorzystana. Współrzędne obiektu odpowiadają szczególnemu sposobowi wyrażania położenia punktu względem układu współrzędnych, takiego jak zbiór osi prostokątnych. Ogólnie rzecz biorąc, każda pozycja jest reprezentowana przez zestaw trzech współrzędnych. W wielu przypadkach odległość obiektu nie jest znana, dlatego do przedstawienia kierunku do obiektu wystarczą dwie współrzędne, chociaż można zastosować trzy cosinusy kierunkowe. Wraz z dostępnością większej liczby szacunków odległości w astronomii, coraz powszechniejsze staje się stosowanie trzech współrzędnych przestrzennych. Do określenia pozycji ciał niebieskich wykorzystuje się wiele różnych układów współrzędnych. Każdy układ zależy od wyboru układu współrzędnych i sposobu podawania współrzędnych względem układu. Termin "niebiański układ współrzędnych" jest tutaj używany do określenia układu współrzędnych, który nie obraca się wraz z Ziemią (lub inną planetą), tak że na przykład współrzędne gwiazd zmieniają się powoli w czasie (patrz NIEBIESKIE UKŁADY WSPÓŁRZĘDNYCH). Ogólnie rzecz biorąc, obiekt porusza się względem układu współrzędnych, a układ współrzędnych porusza się i obraca w "przestrzeni". Konieczne jest zatem określenie czasu, do którego odnoszą się trzy współrzędne przestrzenne oraz czasu, dla którego definiowany jest układ współrzędnych. Te dwa czasy mogą być takie same, ale często są różne. Ponadto pozycje mogą być różnego rodzaju, w zależności od tego, czy uwzględniono aberrację, rotację dobową, załamanie i inne czynniki wpływające na kierunek obserwacji obiektu. Nazywa się je miejscami średnimi, prawdziwymi i pozornymi. EFEMERYDOM i katalogom przedstawiającym z dużą precyzją pozycje i właściwości obiektów astronomicznych w danym czasie musi zawsze towarzyszyć precyzyjne zestawienie, które określa wszystkie te różne czynniki, jeśli liczby mają być użyte właściwie i z pełną precyzją. Wektor r od początku do obiektu można przedstawić za pomocą współrzędnych prostokątnych (x, y, z); to jest, poprzez rzuty odległości r na trzy osie. Można go również przedstawić za pomocą współrzędnych sferycznych, których kierunek jest zwykle określany przez kąt podłużny (λ) w płaszczyźnie odniesienia x-y i kąt równoleżnikowy (β) od płaszczyzny odniesienia. Rzadziej stosuje się kąt biegunowy (90° - β) lub uzupełnienie kąta równoleżnikowego. Kąty podłużne i równoleżnikowe mają różne nazwy i symbole w różnych układach współrzędnych. Transformacje geometryczne położeń pomiędzy różnymi układami współrzędnych, z uwzględnieniem efektów fizycznych, można przeprowadzić stosując techniki trygonometrii sferycznej lub algebry wektorów i macierzy. Do wyjaśnienia można zastosować koncepcję sfery niebieskiej, przy czym łuki na kuli reprezentują kąty między kierunkami. Środek kuli może znajdować się w wielu różnych miejscach, ale w większości przypadków kula będzie używana do zilustrowania konkretnego układu odniesienia o określonym pochodzeniu. Należy pamiętać, że gdy obiekt przedstawiony na kuli zmienia odległości promieniowe od środka wraz z ruchem poprzecznym, zmiany te należy uwzględnić w matematyce obliczeń. Oznaczenia używane do wskazania głównych początków niebieskich układów współrzędnych są następujące
1) Topocentryczny: oglądany lub mierzony z miejsca obserwacji na powierzchni Ziemi.
(2) Geocentryczny: oglądany lub mierzony od środka Ziemi.
(3) Selenocentryczny: oglądany lub mierzony od środka Księżyca.
(4) Planetocentryczny: oglądany lub mierzony od środka planety (z odpowiednimi oznaczeniami dla poszczególnych planet).
(5) Heliocentryczny: oglądany lub mierzony od środka Słońca.
(6) Barycentryczny: oglądany lub mierzony od środka masy Układu Słonecznego.
Główne niebiańskie płaszczyzny odniesienia przechodzące przez odpowiednie początki są następujące.
(1) Horyzont: płaszczyzna prostopadła do lokalnego pionu (lub pozornego kierunku siły ciężkości) i przechodząca przez obserwatora.
(2) Południk lokalny: płaszczyzna zawierająca lokalny pion i kierunek osi obrotu Ziemi.
(3) Równik niebieski: płaszczyzna prostopadła do osi obrotu Ziemi i przechodząca przez środek Ziemi.
(4) Ekliptyka: średnia płaszczyzna (tj. pomijając okresowe perturbacje) orbity Ziemi wokół Słońca.
(5) Południk planety: płaszczyzna zawierająca oś obrotu planety i przechodząca przez element powierzchni.
(6) Równik planety: płaszczyzna prostopadła do osi obrotu planety i przechodząca przez jej środek.
(7) Płaszczyzna orbity: płaszczyzna orbity ciała wokół innego ciała (np. planety wokół Słońca lub środka ciężkości).
(8) Płaszczyzna niezmienna lub płaszczyzna Laplaciana: płaszczyzna prostopadła do osi momentu pędu układu i przechodząca przez jego środek.
(9) Równik galaktyczny: płaszczyzna przechodząca przez linię centralną lokalnej Galaktyki (Droga Mleczna).
Linia przecięcia średniej płaszczyzny równika niebieskiego i ekliptyki wyznacza kierunek równonocy (Υ). Wykorzystując rzut tego kierunku jako początek, rektascensja (α) jest mierzona w płaszczyźnie równika, a długość geograficzna niebieska (lub ekliptyka) (?) jest mierzona w płaszczyźnie ekliptyki. Rektascensję zwykle wyraża się w czasie od 0 do 24 godzin, a zarówno rektascensję, jak i długość geograficzną mierzy się w sensie dodatnim (lub prawoskrętnym). Dopełnienie rektascencji w odniesieniu do 24 godzin jest znane jako gwiazdowy kąt godzinny (SHA); w publikacjach nawigacyjnych jest ona zwykle wyrażana w stopniach. Deklinację mierzy się od płaszczyzny równikowej, dodatniej w kierunku północnym, od 0° do 90°. Szerokość geograficzną nieba mierzy się od płaszczyzny ekliptyki, dodatniej w kierunku północnym, od 0° do 90°. Równonoc występuje we wznoszącym się węźle ekliptyki na równiku; jest to kierunek, w którym Słońce w swojej rocznej pozornej drodze wokół Ziemi przecina równik z południa na północ. Nazywa się go także "pierwszym punktem Barana" i jest to równonoc wiosenna (wiosenna) na półkuli północnej. Nachylenie płaszczyzny ekliptyki do płaszczyzny równika znane jest jako NACHYLENIE EKLIPTYKI (ε). Równik i ekliptyka poruszają się z powodu działania sił zakłócających na obrót i ruch Ziemi. Stąd równonoc i nachylenie zmieniają się w funkcji czasu, więc te niebieskie układy współrzędnych muszą być dokładnie zdefiniowane w taki sposób, aby można je było powiązać ze standardowym układem, który można uznać za ustalony w przestrzeni. Linie przecięcia płaszczyzny południka z płaszczyznami horyzontu i równika wyznaczają kierunki, od których mierzony jest AZYMUT (A) i lokalny KĄT GODZINNY (h). Azymut mierzony jest w płaszczyźnie horyzontu od północy, zwiększając się w kierunku wschodnim o wartość dodatnią. Lokalny kąt godzinny mierzony jest w jednostkach czasu: 1 h na każde 15°, dodatnio na zachód w stosunku do lokalnego południka. Kąty równoleżnikowe względem horyzontu i równika są znane jako WYSOKOŚĆ (a) i DECLINACJA (σ). Wysokość mierzy się dodatnio w kierunku zenitu; w astronomii częściej stosuje się odległość zenitu, kąt od lokalnego pionu (z = 90°-a). Deklinacja (σ) jest mierzona od równika, dodatnia w kierunku północnego bieguna obrotu. ODLEGŁOŚĆ ZENITU bieguna północnego, która jest równa współdeklinacji lokalnego pionu (lub zenitu), jest równa współrzędności geograficznej punktu obserwacji. Istnieją dwa główne topocentryczne układy współrzędnych. Jeden opiera się na kierunku lokalnego pionu, który wyznacza płaszczyznę horyzontu; druga opiera się na kierunku osi obrotu Ziemi, która wyznacza płaszczyznę równika niebieskiego. Południk lokalny, który zawiera kierunek lokalnego pionu i kierunek osi obrotu, jest wspólny dla obu ram. Współrzędne kątowe w topocentrycznym układzie współrzędnych horyzontu i południka lokalnego nazywane są azymutem i wysokością. Azymut (A) mierzony jest od 0° do 360° od północy w kierunku wschodnim; to znaczy w sensie negatywnym w odniesieniu do kierunku zenitu. (W niektórych okolicznościach azymut można mierzyć od południa, dlatego należy określić zastosowaną konwencję, aby uniknąć dwuznaczności.) Wysokość (a) mierzy się dodatnio od horyzontu w kierunku zenitu. Zarówno wysokość, jak i azymut dowolnego ciała niebieskiego zmieniają się szybko wraz z obrotem Ziemi, dlatego do wielu celów wygodniej jest używać układu topocentrycznego równika niebieskiego i południka lokalnego. Kierunek północnego bieguna niebieskiego jest równoległy do osi obrotu Ziemi, a wysokość bieguna jest równa szerokości geograficznej punktu obserwacji. Wtopocentrycznym układzie równikowym współrzędne kątowe °nane są jako lokalny kąt godzinny (LHA lub h) i deklinacja (σ). LHA mierzy się od 0° do 360?, czyli od 0 do 24 godzin, od południa w kierunku zachodnim (tj. zwrot negatywny w odniesieniu do kierunku północnego bieguna niebieskiego), a LHA obiektu niebieskiego wzrasta o około 15°, czyli 1 godzinę, na każdą godzinę. Deklinację mierzy się od równika do bieguna niebieskiego, dodatnio w kierunku północy. Deklinacja ciała niebieskiego nie ulega zmianie w wyniku dobowego obrotu Ziemi.
Niebiańska mechanika
Mechanika nieba to nauka o obiektach we wszechświecie poruszających się pod wpływem różnych sił. Obecnie termin ten powszechnie przyjmuje się jako teorię ruchu obiektów w Układzie Słonecznym, chociaż nadal można go zastosować do dynamiki gwiazd wchodzących w skład wielu układów; dynamikę grawitacyjną gromad gwiazd i galaktyk zwykle traktuje się jako odrębne obszary badań, ponieważ wykorzystuje się w nich różne techniki. Mechanika nieba zajmuje się przede wszystkim dynamicznymi konsekwencjami siły grawitacji między obiektami, ale mogą działać dodatkowe siły. Obejmują one od interakcji pływowych planet i satelitów po wpływ promieniowania elektromagnetycznego na małe cząstki. Kiedyś uważana za nieco archaiczną dziedzinę astronomii, w ostatnich latach wzrosło zainteresowanie mechaniką nieba, gdy zdano sobie sprawę, że jej deterministyczne równania ruchu mogą prowadzić do chaotycznych rozwiązań. Doprowadziło to do licznych zastosowań w Układzie Słonecznym i lepszego zrozumienia długoterminowej ewolucji dynamicznej.
Teoria orbity
W XVII wieku KEPLER wyprowadził swoje trzy prawa ruchu planet empirycznie na podstawie obserwacji . Później, w tym samym stuleciu, NEWTON wykazał, że prawa Keplera są konsekwencją prostego prawa siły inverse kwadrat, zgodnie z którym wielkość siły przyciągania grawitacyjnego pomiędzy dwiema masami, m1 i m2, oddzielonymi odległością d, jest dana wzorem F = G⋅m1m2/ d2 gdzie G = 6,672 × 10-11 m3 kg-1 s-2 jest uniwersalną stałą grawitacyjną. Newton wykazał, że orbita jednej masy względem drugiej opisuje PRZEKRÓJ STOŻKOWY (tj. okrąg, elipsę, parabolę lub hiperbolę), w którym wartości wektorów położenia i prędkości (odpowiednio r i v) w określonej chwili określają typ podążanej ścieżki. Ponieważ moment pędu układu jest stały, względna orbita dwóch mas definiuje płaszczyznę - płaszczyznę orbity - i dlatego współrzędne biegunowe płaszczyzny w pełni opisują względny ruch. W przypadku orbit eliptycznych równanie
biegunowe określające odległość promieniową r w funkcji prawdziwej długości geograficznej θ wynosi r = a(1 - e2) /1 + e cos(θ - ω) gdzie a jest półoś wielką elipsa, a e to jej mimośród .Kąt ω określa orientację elipsy względem ustalonej linii odniesienia przy θ = 0. W przypadku grawitacyjnego oddziaływania dwóch mas wielkości a, e i są stałe, podczas gdy θ rośnie nieliniowo w czasie. Orbity eliptyczne są ograniczone oscylacją pomiędzy skończonymi granicami; w związku z tym mają one charakter okresowy. Równanie biegunowe elipsy nie umożliwia obliczenia położenia obiektu w danym momencie. Można to jednak zrobić za pomocą równania Keplera, które wiąże anomalię mimośrodową E z anomalią średnią M. Składowe wektora położenia względem układu można zapisać jako r cos f = a(cos E - e) i r sin f = a(1 - e2)1/2 sin E.
Równanie Keplera można zapisać jako M = E ? e sin E gdzie E i M mierzy się w radianach. Anomalia średnia ma tę przydatną właściwość, że rośnie w czasie ze stałą szybkością określoną przez średni ruch, n = [G(m1 + m2)/a3]1/2 z czasem potrzebnym na wykonanie jednego orbity (jeden okres orbitalny) dane przez T = 2π[a3/[G(m1 + m2)]1/2. Znając moment, w którym masa m2 znajduje się na określonej długości geograficznej (zwykle przyjmuje się, że jest to czas przejścia przez perycentrum, τ ), można obliczyć położenie masy m2 w dowolnym późniejszym momencie w kontekście problemu dwóch ciał. Ponieważ jednak równanie Keplera jest przestępne w E, zwykle konieczne jest podjęcie rozwiązania numerycznego. W przypadku ruchu w trzech wymiarach konieczne jest zdefiniowanie dwóch dodatkowych kątów: nachylenia orbity I oraz długości geograficznej węzła wstępującego. Co więcej, argument perycentrum, ω, jest używany do określenia kąta między węzłem wstępującym a perycentrum, a długość perycentrum wynosi teraz ω= ω + Ω, gdzie &oemga; i Ω znajdują się w różnych płaszczyznach. Należy zauważyć, że chociaż ruch ten jest rozpatrywany w układzie współrzędnych nachylonym względem płaszczyzny orbity, podstawowe właściwości orbity Keplera pozostają niezmienione. Ruch dwóch ciał pod wpływem ich wzajemnego przyciągania grawitacyjnego Newtona (problem dwóch ciał) jest jednym z niewielu problemów całkowalnych w mechanice niebieskiej. Ma tę właściwość, że masa na orbicie powraca do tej samej wartości r po tym, jak f wykonał cykl azymutalny wynoszący dokładnie 2π. Dodanie jeszcze tylko jednego ciała niszczy tę symetrię. Problem staje się niecałkowalny w tym sensie, że nie jest możliwe żadne praktyczne rozwiązanie matematyczne, chociaż nadal można uzyskać pewne wyniki analityczne. Teoria Księżyca jest gałęzią mechaniki niebieskiej poświęconą badaniu ruchu Księżyca. Problem ten jest stosunkowo prosty, jeśli ogranicza się do przewidywania drogi Księżyca wokół kulistej Ziemi. Jednak rzeczywistość jest taka, że zaburzenia słoneczne są również znaczące i należy wziąć pod uwagę bardziej subtelne, długoterminowe skutki, takie jak modyfikacje kulistego kształtu Ziemi spowodowane pływami i rotacją. Układ Słoneczny ma hierarchiczną strukturę składającą się z kilku podsystemów, z których każdy składa się z masy centralnej z jedną lub większą liczbą mniejszych mas krążących na każdym poziomie. Na przykład planety krążą wokół Słońca, ale większość z nich ma również własnemałe naturalne satelity. Dlatego też, rozważając ruch satelity krążącego blisko planety, zazwyczaj można zignorować zakłócenia pochodzące od Słońca. Nie oznacza to, że orbita jest prostą, stałą elipsą; niesferyczność planety powoduje krótko- i długoterminowe zmiany w niektórych elementach orbity. Same orbity planet nie są stałe, ponieważ wszystkie planety zakłócają się nawzajem. Dlatego chociaż w dowolnym momencie planeta porusza się po eliptycznej ścieżce określonej przez jej chwilowe położenie i prędkość (nazywa się to jej orbitą oscylacyjną), kształt i orientacja tej elipsy nieustannie się zmieniają z powodu zaburzeń ze strony innych planet. Zmiany takie są niewielkie, ale zauważalne z biegiem czasu. Ogólnie rzecz biorąc, najmniejsze obiekty, takie jak cząstki PIERŚCIENIA PLANETARNEGO i METEOROIDY, poddawane są najszerszej gamie dodatkowych zaburzeń w postaci sił niegrawitacyjnych. Ich rozmiar oznacza, że wpływ padającego promieniowania elektromagnetycznego może wpływać na ich orbity. Na przykład efekt POYNTING-ROBERTSONEFECT jest spowodowany nieizotropową reemisją promieniowania i jest ważny dla cząstek, których wielkość jest porównywalna z długością fali promieniowania. Powoduje to tłumienie mimośrodu i nachylenia oraz zmniejszenie półosi wielkiej niezależnie od tego, czy cząstka znajduje się na orbicie heliocentrycznej, czy planetocentrycznej. Uważa się, że efekt ten jest odpowiedzialny za transport pyłu kolizyjnego na dużą skalę z pasa asteroid do wnętrza Układu Słonecznego. W latach następujących po pionierskiej pracy Newtona znaczny wysiłek poświęcono ilościowemu określeniu, a następnie przewidywaniu ruchów obiektów tworzących Układ Słoneczny. Jednym z wybitnych sukcesów mechaniki niebieskiej były niezależne wyjaśnienia Johna Coucha ADAMSA i LEVERRIERA dotyczące zaobserwowanych anomalii w ruchu planet zewnętrznych. Doprowadziło to bezpośrednio do odkrycia planety Neptun przez GALLE w 1847 r. Poprawa precyzji, z jaką można było zrozumieć orbity planet, doprowadziła do jeszcze bardziej doniosłego odkrycia w XX wieku. EINSTEIN wykazał, że niewielka rozbieżność wynosząca 0,43 roku-1 w ruchu długości peryhelium Merkurego wynika z faktu , że teoria grawitacji Newtona była błędna i że jego własna ogólna teoria względności może wyjaśnić te obserwacje. Mechanika nieba zyskała na znaczeniu jako nauka praktyczna wraz z nadejściem ery kosmicznej w latach sześćdziesiątych XX wieku. Zwiększona liczba sztucznych satelitów na orbicie okołoziemskiej umożliwiła bardzo szczegółowe badanie pola grawitacyjnego Ziemi poprzez monitorowanie orbit satelitów i ich zmian w czasie. Konieczność wysyłania statków kosmicznych na inne planety doprowadziła do wykorzystania mechaniki niebieskiej w projektowaniu skomplikowanych podróży orbitalnych. Technika wspomagania grawitacyjnego, w ramach której statek kosmiczny zmienia swoją energię orbitalną w wyniku bliskiego przelotu planety lub satelity, stała się podstawą zautomatyzowanej eksploracji zewnętrznego Układu Słonecznego. Chociaż obserwacje naziemne można wykorzystać do oszacowania mas planet i satelitów, dokładne monitorowanie trajektorii statków kosmicznych pod kątem małych odchyleń zaowocowało bezpośrednimi pomiarami pola grawitacyjnego wielu obiektów Układu Słonecznego.
Zaburzenia grawitacyjne
Historycznie rzecz biorąc, teoria zaburzeń w mechanice nieba została podzielona na tak zwane perturbacje ogólne i specjalne. Ogólna teoria zaburzeń polega na badaniu ewolucji zaburzonej orbity poprzez rozważenie analitycznego rozwiązania równań różniczkowych opisujących zmienność elementów orbity obiektu lub jego współrzędnych. W przeciwieństwie do specjalnych zaburzeń , teoria polega na analizie orbity za pomocą numerycznego lub półnumerycznego rozwiązania równań. Chociaż rozwiązanie analityczne pozwala uzyskać lepszy wgląd, jest to często niemożliwe w mechanice niebieskiej dla wszystkich układów z wyjątkiem najprostszych. Rozwiązanie numeryczne może zapewnić wgląd w problem, a dostępność szybkich komputerów cyfrowych pozwala na rozważenie dużej liczby warunków początkowych, co umożliwi osiągnięcie zrozumienia. Rozważmy masę centralną mc i dwie orbitujące masy m i m′ z wektorami położenia r i r′ względem mc. Ruch m można opisać rozwiązaniem równania wektorowego r = ∇?(U + R) gdzie
U = G⋅mc + m/r R = Gm′/ |r - r′| ? Gm r ⋅ r′/ r′ 3 .
Tutaj U reprezentuje potencjał, który powoduje ruch keplerowski dwóch ciał m i mc, a R reprezentuje zakłócający potencjał lub zakłócającą funkcję doświadczaną przez m ze względu na m′ . Istnieją podobne wyrażenia określające wpływ m na m′. Należy zauważyć, że tradycyjnie w mechanice niebieskiej potencjał przyjmuje się jako wielkość dodatnią. Chociaż wyrażenie R w kategoriach współrzędnych kartezjańskich jest stosunkowo trywialne, trudniej jest wyrazić je w kategoriach elementów orbitalnych m i m′. Obecnie można to łatwo osiągnąć za pomocą algebry komputerowej w celu przeprowadzenia niezbędnej manipulacji szeregami. Rozwinięcie R ma ogólną postać
gdzie j jest liczbą całkowitą, a ? jest kombinacją długości geograficznych (tj. kątów odniesionych do ustalonego kierunku), którą można zapisać jako
gdzie ji są liczbami całkowitymi, a λ = M + ω= n(t - τ) + ω to średnia długość geograficzna. Każdy argument cosinus φ spełnia relację d′Alemberta, według której
Inną ważną właściwością jest to, że wartość bezwzględna współczynnika ω′, ω, Ω&primel i Ω,i (tj. |j3|, |j4| , |j5| i |j6|) jest równe najniższej potędze e′ , e, s′ = sin 1/2I′ s = sin 1/2I, które występuje w towarzyszącym terminie. Wszystkie argumenty można sklasyfikować według wartości bezwzględnej sumy współczynników średnich długości geograficznych λ′ i λ w argumencie cosinus. Dlatego rozwinięcie obejmujące argumenty rzędu N-tego będzie uwzględniać potęgi mimośrodów i nachyleń N-tego rzędu. Funkcja zakłócania jest używana w połączeniu z równaniema LAGRANGE′a dające równania zmian elementów orbity. W najniższym rzędzie w e i I można je zapisać jako
gdzie R zawiera wymagane terminy w rozwinięciu funkcji zakłócającej dla zewnętrznego zakłócenia. Używanie równań Lagrange′a w niektórych zastosowaniach w mechanice nieba wiąże się z identyfikacją tych wyrazów w rozwinięciu R, które prawdopodobnie będą ważne dla konkretnego problemu będącego przedmiotem zainteresowania, przy założeniu, że wszystkie nieistotne, krótkookresowe wyrazy będą miały zero efekt uśredniony w czasie. Kluczowymi elementami orbitalnymi w tym procesie są półosie wielkie a i a′ . W problemie niezakłóconym średnie długości geograficzne λ′ i λ rosną liniowo odpowiednio z szybkościami n′ i n, podczas gdy wszystkie pozostałe kąty w ogólnym argumencie φ są stałe. W układzie zaburzonym λ′ iλ nadal szybko się zmieniają, ale pozostałe kąty zmieniają się powoli. Dlatego wszelkie argumenty, które nie dotyczą średnich długości geograficznych, powoli się zmieniają. Dają one początek terminom długoterminowym lub świeckim. Przy pewnych założeniach możliwe jest wyprowadzenie świeckiej teorii orbit planet. Powstałe sprzężone równania ruchu można rozwiązać analitycznie, uzyskując przybliżone elementy orbity (z wyjątkiem średnich długości geograficznych) w funkcji czasu. Rozważmy ogólny argument, φ = j1λ + j2λ gdzie a i a′ są takie, że j1n′ + j2n ≈ 0 i φ zmienia się w okresie dłuższym niż którykolwiek z dwóch okresów orbitalnych. Dzieje się tak, gdy istnieje prosta zależność liczbowa pomiędzy dwoma średnimi ruchami lub okresami orbitalnymi. Argumenty te powodują powstanie terminów rezonansowych w rozwinięciu (patrz REZONANCJA). Jeśli chodzi o półosie główne, równoważnym warunkiem jest a ≈ (|j1|/|j2|)2/3a′ . Układ Słoneczny zawiera więcej par obiektów znajdujących się w rezonansie, niż można by się spodziewać przypadkowo. Dzieje się tak prawdopodobnie na skutek momentów pływowych, powodujących rozszerzanie się orbit satelitów w różnym tempie w miarę upływu lat Układu Słonecznego. Człony rezonansowe są zlokalizowane na półosiach wielkich. Podczas gdy szczególna kombinacja kątów może zmieniać się powoli na jednej półosi ciała zaburzonego, ta sama kombinacja może zmieniać się szybko na innej. Natomiast terminy świeckie można uznać za globalne. Uważa się, że każdy argument, który nie jest ani świecki, ani rezonujący, stanowi podstawę do krótkotrwałego stosowania. Naturalne satelity, takie jak Księżyc, podnoszą pływy na swoich planetach macierzystych; sama planeta może również być zniekształcona obrotowo. W każdym przypadku możliwe jest wyprowadzenie równoważnej funkcji zakłócającej reprezentującej potencjał doświadczany przez orbitującą masę i zastosowanie równań Lagrange′a. Można na przykład wykazać, że eliptyczna orbita półosi wielkiej a wokół spłaszczonej planety o promieniu Rp przebiegałaby z szybkością ˙ ω ≈ 3/2⋅nJ2(Rp/a)2, gdzie n jest ruchem średnim, a J2 jest współczynnikiem drugiej harmonicznej strefy planety. Jednym z głównych postępów teoretycznych w mechanice nieba w ostatnich latach było wyprowadzenie mapowań algebraicznych umożliwiających numeryczne śledzenie zaburzonych orbit przez dłuższe okresy. Te mapowania (lub mapy) można podzielić na trzy szerokie typy:
• mapy rezonansowe, z których wyprowadzana jest funkcja zakłócająca w konkretnym miejscu rezonansowym - część świecka jest całkowalna, a część rezonansowa może być zastąpiona ciągiem funkcji σ Diraca zastosowanych w postaci impulsów;
• mapy spotkań, gdzie orbitę uważa się za prosty ruch keplerowski, aż do momentu koniunkcji lub bliskiego zbliżenia się do ciała zakłócającego - zaburzenie jest stosowane jako impuls.
• Mapy N-ciał, w których kartezjańskie równania ruchu są przeformułowane w specjalnym układzie współrzędnych, który izoluje część keplerowską składającą się z dwóch ciał od części interakcji - wykorzystuje się funkcje σ Diraca do traktowania części interakcji jako impulsów.
Obecnie powszechne stało się wykorzystywanie map N-ciał do przeprowadzania numerycznych badań długoterminowej stabilności Układu Słonecznego.
Chaotyczny ruch
Fakt, że ruch w Układzie Słonecznym wynika z prostego prawa matematycznego, doprowadził do przekonania, że odkrycie praw rządzących wszechświatem jest równoznaczne z możliwością przewidzenia jego stanu przeszłego i przyszłego. Przykładem tej opinii był pogląd LAPLACE′a na wszechświat jako na system całkowicie deterministyczny. Jednakże pod koniec XIX wieku badania POINCA′E nad problemem trzech ciał dostarczyły pierwszej wskazówki, że systemy deterministyczne mogą dopuszczać nieprzewidywalne rozwiązania. W Układzie Słonecznym przywoływano chaos, aby wyjaśnić tak różnorodne zjawiska, jak LUKI KIRKWOODA w pasie asteroid i niezwykły obrót satelity Saturna HYPERION. Obecnie uznaje się, że chaos odegrał ważną rolę w kształtowaniu dynamicznej struktury Układu Słonecznego. Jednym z kluczowych problemów mechaniki niebieskiej jest stabilność Układu Słonecznego. Współczesne symulacje numeryczne pokazują, że orbity planet, zwłaszcza planet wewnętrznych, są technicznie chaotyczne w tym sensie, że błąd tak mały jak 0,01 minuty dzisiejszej pozycji planety rozprzestrzenia się wykładniczo i niemożliwe staje się przewidzenie jej położenia za około 107-108 lat . Niemniej jednak orbity pozostają zbliżone do swoich obecnych konfiguracji w skalach czasowych porównywalnych z wiekiem Układu Słonecznego. Jedynym yjątkiem jest Merkury, gdzie niektóre badania wykazały prawdziwą niestabilność orbity (e →? 1) w ciągu ∿1010 lat. Dokładny mechanizm powodujący takie chaotyczne zachowanie jest nadal nieznany, chociaż uważa się, że odpowiedzialne są za to świeckie interakcje między planetami. Wraz z odkryciem innych układów planetarnych stało się jasne, że naszą wiedzę na temat tych procesów można sprawdzić w celu odkrycia, które rozkłady mas i orbit planet prowadzą do konfiguracji stabilnych przez cały czas życia gwiazdy.
Mechanika niebiańska w XVIII i XIX wieku
MECHANIKA NIEBIESKA (tak nazwana przez Laplace′a w 1798 r.) przed XX wiekiem polegała na zastosowaniu do Układu Słonecznego prawa powszechnego ciążenia Izaaka Newtona. Zgodnie z tym prawem pojedyncze ciało krążące wokół większego ciała porusza się po przekroju stożkowym; obecność trzeciego ciała zakłóca ruch. Mechanika nieba zajmuje się powstałymi w ten sposób zakłóceniami. Podejście Newtona do tego problemu miało zasadniczo charakter jakościowy. W przybliżonym sformułowaniu pokazał, że wszystkie znane nierówności Księżyca wynikają jakościowo z prawa grawitacji. W swojej Teorii ruchu Księżyca (1702) oraz w drugim wydaniu Principia (Scholium do Twierdzenia III.25) określił ilościowo swoją teorię, dopasowując ją do obserwacji i dodając kilka terminów ilościowych bez wyjaśniania ich pochodzenia. PROBLEM TRZECH CIAŁ został ponownie sformułowany w latach czterdziestych XVIII wieku jako zbiór równań różniczkowych. To sformułowanie mogłoby być rygorystyczne i zawierać w sposób dorozumiany wszystkie
nierówności wynikające z powszechnej grawitacji. (Okazało się, że do rozwiązania można dojść jedynie poprzez kolejne przybliżenia.) To, że takiego sformułowania nie udało się uzyskać wcześniej, wynika z braku wśród matematyków w tradycji Leibniza opracowanego rachunku funkcji trygonometrycznych. To LEONARD EULER (1707-83) w 1739 r. jako pierwszy podał systematyczne reguły algorytmiczne różniczkowania i całkowania funkcji trygonometrycznych. Do 1744 roku Euler wyprowadził nierówności Księżyca, rozwiązując równania różniczkowe, ale opublikowano tylko jego wyniki. W 1746 roku Akademia Nauk w Paryżu ogłosiła, że głównym zadaniem na rok 1748 będzie sformułowanie "teorii Jowisza i Saturna wyjaśniającej nierówności, jakie te planety wydają się powodować we wzajemnych ruchach". Nagrodzony esej był autorstwa Eulera; opublikowana w 1749 r. dostarczyła pierwszego powszechnie dostępnego opisu analitycznego rozwiązania problemu trzech ciał. Tymczasem od 1746 r. dwóch członków komisji ds. nagród Akademii Paryskiej,
ALEXIS-CLAUDE CLAIRAUT (1713-65) i JEAN LE ROND D′ALEMBERT (1717-83), osobno przystąpiło do rozwiązania problemu i wyprowadzenia w ten sposób nierówności Księżyc. Teoria księżyca Clairauta została opublikowana w 1752 r., d′Alemberta w 1754 r.
Euler i Clairaut o równaniach ruchu
Euler zapisał równania we współrzędnych biegunowych ruchu Saturna, przy czym płaszczyzną orbity Jowisza była płaszczyzna r, φ
Tutaj P, Q i R są siłami przyspieszającymi mającymi tendencję do zmniejszania r, φ i z; współczynnik 1/2 wynika z wyboru przez Eulera jednostki przyspieszenia. Clairaut napisał równania podobne dla r i Φ, zakładając początkowo, że ruch ciała zaburzonego jest ograniczony do płaszczyzny
Tutaj M jest sumą mas ciała centralnego i zaburzonego, P jest dodatkowym przyspieszeniem promieniowym wynikającym z zaburzeń, a Q jest przyspieszeniem poprzecznym. Aby rozwiązać równania, Euler zastąpił dt2/2 przez a′3(dM′)2, gdzie a&perime; jest średnią odległością Jowisza od Słońca, a M jego średnim ruchem i zastąpiło P i Q siłami przyspieszenia występującymi, gdy ruch Saturna odniesiono do nieruchomego Słońca. Następnie przyjął kolejno trzy różne przybliżone założenia, w których orbitę Jowisza i niezakłóconą orbitę Saturna przyjmowano albo jako okręgi, albo jedno jako okrąg, a drugie jako elipsę. W ramach każdej hipotezy dokonał transformacji w równania różniczkowe dla małych odchyleń r i Φ od ich wartości niezaburzonych. (Tutaj konieczne były szeregi trygonometryczne; patrz następny rozdział.) Równania rozwiązano metodą współczynników nieokreślonych. Clairaut otrzymał wyrażenie dt w kategoriach r i Φ poprzez dwukrotne całkowanie i w ten sposób wyeliminowanie. Całkowanie podwójne przekształconego równania dało mu wówczas
gdzie f , g, c są stałymi całkowania i
ρ będzie
Aby obliczyć całki , konieczne było zastąpienie r w przybliżoną funkcją Φ Clairaut użył
k/r = 1- e cos m Φ
równanie elipsy precesyjnej, w której k, e, m są nieokreślonymi stałymi.
Wprowadzenie szeregów trygonometrycznych
Księżycowa i planetarna wersja problemu trzech ciał różnią się, ponieważ v, odległość pomiędzy ciałami zakłócającymi i zaburzonymi, w przypadku księżycowym podlega jedynie niewielkim zmianom, które można wyrazić kilkoma wyrazami szeregu Taylora, podczas gdy w przypadku planetarnym jest bardzo zróżnicowane. W równaniach różniczkowych v występuje jako v-3, które waha się jeszcze bardziej gwałtownie. Potrzebne jest wyrażenie dla v-3 umożliwiające formalną integrację. Euler rozwiązał ten problem, wymyślając szeregi trygonometryczne. W pierwszym przybliżeniu pokazał v-3 = (a2 + a′2)-3/2(A + B cos θ + C cos 2θ + D cos 3θ + …ˇ ˇ ˇ) gdzie a, a&pime; są średnimi odległościami Słońca od Saturna i Jowisza, a θ jest kątem heliocentrycznym pomiędzy dwoma wektorami promieni; współczynniki C, D, E itd. są funkcjami A i B, podczas gdy A i B można obliczyć poprzez całkowanie numeryczne. Ulepszone przybliżenie wymagało uwzględnienia mimośrodów orbit i obliczenia współczynników w szeregu dla v-5, v-7 itd. Euler przeprowadził przybliżenie rzędu pierwszej potęgi mimośrodów. W 1767 roku JOSEPH LOUIS LAGRANGE (1736-1813) wprowadził nową, wydajną metodę wyznaczania współczynników szeregu na podstawie twierdzenia DeMoivre′a. Późniejsi teoretycy przenieśli przybliżenia do wyższych potęg mimośrodów. Metoda zmienności elementów orbity Eulera w traktowaniu ruchu planety zaburzonej w kierunku z zastąpiona dwoma równaniami pierwszego rzędu, jednym dla nachylenia orbity, a drugim dla długości geograficznej węzła wstępującego. W ruchu niezakłóconym wielkości te są stałe; zakłócenia czynią je zmiennymi. Przybliżone wyrażenia Eulera na ich zmiany pod wpływem zakłóceń wykazały, że nachylenie podlega jedynie niewielkim oscylacjom, podczas gdy węzeł cofał się w płaszczyźnie orbity zakłócającej planety. Było to pierwsze analityczne określenie zmienności ELEMENTU ORBITALNEGO. Euler wyprowadził zmiany innych parametrów orbitalnych w późniejszych wspomnieniach, ale to Lagrange opracował głównie tę metodę. W eseju z 1766 roku Lagrange wykazał, że zwykły sposób obliczania zaburzeń poprzez kolejne przybliżenia nieuchronnie daje wyrazy proporcjonalne do czasu, a także wyrazy n-tego rzędu w przybliżeniu (n+1)-tego rzędu. Metoda zmiany parametrów orbity pozwala uniknąć tej trudności. W swoich dalszych pracach nad perturbacjami planetarnymi Lagrange stosował wyłącznie tę metodę.
Ruch absydy Księżyca
Newton nie opublikował żadnego wyprowadzenia ruchu apsydalnego Księżyca. W pierwszym wydaniu Principiów przytoczył wyniki próby wyprowadzenia; jak wiemy, jego metoda była błędna. W późniejszych wydaniach usunął wszelkie odniesienia do niego. Pierwsze wyprowadzenia analityczne Eulera, Clairauta i d′Alembert w latach czterdziestych XVIII wieku przyniosły tylko około połowy obserwowanego ruchu apsydalnego. Clairaut w listopadzie 1747 zaproponował uzupełnienie prawa odwrotności kwadratów o człon odwrotnej czwartej potęgi, skąd można było uzyskać pozostały ruch apsydalny. Następnie w maju 1749 roku wycofał tę propozycję. Odkrył, że jeśli przejdzie do przybliżenia drugiego rzędu w odniesieniu do sił zakłócających (to znaczy zastępując wyrazy znalezione w pierwszym przybliżeniu nieokreślonymi współczynnikami z powrotem do równań różniczkowych i ponownie rozwiązując), otrzyma prawie cały obserwowany ruch apsydalny. Bez wątpienia spodziewał się, że przybliżenie drugiego rzędu przyniesie jedynie niewielką
modyfikację wyniku pierwszego rzędu i był zaskoczony, że dwa małe składniki proporcjonalne do poprzecznej siły zakłócającej mogą dać tak dużą różnicę. Euler swoją zupełnie inną drogą potwierdził wynik Clairauta. "Dopiero od tego odkrycia" - pisał do Clairauta - "można uważać prawo przyciągania odwrotnych kwadratów za solidnie ugruntowane"….
Odmiany świeckie, rzeczywiste i domniemane, do roku 1785
Odmiany świeckie są zwykle rozumiane jako zmiany monotoniczne, które kończą się jednokierunkową zmianą elementu orbity. EDMOND HALLEY w latach dziewięćdziesiątych XVII wieku wykrył ciągłe przyspieszenie średniego ruchu Księżyca już od czasów starożytnych; później śledczy to potwierdzili. Halley przypisał także świeckie przyspieszenie Jowiszowi i świeckie spowolnienie Saturnowi, aby uwzględnić starożytne i współczesne obserwacje (Tabulae astronomicae, 1749). Takie świeckie zmiany, kontynuowane w nieskończoność, doprowadziłoby do rozpadu układów Ziemia-Księżyc i planetarnych. Pierwsze ważne wspomnienia PIERRE-SIMONA LAPLACEA (1749-1827), ukończone w 1773 r., wykazały, że średnie ruchy planet, zgodnie z porządkiem kwadratów mimośrodów, są odporne na świeckie zmiany spowodowane perturbacjami planetarnymi. W podanym porządku współczynnik członu proporcjonalny do t2 w wyrażeniu długości geograficznej wynosił identycznie zero. Pozorne świeckie zmiany w średnim tempie ruchu Jowisza i Saturna, przypuszczał Laplace, mogą wynikać z zaburzeń kometarnych. We wspomnieniach przesłanych do Akademii Paryskiej w październiku 1774 r. Lagrange wyprowadził równania różniczkowe dla zaburzeń w nachyleniu orbit i węzłach planet, które zależą od orientacji i rozmiarów orbit, ale nie od tego, gdzie na nich znajdują się planety. Aby to zrobić, zastąpił tangens nachylenia orbity (θ) i długości geograficznej węzła wstępującego (ω) nowymi zmiennymi, u = θ sin ω, s = θ cos ω. Powstałe równania różniczkowe były liniowe i pierwszego rzędu i miały rozwiązanie w postaci
Tutaj stałe a, b, c, . . . są pierwiastkami równania n-tego stopnia, a pozostałe stałe można wyznaczyć z empirycznych wartości s1, u1, s2 itd. w danej epoce. Lagrange nie rozwiązał całego układu dla wszystkich sześciu znanych planet - co było ogromnym zadaniem - ale traktując dwie duże, Jowisza i Saturna, jako odrębny system, otrzymaliśmy cztery prostsze równania. Ich rozwiązanie wykazało, że węzły i nachylenie orbit tych planet oscylowały w ustalonych granicach z okresem 51 150 lat. Lagrange nazwał te zmiany świeckimi: były one oczywiście okresowe, ale ich okresy były o rząd wielkości dłuższe niż okresy zwykłych zmian okresowych, które zależą od położenia planet na ich orbitach. Laplace przeczytał wspomnienia Lagrange′a z października 1774 r., kiedy dotarły one do Paryża, i od razu zauważył (podobnie jak Lagrange), że podobna procedura będzie miała zastosowanie do dziwactw i afelii. Zatem wprowadzając nowe zmienne h = e sin L, k = e cos L, gdzie e jest mimośrodem, a L długością aphelium, wyprowadził liniowe równania różniczkowe pierwszego rzędu dla dh/dt i dk/dt. . Analiza ta została opublikowana w 1775 roku. Laplace porzucił teraz na dekadę problem zaburzeń planetarnych. Masy Merkurego, Wenus i Marsa były nieznane i nie był pewien, jaki jest zakres wpływu komet na planety. Lagrange ruszył do przodu. W 1776 przedstawił nowy dowód odporności ruchów średnich na zmiany świeckie; zawierał klasyczne sformułowanie zmienności elementów orbity i wprowadził "funkcję zaburzającą", czyli funkcję potencjalną, z której poprzez częściowe różniczkowanie można wyprowadzić siły perturbacyjne w różnych kierunkach. W 1777 roku użył funkcji zaburzającej przy pierwszym systematycznym wyprowadzeniu wszystkich znanych całek ruchu dla n ciał przyciągających się zgodnie z prawem odwrotności kwadratów. W latach 1781 i 1782 ukończył dwie części dużego traktatu wyprowadzającego świeckie nierówności wszystkich planet metodą zmienności parametrów orbit. W 1783 r. zastosował tę samą metodę do wyprowadzenia nierówności okresowych zerowego rzędu (nierówności niezależne od mimośrodów i nachylenia). W tym momencie Lagrange zdał sobie sprawę, że jego wcześniejszy dowód odporności ruchów średnich na zmiany świeckie wymaga kwalifikacji: ruchy średnie mogą wydawać się zmieniać świeckie z powodu świeckiej zmienności innych elementów orbity. Niech część pozornej zmiany średniego ruchu, która jest skorelowana ze zmianą średniej odległości Słońca, a zatem jest odporna na zmiany świeckie, będzie wynosić dp; ta część jest okresowa i zależy od położenia planet. Druga część dΣ zależy od zmian w innych elementach orbity i jest "świecka" (niezależna od pozycji planet), gdy występują inne zmiany. Odmianę d), zaproponowaną przez Lagrange′a, należy uważać za odmianę szóstego elementu orbity, czyli epoki. dΣ okazało się, że zawiera terminy świeckie dopiero wtedy, gdy przeprowadzono przybliżenie do drugiej i wyższej potęgi mimośrodów i nachyleń. Aby złagodzić pracochłonność takich obliczeń, Lagrange zaproponował uwzględnienie tylko tych terminów, które zostałyby znacznie zwiększone przez integrację. Były to terminy zawierające cosinus lub sinus kąta π takiego, że dπ = λ dp, gdzie λ jest bardzo małe; gdyż w przypadku podwójnej integracji taki człon jest mnożony przez duży współczynnikλ-2. Ale π jest liniową kombinacją średnich ruchów kilku planet, a szczegółowe badanie tych liniowych kombinacji pokaże, które z nich prowadzą do małego &;lambda;. Lagrange nie znalazł żadnej świeckiej zmiany w dΣ, która wyjaśniałaby świeckie przyspieszenia Halleya. Laplace wkrótce zastosował propozycję obliczeniową Lagrange′a nie do dΣ, ale do dp.
Rozwiązanie Laplace′a w sprawie głównych anomalii, 1785-177
23 listopada 1785 Laplace ogłosił rozwiązanie anomalii w średnich ruchach Jowisza i Saturna. J.H. Lambert odkrył, że od połowy XVII wieku tempo przyspieszania Jowisza i tempo zwalniania Saturna maleje: nierówność może mieć charakter okresowy. Wychodząc od zasady zachowania sił żywych, Laplace odkrył teraz, że świeckie zmiany, które Halley zaproponował dla tych planet, mają taki stosunek, jaki sugerowałaby ich interakcja grawitacyjna. Jak powszechnie wiadomo, dwa okresy Saturna były prawie równe pięciu okresom Jowisza; zatem średnie ruchy nJ i nS dały kombinację liniową 2nJ - 5nS, która była bardzo mała. Wynika z tego, że okresowa nierówność proporcjonalna do sin[(2nJ ? 5nS)t ] może być spora. Z drugiej strony jego współczynnik (który składałby się z kilku członów) miałby trzeci wymiar w siłach i iloczynach mimośrodów i pochyleń, a zatem mógłby być zaniedbywalny. Tylko pełne obliczenia mogłyby rozstrzygnąć pytanie. To, co odkrył Laplace, było największym zaburzeniem w Układzie Słonecznym, ze współczynnikiem dla Saturna wynoszącym -49 i dla Jowisza wynoszącym 20'; okres ten wynosił około 900 lat. Jego nowe, rozszerzone teorie dotyczące obu planet były zgodne zarówno ze starożytnymi, jak i współczesnymi obserwacjami. Wspomnienia Laplace'a z listopada 1785 roku zawierały wyjaśnienie rezonansu, który Lagrange odkrył w ruchach pierwszych trzech galileuszowych satelitów Jowisza, a także próbę udowodnienia, że mimośrody orbit a nachylenie planet musi pozostać małe. Ten ostatni dowód, jak później zauważył Le Verrier, milcząco zakładał, że wszystkie masy planet były tego samego rzędu wielkości; było zatem niejednoznaczne. W grudniu 1787 Laplace miał wyjaśnienie pozornego świeckiego przyspieszenia Księżyca. Średni składnik promieniowy zakłócającej siły Słońca jest ujemny i odejmuje się od przyciągania Ziemi. Ekscentryczność orbity Ziemi, z powodu świeckich, ale cyklicznych zmian, obecnie maleje, powodując nieznaczny spadek średniej siły zakłócającej Słońca. Stąd Księżyc wpada na niższą orbitę i zwiększa swoją prędkość kątową. Wartość Laplace'a dla przyrostu, około 10 cali na stulecie, była zgodna z przyjętą wartością empiryczną. (Ta analiza była nieodpowiednia; patrz poniżej).
Méecanique Céeleste Laplace'a
Pierwsze cztery tomy Mécanique Céleste Laplace′a, które ukazały się w latach 1798-1805, zawierały nie tylko rozszerzony wykład teorii zaburzeń, ale także jej szczegółowe zastosowanie do planet i Księżyca. Przez dziesięciolecia tomy te służyły jako podręcznik par Excellence dla astronomów matematycznych. Dokładne wyjaśnienie wszystkich wykrywalnych nierówności w Układzie Słonecznym stało się w zasięgu ręki. Masy Merkurego, Wenus i Marsa można określić na podstawie zaburzeń. Najwyraźniej komety nie zakłócały planet w zauważalny sposób. Laplace osiągał swoje sukcesy, stosując mieszankę metod, wybierając jedną lub drugą, ponieważ zapewniała ona szybsze podejście do określonego celu. Jego procedura dotycząca nierówności planetarnych proporcjonalnych do zerowej i pierwszej potęgi mimośrodów i mas gwarantowała pełny przebieg. Aby otrzymać nierówności okresowe wyższego rzędu, postępował według swego rodzaju ostrego strzelania, co pozostawiało niepewność, czy wszystkie wyrazy danego rzędu małości zostało rozliczone. Do ruchów średnich dodał bardzo długoterminowe nierówności okresowe i wykorzystał w ten sposób zmodyfikowane ruchy średnie do wyznaczania nierówności krótkoterminowych. Świeckie różnice zostały określone przez jeszcze inną procedurę. Ta różnorodność metod zrodziła pytanie: czy nie można przyjąć jednej, wyraźnie spójnej procedury w celu ustalenia wszystkich nierówności? Tymczasem robotnicy tradycji laplacowskiej mieli dość jasne zadanie. Rozwój funkcji zaburzającej musi zostać przeniesiony na wyższe rzędy przybliżenia, a dedukcja nierówności wyższego rzędu powinna stać się bardziej systematyczna. Baron de Damoiseau i Giovanni Plana realizowali te imperatywy w swoich teoriach księżycowych. Teorie planetarne sformułowane przez URBAIN JJ LEVERRIERA (1811-77), a po nim SIMONA NEWCOMBA (1835-1909), wywodziły się z tej samej tradycji, a ich różnica polegała na szerszej podstawie obserwacyjnej i większej precyzji.
Odkrycie Neptuna
Siódma planeta, Uran, została odkryta przez Williama Herschela w 1781 r. W 1821 r. Alexis Bouvard, konstruując teorię Urana, stwierdził, że nie jest w stanie przedstawić obserwacji z oczekiwaną dokładnością kilku sekund łukowych. Po 1821 r. rozbieżności wzrosły, osiągając na początku lat czterdziestych XIX wieku prawie dwie minuty łukowe. Czy odpowiedzialna była za to nieznana, niepokojąca planeta? W połowie lat czterdziestych XIX wieku JOHN COUCH ADAMS (1819-92) w Anglii i Le Verrier we Francji niezależnie podjęli się odpowiedzi na to pytanie. Przyjęli, że orbita zakłócającej planety leży na ekliptyce, a szerokości geograficzne Urana są niewielkie. Zaakceptowali prawo Titiusa-Bodego, regułę liczbową podającą w przybliżeniu odległości znanych planet od Słońca i sugerującą, że następna planeta będzie miała średnią odległość od Słońca wynoszącą 38 jednostek astronomicznych. Następnie należało przypisać wartości ekscentryczności orbity i peryhelium, epoki i masy nieznanej planety, aby wytworzyć zaburzenia, które pogodzą przewidywane ruchy Urana z obserwacjami. Obaj badacze odnieśli sukces. Przedstawiając swoje wyniki GEORGE BIDDEL AIRY, astronomowi królewskiemu, pod koniec 1845 roku, Adams spotkał się z odmową: Airy nie ufał prawu Titiusa-Bodego. LeVerrier wysłał swoje przewidywania do Johana Gottfrieda Galle z Obserwatorium Berlińskiego i 23 września 1846 roku Galle skierował swój teleskop na wskazany obszar nieba, ale nie udało mu się znaleźć szukanego dysku planetarnego. Jego asystent, Heinrich Louis d′Arrest, zasugerował skonsultowanie się z nowym Atlasem Gwiazd Akademii Berlińskiej. Porównując niebo i mapę, Galle zlokalizował gwiazdę ósmej mag, której nie ma na mapie, 52 minuty od pozycji podanej przez LeVerriera. 24-go przeniosła się: była to poszukiwana planeta. To odkrycie Neptuna na drodze czystej kalkulacji okrzyknięto triumfem. Orbitę planety można teraz obliczyć na podstawie obserwacji. Średnia odległość Słońca wyniosła 30,1 jednostek astronomicznych: prawo Titiusa - Bodego było błędne. Ekscentryczność orbity była jedną dziesiątą wielkości, jak przypuszczali Adams i LeVerrier, a peryhelium było oddalone o ponad 100? od miejsca, w którym je umieścili. Wraz z odkryciem satelity Neptuna, Trytona, pod koniec 1846 roku, możliwe było dokładne określenie masy Neptuna; Wartości Adamsa i LeVerriera były za duże odpowiednio o współczynniki 2,65 i 1,88. Jednak w okresie od około 1800 do 1850 roku, obejmującym koniunkcję Urana i Neptuna w 1821 roku, kiedy perturbacje były największe, hipotetyczne orbity Adamsa i LeVerriera były bliskie orbitom rzeczywistym, dawały prawie prawidłowe zakłócenia w tym przedziale czasowym i pozwoliło na prawidłowe określenie położenia Neptuna.
Dziedzictwo Lagrange′a - Poissona: Hansen, Hamilton, Jacobi, Delaunay
W latach 1808 i 1809 Simeon-Denis Poisson (1781-1840) przedstawił Akademii Paryskiej dwa wspomnienia wykorzystujące i rozwijające metodę Lagrangianu wariancji dowolnych stałych. Pobudzili Lagrange′a do dalszych innowacji. Teoria Lagrange&prine;a-Poissona została objaśniona w Mécanique Analytique Lagrange′a, wydanie drugie (tom I, 1811; tom II, 1815). Poisson wprowadził koncepcję "pędu sprzężonego" pi dla każdej współrzędnej qi. Jeśli q′i = dqi/dt , a T jest energią kinetyczną, to pi = ∂T /∂?q′i . Pokazał, że jeśli a, b są dwiema całkami układu, to "nawias Poissona"
jest niezależna od czasu. Następnie pokazał, że jeśli ai są stałymi całkowania, które stają się zmienne pod wpływem zaburzeń, to
gdzie Ω jest funkcją zaburzającą. Poisson zaproponował, a Lagrange udowodnił, że
gdzie ai może być wartością qi, a bi wartością pi, w t = 0. Równania w postaci zostaną później nazwane "kanonicznymi". P. A Hansen (1795-1874), od 1825 r. aż do śmierci dyrektor Seeberg Observatory, był samoukiem w dziedzinie mechaniki niebieskiej. Ponieważ wzory Laplace′a na współrzędne zaburzone uwzględniały tylko pierwszą potęgę sił zakłócających, wkrótce zwrócił się ku metodzie zmiany parametrów orbitalnych. Miało to jednak swoje wady: aby znaleźć zaburzenia trzech współrzędnych, trzeba było określić zaburzenia sześciu elementów, a te ostatnie były często znacznie mniejsze niż pierwsze, w związku z czym bardzo małe ilości musiały być obliczane z różnic dużych wielkie ilości. Hansen starał się uzyskać bezpośrednie obliczenie współrzędnych poprzez rygorystyczne wyprowadzenie ze wzorów Lagrange′a - Poissona. Współrzędne były funkcjami elementów orbity i czasu; elementy orbitalne były funkcjami czasu. Korzystając z reguły łańcuchowej dla pochodnych cząstkowych, Hansen opracował dwuczęściową procedurę. Najpierw uzyskał zaburzone wartości wektora długości i promienia w płaszczyźnie chwilowej, zastępując "czas zaburzony" - czas zmieniony w celu uwzględnienia efektów perturbacyjnych - do standardowych wzorów eliptycznych. Następnie wyznaczył położenie płaszczyzny chwilowej względem płaszczyzny odniesienia za pomocą zmian dwóch zmiennych sprzężonych p i q. Hansen po raz pierwszy zastosował tę procedurę we wspomnieniach na temat wzajemnych zaburzeń Jowisza i Saturna; zdobył nagrodę Akademii Berlińskiej w 1831 r. (G.W. Hill w swoich dokładniejszych obliczeniach zaburzeń Jowisza i Saturna w latach osiemdziesiątych XIX wieku postępował zgodnie z procedurą Hansena). Następnie Hansen zajął się problemem Księżyca; jego tablice księżycowe, opublikowane w 1857 r., zostały przyjęte jako podstawa dla brytyjskich i francuskich efemeryd narodowych od 1862 do 1922 r. Matematyk Arthur Cayley w latach pięćdziesiątych XIX wieku wychwalał procedurę Hansena jako jedyną dostępną wówczas rygorystyczną metodę leczenia. Procesy Hansena były jednak skomplikowane; niewielu astronomów je rozumiało. W dwóch artykułach opublikowanych w latach 1834 i 1835 w Philosophical Transactions of the Royal Society of London irlandzki matematyk William Rowan Hamilton położył nowe podwaliny pod dynamikę. Wprowadził "funkcję główną" S, zdefiniowaną jako
gdzie L = T - V to "Lagrangian", V to energia potencjalna. S, oceniane wzdłuż krzywej rozwiązania różniczkowych równań ruchu, musi mieć wartość ekstremalną, tak że δS = 0. Wynika z tego, że cząstkowe równanie różniczkowe problemu miało postać
gdzie H jest "Hamiltonianem", czyli energią całkowitą T + V. Równaniom ruchu Hamilton nadał postać kanoniczną
Niemiecki matematyk C. G. Jacobi (1804-1851) uogólnił teorię Hamiltona, pokazując, że ma ona zastosowanie do układów niekonserwatywnych i że rozwiązanie dynamicznych równań ruchu można uzyskać z całkowitego rozwiązania. Sformułował także warunek przekształcenia jednego zbioru zmiennych kanonicznych w inny. Niezależnie od prac Hamiltona i Jacobiego, CHARLES DELAUNAY (1816-72) w 1846 r. zaproponował wyznaczenie perturbacji Księżyca na podstawie równań początkowych
Tutaj (L, l), (G, g), (H, h) to sześć specjalnie wybranych elementów orbitalnych, sprzężonych parami w sposób (LP.3), a R jest funkcją zaburzającą. Delaunay rozwinął R jako serię cosinusów wielokrotności odpowiednich kątów, do siódmego rzędu małych wielkości. Jego strategia rozwiązania polegała na podzieleniu R na dwie części, R1 i R?R1, gdzie R1 jest największym wyrazem w R. Następnie rozwiązał z R1 podstawionym za R, uzyskując nowe wartości L, l, G, g, H, h, które następnie podstawił do R - R1. Następnie należało rozdzielić R-R1 na dwie części i cały proces powtórzyć. Na każdym etapie wszystkie wykrywalne efekty wynikające z rozważanej części R zostały określone raz na zawsze, co stanowi główną przewagę nad innymi metodami, w których składniki perturbacyjne łączą się, tworząc nowe składniki perturbacyjne. Kompletna teoria Księżyca Delaunaya ukazała się w dwóch dużych tomach w latach 1860 i 1867. Podobnie jak wcześniejsze teorie Plany i PGD De Pontécoulant (1795-1874), była to teoria dosłowna, podająca współczynniki terminów perturbacyjnych w formie algebraicznej, a nie tylko liczebnie. Jego główną wadą była powolna zbieżność szeregów.
Ponowny przegląd świeckiego przyspieszenia Księżyca
Księżycowa teoria GW Hilla
Podstawy najbardziej innowacyjnej teorii księżycowej stulecia położył amerykański mechanik niebieski GEORGE WILLIAM HILL (1838-1914) w dwóch artykułach: "Researches in the Lunar Theory" (1878) i "On the Part of of the Lunar Theory" (1878) Ruch perygeum Księżyca będący funkcją średnich ruchów Słońca i Księżyca" (1877). Dokładność wcześniejszych teorii Księżyca była ograniczona głównie przez powolną zbieżność szeregów dających współczynniki składników perturbacyjnych; winowajcą był parametr m, stosunek miesiąca gwiazdowego do roku gwiazdowego. Pomysł Hilla polegał na wyodrębnieniu roli m i pełnym uwzględnieniu jej na początku, poprzez przyjęcie nowego pierwszego przybliżenia, a nie standardowego eliptycznego rozwiązania problemu dwóch ciał, ale specjalnego rozwiązania "ograniczonego" problemu trzech ciał , w którym Księżyc jest przyciągany, ale nie przyciąga. W ten sposób ustalił ekscentryczność i paralaksę Słońca, ekscentryczność i nachylenie Księżyca, wszystkie równe zeru i użył obrotowego układu współrzędnych, którego początek znajduje się w środku Ziemi, płaszczyzna x - y w ekliptyce, a oś x jest stale skierowana w stronę Słońca . Powstałe równania różniczkowe dopuszczone do konkretnego rozwiązania okresowego
gdzie τ = ?(t - t0), t0 to czas, w którym Księżyc przecina dodatnią oś x, a ? to częstotliwość jego okresowego ruchu wokół Ziemi; sumowania rozciągają się na wszystkie wartości całkowite i . Hill w drodze kolejnych przybliżeń określił wartości ai w szeregu szybko zbieżne w parametrzem = m/(1?m); błąd tych wartości, gdy podano m wartość, jaką ma dla ziemskiego Księżyca, nie przekroczył dwóch jednostek piętnastego miejsca po przecinku. Równanie podaje to, co Hill nazywa "orbitą wariacyjną", ponieważ zawiera główną część nierówności Księżyca, znanej jako wariacja. Aby uzyskać ekscentryczną orbitę, podobną do orbity prawdziwego Księżyca, Hill w drugiej wspomnianej powyżej pracy wprowadził swobodne oscylacje wokół wektora promienia orbity wariacyjnej i pod kątem prostym do niego. Oscylacja ?p wzdłuż wektora promienia jest dana wzorem
przykład tak zwanego równania Hilla. Aby otrzymać szczególne rozwiązanie, w którym ? nie występuje poza argumentami cosinusów, do pierwszego przybliżenia należy wstawić stałą c:
gdzie c jest rozwiązaniem nieskończonego, ale zbieżnego wyznacznika. Hill uzyskał wartość c dobrą z dokładnością do prawie piętnastej po przecinku; daje to ruch perygeum Księżyca jako 0,008 572 573 004 864×360°. Natomiast szereg Delaunaya dla tej stałej, choć doprowadzony do wyrazu w m9, daje wartość z dokładnością tylko do trzech cyfr znaczących. Widząc oczywistą wyższość metody Hilla, E.W. Brown rozpoczął w 1888 r. proces opracowywania za jej pomocą kompletnej teorii Księżyca . Powstałe w ten sposób tablice opublikowano w 1919 r., a w 1923 r. stały się podstawą brytyjskich i amerykańskich efemeryd.
Dzieło Poincarego
Kulminacyjnym osiągnięciem teoretycznym dziewiętnastowiecznej mechaniki nieba był Les Méthodes Nouvelles de la Mécanique Céleste autorstwa HENRI POINCAR′E (1854-1912), opublikowany w trzech tomach od 1892 do 1899. Używając teorii Hamiltona-Jacobi, Poincare badał topologicznie zakres rozwiązań problemu trzech ciał, zaczynając (podobnie jak Hill) od rozwiązań okresowych. Podejście topologiczne było nowe. Zagadnienia poruszone w tej pracy, w szczególności zbieżność szeregów stosowanych w mechanice nieba i dziwne zachowanie podwójnie asymptotycznych rozwiązań Poincarego, powróciły w drugiej połowie XX wieku w teorii Kołmogorowa-Arnolda-Mosera i teorii chaosu .
Związek okres cefeidy-jasność
Empiryczna korelacja między jasnością zmiennej cefeidy a jej okresem była znana astronomom i wykorzystywana przez nich jako skuteczna metoda określania odległości przez większą część XX wieku. Pojedynczo cefeidy mają charakterystyczne światło krzywe, szybko zwiększając jasność do maksimum, a następnie stopniowo spadając do minimalnego światła. Cykl ten stale się powtarza, a poszczególne okresy trwają od kilku do wielu setek dni, w zależności od wewnętrznej jasności gwiazdy. Łącznie skale czasowe, w których zachodzi ta okresowa cykliczność cefeid, wynoszą ściśle powiązane ze średnią jasnością gwiazd. Powód tej empirycznej korelacji jest niezwykle dobrze poznany, a zastosowania relacji okres-jasność są liczne. Konsekwencje, szczególnie dla skali odległości pozagalaktycznych, mają znaczenie w kosmologii. Zależność okres-jasność cefeid po raz pierwszy odkryła astronomka z Harvardu, Henrietta LEAVITT. Analizowała okresy i pozorne jasności wybranych cefeid, wszystkie w tej samej odległości w dwóch (obecnie znanych) pobliskich galaktykach satelitarnych Drogi Mlecznej, DUŻYCH i MAŁYCH CHMURACH MAGELLANIC. Odkryła, że pani Leavitt zapoczątkowała jedno z najważniejszych i najtrwalszych działań astronomicznych XX wieku - kalibrację skali rozmiarów Wszechświata. Tuż po tym nastąpiło odkrycie ekspansji Wszechświata przez astronoma z Carnegie Edwina HUBBLE′A , co w połączeniu dało podstawę do określenia skali czasu powstania wszechświata, opisanego przez "gorący duży bangowy model współczesnej KOSMOLOGII. Cefeidy to nadolbrzymy i jako takie należą do najjaśniejszych obiektów w galaktykach, które obecnie tworzą nowe populacje gwiazd. Według teorii ewolucji gwiazd, bezpośrednimi prekursorami cefeid są masywne, młode gwiazdy typu O i B. Te gorące (niebieskie) gwiazdy ciągu głównego powstały niedawno, ale ze względu na ich dużą masę i ogromną energię wyjściową wkrótce ewoluują od obszaru spalającego rdzeń wodorowy do niższych temperatur powierzchniowych i bardziej czerwonych kolorów. Robiąc to, te ogromne gwiazdy na krótko przechodzą przez strefę, w której ich atmosfery zewnętrzne są niestabilne na okresowe oscylacje promieniowe. Ten wąski zakres temperatur wywołujący niestabilność atmosfery definiuje tzw. "pasek niestabilności", w którym można zaobserwować pulsację cefeidy. Gwiazdy o dużej masie przechodzą przez pas przy wyższej jasności (i nieco niższych temperaturach) niż gwiazdy o mniejszej masie, które przechodzą przez pas nieco wcześniej w wyższych temperaturach i przy wyraźnie niższych jasnościach. Na wykresie barwa-jasność pasek niestabilności cefeidy jest pochylony w górę i w poprzek, w stronę czerwieni. Ujmując to inaczej, te proste rozważania z STELLAR EVOLUTION przewidują, że w przypadku cefeid istnieje zależność masa-jasność. Rzeczywiście, zapewnia to również istnienie zależności promienia od jasności tych gwiazd, ponieważ najbardziej podstawowe prawa fizyki wymagają, aby dwie gwiazdy o tej samej temperaturze (kolorze) miały różną jasność tylko w przypadku całkowitego pola powierzchni (sterowane bezpośrednio przez promienie) za różne. Ponieważ temperatura pośrednio kontroluje jasność powierzchni (poprzez funkcję Stefana prawo emisyjności, σT4), a promień wyraźnie kontroluje pole powierzchni (poprzez geometrię, 4?R2), kombinacja tych dwóch czynników daje całkowitą jasność. Wzajemną zależność pomiędzy jasnością L, efektywną temperaturą Teff i promieniem R można łatwo określić ilościowo za pomocą następującego równania opartego na argumentach fizycznych podanych powyżej:
L = 4πR2&sigmaT4eff .
Biorąc pod uwagę, że temperatura, w której gwiazdy te są niestabilne na oscylacje, obejmuje stosunkowo niewielki zakres (~300 K), jasność jest wówczas przede wszystkim funkcją średniego promienia gwiazdy w pasie niestabilności. Niestety, ani masa, ani promień żadnej gwiazdy nie są właściwościami łatwymi do zaobserwowania, zatem zależności zapisanej powyżej nie można zastosować w żadnym praktycznym zastosowaniu do wyznaczania odległości (tj. przewidywania wewnętrznej jasności). Gdyby jednak jakaś inna (bardziej bezpośrednio obserwowalna) wielkość była funkcją masy i/lub promienia, w zasadzie można by przewidzieć jasność, używając tej wielkości jako wskaźnika zastępczego promienia. Z empirycznej perspektywy wiemy już, że istnieje rozwiązanie - to, które znalazła pani Leavitt - relacja okres-jasność. Teoria łatwo wyjaśnia tę empiryczną zależność. Okresy oscylacji na powierzchni cefeidy są nieodłączną cechą gwiazdy i są oczywiście niezależne od odległości obserwatora, ale znajomość empirycznego związku
okres-jasność natychmiast sugeruje, że obserwowany okres można wykorzystać do przewidywania jasności. Z powyższych argumentów fizycznych wynika, że okres drgań może zastępować masę, promień lub jakąś ich kombinację. Rzeczywiście tak jest. Jednak natura zapewnia nam jeszcze więcej; istnieje również nieodłączny związek okresu i koloru dla cefeid. Ponieważ zarówno okres (P), jak i kolor (C) są niezależne od odległości, relacja P - C (po skalibrowaniu) pozwala wykryć zaczerwienienie międzygwiazdowe w próbce cefeid w zewnętrznej galaktyce. Pojedynczo cefeidy mogą stać się bardziej czerwone i słabsze z powodu wewnętrznych różnic temperatur lub bardziej czerwone i słabsze z powodu wygaśnięcia linii wzroku. W przypadku kolekcji cefeid wewnętrzne różnice w kolorach będą się uśredniać. Ponieważ jednak wymieranie jest efektem systematycznym, będzie miało tendencję do przenoszenia całej populacji do bardziej czerwonych i słabszych poziomów. W porównaniu z wewnętrzną relacją P - C, średnie odchylenie zespołu można dość
zinterpretować jako spowodowane ekstynkcją międzygwiazdową, a wywnioskowaną odległość skorygowaną o tę absorpcję. Wyraźną korekcję efektów systematycznych, takich jak pociemnienie przez pył międzygwiazdowy, najlepiej osiągnąć obserwując cefeidy na dwóch lub więcej długościach fal i wykorzystując relacje okres-kolor do przewidywania poprawek statystycznych dla średnich zespołowych. Alternatywnym podejściem jest obserwacja cefeid na długich falach, gdzie skutki wymierania międzygwiazdowego stopniowo zanikają. Na przykład obserwując cefeidę w odległości 2 ?m w bliskiej podczerwieni, w przeciwieństwie do obszaru widma 4500 A (niebieskiego), efekt ekstynkcji zmniejsza się prawie 10-krotnie. W przypadku wszystkich układów swobodnie oscylujących, czy to dzwonów, dzwonienie, wahania zegarów wahadłowych, krążące wokół planet, pulsowanie cefeid, obracanie się galaktyk, a nawet rozszerzanie się (lub kurczenie się) całego Wszechświata, głównym fizycznym wyznacznikiem skali czasu
(lub okresu oscylacji, P) jest średnia gęstość układu . Gęstość jest z samej definicji wyłącznie funkcją masy i promienia. Matematyczny wyraz tego prawa natury jest zawarty w równaniu
Pρ1/2 = Q.
Na najbardziej podstawowym poziomie równanie to jest formalnie równoważne zasadzie zachowania energii. Trzecie prawo Keplera dotyczące ruchu planet, łączące okresy obrotu planet wokół Słońca z ich zmierzonymi półgłównymi osiami orbit, jest innym wyrażeniem tego samego wzoru (patrz SLAWS KEPLERA). Również scharakteryzowana zależność pomiędzy tempem ekspansji Wszechświata przez STAŁĄ HUBBLELA, a średnia gęstość Wszechświata w porównaniu z jego gęstością krytyczną to ten sam wzór w ujęciu kosmologicznym. Historię stojącą za ustaleniem wiarygodnego punktu zerowego relacji cefeidy P-L czyta się jak mikrokosmos równoległych poszukiwań ustalenia skali rozmiarów całego wszechświata. Rzeczywiście te dwa zadania, odmienne pod względem skali, są często jednym i tym samym problemem, wielokrotnie przeplatającym się. W wielu kontekstach skala odległości cefeidy jest skalą odległości pozagalaktycznej. Na przykład Kosmiczny Teleskop Hubble′a (HST) został w dużej mierze zaprojektowany w oparciu o oczekiwane
wykorzystanie cefeid do docierania do galaktyk i pomiaru ich odległości aż do gromady w Pannie, około 10 lub 20 razy dalej niż najbardziej odległe galaktyki mierzone przez cefeidy z ziemi. Kiedyś oczekiwano, że pomiar odległości cefeidy od Panny będzie Świętym Graalem skali odległości, ale tak się nie stało. W latach, które upłynęły między zaprojektowaniem HST a jego ostatecznym uruchomieniem i późniejszą renowacją, nasz pogląd na Wszechświat zmienił się w zasadniczy sposób: obecnie wiadomo, że wielkoskalowe przepływy towarzyszą wielkoskalowym strukturom wypełniającym pobliski wszechświat. Innymi słowy, prędkości mierzone jako przesunięcia ku czerwieni dla galaktyk nie składają się po prostu z pojedynczego składnika ekspansji Hubble'a, ale nakładają się na siebie prędkości przepływu wynikające z zaburzeń grawitacyjnych pobliskiej materii w postaci pobliskich galaktyk, grup i gromad. Kluczowy projekt dotyczący pozagalaktycznej skali odległości opierał się na wykorzystaniu cefeid jako wskaźników odległości.
Wykorzystując tradycyjne metody odkrywania pozagalaktycznych cefeid poprzez obrazowanie w świetle optycznym (gdzie amplitudy cefeid są duże w porównaniu z bardziej czerwonymi falami), Kosmiczny Teleskop Hubble'a był używany przez kilka grup, w tym Key Project, do określania odległości do ponad dwudziestu galaktyk na zewnątrz poza gromadami Panny i Pieca, prawie o rząd wielkości dalej, niż było to wcześniej możliwe przy użyciu teleskopów naziemnych. Odległości cefeid do galaktyk są następnie wykorzystywane do kalibracji szeregu wtórnych wskaźników odległości dla galaktyk rozciągających się znacznie dalej w przepływie Hubble'a. Dzięki obserwacjom w kolorze czerwonym (pasmo I) uzyskano również drugi kolor potrzebny do korekcji ekstynkcji i wyprowadzono rzeczywiste odległości. Przeprowadzono także dalsze badania wybranych obiektów przy 1,6 ?m za pomocą HST i kamery bliskiej podczerwieni (NICMOS), aby potwierdzić zaczerwienienia i wzmocnić ustalenia odległości w oparciu o długość fali, która
jest niewrażliwa zarówno na ekstynkcję, jak i metaliczność. Skład chemiczny, czyli metaliczność, stwarza kolejną prawdopodobną komplikację, którą należy uwzględnić przy ocenie niepewności związanej z odległościami cefeid. Nie wykryto żadnych znaczących różnic między optycznie skorygowanymi modułami odległości rzeczywistej a modułami wzmocnionymi danymi z bliskiej podczerwieni. Na zakończenie projektu kluczowego skalibrowano wiele wtórnych wskaźników odległości przy użyciu zmiennych cefeid. Każda z tych metod dała zwrócone wartości tempa rozszerzania się Wszechświata, stałą Hubble'a, mieszczącą się w przedziale od 68 do 78 km s-1 Mpc-1. Jednakże określono również odległości (i prędkości) do galaktyk w głównych gromadach i wokół nich. Po skorygowaniu o zakłócający wpływ gromad, te galaktyki polowe wykazują również zależność prędkość-odległość, którą można utożsamić z ekspansją Wszechświata. Na podstawie samych odległości cefeid można wyprowadzić siłę związku między prędkością a odległością, więc lokalnie
wynosi ona 73 km s-1 Mpc-1. Ta wartość H0, niezależnie od tego, czy pochodzi wyłącznie z cefeid w pobliskich galaktykach, czy z galaktyk powiązanych ze skalą odległości cefeid, ale uczestniczących w przepływie z prędkością 10 000 kmˇs-1, konsekwentnie sugeruje wiek 12 miliardów lat dla małej gęstości wszechświat
CH Cygni
CH Cygni (CH Cyg) to jedna z najbardziej zagadkowych GWIAZD SYMBIOTYCZNYCH. Znany niegdyś jako krótkookresowa zmienna półregularna i standard dla typu widmowego M6III, układ zapoczątkował niezwykłą serię erupcji w 1964 r. Pojawienie się niebieskiego kontinuum i skromnych linii emisyjnych H I doprowadziło do jego przeklasyfikowania na gwiazdę symbiotyczną, pomimo braku silne wyższe linie jonizacji charakterystyczne dla większości symbiotyków. Niektóre z tych linii odkryto później dzięki widmom wyższej jakości uzyskanym w latach 70. i 80. XX wieku. Mimo to nieregularne zachowanie układu podczas spoczynku i erupcji wyraźnie odróżnia CH Cyg od większości gwiazd symbiotycznych. CH Cyg ma wspólne właściwości z Ceti (MIRA) i symbiotyczną gwiazdą RAqr, dwoma gigantami typu M6-M7 z towarzyszem - białym karłem. Wszystkie znajdują się stosunkowo blisko, w odległości 100-300 pc w porównaniu z odległością 1 kpc w typowym symbiotycznym układzie podwójnym. Systemy zawierają pulsujące CZERWONE GIGANTY z okresami ∿100 dni w CH Cyg i ∿1 roku w Mira i R Aqr; wszystkie mają okresy orbitalne trwające od dziesięcioleci do stuleci. Połączenie olbrzyma późnego typu i długiego okresu orbitalnego w pobliskim układzie podwójnym powoduje interesujące zachowanie, którego nie obserwuje się w innych gwiazdach symbiotycznych, takich jak Z ANDROMEDAE. Badanie tej ewolucji jest bardzo popularne; zrozumienie tego okazało się nieuchwytne.
Podstawowe właściwości
CH Cyg wykazuje oszałamiającą gamę zmian fotometrycznych. Fluktuacje w krótkiej skali czasowej obserwuje się przy długościach fal optycznych i rentgenowskich. Zmiany optyczne są spójne, obejmują okres 2500-3000 s i amplitudę rosnącą od ∿0,02 mag przy 7000 Å do ∿0,3 mag przy 3600 Å. Obserwacje rentgenowskie wskazują na niezmienną, miękką składową o kT ∿ 0,4 keV i zmienną składową o kT ∿7 keV. Zmienność promieniowania rentgenowskiego występuje w skalach czasowych tak krótkich jak 300 s, ale nie jest spójna. Występują również dłuższe różnice w skali czasowej. Na krzywych blasku w świetle optycznym i bliskiej podczerwieni pojawiają się półkoherentne zmiany z okresami ∿100 dni, ∿770 dni, ∿1300 dni i ∿32 lata. Typowa amplituda tych zmian wynosi ∿0,5 mag w świetle optycznym i ∿0,25 mag w bliskiej podczerwieni. Amplitudy i fazy tych zmian zmieniają się z dekady na dekadę. W kilku badaniach zaproponowano dodatkowy okres 5700 dni, powstały w wyniku zaćmień źródła linii emisyjnej przez czerwonego olbrzyma. Kolory optyczne układu są zwykle bardziej czerwone podczas zaćmienia. Istnieją dobre dowody na zmiany PRĘDKOŚCI RADIALNEJ w kilku okresach fotometrycznych. Prędkości obliczone na podstawie cech absorpcji czerwonego olbrzyma wskazują okresy od ∿760 do ∿5500 dni. Krótszy okres jest podobny do okresów orbitalnych innych gwiazd symbiotycznych. Wyprowadzona funkcja masy jest również porównywalna z funkcją masy innych symbiotyków, jeśli zmiany prędkości wynikają z ruchu orbitalnego. Jednak w przeciwieństwie do większości symbiotyków, okres ten nie zawsze jest obecny na krzywej blasku. W pojedynczych olbrzymach późnego typu często obserwuje się nieregularne zmiany światła i prędkości, zatem okres ten może być okresem pulsacji lub (co jest znacznie mniej prawdopodobne) okresem rotacji. Dłuższy okres ma większe wsparcie jako prawdziwy okres orbitalny układu. Koniuncje orbitalne pokrywają się z minimami intensywności linii emisyjnych. Opisane poniżej zdarzenia związane z wyrzucaniem strumieni również wydają się przypadać na ten okres. Amplituda prędkości prowadzi do rozsądnych mas czerwonego olbrzyma 1-3 M⊙ i gorącego składnika 0,5-1,0 M⊙ . Spektroskopowe zmiany CH Cyg są na szczęście bardziej łagodne niż zmiany fotometryczne. Widmo zawsze wskazuje na istnienie giganta typu M, z silnym czerwonym kontinuum i głębokimi pasmami absorpcji TiO. Typ widmowy tego składnika waha się od M5 do M7. Składnik gorący ma trzy stany: (i) stan nieaktywny, w którym niebieskie kontinuum i linie emisyjne są nieobecne lub ledwo wykrywalne; (ii) stan niski, w którym niebieskie kontinuum i linie emisyjne HI są stosunkowo słabe; (iii) stan wysoki, w którym niebieskie kontinuum jest mocne i przypomina widmo nadolbrzyma typu F . Skromne linie emisyjne H I i Fe II towarzyszą kontinuum typu F w stanie wysokim. Niektóre linie wysokiej jonizacji, takie jak [O III] w świetle optycznym i C IV w ultrafiolecie, są obecne w stanach wysokich i niskich. Linie te są zwykle silniejsze w stanie niskim niż w stanie wysokim, jak w przypadku innych gwiazd symbiotycznych. Jednakże linie emisyjne zawsze wydają się słabsze w stosunku do kontinuum UV lub optycznego niż w przypadku innych gwiazd symbiotycznych. Pochodzenie tej różnicy jest nieznane. Profile linii emisyjnych CH Cyg są skomplikowane i bardzo zmienne. Większość linii oznacza ruchy mas z prędkościami 100-200 km/s. Linie te są zwykle symetryczne względem prędkości systemowej, ale czasami wykazują dodatkową emisję z prędkością dodatnią lub ujemną. Kiedy linie HI są mocne, często mają szerokie profile z głębokimi centralnymi odwróceniami absorpcji. Profile te przypominają linie emisyjne obserwowane w karłowatej NOVAE i innych zmiennych kataklizmicznych. Jednakże linie często stają się jednoszczytowe, co nie jest typowe dla nowych karłowatych. Zmienność linii HI może być powiązana ze złożonymi zmianami fotometrycznymi, ale dostępne dane nie są na tyle obszerne, aby można było jednoznacznie powiązać je z którymkolwiek okresem fotometrycznym. Co zaskakujące, niektóre z najciekawszych aktywności CH Cyg występują w stanach niskich. W 1984 r. gorący element zaczął wyrzucać materiał z dużą prędkością, wkrótce po spadku jasności optycznej o 2-3 mag. Gdy podczas tego spadku kontinuum typu F i kilka linii emisyjnych zanikło, gwiazda wytworzyła silne linie emisyjne [O III] wskazujące, że materia porusza się z prędkościami około 500 km na s-1. Intensywność emisji kontinuum radiowego o średnicy 1-10 cm wzrosła 3-krotnie w ciągu około 1 miesiąca. Prawie cała ta emisja radiowa ograniczała się do dwóch węzłów gazu oddalającego się od gwiazdy centralnej z przewidywaną prędkością ∿1000 (d/200 szt.) km s-1. Wyrzut ten jest podobny do bipolarnych dżetów obserwowanych w AKTYWNYCH JĄDRACH GALAKTYCZNYCH i GWIAZDACH PRZED GŁÓWNĄ SEKWENCJĄ. Przestrzennie rozdzielone widma optyczne wyraźnie powiązały emisję [O III] z węzłami radiowymi. Emisja radiowa malała, gdy węzły oddalały się od centralnego źródła, a następnie nieznacznie wzrosła, gdy źródło wyrzuciło drugi, mniejszy zestaw węzłów poruszających się z tą samą prędkością. Zdarzenie to rozpoczęło się około 200 dni po pierwszym wyrzucie i towarzyszyło mu dwukrotny spadek jasności optycznej. Trzeci mały wyrzut rozpoczął się około 200 dni później, ale nie był powiązany ze spadkiem jasności. Wszystkie te węzły zanikły w ciągu kilku lat, kiedy system wznowił swoje "normalne" widmo stanu niskiego. Tworzenie się dżetów związane ze znacznym spadkiem jasności optycznej rozpoczęło się ponownie w latach 1997-1998. Kilka optycznych linii emisyjnych jednocześnie rozwinęło szerokie cechy wskazujące na ruchy mas z prędkościami 500-1000 kmˇs-1. Układ szybko się zregenerował, wzrastając o 1,5 mag w ultrafiolecie w okresie od maja do lipca 1998 r. 14-letni odstęp między dwoma wybuchami radiowymi jest o 1-2 lata krótszy niż jeden z proponowanych okresów orbitalnych.
Interpretacja
Pochodzenie dziwnego zachowania CH Cyg jest niejasne. Trzy stany emisji - nieaktywny, niski i wysoki - są niezwykłe: większość symbiotyków ma stany niski i wysoki. Wiele silnych okresowości na krzywej blasku jest również rzadkie. Widmo słabej linii emisyjnej jest nietypowe, chociaż Mira i kilka innych symbiotyków ma podobne widma linii emisyjnych. Obecny obraz układu CH Cyg zaczyna się od oddziałującego układu podwójnego złożonego z olbrzyma typu M i gorącego BIAŁEGO KARŁA. Biały karzeł akreuje materię utraconą przez giganta. Energia wytwarzana przez ACCRETION napędza obserwowaną aktywność. Nieregularne pulsacje olbrzyma modulują tempo akrecji na białego karła, co zmienia poziom aktywności. Jest mało prawdopodobne, aby biały karzeł wytwarzał dużo energii w wyniku termojądrowego spalania nagromadzonej masy: maksymalna jasność, ∿100 l, jest mała jak na białego karła z powłoką spalającą jądro. Dodanie drobniejszych szczegółów do tego zdjęcia było trudne. Zaproponowano dwa warianty. Pierwsza zakłada szeroki układ podwójny z okresem orbitalnym około 5500 dni. Pulsujący czerwony olbrzym odpowiada za okresy ∿100 i ∿700 dni. Magnetyczny biały karzeł - podobny do białego karła w Z And - obraca się z okresem 2500-3000 s. Akrecja na biegunach magnetycznych tego białego karła powoduje zmiany w krótkiej skali czasowej. Stany nieaktywne występują w pobliżu apastronu, gdy biały karzeł jest daleko od redolbrzyma, a tempo akrecji jest niskie. Stany te są długowieczne, ponieważ binarny większość czasu spędza w apastron. Stany aktywne występują w pobliżu PERIASTRONU, gdy tempo akrecji jest wysokie. W tym modelu przełączanie pomiędzy stanami niskimi i wysokimi wynika z braku równowagi pomiędzy ciśnieniem magnetycznym obracającego się białego karła a ciśnieniem materii w wietrze czerwonego olbrzyma. Stany wysokie występują, gdy ciśnienie tłoka przekracza ciśnienie magnetyczne. Akrecja na białym karle tworzy następnie kontinuum typu F, chociaż mechanizm fizyczny tworzący to kontinuum jest niejasny. Stany niskie występują, gdy ciśnienie magnetyczne przekracza ciśnienie barana i zapobiega akrecji na białym karle. Ten mechanizm "śmigła" napędza również strumienie dwubiegunowe w procesie, który w najlepszym razie jest słabo poznany. Druga koncepcja uważa CHCyg za system potrójny. W tym modelu czerwony olbrzym i biały karzeł zamieszkują: zamknij plik binarny z okresem 760 dni. Zwykły karzeł G krąży wokół tego układu podwójnego w okresie 5500 dni. Warianty tego zdjęcia zastępują karła G innym olbrzymem M, ale spektroskopowe dowody na istnienie dwóch czerwonych olbrzymów w układzie nie są przekonujące. System potrójny zapewnia naturalne wyjaśnienie dwóch trwałych modulacji systemu, 760 dni i 5500 dni. Pulsacje czerwonego olbrzyma są nadal potrzebne przez inne długie okresy; Magnetyczny biały karzeł jest nadal odpowiedzialny za pulsację optyczną trwającą 2500-3000 s. Zaletą tego modelu jest to, że bliski wewnętrzny układ podwójny ma strukturę podobną do typowej gwiazdy symbiotycznej. Zwiększony transfer masy możliwy w bliższym układzie podwójnym może napędzać niezwykłą aktywność gorącego komponentu. Model śmigła może w dalszym ciągu powodować przełączanie między stanami wysokim i niskim, ale pochodzenie stanu nieaktywnego jest niejasne. Inne gwiazdy symbiotyczne z okresami orbitalnymi ~700 dni nigdy nie są nieaktywne. Krótkie okresy pozornej bezczynności w niektórych symbiotykach występują, gdy czerwony olbrzym zakrywa gorący składnik. Najpopularniejsza wersja modelu potrójnej gwiazdy zakłada, że oba czerwone olbrzymy przyćmiewają gorący składnik, tworząc okresy nieaktywne. Ta geometria jest a priori mało prawdopodobna i może nie dawać wystarczająco długich okresów nieaktywności. Wyjaśnienie aktywności odrzutowca w stanie niskim jest również wyzwaniem, ponieważ prawie wszystkie inne symbiotyki wyrzucają więcej materiału w stanach wysokich niż w stanach niskich. Większość analiz CH Cyg koncentrowała się na danych fotometrycznych. Aby zrozumieć energetykę gorącego składnika i dynamikę Mgławicy, potrzebne będą szczegółowe modele danych spektroskopowych. Żaden z proponowanych modeli CH Cyg nie pozwala na wiele przewidywań dotyczących przyszłego zachowania systemu; dalsze prace mogą zaowocować lepszymi testami modeli i pozwolić na dokonanie ostatecznego wyboru pomiędzy nimi.
Gwiazdy CH i gwiazdy barowe
Klasyczne gwiazdy barowe (lub "Ba II") to CZERWONE GWIAZDY OGROMNE, których widma wykazują silne linie absorpcyjne baru, strontu i niektórych innych ciężkich pierwiastków, a także silne cechy spowodowane cząsteczkami węgla. Wraz z pokrewną klasą gwiazd CH, gwiazdy Ba II odegrały kluczową rolę w ustaleniu istnienia reakcji wychwytu neutronów we wnętrzach gwiazd, które są odpowiedzialne za syntezę ciężkich pierwiastków. Niedawno gwiazdy Ba II i CH dostarczyły mocnych dowodów na transfer masy w układach podwójnych, który drastycznie zmienia skład powierzchni gwiazdy towarzyszącej.
Gwiazdy barowe
Gwiazdy Ba II zostały po raz pierwszy rozpoznane przez W.P. Bidelmana i P.C. Keenana w 1951 roku. Są to olbrzymy G-K, których widma wykazują niezwykle silną linię absorpcyjną Ba II przy 4554 Å, wraz z wzmocnionymi liniami Sr II i pasmami molekularnymi CH, C2 i CN cząsteczki. Prototypem jest gwiazda trzeciej wielkości ζ Capricorni. W ciągu następnej dekady badania widm przy wysokim rozproszeniu wykazały, że zwiększa się liczebność wielu ciężkich pierwiastków, zwłaszcza pierwiastków Sr, Y i Zr; pierwiastki ziem rzadkich, takie jak La, Ce, Nd i Sm; i oczywiście Ba. Wkrótce zdano sobie sprawę, że są to dokładnie te pierwiastki, które mają zostać zsyntetyzowane, gdy jądra "zarodkowe" grupy żelaza zostaną wystawione na strumień neutronów i w ten sposób zostaną zbudowane do wyższych atomów wagowych, w skali czasowej, która jest powolna w porównaniu ze skalą czasową rozpadu beta. Ten tak zwany "proces s" prowadzi do dużej liczebności pierwiastków chemicznych o małych przekrojach wychwytu neutronów (stanowiących "wąskie gardła" w łańcuchu wychwytu neutronów), które są dokładnie pierwiastkami w szczytach mas atomowych wokół Sr i Ba.
Gwiazdy CH
Gwiazdy CH są blisko spokrewnioną klasą, właściwie odkrytą po raz pierwszy jeszcze wcześniej niż gwiazdy Ba II przez P.C. Keenana w 1942 roku. Są to w zasadzie odpowiedniki gwiazd baru w Populacji II, posiadające podobne wzmocnienia pierwiastków procesu s i bardzo silne pasma gwiazd Cząsteczka CH . Jednakże gwiazdy CH mają słabe cechy zwykłych metali, takich jak żelazo, ponieważ gwiazdy te należą do starej, ubogiej w metale populacji naszej Galaktyki. Gwiazdy CH znajdują się zarówno w halo galaktycznym, jak i w kilku gromadach kulistych. Gromada ? Centauri zawiera najbogatszą populację gwiazd CH, około pół tuzina.
Problem jasności
Na początku lat siedemdziesiątych XX wieku nukleosyntetyczne pochodzenie wzmocnionych pierwiastków chemicznych w gwiazdach Ba II i CH było dość dobrze poznane: powstają one we wnętrzach gwiazd, gdy strumień neutronów napromieniowuje jądra zarodkowe grup żelaza. Może się to zdarzyć na przykład podczas mieszania związanego z impulsami termicznymi helu, które łączą jądra 13C i cząstki alfa; każda reakcja uwalnia 16O jądro i wolny neutron. Węgiel jest syntetyzowany podczas spalania helu w jądrach czerwonych olbrzymów. Następnie proces mieszania powoduje, że produkty tych reakcji zostają odsłonięte na powierzchni gwiazdy. Jednakże w połowie lat siedemdziesiątych szczegółowe obliczenia ewolucji gwiazd ujawniły poważny problem ewolucyjny: wymagany rodzaj mieszania (zwany "trzecim pogłębianiem") występuje tylko w wysoko rozwiniętych, jasnych gwiazdach z asymptotycznej gałęzi olbrzyma (AGB) . Jednak wiadomo było, że gwiazdy Ba II i CH mają jasność jedynie zwykłych czerwonych olbrzymów, o wiele za słabą, aby mogło nastąpić jakiekolwiek pogłębianie. Problem zaostrzył się po odkryciu w 1974 r. przez H.E. Bonda tak zwanego "podolbrzyma gwiazdy CH", które są gwiazdami typu F i G o jeszcze niższych jasnościach, rozciągającymi się w niektórych przypadkach aż do ciągu głównego i wykazującymi podobne wzorce. wzmocnionych pierwiastków ciężkich i węgla. Późniejsze prace sugerują, że "karłowate gwiazdy barowe" byłyby lepszą nazwą dla większości gwiazd tej klasy, ponieważ większość z nich nie cierpi na skrajny niedobór żelaza. Jeszcze dalej w ciągu głównym, w typie widmowym K, pod koniec lat siedemdziesiątych XX wieku odkryto klasę "karłowatych gwiazd węglowych". Wszystkie te obiekty są zdecydowanie zbyt słabe, aby we własnych wnętrzach zsyntetyzować pierwiastki procesu S i węgiel, nie mówiąc już o wymieszaniu ich z powierzchnią gwiazdy. Co więcej, żaden z tych obiektów nie wydaje się być szczególnie rzadkimi gwiazdami; na przykład badania spektroskopowe na dużą skalę pokazują, że około 1% czerwonych olbrzymów należy do klasy Ba II, a podobny ułamek karłów F-G to karły baru lub podolbrzymy CH.
Rozwiązanie
Rozwiązanie problemu jasności pojawiło się na początku lat 80. XX wieku, kiedy R.D. McClure i jego współpracownicy ustalili, że praktycznie wszystkie gwiazdy Ba II i CH to spektroskopowe układy podwójne, z dość długimi okresami i typowymi odległościami orbitalnymi rzędu 2 AU. Doprowadziło to do uświadomienia sobie, że układ podwójny zawierał kiedyś gwiazdę AGB, wymieszał węgiel i pierwiastki procesu s na swoją powierzchnię, a następnie przeniósł tę "zanieczyszczoną" materię do gwiazdy towarzyszącej. W wielu przypadkach towarzysz znajdowałby się na ciągu głównym lub w jego pobliżu, a obecnie jest postrzegany jako karłowata gwiazda barowa, karłowata gwiazda węglowa lub podolbrzym CH. Kiedy zanieczyszczona gwiazda ciągu głównego ewoluuje, stając się czerwonym olbrzymem (lub jeśli transfer masy nastąpi bezpośrednio z gwiazdy AGB do towarzysza czerwonego olbrzyma), będzie postrzegana jako klasyczny czerwony olbrzym Ba II (lub jako gwiazda gwiazda CH, jeśli układ podwójny jest ubogim w metal członkiem populacji II).
Rozwiązanie potwierdzone
Bezpośrednim testem scenariusza podwójnego byłoby znalezienie towarzysza gwiazdy barowej - białego karła. Powyższy scenariusz w rzeczywistości wymaga, aby wszyscy towarzysze byli białymi karłami, czyli pozostałością po byłej gwieździe AGB. W oszałamiającym potwierdzeniu scenariusza E Böhm-Vitense wykazał w 1980 roku, że ζ Cap ma towarzysza gorącego białego karła, odkrytego w ultrafiolecie przez satelitę INTERNATIONAL ULTRAVIOLET EXPLORER. Późniejsze obserwacje UV za pomocą IUE, a ostatnio przeprowadzone przez Böhm-Vitense i jej współpracowników za pomocą Kosmicznego Teleskopu Hubble′a, ujawniły kilka kolejnych przykładów gwiazd Ba II z towarzyszami - białymi karłami. Jednak w wielu przypadkach biały karzeł osłabł poniżej wykrywalności, a jego obecność ujawnia się jedynie w zmiennej prędkości radialnej tej osobliwej gwiazdy optycznej.
Mechanizm zanieczyszczeń
Niedawne prace nad Ba II i pokrewnymi gwiazdami skupiły się na precyzyjnym mechanizmie, dzięki któremu gwiazda AGB zanieczyszcza swojego niewinnego towarzysza. Dwie główne możliwości to: (a) gwiazda AGB ewoluuje, aby wypełnić swój płat Roch′a, a następnie rozlewa znaczne ilości materiału otoczki na towarzysza; oraz (b) że gwiazda AGB zanieczyszcza towarzysza jedynie poprzez wiatr gwiazdowy. W scenariuszu (a) wynikiem byłoby zwykle oddziaływanie wspólnej otoczki, ze spiralnym opadaniem orbity do znacznie mniejszej odległości, tak że układ podwójny wyłonił się jako zmienna kataklizmiczna, a nie gwiazda barowa. Jednak niektórzy autorzy argumentowali, że możliwy jest stabilny przelew płatka Roche′a, co pozwala uniknąć spiralnego opadania. Scenariusz (b) jest prawdopodobnie bardziej prawdopodobny przynajmniej w przypadku większości gwiazd barowych, zarówno ze względu na ich wciąż duże odległości między orbitami, jak i dlatego, że wiele z nich ma nieco ekscentryczne orbity, co nie miałoby miejsca w przypadku przepełnienia płata Roch′a.
Obserwatorium rentgenowskie Chandra
Wystrzelone 23 lipca 1999 roku na pokładzie wahadłowca kosmicznego Columbia z przylądka Canaveral Obserwatorium Rentgenowskie Chandra jest pierwszym teleskopem astronomicznym w promieniach rentgenowskich, który dorównuje mocy obrazowania wynoszącej 1/2 sekundy łukowej i zdolności rozdzielczej widma wynoszącej 0,1% teleskopów optycznych. Nazwa Chandra pochodzi od Subramaniana Chandrasekhara, znanego jako Chandra i autora granicy Chandrasekhara. Chandra odniosła jak dotąd ogromny sukces i produktywność. (Wiele przykładów można znaleźć na stronie http://chandra.harvard.edu.) Każdy eksperyment, który jest 10 lub 100 razy lepszy od swoich poprzedników, jest praktycznie pewny, że dokona rewolucyjnych odkryć, a CHANDRA w dramatyczny sposób demonstruje ten truizm. Przykładami mogą być rozstrzyganie trwających od dziesięciu lat debat za pomocą jednej obserwacji: tak, promienie rentgenowskie komet powstają w wyniku wymiany ładunków; nie, większość galaktyk eliptycznych nie ma zbyt wiele gorącego gazu w swoim ośrodku międzygwiazdowym, ale mają odpowiednią ilość zwartych układów podwójnych; nie, przepływy chłodzące w gromadach galaktyk jak dotąd tylko chłodzą (do 2×107 K); i tak, KOSMICZNE TŁO PROMIENIOWANIA X składa się ze światła wielu kwazarów - około 1000 w każdym obszarze nieba wielkości Księżyca. Inne przykłady to zupełnie nowe odkrycia, które wymagają dalszych badań: typ kwazara, który, przewrotnie, jest zasłonięty w promieniach rentgenowskich, ale wyraźnie świeci w świetle optycznym; widmowe linie absorpcyjne, które wydają się pochodzić z kąpieli gorącego gazu, w której znajduje się nasza galaktyka Drogi Mlecznej i cała nasza Lokalna Grupa galaktyk. (Wydaje się, że jest tam bardzo dużo tego "ciepłego, gorącego ośrodka międzygalaktycznego" lub " CHWILA", że może to być nawet "brakująca masa", która spaja galaktyki Grupy Lokalnej); relatywistycznie poruszające się dżety z kwazarów świecą jasno na obrazach Chandry, o ile gromady galaktyk znajdują się naprzeciwko, i jaśniej, gdy są dalej, dzięki wyższej temperaturze i intensywności kosmicznego mikrofalowego tła, więc jest więcej tych fotonów zostać rozproszone przez szybko poruszające się elektrony dżetu, uzyskując w ten sposób wystarczającą energię, aby stać się promieniami rentgenowskimi, które widzimy. Potem są gniazda super jasnych układów podwójnych rentgenowskich w galaktykach wybuchowych, które wydają się przekraczać LIMIT EDDINGTONA, jeśli zawierają normalną czarną dziurę o masie 10 mas Słońca. Czy mogą sugerować nową i nieistniejącą populację czarnych dziur o masach pośrednich (100-10(4) mas Słońca)? Widmo gwiazdy neutronowej (tj. nie będącej w układzie podwójnym lub pozostałości po supernowej) przedstawia widmo ciała doskonale czarnego o dobrze określonej temperaturze, wraz z odległością daje jasność i łącząc je w ten sposób obszar GWIAZDY NEUTRONOWEJ. Może to być pierwszy przykład nowego typu gwiazdy i nowego typu materii - GWIAZDY KWARKOWEJ. Rozdzielczość Chandry zapewnia 100 razy większą czułość w porównaniu z wcześniejszymi misjami rentgenowskimi, ponieważ światło tła jest odbijane, umożliwiając dostrzeżenie znacznie słabszych źródeł, a także zapewnia dobrą rozdzielczość widmową. Rozdzielczość Chandry wynika z jej niespotykanego lustra rentgenowskiego. Promieniowanie rentgenowskie rejestrowane przez Chandrę ma zakres 0,1-10 keV (12-0,12 nm). Optyka rentgenowska odbija promienie rentgenowskie tylko wtedy, gdy uderzają przelotnie, pod kątem około 1°. Zatem zwierciadła rentgenowskie tylko nieznacznie zaginają światło, dając teleskopom rentgenowskim duże współczynniki f, 8,3 dla Chandry. Zatem lustro Chandry o średnicy 1,2 m musi mieć ogniskową 10,070 m. Aby zwiększyć powierzchnię Chandry, cztery zestawy niemal cylindrycznych muszli lusterek są zagnieżdżone jedna w drugiej, co daje w sumie 800 cm2. Aby poprawić współczynnik odbicia, są one pokryte irydem, pierwiastkiem o wysokim Z i dużej gęstości. Ponieważ do utworzenia obrazu potrzebne są dwa odbicia, stosuje się parabole/hiperbole Woltera typu 1. Przy długości fali fotonów wynoszącej zaledwie kilka nm powierzchnie zwierciadeł muszą być gładsze (<0,04 nm dla Chandry), w przeciwnym razie fotony zostałyby rozproszone pod dużymi kątami, zamazując obraz. Aby rozproszyć widmo promieniowania rentgenowskiego, Chandra posiada trzy zestawy transmisyjnych siatek dyfrakcyjnych, zoptymalizowanych pod kątem niskich (LETG), średnich (MEG) i wysokich (HEG) energii. Wszystkie mają gęstość linii około 1000 mm-1 i są zbudowane przy użyciu technologii półprzewodnikowej. Siatki zachowują się jak obiektywne pryzmaty, tworząc obraz źródła dla każdej długości fali. Ponieważ gwiazda tworzy mały obraz w Chandrze, różne długości fal są dobrze oddzielone. Chandra oferuje dwa typy detektorów: "ACIS" składa się z urządzeń ze sprzężeniem ładunkowym (CCD), kuzynów CCD kamer wideo; "HRC" wykonany jest z płytek mikrokanałowych stosowanych w goglach noktowizyjnych. HRC może określić czas przybycia fotonów promieniowania rentgenowskiego do 16 ms, ma najmniejsze piksele (0,4 sekundy łuku) i duże pole widzenia (30 minut łuku × 30 minut łuku). HRC ma czułość na fotony o niskiej energii (do E ∿0,05 keV), dlatego jest używany do obrazowania widm z LETG. ACIS ma lepszą wydajność i rozdzielczość energetyczną. ACIS wykorzystuje dwa typy chipów CCD: "oświetlone z przodu" (FI), które wykrywają promienie rentgenowskie o wyższej energii (E >1 keV), promienie rentgenowskie mają niskie tło, natomiast "oświetlone z tyłu" (BI) działają dobrze (QE > 0,5) do 0,5 keV. Przetworniki CCD rentgenowskie określają energię każdego promieniowania rentgenowskiego na podstawie liczby wytwarzanych przez nie elektronów. Przypadkowe wystawienie głównego układu 16 arcmin × 16 arcmin, składającego się z czterech przetworników CCD FI, na energetyczne (100 keV) protony w wietrze słonecznym tuż po wystrzeleniu obniżyło ich rozdzielczość energetyczną. Duża część tej rozdzielczości została odzyskana poprzez chłodzenie chipów i specjalne oprogramowanie. Mniejszy układ BI 8 arcmin × 8 arcmin BI pozostał nienaruszony. Ponieważ każdy foton jest rejestrowany indywidualnie, zdjęcia rentgenowskie mają cztery wymiary: położenie (x, y), energię i czas. Zatem w przeciwieństwie do Kosmicznego Teleskopu Hubble'a Chandra nie musi być trzymana nieruchomo podczas naświetlania obrazu. Wszelkie rozmycia usuwa się poprzez zmianę położenia każdego fotonu w oprogramowaniu (wykorzystując pozycje gwiazd z teleskopu optycznego o średnicy 11,2 cm) w Centrum Rentgenowskim Chandra, które obsługuje Chandrę dla NASA z Cambridge, Massachusetts (USA). Możliwość dowolnego wycinania zdjęć rentgenowskich jest nieoceniona przy analizach m.in. wyodrębnić widmo tego, co wygląda interesująco, bez konieczności wcześniejszego podejmowania decyzji. Chandra znajduje się na wysokiej orbicie (10 000 km × 140 000 km). Dzięki temu dowolną część nieba można obserwować bez ciągłego blokowania przez Ziemię, co zwiększa dostępność czasu obserwacji i umożliwia długie, nieprzerwane obserwacje w celu badania zmiennych źródeł. Do Chandry nie można dotrzeć promem kosmicznym, więc jej przetrwanie zależy od tego, czy żaden krytyczny system nie ulegnie uszkodzeniu ani nie zabraknie zapasów. Wszystko na pokładzie ma wytrzymać 15 lat lub dłużej. Żadnych planów istnieje możliwość zbudowania kolejnego teleskopu rentgenowskiego o porównywalnej rozdzielczości. Na szczęście NASA planuje eksploatować Chandrę przez co najmniej 10 lat.
Urządzenie ze sprzężeniem ładunkowym
Urządzenia ze sprzężeniem ładunkowym (CCD) to krzemowe detektory optyczne stosowane w większości obrazowań bliskiego UV, widzialnego i bliskiej podczerwieni oraz w spektroskopowych instrumentach astronomicznych. Mają format od rozdzielczości telewizyjnej (340 × 512 pikseli) do 10 000 × 10 000 pikseli. Nowoczesne przetworniki CCD charakteryzują się szumem wewnętrznym wynoszącym zaledwie kilka elektronów, zakresem dynamicznym wynoszącym 100 000 i wydajnością kwantową przekraczającą 90% w większości użytecznych długości fal roboczych. Te cechy sprawiają, że detektory CCD są wybieranym detektorem w przypadku większości wymagań dotyczących detekcji astronomicznej w zakresie widzialnym.
Historia i podstawy
Boyle i Smith wynaleźli matrycę CCD w Bell Labs w 1969 r. Przetworniki CCD, choć pierwotnie miały służyć jako urządzenie pamięci, są najczęściej stosowane jako detektory obrazu. Po raz pierwszy zastosowano je w astronomii pod koniec lat 70. XX wieku i szybko zastąpiły kliszę fotograficzną, układy fotodiod i detektory oparte na fotokatodach. Przetwornik CCD zasadniczo składa się z jedno- lub dwuwymiarowego układu kondensatorów typu metal-tlenek-półprzewodnik (MOS), w którym bramka ("metal") każdego kondensatora jest połączona z szynami, do których zewnętrzne stosowane są napięcia. Bramki te są w rzeczywistości wykonane z polikrzemu, a nie z metalu, aby umożliwić lepszą transmisję światła przez przednią konstrukcję. Minima studni potencjału powstają w krzemie pod bramkami CCD przy przyłożonym napięciu najbardziej dodatnim. Elektrony powstają z padających fotonów w wyniku efektu fotoelektrycznego, a te fotogenerowane elektrony są gromadzone w najbliższej studni potencjału. CCD są wrażliwe na wszystkie długości fal krótsze niż długość fali odcięcia ?cutoff, przy której energia E padającego fotonu jest taka sama jak energia pasma wzbronionego materiału detekcyjnego. Wszystkie fotony o krótszej długości fali mogą wzbudzić elektron z pasma walencyjnego detektora do pasma przewodnictwa. W przypadku krzemu, najczęściej używanego materiału do produkcji CCD, Ebandgap = 1,12 eV, więc λcutoff = 1,1 μm. Wszystkie bramki połączone ze sobą elektrycznie nazywane są fazą. Większość przetworników CCD stosowanych w astronomii to urządzenia trójfazowe, co oznacza, że do przesunięcia ładunku przez przetwornik CCD należy zastosować trzy napięcia elektryczne. Odległość od jednej fazy do następnej na tej samej szynie określa rozdzielczość detektora i nazywa się ją pikselem. Typowe rozmiary pikseli CCD to 5-30 μm. Najczęściej używany w astronomii przetwornik CCD składa się z dwuwymiarowego układu pikseli. Sekcję obrazu takiego urządzenia można postrzegać jako tablicę kolumn i rzędów pikseli z pojedynczym szeregowym rejestrem przesuwnym na końcu kolumn. Ładunek jest przesuwany (lub łączony z ładunkiem) o jeden wiersz na raz we wszystkich kolumnach jednocześnie, przesuwając ostatni wiersz do rejestru szeregowego. Kolumny są wyznaczone przez ograniczniki kanałów z silnie domieszkowanego materiału, które zapobiegają rozprzestrzenianiu się ładunku pomiędzy sąsiednimi kolumnami. W ten sposób nie są wymagane żadne bramki definiujące piksele w kierunku poziomym w obszarze obrazowania. Rejestr szeregowy sam jest taktowany tak, aby sekwencyjnie przenosić ładunek do wzmacniacza wyjściowego znajdującego się na jego końcu. Zewnętrzna elektronika i komputer służą do przekształcania tej analogowej sekwencji wyjściowej napięć na obraz.
Architektura i działanie
Działanie przetwornika CCD można podzielić na trzy tryby: zerowanie, całkowanie i odczyt. Wyczyszczenie jest wymagane, aby usunąć niechciany ładunek pobrany przez urządzenie przed dokonaniem integracji. Jedną z metod czyszczenia urządzenia jest przeniesienie ładunku z każdego piksela na urządzenie bez rejestrowania wynikowych danych. Podczas integracji na niektórych fazach ustawiane są napięcia dodatnie, aby określić potencjalne minima, w których gromadzą się fotoelektrony. Napięcie dodatnie jest przykładane do jednej lub dwóch z trzech faz. Co najmniej jedna faza każdego piksela musi być bardziej ujemna, aby stworzyć barierę dla rozprzestrzeniania się ładunku, bez której obraz byłby rozmazany. Możliwe jest, że bariera ta zostanie utworzona przez stały implant, a nie przyłożone napięcie. Podczas integracji fotoelektrony są zbierane, ale nie następuje żadne przesunięcie. ACCD musi zostać schłodzony, jeśli czas integracji jest dłuższy niż kilka sekund, aby zapobiec wypełnianiu studni potencjału przez samogenerujący się ciemny sygnał krzemu. Większość astronomicznych przetworników CCD schładza się do około -100°C w dewarze z ciekłym azotem. Wiele mniejszych przetworników CCD używanych do prowadzenia teleskopów (gdzie czas naświetlania wynosi zaledwie kilka sekund) opiera się na termoelektrycznych chłodnicach działających w temperaturze około -40°C w celu redukcji ciemnego sygnału. Po upływie czasu całkowania CCD wchodzi w fazę odczytu. Położenie każdego pakietu ładunku utworzonego podczas integracji jest przesuwane w kierunku wyjścia po przyłożeniu do szyn określonej sekwencji napięcia. W zależności od architektury można zastosować rozdzielone zegary równoległe, aby przesunąć połowę pikseli w kierunku jednego rejestru szeregowego a druga połowa w kierunku innego rejestru szeregowego, umożliwiając odczyt w o połowę krótszym czasie. Rejestr szeregowy można również podzielić, aby ładunek mógł zostać przesunięty w stronę wzmacniaczy na każdym końcu, co również skraca czas odczytu. Istnieje kilka typowych architektur naukowych dysków CCD. Do zbierania obrazów wykorzystywana jest cała powierzchnia urządzenia pełnoklatkowego i jest ona najpowszechniej wykorzystywana w astronomii. Pełnoklatkowa matryca CCD wymaga otwarcia migawki podczas integracji (lub naświetlania) i zamknięcia podczas odczytu, aby uniknąć smug ze źródła światła podczas przenoszenia ładunku. W matrycy CCD z transferem klatek połowa obszaru obrazowania jest pokryta nieprzezroczystą maską przechowującą ramki. Odsłonięta sekcja zbiera ładunek podczas integracji. Po zakończeniu ekspozycji ładunek jest bardzo szybko (10-6 do 10-4 s) przenoszony do obszaru magazynu klatek, gdzie może mieć miejsce wolniejszy odczyt, podczas gdy następna integracja zachodzi w części obrazu. Eliminuje to potrzebę stosowania mechanicznej przesłony kosztem utraty połowy obszaru detektora na potrzeby obrazowania. CCD z transferem międzyliniowym jest podobny do urządzenia do przesyłania ramek, ponieważ ma nieprzezroczystą szynę wzdłuż każdej kolumny, do której ładunek może być szybko przenoszony po każdym całkowaniu. Urządzenia transferu międzyliniowego są najczęściej używanymi przetwornikami CCD w zastosowaniach o dużym oświetleniu (takich jak wideo telewizyjne), ale rzadko są używane w zastosowaniach astronomicznych.
Wzmacniacze
Kiedy elektrony zostaną przesunięte na koniec rejestru szeregowego, są następnie wykrywane przez wzmacniacz wyjściowy. Bramka tranzystora (zwykle tranzystora polowego, w skrócie FET) jest połączona z węzłem sensorowym, na który przenoszony jest ładunek z ostatniego piksela szeregowego. Ładunek pojawia się jako napięcie na bramce tranzystora FET ze względu na pojemność węzła. Współczynnik konwersji wynosi zazwyczaj od 1 do 10 μV na elektron w przypadku nowoczesnych wzmacniaczy. Napięcie wyjściowe jest buforowane przez tranzystor FET w celu wytworzenia mierzalnego napięcia na rezystorze obciążenia umieszczonym poza chipem. To napięcie wyjściowe można łatwo wzmocnić w elektronice sterownika i przekształcić na sygnał cyfrowy za pomocą przetwornika analogowo-cyfrowego. Węzeł musi zostać zresetowany przed wykryciem każdego piksela, aby ładunek nie kumulował się od piksela do piksela. Szum odczytu jest miarą niepewności sygnału wyjściowego przetwornika CCD i często stanowi dominujące źródło szumu w zastosowaniach do obrazowania przy słabym oświetleniu. Podwójne lub powiązane próbkowanie (DCS) zmniejsza niepewność co do bezwzględnego poziomu naładowania węzła przy każdym resetowaniu. Przed przesunięciem każdego piksela węzeł jest resetowany za pomocą wbudowanego w układ resetowania FET. Napięcie wyjściowe jest próbkowane i rejestrowane, następnie mierzony piksel jest przesuwany do węzła, węzeł jest próbkowany ponownie, a różnica między dwiema próbkami jest obliczana i rejestrowana jako rzeczywista wartość piksela. Stosując DCS i niskoszumowe tranzystory wyjściowe FET, można uzyskać szum odczytu mniejszy niż dwa elektrony.
Sprawność kwantowa
Sprawność kwantowa (QEλ) matrycy CCD jest wyrażona wzorem QEλ = (1 - Rλ) exp(-αλ/t) gdzie Rλ to współczynnik odbicia padającej powierzchni detektora, αλ to długość absorpcji fotonów przy określonej długości fali oraz t jest efektywną grubością urządzenia. Przednie podświetlane matryce CCD mają fotony padające na strukturę bramki, która pochłania prawie całe światło niebieskie i UV. Urządzenia te nie są zatem przydatne dla λ < 400 nm. W podświetlanych (lub rozcieńczonych) matrycach CCD fotony padają na tylną stronę urządzenia, naprzeciwko konstrukcji bramki. Urządzenia te muszą być bardzo cienkie (<20 μm), aby fotoelektrony mogły zostać zebrane poniżej minimów potencjału w pobliżu bramek frontowych. Proces rozcieńczania jest trudny i kosztowny, ale QE jest ograniczony jedynie przez odbicie od tylnej powierzchni i zdolność krzemu do pochłaniania fotonów. Urządzenia podświetlane od tyłu mogą być pokryte powłoką przeciwodblaskową, aby uzyskać szczytową wartość QE większą niż 95% przy określonych długościach fal. QE matryc CCD znacznie spada w kierunku bliskiej podczerwieni, ponieważ długość absorpcji krzemu dramatycznie wzrasta od 100 Å w promieniu UV do 100 μm w bliskiej podczerwieni.
Skład chemiczny gwiazd
W 1835 roku w słynnej niedokładnej prognozie francuski filozof Auguste Comte napisał o gwiazdach, że: "Rozumiemy możliwość określenia ich kształtów, odległości, rozmiarów i ruchów; mając na uwadze, że nigdy nie dowiemy się, jak w jakikolwiek sposób zbadać ich skład chemiczny…" . Pod koniec XX wieku dokładny pomiar obfitości pierwiastków chemicznych w widzialnych warstwach powierzchniowych gwiazd wszystkich klas stał się stosunkowo prostą procedurą astrofizyczną. Jest to wynik kilku ważnych osiągnięć: (1) fizycznie realistycznej teorii budowy atmosfer gwiazdowych; (2) stacje komputerowe o dużej mocy, które mogą skutecznie integrować równania przenoszenia promieniowania przez modelową atmosferę gwiazdową; (3) zaawansowane kody teoretyczne dotyczące sytuacji złożonych fizycznie, takich jak odstępstwa od lokalnej równowagi termodynamicznej (LTE); (4) ulepszenia podstawowych danych atomowych potrzebnych do obliczenia nieprzezroczystości, które tworzą spektralne linie absorpcji; (5) spektrografy wysokiej rozdzielczości wyposażone w czułe i liniowe detektory elektroniczne; (6) dostęp do pełnego zakresu długości fal, w jakich gwiazdy emitują swoje światło, w tym ultrafioletu obserwowanego znad atmosfery ziemskiej. Obfitość pierwiastków chemicznych to nić łącząca większość naszej wiedzy o ewolucji gwiazd, galaktyk i wszechświata jako całości. Wszechświat powstał podczas Wielkiego Wybuchu, w wyniku którego powstało najwięcej pierwiastków, wodór (1H) i hel (4He), a także niewielkie ilości izotopów 2H (deuter), 3He i 7Li. Wszystkie pozostałe pierwiastki i izotopy występujące w przyrodzie powstały w wyniku reakcji jądrowych zasilających gwiazdy podczas normalnego przebiegu ich ewolucji lub w wyniku szybkiej NUKLEOSYNTEZY podczas końcowych kataklizmicznych eksplozji niektórych gwiazd jako SUPERNOWE lub, w przypadku kilku pierwiastków, w wyniku spalenia cięższych jąder przez cząstki PROMIENIA KOSMICZNEGO w ośrodku międzygwiazdowym. Niektóre produkty reakcji jądrowych zachodzących w gwieździe są wstrzykiwane z powrotem do ośrodka międzygwiazdowego, gdy gwiazda traci większość swojej masy podczas krótkich, końcowych etapów swojej ewolucji. Tam dostarczają surowca do powstania późniejszych pokoleń gwiazd, planet i ostatecznie samego życia. Ten scenariusz pochodzenia pierwiastków prowadzi do głębokich konsekwencji. Względna liczebność pierwiastków niekoniecznie jest stała w czasie i przestrzeni. Początkowy skład chemiczny gwiazdy to międzygwiazdowy obłok gazu i pyłu, z którego gwiazda powstała. Jest to funkcja miejsca narodzin gwiazdy w galaktyce oraz wieku i stanu ewolucji galaktyki w momencie powstania gwiazdy. Skład obserwowalnych warstw powierzchniowych gwiazdy może z biegiem czasu ulegać modyfikacjom w wyniku procesów zachodzących we WNĘTRZU GWIAZDY. Na przykład nuklidy powstałe w wyniku reakcji w centralnym jądrze gwiazdy lub w powłokach otaczających jądro mogą zostać wydobyte i zmieszane z nieprzetworzonym materiałem na powierzchni gwiazdy w trakcie jej ewolucji. Alternatywnie, zewnętrzne warstwy ewoluującej gwiazdy mogą zostać usunięte w wyniku utraty masy, pozostawiając odsłonięte wnętrze poddane obróbce jądrowej. Nawet w młodej, nierozwiniętej gwieździe atomy lub jony poszczególnych pierwiastków mogą osiadać pod obserwowalną powierzchnią pod wpływem grawitacji lub mogą być wypychane w górę pod wpływem ciśnienia promieniowania i osiągać wysokie stężenia w warstwach powierzchniowych, jeśli atmosfera i otoczka gwiazdy są silnie stabilny. Wreszcie gwiazda może akreować przetworzony materiał z podwójnego towarzysza podlegającego utracie masy. Ogólnie rzecz biorąc, jest to wspaniała złożoność. Pozwala nam wykorzystać zaobserwowany skład chemiczny gwiazd jako ślady ewolucji naszej własnej i być może innych galaktyk. Pozwala nam obserwować przebieg procesów zachodzących we wnętrzach gwiazd, które na co dzień są przed nami ukryte. Co więcej, aby wywnioskować nieprzezroczystość i średnią masę cząsteczkową, potrzebna jest przynajmniej przybliżona znajomość składu chemicznego gwiazdy ,jego materiału, które są istotnymi parametrami wejściowymi do obliczeń teoretycznych modeli jego atmosfery i struktury wewnętrznej. Takie modele są z kolei wykorzystywane do przeprowadzania szczegółowych analiz składu i przewidywania innych obserwowanych właściwości gwiazd. Spójność tych modeli teoretycznych z obiektami obserwacyjnymi, do przewidywania których służą - jasnością i barwą gwiazd, szczegółowym rozkładem strumienia gwiazdowego w zależności od długości fali, siłą i kształtem linii widmowych - daje pewność lub czasami rodzi pytania dotyczące naszego zrozumienia fizyki.
Jak mierzy się skład chemiczny gwiazdy
Za pomocą spektrografu astronomicznego zamontowanego na teleskopie można bezpośrednio obserwować tylko warstwy powierzchniowe gwiazdy. Dlatego obfitość pierwiastków chemicznych pochodzących ze spektroskopowo rozproszonego światła gwiazd ujawnia jedynie skład atmosfery gwiazdy. Naszą zdolność pomiaru składu powierzchni gwiazdy umożliwia kwantowa struktura atomów i jonów. Przejścia elektronów związanych elektrostatycznie między stanami energii kwantowej i związana z tym absorpcja lub emisja fotonów odciskają się na widmie gwiazdowym wzór dyskretnych linii o długościach fal i względnych siłach, które są unikalne dla każdego stanu jonizacji każdego pierwiastka układu okresowego. Dokładne pomiary długości fal i względnego natężenia linii widmowych pozwalają na identyfikację występujących w nich związków chemicznych. Zmierzone siły bezwzględne linii - ilość strumienia, który usunęły lub dodały do kontinuum światła emitowanego przez gwiazdę - wskazują na liczebność tych gatunków. Atmosfery chłodnych gwiazd również zawierają cząsteczki. Struktura kwantowa ich stanów energii elektronicznej i wibracyjnej wytwarza pasma blisko rozmieszczonych, dyskretnych linii absorpcji lub emisji, na podstawie których można zmierzyć obfitość. Chociaż możliwe jest zmierzenie obfitości na podstawie linii emisyjnych (linii jaśniejszych od kontinuum) wytworzonych w gorącej, cienkiej chromosferze lub koronie chłodnej gwiazdy, takiej jak Słońce, najprostsze i najdokładniejsze oznaczenia uzyskuje się na podstawie linii absorpcyjnych powstających w gęstsza fotosfera gwiazdowa (widmo Fraunhofera). Powodem jest zestaw upraszczających założeń, które dość dobrze charakteryzują warunki fizyczne panujące w fotosferach wielu gwiazd, umożliwiając dokładne obliczenia ich struktur i emitowanych widm. Należą do nich: (1) LTE (lokalne pole promieniowania jest sprzężone z lokalną temperaturą kinetyczną gazu), (2) płaska geometria równoległa (fotosfera jest bardzo cienka w porównaniu z promieniem gwiazdy), (3) równowaga radiacyjna (energia jest transportowany głównie przez promieniowanie) i (4) równowaga hydrostatyczna (fotosfera jest w zasadzie nieruchoma). W zasadzie naruszenia któregokolwiek z tych założeń można leczyć za pomocą fizycznie bardziej złożonych obliczeń teoretycznych. Jednak niekoniecznie będą one miały większą niezawodność, jeśli wejściowe parametry fizyczne będą niedokładne. Obserwowana głębokość linii absorpcyjnej wyśrodkowanej na długości fali λ w miejscu w profilu linii λ + Δλ , jest bezpośrednią miarą nieprzezroczystości atmosfery gwiazdowej wytwarzanej przez dyskretne przejścia elektronowe w atomach lub jonach danego pierwiastka, ponieważ absorbują fotony o długości fali λ + Δλ . Chemiczną liczebność pierwiastka wyznacza się poprzez porównanie zaobserwowanych mocy i kształtów jego linii widmowych z teoretycznym modelem strumienia wyłaniającego się z gwiazdy, obliczonym poprzez rozwiązanie równania PRZENOSZENIA PROMIENIOWANIA przez modelową atmosferę gwiazdową w obecności tej linii nieprzezroczystość. Teoretyczny model atmosfery gwiazdowej odpowiedni dla konkretnej gwiazdy umożliwia zestawienie temperatury kinetycznej gazu, ciśnienia i gęstości elektronów na dowolnej głębokości x poniżej nominalnej "powierzchni" gwiazdy. Oblicza się go przy założeniu zawartości wodoru i helu oraz co najmniej przybliżonej szacunkowej zawartości cięższych pierwiastków. Z tych informacji można wyprowadzić całkowitą ciągłą nieprzezroczystość κλ przy dowolnej długości fali, wytworzoną na głębokości x w wyniku jonizacji atomów lub jonów (przejścia elektronowe bez wiązań), dysocjacji molekularnej i rozpraszania elektronów. Promieniowanie wychodzące z gwiazdy na wszystkich długościach fal jest tłumione przez te ciągłe źródła nieprzezroczystości, dlatego przy obliczaniu strumienia wyłaniającego się należy uwzględnić zarówno liniowe, jak i ciągłe nieprzezroczystość na dowolnej długości fali. W przypadku braku linii widmowych strumień ten jest ustalany całkowicie przez ciągłe nieprzezroczystość, dlatego spektroskopiści czasami nazywają "kontinuum wolne od linii" jako referencyjny poziom strumienia, względem którego mierzy się siłę linii widmowej. Nieprzezroczystość linii wyraża się jako współczynnik pochłaniania linii (jednostki cm2 g-1)
lλ(x, Δ&lambdal) = const × [nel,r,s(x)/Nel](Nel/NH)NHfΦλ(x, Δ&lamdba;) × (1 - e-hc/?kT )
Współczynnik Nel/NH, stosunek całkowitej liczby atomów i jonów pierwiastka na gram materiału gwiazdowego do liczby atomów i jonów wodoru na gram, jest kluczowym parametrem liczebności, który staramy się mierzyć. Dozwolone są dowolne zmiany w obliczeniach, dopóki nie uzyskają dobrego dopasowania do obserwacji. Wszystkie pozostałe czynniki w równaniu (1) należy oceniać ostrożnie, aby nie zakłóciły dokładności pomiaru liczebności. Współczynnik nel,r,s(x)/Ne jest ułamkiem populacji pierwiastka znajdującego się w stanie wzbudzenia s stanu jonizacji r, z którego wychodzi linia. W LTE ułamek ten jest określony przez połączone równania Boltzmanna i Saha. Założeniem LTE jest rozsądne przybliżenie warunków fizycznych panujących w głębszych, gęstszych warstwach atmosfery gwiazdowej, gdzie powstaje wiele słabych i średnio silnych linii widmowych. Czasami jednak wymagane jest bardziej rygorystyczne traktowanie odchyleń poziomu energii populacji i równowagi jonizacji od ich wartości LTE. Liczba atomów wodoru i jonów na gram materiału gwiazdowego, NH w równaniu (1), wynika bezpośrednio z mieszaniny obfitości wodoru, helu i metali przyjętej w pierwotnych obliczeniach atmosfery modelowej. Współczynnik f to prawdopodobieństwo przejścia, czyli prawdopodobieństwo, że atom zaabsorbuje lub wyemituje foton pomiędzy dwoma określonymi stanami energetycznymi. Można to wyznaczyć w laboratorium, na przykład mierząc czas życia górnego poziomu przejścia, selektywnie wypełnionego wzbudzeniem indukowanym laserem. Wartość tę łączy się następnie ze zmierzonym ułamkiem przejść w dół z górnego poziomu, które kończą się w dolnym stanie wzbudzenia danej linii (ułamek rozgałęzienia), aby otrzymać prawdopodobieństwo przejścia. Wartość f można również obliczyć za pomocą kodów półempirycznych, które wykorzystują zmierzone poziomy energii atomu lub na podstawie teoretycznych obliczeń struktury atomu od początku, przy użyciu złożonych programów mechaniki kwantowej. Błędy systematyczne w wartościach f są powszechnie znane jako główna przyczyna błędów w pomiarach liczebności. Co więcej, brak kompleksowej i dokładnej bazy danych wartości f może udaremnić nawet najbardziej wyrafinowane obliczenia populacji poziomów bez LTE. Współczynnik 1 - ehc/λkT w równaniu (1) koryguje stymulowaną radiacyjnie emisję fotonów w linii. Tutaj h to stała Plancka, k to stała Boltzmanna, c to prędkość światła, a T to lokalna temperatura kinetyczna gazu. Funkcja Φλ(x, Δλ) w równaniu (1) opisuje mechanizmy mikroskopowe, które nadają linii widmowej skończoną szerokość i kształt w warunkach temperatury i gęstości na głębokości x. Mogą one wpływać na obserwowaną siłę linii (ze względu na nasycenie promieniowania dostępnego do zaabsorbowania przy długości fali λ + Δλ). Poszerzenie linii wynika z szeregu procesów: (1) przesunięć Dopplera wynikających z ruchu termicznego i turbulencji gazu na małą skalę; (2) skończony rozkład energii górnego i dolnego stanu przejścia (wynik zasady nieoznaczoności Heisenberga); (3) zaburzenia stanów energetycznych pod wpływem pól elektrostatycznych cząstek w otaczającym gazie (rozszerzenie Starka i van der Waalsa); (4) przesuwanie lub dzielenie poziomów energii przez pola magnetyczne (efekt Zeemana) lub efekty jądrowe (rozszczepianie nadsubtelne i przesunięcia izotopowe). Mechanizmy makroskopowe, które również zmieniają szerokość i kształt linii, ale bez zmiany jej całkowitej siły, obejmują ruchy mas na dużą skalę (turbulencje, konwekcja i utrata masy) oraz rotację gwiazd. Kiedy linie widmowe stają się bardzo mocne (silnie nasycone lub czarne w środkach), stają się mniej wrażliwe na zmiany liczebności (efekt krzywej wzrostu), a bardziej wrażliwe pod względem siły na funkcję Φ(x,Δλ). Zatem mocne linie stanowią poważne wyzwanie dla określenia dokładnych liczebności. Światło emitowane na głębokości x pod kątem θ do normalnej powierzchni atmosfery gwiazdowej jest tłumione na swojej drodze do powierzchni przez współczynnik exp(-τλ/ cos θ), gdzie bezwymiarowa głębokość optyczna τλ jest dana wzorem
oraz ρ(x) to gęstość materiału gwiazdowego na głębokości x. Promieniowanie wychodzi z jednostkowego obszaru powierzchni gwiazdy z dużą intensywnością
Funkcja Sλ nazywana jest "funkcją źródła" i jest definiowana jako stosunek energii emitowanej na jednostkę masy, czasu, długości fali i kąta bryłowego (współczynnik emisji) na głębokości optycznej τλ do całkowitego współczynnika absorpcji lλ + κλ. Jakościowo równanie (3) stwierdza po prostu, że promieniowanie emitowane z większych głębokości w atmosferze ulega większemu osłabieniu, zanim pojawi się na powierzchni gwiazdy. W LTE funkcją źródła jest po prostu funkcja Plancka opisująca emisję ciała doskonale czarnego w temperaturze T ,
Słońce jest jedyną gwiazdą, której powierzchnię postrzega się jako wydłużony dysk, który można obserwować spektroskopowo w zakresie kątów θ od jego środka (θ = 0°) do ramienia (θ = 90°). Zatem równanie (3) ma bezpośrednie zastosowanie w modelowaniu obserwowanego natężenia światła słonecznego w określonym punkcie dysku słonecznego. W przypadku wszystkich innych gwiazd odpowiednią wielkością jest zintegrowane natężenie na półkuli gwiazdy zwróconej w stronę Ziemi. To, co obserwuje się przy długości fali λ, w widmie gwiazdy o promieniu R w odległości d od Ziemi, to strumień
Wielkość 2πR2/d2 można traktować jako współczynnik skalowania, będący produktem ubocznym dopasowania obserwowanego strumienia do zintegrowanej emitowanej intensywności obliczonej z modelowej atmosfery gwiazdowej. Rysunek przedstawia przykład procesu opisanego powyżej.
Tutaj dopasowaliśmy obserwowane widmo linii absorpcyjnej chemicznie osobliwej gwiazdy ciągu głównego typu B do teoretycznie modelowanego widma syntetycznego, aby wyznaczyć liczebność bardzo ciężkiego pierwiastka, talu (liczba atomowa 81). W tym przypadku najlepsze dopasowanie widma uzyskuje się przy założeniu, że tal występuje w postaci izotopowo czystego 205Tl, z obfitością 4,66. Zgodnie z konwencją liczebność substancji chemicznych wyrażana jest w odniesieniu do wodoru w skali logarytmicznej, log(Nel/NH) + 12. W atmosferze tej gwiazdy liczebność talu przewyższa tę w Słońcu o 3,76 w tych jednostkach logarytmicznych, tj. o współczynnik 103,76 ≈ 5700.
Słońce jako wzorzec odniesienia dla obfitości substancji chemicznych
Obfitość pierwiastków w Słońcu i otaczającym Układzie Słonecznym jest znana szerzej i bardziej wiarygodnie niż w przypadku jakiejkolwiek innej gwiazdy. Widma FOTOSFERY SŁONECZNEJ obserwuje się z bardzo wysoką rozdzielczością widmową i stosunkiem sygnału do szumu ze względu na dużą jasność źródła, co pozwala na dokładny pomiar profili wielu słabych lub mieszanych linii absorpcyjnych. Co więcej, strukturę i procesy fizyczne fotosfery słonecznej dobrze poznano nie tylko na podstawie modeli teoretycznych, ale także obserwacji empirycznych (np. zaobserwowanych zmian w natężeniu światła słonecznego od środka do krawędzi dysku słonecznego). OBECNOŚĆ fotosferycznego SŁONECZNEGO została zmierzona dla około 60 pierwiastków chemicznych, a z nich 43 z dokładnością do 25% lub lepszą - mały słupek błędu, biorąc pod uwagę, że zakres obfitości obejmuje 12 rzędów wielkości. Aby Słońce mogło służyć jako użyteczny punkt odniesienia, z którym można porównać obfitość fotosfery innych gwiazd, ważne jest ustalenie (1), że skład powierzchni Słońca jest zasadniczo taki sam jak skład gazu i pyłu międzygwiazdowego, z których się ono składa uformowało się (tj. nie zostało zmienione przez procesy endemiczne dla samego Słońca) oraz (2) że obfitość fotosfery Słońca jest, przynajmniej średnio, reprezentatywna dla innych gwiazd powstałych mniej więcej w tym samym czasie w tym samym regionie Galaktyki . Skład fotosfery słonecznej jest ściśle zgodny ze składem rzadkiej klasy meteorytów, węglowych CHONDRYTÓW typu CI, w przypadku tych pierwiastków, których w obu przypadkach zmierzono dokładne ilości. Głównymi wyjątkami są Li, Be i B, które są transportowane przez konwekcję do wnętrza Słońca i wyczerpywane w wyniku spalania jądrowego w stosunkowo niskich temperaturach. Obfitość meteorytów można dokładnie zmierzyć w laboratorium, co stanowi ważną kalibrację dokładności pomiarów liczebności astrofizycznej. W przypadku niewielkiej liczby ciężkich pierwiastków, w przypadku których istnieją znaczne rozbieżności między pomiarami meteorytowymi i fotosferycznymi, wysoce niepewne są obfitości fotosfery. Datowanie radiometryczne meteorytów chondrytycznych wskazuje, że są one tak stare jak sam Układ Słoneczny (4,55 Gyr). Chondryty węglowe zawierają stosunkowo dużą ilość pierwiastków lotnych i uważa się, że powstały w dużej odległości od Słońca. Ścisła zgodność między składem meteorytów CI a fotosferą słoneczną jest mocnym dowodem na to, że skład chemiczny Słońca jest (z kilkoma wyjątkami) taki sam jak skład mgławicy przedsłonecznej. Dokładne pomiary składu chemicznego gwiazd ciągu głównego obejmujących Słońce w typie widmowym (Słońce jest typu G2 V) wskazują, że skład Słońca jest typowy dla gwiazd podobnych wiekiem do Słońca, "metalicznością" (na co wskazują ich obfitość żelaza) i odległość powstania od centrum Galaktyki. Dotyczy to przynajmniej kilkunastu pierwiastków, których liczebność została zmierzona na podstawie widm optycznych w dużych badaniach statystycznych. Obfitość pierwiastków w Układzie Słonecznym często określa się jako "obfitość kosmiczną" lub "obfitość normalną". Terminy te są nadmiernie uproszczone. Jednakże Układ Słoneczny zapewnia reprezentatywną próbkę liczebności w określonym czasie i miejscu w historii Galaktyki, która z nielicznymi wyjątkami pozostaje niezmieniona przez procesy zachodzące w samym Słońcu.
Zmiany obfitości w czasie i przestrzeni
Galaktyka jest gęsto zaludniona gwiazdami o małej masie, takimi jak Słońce. Teoretyczne czasy życia takich gwiazd, od ciągu głównego wieku zerowego do wierzchołka gałęzi czerwonego olbrzyma, wahają się od około 4,5 Gyr dla karła F5 o składzie słonecznym (1,3 masy Słońca) do około 29 Gyr dla karła K0 ( 0,8 masy Słońca). Życie Słońca wynosi około 12 Gyr. W rezultacie wiek gwiazd w tej dużej i szeroko rozpowszechnionej populacji obejmuje całą historię Galaktyki. Łącznie skład chemiczny ich powierzchni stanowi encyklopedię ewolucji Galaktyki. W przeciwieństwie do masywniejszych gwiazd typu O, B i A ( ≥ 3 masy Słońca), które są gorętsze i świecą jaśniej, mają krótki czas życia w ciągu głównym &asd;106-108 lat. Te młode gwiazdy przedstawiają dzisiejszy skład i stan ewolucji materii galaktycznej. Skład pojedynczej gwiazdy jest podyktowany przez środowisko, w którym powstała gwiazda. To z kolei wynika z dotychczasowej historii nukleosyntezy gwiazd, procesów prowadzących do wyrzucenia nuklidów do ośrodka międzygwiazdowego, względnej ilości czasu potrzebnego do zajścia tych procesów oraz dynamiki Galaktyki , który miesza i homogenizuje materię międzygwiazdową. Chociaż we wnętrzach gwiazd występuje wiele różnych łańcuchów reakcji jądrowych, tylko kilka z nich ostatecznie prowadzi do znacznego wzbogacenia chemicznego ośrodka międzygwiazdowego. Istnieją obecnie wiarygodne scenariusze wyjaśniające astrofizyczne wytwarzanie zasadniczo wszystkich pierwiastków chemicznych, dzięki dużym postępom w teorii ewolucji gwiazd w połączeniu z szeroką gamą współczesnej obserwacyjnej spektroskopii gwiazd. Zostały one opisane w poniższym podsumowaniu. Jest to jednak duży krok od wiarygodnego scenariusza do rozstrzygającego dowodu obserwacyjnego, a w niektórych przypadkach pozostaje jeszcze wiele do zrobienia. Uważa się, że najliczniejsze IZOTOPY pierwiastków cięższych od boru powstają głównie w jednym lub większej liczbie z następujących miejsc: (1) supernowe typu II (SNII), (2) supernowe typu Ia (SNIa) oraz (3) wysoko rozwinięte niziny i gwiazdy o masach pośrednich (1-7 mas Słońca). Supernowe typu II to masywne gwiazdy (>7-8 mas Słońca), które kończą swoje życie w gigantycznych eksplozjach. Supernowe typu Ia to białe karły węgiel-tlen (CO) znajdujące się w bliskich układach podwójnych, które eksplodują w wyniku deflagracji jądrowej węgla w wyniku przeniesienia masy z towarzysza podwójnego lub połączenia z nim. Otoczki gwiazd o małych i średnich masach są chemicznie wzbogacane w wyniku uporządkowanej sekwencji wewnętrznych procesów jądrowych podczas ich życia. Otoczki te są rozrzucane w postaci wiatrów gwiazdowych i mgławic planetarnych, gdy gwiazdy ewoluują z asymptotycznej gałęzi olbrzyma (AGB). Uważa się, że masywniejsze gwiazdy AGB wytwarzają większość węgla i azotu w Galaktyce. Tlen i "pierwiastki ?", których najliczniejsze izotopy są całkowitymi wielokrotnościami jądra helu (Mg, Si, S, Ar, Ca i Ti), są produkowane głównie przez SNII. Lekkie pierwiastki "dziwne Z", Na i Al, najwyraźniej pochodzą z bardziej masywnego i bogatego w metale SNII. Elementy "żelaznego piku" (V, Cr, Mn, Fe, Co, Ni) pochodzą z obu typów supernowych, ale SNIa daje znacznie wyższy uzysk tych pierwiastków. Pierwiastki cięższe od piku żelaza powstają w wyniku kolejnego wychwytu neutronów. W PROCESIE JĄDROWYM podczas impulsów termicznych powłoki helu we wnętrzach gwiazd AGB o małej masie (1-3 masy Słońca) wychwytywanie neutronów następuje stale, ale rzadko, co pozwala na wystąpienie rozpadu beta neutronu przed kolejnymi wychwytami neutronów. Jest to proces "s- (powolny)". Elementy procesu S, których najliczniejsze izotopy tworzone są przez proces ten obejmuje Sr, Y, Zr, Nb, Ba, La, Ce i Nd. Zdarzenia wybuchowe, takie jak supernowe, charakteryzują się dużymi strumieniami neutronów. Elementy "procesu R (szybkiego)" powstają w takich środowiskach, gdy wychwyt neutronów następuje tak szybko, że rozpad beta nie może nastąpić przed kolejnymi wychwytami neutronów. Nagłe zakończenie wychwytu neutronów po zakończeniu zdarzenia wybuchowego daje w wyniku wzór obfitości wyrzuconego materiału bogatego w niestabilne beta izotopy o dużej liczbie neutronów, które następnie rozpadają się na bardziej stabilne nuklidy. Jak zmierzono w Układzie Słonecznym, około 2/3 z 49 stabilnych pierwiastków cięższych od Ge składa się wyłącznie lub głównie z izotopów procesu r. Są to jednak bardzo niskie obfitości, śladowe składniki materiału słonecznego. Wzorzec względnej liczebności elementów słonecznego procesu r wydaje się prawie identyczny z obserwowanym w bardzo starych, ubogich w metale gwiazdach w halo Galaktyki. Sugeruje to, że wszystkie nuklidy procesu r pochodzą z jednego miejsca, najprawdopodobniej z SNII. Rysunek przedstawia przykład wykorzystania obfitości substancji chemicznych w gwiazdach do badania ewolucji Galaktyki.
Zgodnie z konwencją, współczynnik liczebności podany w nawiasach kwadratowych to logarytmiczna wartość liczebności w stosunku do liczebności w Układzie Słonecznym, [A/B] = log (NA/NB)STAR - log (NA/NB)SUN. Pomiędzy metalicznością [Fe/H] = -1 a -4, co odpowiada starym gwiazdom w halo galaktycznym, zmierzona liczebność pierwiastków α w stosunku do żelaza przekracza wartość słoneczną średnio o około +0,4 dex. Występuje duży rozrzut między gwiazdami, który jest częściowo rzeczywistym, a częściowo błędem pomiaru. Jednakże w przypadku ogólnie młodszych gwiazd z populacji dysków o metaliczności [Fe/H] = -1 do 0 lub wyższej, wartość [α/Fe] stale spada w kierunku wartości słonecznej wraz ze wzrostem metaliczności. Ten wzór interpretuje się jako wynikający z opóźnienia czasowego między szybką ewolucją (<0,02 Gyr) masywnych gwiazd w SNII a znacznie wolniejszą ewolucją (0,1-10 Gyr) przodków białych karłów CO w SNIa. SNII wytwarzają wysoką wydajność pierwiastków ? i małe ilości żelaza. Wybuch powstawania masywnych gwiazd na początku życia Galaktyki wkrótce potem spowodowałby wyrzucenie przez SNII materiału stosunkowo bogatego w pierwiastki ? do ośrodka międzygwiazdowego, dostarczając surowca do formowania gwiazd o wzmocnionej alfa o niskiej metaliczności. Za około kilkaset milionów lat pierwsza SNIa wyewoluowałaby ze swoich przodków o masie 7-8 mas Słońca, dając materiał protogwiazdowy znacznie wzbogacony w pierwiastki szczytowe żelaza, ale z niewielką dodatkową produkcją pierwiastków ?. W tym momencie stosunek [?/Fe] zacząłby się zmniejszać i tendencja ta będzie się utrzymywać, w miarę jak progenitory SNIa o coraz mniejszej masie osiągały punkt końcowy swojej ewolucji. Scenariusz ten potwierdzają pomiary liczebności gwiazd, takie jak te przedstawione na ryc. 2. Elementy procesu r wykazują trend, w którym [Fe/H] jest nieco podobny do pierwiastków α. To właśnie ten dowód sugeruje, że SNII może być również odpowiedzialny za ich produkcję. W najbardziej wewnętrznych 7 kpc dysku galaktycznego najstarsze gwiazdy ubogie w metale ([Fe/H] = od -1 do -0,5) mają większe wzmocnienia [α/H] niż ich odpowiedniki w większych odległościach od centrum Galaktyki . Ponadto zwiększenie liczebności pierwiastków α utrzymuje się przy wyższych wartościach metaliczności w gwiazdach położonych bliżej centrum Galaktyki. Sugeruje to, że FORMOWANIE GWIAZD, szczególnie masywnych gwiazd, które stały się SNII, prawdopodobnie rozpoczęło się wcześniej i przebiegało w większym tempie w wewnętrznej części dysku galaktycznego. Istnieją poważne dowody na to, że skład chemiczny dysku galaktycznego nie ewoluował jednorodnie. Na przykład bardzo trudno jest dostrzec wyraźny związek pomiędzy [Fe/H] a wiekiem gwiazdy w sąsiedztwie Słońca, chociaż takiego związku można by się spodziewać na podstawie prostych modeli ewolucji Galaktyki. Najmłodsze gwiazdy mają [Fe/H] ∿0, a najstarsze [Fe/H] ∿ -1. Jednakże istnieje duży i rzeczywisty rozrzut metaliczności we wszystkich przedziałach wiekowych pomiędzy. Szacuje się, że naturalne zróżnicowanie w zawartości żelaza wśród gwiazd w tym samym wieku wynosi około ± 25-50% (1?). Przyczyny tego rozproszenia nie są w pełni poznane. Jest oczywiste, że wzbogacenie w metal ośrodka międzygwiazdowego, z którego powstają gwiazdy, jest funkcją nie tylko czasu, ale także lokalizacji. Do ważnych czynników mogą należeć (1) lokalne zmiany w początkowej funkcji masy i szybkości powstawania gwiazd, (2) epizodyczny opad materiału o niskiej metaliczności (który może rozrzedzić gaz międzygwiazdowy) na zlokalizowane obszary dysku oraz (3) szybkość, z jaką Galaktyka dysk zostaje dobrze wymieszany z gazem zawracanym do obiegu w wyniku nukleosyntezy gwiazdowej. Gwiazdy halo galaktycznego charakteryzują się niedoborem metali, średnio około -1,6 in [Fe/H]. Aktualny rekord obserwowanej gwiazdy ubogiej w metal należy do giganta z halo CD -38 245 z [Fe/H] = -4,01. Intensywne poszukiwania gwiazd o zerowej metaliczności w Galaktyce zakończyły się niepowodzeniem. Sugeruje to, że najwcześniejsza epoka nukleosyntezy mogła mieć miejsce przed powstaniem samej Galaktyki, w podstrukturach protogalaktycznych. Gwiazdy w halo zawierają znacznie większą proporcję pierwiastków procesu r niż Słońce. W przypadku bardzo starych gwiazd o niskiej metaliczności, [Fe/H] < -2,5, rozproszenie między gwiazdami w obfitości pierwiastków procesu r jest znacznie większe niż w przypadku przypuszczalnie młodszych gwiazd o wyższej metaliczności. Jest prawdopodobne, że wczesna ewolucja chemiczna halo była zdominowana przez stosunkowo niewielką liczbę SNII o szerokim zakresie wydajności ciężkich pierwiastków. Skład materiału międzygwiazdowego halo był bardzo niejednorodny na początku życia Galaktyki, ale w miarę upływu czasu stawał się mniej jednorodny, a wyrzucane dyskretne zdarzenia SNII stawały się coraz dokładniej wymieszane.
Obfitość powierzchni jako okno do wnętrza gwiazd
Gwiazdy spędzają większość swojego życia na ciągu głównym spalającym wodór. W tej fazie skład chemiczny ich powierzchni, z nielicznymi wyjątkami, nie daje żadnych wskazówek na temat transmutacji jądrowych zachodzących głęboko w ich wnętrzach. Kiedy jednak gwiazda wyczerpie zapasy wodoru w swoim centralnym jądrze, ulega stosunkowo szybkim i dynamicznym zmianom w swojej strukturze, związanym z różnymi fazami ewolucji po ciągu głównym. Produkty spalania nuklearnego można następnie wydobyć do powierzchni w wyniku konwekcji (prawdopodobnie wspomaganej przez cyrkulację indukowaną obrotowo) lub wystawionej na widok w wyniku dużej utraty masy, lub obu. Zatem zaobserwowany skład powierzchni wyewoluowanych gwiazd dostarcza ważnych podstaw empirycznych dla teorii EWOLUCJI GWIAZD. Modyfikacje składu powierzchni w ten sposób mogą przybierać kilka form: (1) zmiany względnej obfitości węgla, azotu i tlenu oraz izotopów węgla, które charakteryzują spalanie H do He w cyklu CNO; (2) zwiększenie bezwzględnej obfitości węgla wytwarzanego jako produkt reakcji "triplealfa", która przekształca He w C; (3) ulepszenia elementów procesu s powstałych w wyniku wychwytu neutronów uwolnionych np. podczas konwersji w "procesie alfa" 14N na 25Mg i 13C na 16O; (4) wyczerpywanie się wodoru i wzbogacanie w węgiel, azot, tlen i pierwiastki procesu s w miarę utraty masy zdzierania bogatej w wodór otoczki gwiazdowej. W układzie podwójnym transfer masy z wysoko rozwiniętej gwiazdy do towarzysza o mniejszej masie może skutkować podobnymi modyfikacjami obfitości atmosfery tego ostatniego, która następnie wykazuje anomalie obfitości najwyraźniej sprzeczne ze stanem mniej rozwiniętym. Terminologia klasyfikacji widmowej gwiazd ewolucyjnych o "anomalnej" obfitości powierzchni (np. gwiazdy typu C, R, S, N, Ba, CH, HdC, RCrB, OBN, OBC, WN, WC, WO) ma swoje korzenie w ponad stuletniej historii obserwacyjnej spektroskopii gwiazd. Nie przekazuje żadnych informacji na temat postępu ewolucji gwiazd w dzisiejszym rozumieniu, którego logicznym produktem ubocznym jest rozwój "anomalii" obfitości. Te nowoczesne ramy dobrze ilustruje przewidywany przyszły przebieg ewolucji Słońca. W ogólnym zarysie scenariusz ewolucji Słońca jest podobny do scenariusza wszystkich gwiazd o masach do około 7-8 mas Słońca. Główna różnica między gwiazdami w tym zakresie mas wiąże się ze sposobem, w jaki zaczynają one spalać hel w węgiel w swoich centralnych jądrach na późnym etapie życia - wybuchowo w przypadku gwiazd o masach mniejszych niż około 2,5 masy Słońca, spokojnie w przypadku gwiazd bardziej masywnych. Po wyczerpaniu się centralnego źródła paliwa wodorowego Słońca, jego rdzeń helowy skurczy się, rozpocznie się spalanie powłoki wodorowej, nastąpi rozszerzenie otoczki, a Słońce ewoluuje od ciągu głównego w górę gałęzi czerwonego olbrzyma (RGB). Na początkowych etapach ewolucji w górę RGB otoczka konwekcyjna Słońca będzie sięgać głęboko do wnętrza i w tej "pierwszej fazie pogłębiania" wydobędzie na powierzchnię produkty obróbki jądrowej CN, które miały miejsce, gdy Słońce znajdowało się na ciąg główny. Fotosfera słoneczna zostanie wzbogacona w azot i zmniejszona w węgiel, wraz ze spadkiem stosunku 12C/13C. Takie zmiany obserwuje się na powierzchniach gwiazd pola bogatych w metale, takich jak Słońce, gdy rozpoczynają one wspinanie się w górę RGB, co jest zgodne z przewidywaniami standardowej teorii ewolucji gwiazd. Jednakże wyżej w RGB Słońce może wykazywać dodatkowe modyfikacje liczebności tego samego typu, wskazujące na wydobywanie materiału przetworzonego za pomocą CN z głębokich warstw w pobliżu powłoki spalającej wodór. Jasne, ubogie w metale gwiazdy RGB w Gromadach Kulistych mogą również wykazywać produkty przetwarzania ON i reakcji wychwytywania protonów na powierzchni gwiazdy. Obserwuje się zwiększoną zawartość azotu, zubożoną ilość tlenu, bardzo niskie wartości 12C/13C (3-4) i nienormalną obfitość sodu, glinu i magnezu. Zarówno w przypadku gwiazd RGB pola bogatego w metal, jak i gwiazd RGB z gromady kulistej ubogich w metale, tego dodatkowego mieszania się z głębokimi obszarami wewnętrznymi nie przewiduje się w podstawowych modelach teoretycznych wnętrza gwiazd. Standardowe modele tych bardziej rozwiniętych gwiazd RGB zawierają rozszerzony obszar promieniowania pomiędzy powłoką spalającą wodór a otoczką konwekcyjną, która zapobiega ich kontaktowi. Uważa się, że rozwiązanie tego dylematu leży w wpływie rotacji gwiazd, która wytwarza prądy cyrkulacyjne zdolne do transportu materiału przetworzonego przez CN i ON w górę do podstawy strefy konwekcji (patrz także OBRÓT GWIAZDY NA SEKWENCJI GŁÓWNEJ). Jest to dobry przykład tego, jak obfitość powierzchni może zapewnić wgląd w niewykrywalne w inny sposób procesy ukryte we wnętrzu gwiazdy. Ogólnie rzecz biorąc, obserwowana liczebność gwiazd RGB na powierzchni wydaje się zależeć w złożony (i często zagadkowy) sposób od tego, czy gwiazdy są bogate w metal, czy ubogie w metal oraz od tego, czy znajdują się w gromadach kulistych, czy w polu widzenia. "Zanieczyszczenie środowiska" przez wyrzuty wysoko rozwiniętych gwiazd w bliskim sąsiedztwie, szczególnie w zatłoczonym sąsiedztwie gwiazd w gromadach kulistych, to kolejny proces, który czasami przywołuje się w celu wyjaśnienia takich złożoności. Na końcu RGB Słońce osiągnie wysoką temperaturę w swoim zdegenerowanym jądrze centralnym, wywołując zapłon "błysku helowego" reakcji potrójnej alfa, która przekształca hel w węgiel. Rdzeń spalający hel dołączy do poruszającej się na zewnątrz powłoki spalającej wodór jako źródła jasności Słońca na poziomej gałęzi "wieku zerowego". Następnie, gdy wyczerpią się zapasy paliwa w rdzeniu helowym, Słońce wejdzie w fazę charakteryzującą się spalaniem jądrowym na przemian w powłoce helowej i wodorowej. W tym okresie "dwupowłokowym" jego koperta ponownie się powiększy w miarę ewolucji w górę AGB. Okresowe błyski termiczne związane z zapłonem powłoki helowej spowodują obfite dostawy węgla, a także pierwiastków procesu S, które zostaną przesunięte w górę przez powłokę konwekcyjną na powierzchnię. Słońce może najpierw stać się gwiazdą S, a zmiany atmosferyczne wynikają głównie z procesu elementów. Na tym etapie jego widmo może nawet ujawnić technet (99Tc), radioaktywny pierwiastek procesu S o tak krótkim okresie półtrwania (2 × 105 lat), że jego obecność zasadniczo dowodzi, że materiał poddany obróbce jądrowej został wydobyty z głębokiego wnętrza bardzo niedawno. Z biegiem czasu, wyżej w AGB, Słońce stanie się klasyczną gwiazdą węglową lub typu N, której widmo charakteryzuje się silnymi pasmami CH, CN, C2 i C3. Ostatecznie znaczna część bogatej w wodór otoczki Słońca zostanie wyrzucona jako Mgławica Planetarna, pozostawiając po sobie rdzeń BIAŁEGO KARŁA, składający się z węgla i tlenu, prawdopodobnie pokryty cienkimi warstwami powierzchniowymi wodoru na wierzchu helu, segregowanego przez osadzanie grawitacyjne. Gdyby Słońce miało mniej masywnego towarzysza w układzie podwójnym, jego atmosfera mogłaby zostać zanieczyszczona przez wyrzuconą przez Słońce otoczkę i nabrać anomalnych ilości związanych na przykład z gwiazdami baru (Ba). W przypadku gwiazd o masie większej niż około 7-8 mas Słońca ewolucja powoduje zmiany w liczebności powierzchni, głównie w wyniku utraty masy na dużą skalę w wyniku silnych wiatrów gwiazdowych. Dobrym przykładem są gwiazdy WOLFA-RAYETA (WR). Klasyfikuje się je jako sekwencję spektroskopową: gwiazdy WN ze wzmocnionym azotem i helem, gwiazdy WC wzmocnione w węglu i gwiazdy WO wzbogacone w tlen. Ta kolejność odzwierciedla coraz głębsze odsłonięcie jądra gwiazdowego w wyniku utraty masy, odsłaniając produkty najpierw spalania wodoru, potem helu, a na koniec spalania węgla.
Anomalie obfitości atmosfery w gwiazdach ciągu głównego
Od stulecia spektroskopiści gwiazd są zaintrygowani i zdumieni gwiazdami ciągu głównego klasyfikowanymi jako Ap ("p" oznacza "osobliwy"), Bp, Am ("m" oznacza "linię metaliczną"), Si, SrEuCr, HgMn lub bardziej ogólnie CP (od "charakterystycznego chemicznie"). Atmosfery tych gwiazd wykazują zdumiewające odchylenia od obfitości Słońca w wielu pierwiastkach, w tym wzmocnienie ciężkich pierwiastków, takich jak Hg, o współczynniki sięgające 105-106. Sporadycznie obserwuje się także duże anomalie w mieszaninie izotopowej niektórych pierwiastków . Nie są znane żadne procesy jądrowe, które mogłyby wyjaśnić te anomalie. Najważniejszą wskazówką do ich interpretacji jest położenie tych gwiazd na diagramie HERTZSPRUNG-RUSSELLIAGRAM. Łącznie stanowią one 10-20% wszystkich gwiazd ciągu głównego o efektywnych temperaturach od około 9000 K do 16 000 K. Gwiazdy w tym zakresie temperatur są zbyt gorące, aby posiadać rozległe otoczki konwekcyjne (cienka strefa konwekcji wodoru zanika całkowicie około 10 000 K) i zbyt chłodno, aby występowały znaczące wiatry gwiazdowe. Wiele z nich posiada silne dipolarne lub kwadrupolarne pola magnetyczne. Zarówno magnetyczne, jak i niemagnetyczne gwiazdy CP są zwykle z natury powolnymi rotatorami. Ta kombinacja czynników oznacza, że gwiazdy CP muszą posiadać bardzo stabilne hydrodynamicznie atmosfery i otoczki. W takim spokojnym środowisku atomy i jony są podatne na osadzanie grawitacyjne i dyfuzję napędzaną promieniowaniem. Konkurencja między grawitacją a promieniowaniem powoduje, że niektóre jony dryfują w dół poza zasięgiem fotosfery, podczas gdy inne są wypychane w górę do fotosfery pod wpływem ciśnienia promieniowania transmitowanego przez silne linie widmowe lub kontinua na długości fal, przy których gwiazda silnie emituje strumień. Obserwacje potwierdzają jakościowo ten scenariusz. Na przykład największe zwiększenie liczebności często występuje w pierwiastkach, których pierwotnie było bardzo mało w materiale, z którego uformowała się gwiazda (tj. praktycznie we wszystkich pierwiastkach cięższych od szczytu żelaza), podczas gdy pierwiastki początkowo występujące w dużych ilościach (np. He, C, N ) wydają się być nieco wyczerpane. Obfite pierwiastki nasycają pole promieniowania w ich najsilniejszych liniach widmowych, tak że pochłaniają stosunkowo małe ciśnienie promieniowania i (w przypadku braku jakiejkolwiek innej cyrkulacji lub mieszania materiału) mają tendencję do opadania. Odwrotnie jest w przypadku początkowo pierwiastków śladowych. Niektóre jony (np. B II, Zn II) mogą absorbować tak duże ciśnienie promieniowania, że zostają całkowicie wywiewane z gwiazdy, co zapowiada pojawienie się silniejszych wiatrów gwiazdowych w wyższych efektywnych temperaturach. Linie pola magnetycznego służą również do kierowania migracją jonów pod wpływem grawitacji i ciśnienia promieniowania, powodując niejednorodności obfitości powierzchni lub "plamy gwiazdowe" na magnetycznych gwiazdach CP. Dyfuzja napędzana radiacyjnie oraz grawitacyjne osiadanie atomów i jonów mają znaczenie wykraczające poza dziwaczne wzorce liczebności gwiazd CP. Teoretyczne modele dyfuzji sugerują, że hel, pod względem liczebności ustępujący jedynie wodorowi, został zredukowany w fotosferze Słońca o około 10% w wyniku osiadania grawitacyjnego. Procesy te mogą zachodzić głębiej we wnętrzach gwiazd, w obszarach równowagi radiacyjnej, modyfikując nieprzezroczystość i średnią masę cząsteczkową materiału gwiazdowego. Jedynym innym przykładem gwiazd ciągu głównego, które wykazują anomalie obfitości w swoich atmosferach (z wyjątkiem układów podwójnych, w których akreowała materia z wyewoluowanego towarzysza) to bardzo masywne gwiazdy sklasyfikowane jako OBN. Istnieją dowody na przetwarzanie przez CNO materiału widocznego na powierzchni tych gwiazd, tj. zwiększoną zawartość azotu i zmniejszoną zawartość węgla. Ponieważ gwiazdy te posiadają otoczki radiacyjne, najbardziej prawdopodobnym mechanizmem transportu materiału przetworzonego przez CNO z głębokiego wnętrza jest cyrkulacja południkowa, będąca naturalną konsekwencją ich normalnej, szybkiej rotacji.
Chińska astronomia
Astronomia jest przedmiotem zainteresowania Chińczyków od czasów starożytnych. Już w XVI wieku p.n.e. na kości zwierzęcej używanej do wróżenia zarejestrowano supernową. W starożytnych Chinach główną misją astronomów było wyznaczanie pór roku w rolnictwie i przewidywanie ważnych wydarzeń na przyszłość na podstawie zjawisk pojawiających się na niebie. W świadomości władców starożytności astronomia miała szczególny status wśród dyscyplin nauk przyrodniczych ze względu na przekonanie, że pomaga przewidywać przyszłość i losy. W rezultacie astronomowie byli mianowani urzędnikami królewskimi od dwudziestego czwartego wieku p.n.e. Obserwatorium Aroyal powstało w czasach zachodniej dynastii Zhou (XI w. p.n.e. - 771 p.n.e.) i istniało do początków XX wieku. Ponieważ w starożytności astronomia służyła potrzebom władców, traktowano ją w pewnym stopniu jako ASTROLOGIĘ. do celów wróżbiarskich szczególną uwagę zwracano na obserwację i przewidywanie zaćmień słońca i księżyca. Uważano, że koniunkcje jasnych planet, a także pojawienie się komet, meteorów i nowych gwiazd mają wartość wróżbową. Dlatego też uważnie i systematycznie obserwowano ruchy Słońca, Księżyca i planet oraz rzadkie zjawiska astronomiczne. W ten sposób zarejestrowano ogromną liczbę zjawisk astronomicznych. Wyjątkowy status astronomii w starożytnych Chinach gwarantował jej odrębność i astronomiczny rozdział w kronice historycznej oraz ponad 10 000 indywidualnych zapisów zaćmień Słońca i Księżyca, plam słonecznych, zórz polarnych, meteorów i meteorytów, komet, nowych i supernowych, zakryć planet przez Księżyc i innych zjawisk. Doniesienia o kometach z XI w. p.n.e. i zapisy plam słonecznych z 28 r. p.n.e. uważane są za najwcześniejsze odnotowane obserwacje tych zjawisk w historii astronomii. Chińskie zapisy dotyczące historycznych supernowych są najpełniejsze na świecie. Wśród nich zapis supernowej 1054 został wykorzystany do określenia wieku pulsara Kraba. Zapisy zaćmień zostały wykorzystane do obliczenia świeckiego przyspieszenia obrotu Ziemi. Astronomia cieszyła się dużym rozwojem jako bardzo ważne narzędzie do tworzenia kalendarzy i odmierzania czasu. Od dwudziestego czwartego wieku p.n.e. ustanowiono system kalendarza księżycowo-słonecznego, łączący kalendarz księżycowy i słoneczny, i system ten istnieje do dziś w Chinach. Długość roku zależy od okresu pozornego ruchu Słońca. Długość miesiąca zależy od okresu synodycznego Księżyca. Obydwa systemy kalendarzowe są koordynowane przez siedem miesięcy przestępnych w ciągu 19 lat. Od VII wieku p.n.e. zaczęto używać gnomonów do określania czasu przesilenia letniego i przesilenia zimowego, a co za tym idzie - długości roku. W kalendarzu używanym w V wieku p.n.e. za długość roku przyjęto 365,25 dni. W 1277 roku Guo Shoujing, dobrze znany astronom z dynastii Yuan, użył poziomego pręta, aby zastąpić tabliczkę w gnomonie i dodał urządzenie do obrazowania otworkowego, aby zwiększyć ostrość cienia. Precyzja uzyskana dzięki zastosowaniu ulepszonego urządzenia spowodowała błąd wynoszący zaledwie kilka sekund łukowych szerokości geograficznej Słońca. Dokładne obliczenie długości roku zostało zapisane w księdze kalendarza w 1199 roku. Według tego kalendarza rok ma dokładnie 365,2425 dni. Obliczenia te potwierdziły obserwacje Guo Shoujinga z 1281 roku. Jest to wartość bardzo zbliżona do dzisiejszej wartości roku tropikalnego. Aby odmierzać czas, od VIII wieku p.n.e. powszechnie używano klepsydry (zegara wodnego). Globus napędzany wodą został zbudowany w III wieku, aby pokazać obrót sfery niebieskiej przez ZHANG HENGA, słynnego astronoma z dynastii Han. Wodną kulę ulepszyli Yi Xing i Liang Lingzhan w roku 723, kiedy to wynaleziono koło ratunkowe. Yi Xing wywnioskował również ze swoich obserwacji, że różnica wysokości gwiazdy polarnej jest stała w stałej odległości wzdłuż południka ziemskiego. Wiedzę tę wykorzystał do zmierzenia wielkości terytorium kraju. Od II wieku p.n.e. do XIII wieku n.e. instrumenty obserwacyjne i obserwacje uległy radykalnej poprawie. Aby określić położenie gwiazd i planet, w I wieku p.n.e. zbudowano KULIĘ ARMILLARNĄ (instrument montowany na równiku). Ten instrument składał się z osi biegunowej, tubusu celowniczego oraz okręgów równikowych i poziomych o skali 365,25 stopnia. W IV wieku p.n.e. w katalogu gwiazd Shi Shena umieszczono współrzędne 121 gwiazd. Bardziej szczegółowy katalog, obejmujący 283 konstelacje i 1464 gwiazdy, został opracowany w III wieku naszej ery przez Chen Zuo, stosując własne specjalne konstelacje i system nazewnictwa w Chinach. Jednak jeszcze bardziej niezwykły był atlas gwiazd przechowywany w grotach Dunhuang, w którym na początku VIII wieku odnotowano 1350 gwiazd i 283 konstelacje. Poza tym w wyniku szczegółowych obserwacji odkryto pewne prawa. Jednym z nich było odkrycie precesji przez Yu Xi w roku 330. Dokładne obserwacje w IV wieku doprowadziły także do odkrycia, że ogony komet zawsze są skierowane w stronę przeciwną do Słońca i że komety zawsze odbijają jego promienie. Od VIII wieku p.n.e. do III wieku naszej ery aktywnie dyskutowano i rejestrowano różne hipotezy dotyczące definicji i koncepcji wszechświata. Jedna z nich sugerowała, że Ziemia i gwiazdy unoszą się w nieograniczonej przestrzeni. Myśl teoretyczna - na przykład dyskusje na temat struktury wszechświata - była uważana za bezużyteczną dla życia i zaniedbywana w czasach dynastii Tang (618-906). Co więcej, począwszy od dynastii Tang, osobom spoza obserwatorium królewskiego zakazano studiowania astronomii. Niestety zatem cesarskie kierownictwo astronomii utrudniało swobodny rozwój studiów astronomicznych w starożytnych Chinach. Nie kładziono wystarczającego nacisku na precyzyjne pomiary położenia i ruchów planet, z wyjątkiem ich okresów synodycznych, a ten brak precyzji i dominacja astrologii w starożytnych Chinach spowodowały znacznie wolniejszy rozwój teorii ruchu planet niż w Europie. Pomimo obfitości wielu wielkich odkryć astronomicznych, badania tych obserwacji nie były systematyczne i nie doprowadziły do wielu przełomów w teoriach astronomicznych. Od XIV do XV wieku rozwój astronomii w Chinach uległ spowolnieniu. Na początku XVII wieku Mathoeus Ricci wraz z innymi misjonarzami przybył do Chin z Europy i współpracował z chińskimi astronomami. Wprowadzili do Chin współczesną astronomię zachodnią, w tym teorię Kopernika, teleskopy i astronomię sferyczną.
Współczesna astronomia w Chinach
W 1911 r., wraz z końcem ostatniej dynastii Chin, dynastii Qing, królewskie obserwatorium zostało zamknięte. Republika Chińska utworzyła później Centralne Obserwatorium w Pekinie. W 1958 roku odbudowano OBSERWATORIUM Astronomiczne w Pekinie. Obserwatorium Zo-Se zbudowano w pobliżu Szanghaju w 1900 roku, gdzie zainstalowano 40 cm refraktor, pierwszy duży teleskop używany w badaniach astronomicznych w Chinach. Obserwatorium Zi-Ka-Wei, zbudowane w 1872 r., zaczęło nadawać sygnał czasu w 1914 r. Te dwa obserwatoria połączono, tworząc obecne OBSERWATORIUM Astronomiczne w Szanghaju. W 1935 roku jako instytut Akademii powołano PURPLE MOUNTAIN OBSERVATORY (PMO). Teleskopy instalowano jeden po drugim. W 1975 roku Obserwatorium Astronomiczne Yunnan zostało oddzielone od PMO i stało się niezależnym obserwatorium. Shaanxi Obserwatorium zostało zbudowane jako centrum usług czasu w Chinach w 1966 roku. Większość astronomów i instrumentów pracuje w pięciu obserwatoriach zarządzanych przez Chińską Akademię Nauk. Pekińskie Obserwatorium Astronomiczne (BAO) zajmuje się badaniami astrofizycznymi, w tym obfitością pierwiastków, krótkookresowymi ceifidami, badaniami supernowych i AGN, galaktykami wybuchowymi, optyczną identyfikacją źródeł promieniowania rentgenowskiego, wielkoskalową strukturą galaktyk, badaniami wąskopasmowymi, badaniami radiowymi astronomia i fizyka słońca. Miejsca obserwacji optycznych, radiowych i słonecznych znajdują się oddzielnie w Xinglong, Miyun i Huairou, wzdłuż Wielkiego Muru. BAO zarządza Pekińskim Regionalnym Centrum Ostrzegania Międzynarodowej Służby Środowiska Kosmicznego. Monitorowane jest słoneczne pole magnetyczne aktywnych regionów i słoneczne erupcje radiowe. Przedstawione są prognozy zdarzeń związanych z aktywnością słoneczną. W BAO zainstalowano teleskop o średnicy 2,16 m, teleskop słonecznego pola magnetycznego, teleskop na podczerwień o promieniu 1,26 min i teleskop do syntezy fal metrowych. Światowe Centrum Danych-D dla Astronomii również znajduje się w BAO. Obserwatorium Astronomiczne w Szanghaju (SAO) koncentruje się bardziej na badaniach astrogeodynamiki i astrometrii. Do określenia parametrów rotacji Ziemi wykorzystuje się pomiary VLBI, satelitarny i księżycowy pomiar odległości laserem. Zmienność linii podstawowej jest mierzona interferometrycznie we współpracy z obserwatoriami japońskimi, niemieckimi i amerykańskimi. Zaczynają także rozwijać pewne badania astrofizyczne w SAO. Zmienne klastrów otwartych w gromadach kulistych i symulacje ciał N to główne obszary zainteresowań badań astrofizycznych. Dwie anteny radiowe o średnicy 25 m zostały zainstalowane na stacjach w Szanghaju i Urumqi i pracują jako jednostki VLBI EVN. W SAO pracuje reflektor o długości 1,56 m. Sieć Geodynamiki Kosmicznej Azji Wschodniej i Pacyfiku powstała w SAO w 1994 roku, w której uczestniczy ponad 20 stacji VLBI, GPS i SLR z około 10 krajów. Naukowcy z Obserwatorium Purple Mountain (PMO) prowadzą badania z zakresu Układu Słonecznego, astronomii molekularnej i dynamiki satelitów. Mniejsze planety, fizyka planet, dynamika sztucznych satelitów i almanachy astronomiczne to tradycyjne dziedziny badań. Badania i techniki w astronomii fal milimetrowych poczyniły w ostatnich latach ogromny postęp. Na płaskowyżu Qinghai zainstalowano teleskop wykorzystujący fale mm o średnicy 13,6 m. Drobna struktura Słońca, rotacja gwiazd, bliskie układy podwójne, struktura gwiazd i obiekty BL Lac to główne obszary badań Obserwatorium Astronomicznego w Yunnan. Naukowcy prowadzą tu badania nad dynamiką sztucznych satelitów, astrometrią i erupcjami radiowymi na Słońcu. W Kunming, stolicy prowincji Yunnan, używany jest teleskop o średnicy 1 m i kilka małych teleskopów. Instytucje prowadzące edukację astronomiczną podlegają Ministerstwu Edukacji. Instytucje te obejmują: Wydział Astronomii Uniwersytetu w Nanjing, Wydział Astronomii Uniwersytetu Normalnego w Pekinie i Wydział Astrofizyki Uniwersytetu w Pekinie. Chociaż na tych uniwersytetach nie są dostępne żadne urządzenia obserwacyjne, naukowcy i wydziały z tych uniwersytetów mogą korzystać z teleskopów i obserwacji z różnych obserwatoriów w zależności od jakości zastosowań. Centrum Astrofizyki Wysokich Energii Instytutu Fizyki Wysokich Energii, Centrum Astrofizyki Chińskiego Uniwersytetu Naukowo-Technologicznego, grupy astrofizyczne na Uniwersytecie Normalnym w Nanjing, Uniwersytecie Jiaotong i Uniwersytecie Normalnym w Huazhong prowadzą badania nad astrofizyką wysokich energii i astrofizyką plazmy. W Teipei w 1990 roku zbudowano Instytut Astrofizyki Academia Sinica. Instytut ten dodaje dwie anteny do tablicy Sub-Milimeter Array (SMA) oraz wspiera i udostępnia 10% BIMA w celu współpracy z astronomami w USA. Instytut Astronomii powstał na Uniwersytecie Centralnym w Zhongli, mieście na południe od Teipei; jego 70-centymetrowy teleskop został zainstalowany na górze Yu. Od 1991 roku na Uniwersytecie Tsinghua działa sieć oscylacji Słońca z pięcioma detektorami zainstalowanymi w BigBear, Wyspach Kanaryjskich, Taszkencie, Pekinie i Teipei. W Hongkongu grupy badawcze zajmujące się astrofizyką aktywnie działają na Uniwersytecie w Hongkongu, Uniwersytecie Chińskim w Hongkongu oraz Uniwersytecie Nauki i Technologii w Hongkongu. Planetarium w Pekinie powstało jako centrum popularnej astronomii w 1957 roku. Muzeum Astronomiczne w Tajpej zostało zbudowane w 1996 roku, a jego powierzchnia wystawiennicza zajmowała 50 000m2. Planetarium w Hongkongu zostało zbudowane w 1980 roku. W całym kraju znajduje się ponad 50 małych planetariów. CHINESE ASTRONOMICAL SOCIETY (CAS) jest organizacją pozarządową zrzeszającą astronomów i naukowców. CAS jest filią MIĘDZYNARODOWEJ UNII Astronomicznej (IAU). Stowarzyszenie Astronomiczne z siedzibą w Teipei jest filią IAU. Towarzystwo Astrofizyczne w Hongkongu powstało w 1997 roku. Większość teleskopów używanych w obserwatoriach na kontynencie jest produkowana przez Centrum Badań i Produkcji Instrumentów Astronomicznych w Nanjing we współpracy z obserwatoriami. Zaplanowano nowe inicjatywy dotyczące przyszłych instrumentów astronomicznych w Chinach. Duży wieloobiektowy teleskop spektroskopowy (LAMOST) został zatwierdzony jako projekt krajowy w latach 90. XX wieku. LAMOST to teleskop zwierciadlany Schmidta montowany azymutalnie. Układ optyczny składa się z zwierciadła sferycznego o wymiarach 6×6,7 m, zamocowanego na fundamencie i zwróconego w kierunku północnym. Asferyczne lustro odbijające znajduje się w środku kuli w odległości 40 m. Aberrację sferyczną eliminujemy w czasie rzeczywistym za pomocą aktywnej optyki. Efektywna apertura wynosi 4 m. Ogniskowa wynosi 20 m. Pole widzenia wynosi około 5°, co daje średnicę liniową 1,75 m. Dzięki dużemu polu widzenia do powierzchni ogniskowej można przyczepić około 4000 włókien, dzięki czemu można jednocześnie obserwować widma 4000 obiektów. Projekt LAMOST zostanie ukończony w 2004 roku. Wsparcie finansowe dla astronomii w Chinach pochodzi głównie od CAS, Ministerstwa Edukacji, Ministerstwa Nauki i Technologii, Narodowej Fundacji Nauk Przyrodniczych (NNSF) i Krajowego Komitetu Planowania. CAS i Ministerstwo Edukacji pokrywają koszty operacyjne swoich stowarzyszonych obserwatoriów i departamentów, które wynoszą około 10 milionów dolarów rocznie. NNSF wspiera osoby i grupy, a także umiarkowane i małe programy o wartości około 1 miliona dolarów rocznie. Krajowa Komisja Planowania wspiera duże projekty polegające na budowie dużych instrumentów naukowych. Budżet LAMOST wynosi 30 mln dolarów. Ministerstwo Nauki i Technologii finansuje większe projekty badawcze, których budżet wynosi około 1 miliona dolarów rocznie.
Chińska astronomia w historii
W artykule przedstawiono wiedzę o niebie i ruchach niebieskich, która ma swoje korzenie w kulturze chińskiej od najdawniejszych czasów aż do roku 1912, kiedy to wraz z imperium chińskim skończyło się stosowanie tradycyjnych technik. Chińskie doświadczenie astronomii ostatnich dwóch tysięcy lat procentuje studiowaniem, ponieważ w odróżnieniu od Europy poziom wiedzy i praktyki utrzymywał się na wysokim poziomie nieprzerwanie przez ponad dwa tysiące lat oraz ponieważ opierał się na stylach pracy zupełnie odmiennych od tych panujących w Zachód.
Ustawienie
Od czasów nowej epoki kamienia wszystkie wielkie cywilizacje historyczne wymieniały się pomysłami i artefaktami. Chiny były tak odizolowane od Europy, Bliskiego Wschodu i Indii, że zewnętrzne wpływy naukowe można było kontrolować aż do połowy XIX wieku. Przez ponad 2000 lat pozostawało centralnie rządzonym imperium, większym niż cała Europa. Nawet w krótkich okresach podziałów ciągłość kultury wysokiej, w odróżnieniu od tej w Europie przez większą część średniowiecza, nigdy nie została przerwana. Pomimo ogromnego zasięgu i lokalnego zróżnicowania Chin, ich wykształcona elita, ze względu na klasyczne wykształcenie, łączyła nie tylko wspólny język, ale także wartości i wzorce myślenia. Wśród tych wartości był ogromny prestiż dla służby cywilnej. Jedno pokolenie utalentowanych astronomów poszukiwało jedynego pracodawcy gotowego zapewnić duże, długoterminowe inwestycje w badania naukowe i rozwój. Rząd wspierał projekty astronomiczne na dużą skalę od II wieku p.n.e. ze względu na ideologię uzasadniającą jego władzę. Twierdziła, że dom cesarski został wybrany przez Niebo (czyli boski porządek natury), aby kształtować społeczeństwo na jego obraz. Osobiste cnoty i charyzma monarchy, a nie jego zdolności menadżerskie, utrzymywały go w kontakcie z kosmicznym porządkiem i umożliwiały utrzymanie państwa w harmonii z nim. Doktryna ta obejmowała pojęcie Mandatu Niebios. Niebo wybrało do rządzenia wyjątkowo cnotliwą rodzinę. Kiedy w końcu jego potomkowie nie utrzymywali już tej cnoty, Niebo przekazało to zadanie godniejszej rodzinie. Podbój kończący dynastię i rozpoczynający nową nie był zatem zbrodnią - jeśli się powiódł. Istniał system wczesnego ostrzegania. Pewne anomalne zjawiska na niebie (lub rzadziej na Ziemi) sygnalizowały, że władca musi się zreformować, bo inaczej zostanie zdetronizowany. Pomyślne znaki potwierdzały panowanie mędrca lub, w innych okolicznościach, zachęcały mędrca do buntu. Niezbędne było szybkie powiadomienie. W rezultacie na dworze cesarskim znajdowało się obficie obsadzone Biuro Astronomiczne. Jej obowiązki w zakresie ASTROLOGII i astronomii matematycznej były ze sobą ściśle powiązane. Jego urzędnicy badali niebo pod kątem znaków, rejestrowali je, ustalali ich znaczenie na podstawie archiwów Biura i zgłaszali je, aby cesarz i jego urzędnicy mogli ustalić, jak zareagować. Relacje z tego procesu sugerują, że astrologia była ważna nie jako źródło obiektywnych przepowiedni, dobrych czy złych, ale jako rytualna forma otwartej dyskusji na temat polityki. Równie ważne było przeniesienie jak największej liczby zjawisk ze sfery złowieszczej do przewidywalnej, co poprawiło obliczenia. Na przykład pod koniec III wieku n.e. nów księżyca w ostatnim dniu miesiąca przestał być wróżbą. Ponieważ nie można było konsekwentnie prognozować zaćmień słońca widocznych z danego obserwatorium, głównym zmartwieniem władców pozostawały nieprzewidziane zaćmienia. Cesarz symbolicznie wyraził swoją kontrolę nad czasem i przestrzenią, wydając coroczny KALENDARZ (właściwie efemerydy lub almanach obejmujący zaćmienia i zjawiska planetarne). Oczekiwał, że Biuro uwzględni w nim możliwie najdokładniejsze przewidywania, zwłaszcza dotyczące zaćmień. W wyniku stałego sponsorowania przez państwo opublikowane zapisy historyczne zawierają nieprzerwane, datowane zapisy najważniejszych zjawisk niebieskich oraz szczegółowe opisy ewolucji metod stosowanych do tworzenia EFEMERYDÓW przez ponad dwa tysiąclecia.
Początki
Zapisy spisane na kościach w XV wieku p.n.e. obejmują obserwacje zjawisk na niebie. Ponieważ dokumenty te pochodzą z archiwów królewskich, obserwacje zaćmień są widoczne i stanowią zwiastun. Datowane są przy użyciu cyklu 60-dniowego, nieprzerwanego aż do czasów współczesnych. W IV i III wieku walczące państwa posługiwały się różnymi, rozbieżnymi kalendarzami. Wszystkie opierały się na roku tropikalnym i lunacji. Zostały one wygenerowane poprzez odliczenie od epoki wybranej jako początek roku, miesiąca, 60-dniowego cyklu i dnia. Rok astronomiczny rozpoczynał się w momencie przesilenia zimowego, miesiąc w czasie nowiu Księżyca - wydarzenie, którego nie można zaobserwować - i dzień o północy. Zatem epoka systemu Potrójnej Zgodności z roku 7 p.n.e. została dokładnie wyznaczona na północ pierwszego sześcioletniego dnia 143 127 lat przed przesileniem zimowym 24 grudnia 105 r. p.n.e. Ponieważ rok cywilny wymagał całkowitej liczby dni w miesiącu i miesięcy w roku, miesiące 29 lub 30 dni z grubsza naprzemiennie, tak że rok cywilny składający się z 12 miesięcy miałby 354 lub 355 dni. Chińczycy przyjęli interkalację, początkowo stosując tak zwane na Zachodzie CYKL METONICZNY. Dodawali 7 dodatkowych miesięcy co 19 lat. W schemacie tym lata przestępne obejmowały jednakowo 383 lub 384 dni, co dało długoterminową średnią wynoszącą 365 14 dni w roku. Na przestrzeni wieków bardziej wyszukane schematy interkalacji, a następnie obliczania prawdziwych lunacji, dały średni rok tropikalny, który w XIII wieku naszej ery wynosił 365,2425 dni.
Obserwacje
Pierwsze wyraźnie instrumentalne obserwacje dotyczyły pomiaru cienia rzucanego przez stojący gnomon wyższy od człowieka. Z pewnością nie można ich datować wcześniej niż na IV wiek p.n.e. Najdłuższy cień dnia wyznaczał moment południa i kierunek północ-południe. Kiedy astronomowie zauważyli, że cień południa zmieniał się z dnia na dzień, możliwe stało się określenie początku roku jako dzień najdłuższego cienia południa, przesilenia zimowego. W nocy obserwacja gwiazd przechodzących przez gnomon na linii północ-południe umożliwiła uzyskanie tranzytów południków, które były ważne przed wynalezieniem instrumentów stopniowanych. Rozwój wyskalowanych instrumentów armilarnych z tubusem to drażliwy temat. Najwcześniejszym znanym dokumentem wymagającym użycia prostej dioptry jest Gan Shi xing jing (kanony gwiezdne Gan De i Shi Shen), którego dane datowano na podstawie analizy błędów na około 70 rok p.n.e. Geng Shouchang używał prostej armilary równikowej w 52 r. p.n.e.; pierścień ekliptyki został dodany w roku 84 n.e., a pierścienie horyzontu i południka w roku 125. Chińskie pomiary stopni nie wywodziły się z babilońskiego systemu sześćdziesiątkowego. Opierało się ono na du, pierwotnie mierzeniu odstępów czasu między tranzytami południków, ale po około 180 r. n.e. na nowo zdefiniowano je jako odległość średniej jednodniowej podróży Słońca. Początkowo w okręgu było 365 1/4 du, a liczba ta zmieniała się wraz ze wzrostem długości roku. Dokładność pierwszego katalogu gwiazd wynosiła 1/8 du; liczba ta wzrosła do 0,05 du w przypadku AD 1279. Współrzędne obserwacji, podobnie jak we współczesnej astronomii, ale w przeciwieństwie do tych w Europie przed renesansem, były równikowe i mierzone od punktu przesilenia zimowego, a nie od pozycji Słońca podczas równonocy wiosennej. Nie ma wielkiego wyboru między tymi dwoma układami, ponieważ Słońce, Księżyc i planety krążą blisko ekliptyki, a gwiazdy obracają się równolegle do równika. W obu przypadkach konieczne było przekształcenie pozycji wzdłuż jednej pozycji na pozycje wzdłuż drugiej. Wcześni Chińczycy osiągnęli to za pomocą prostych metod numerycznych; dzięki reformie z 1279 r. stopniowe ruchy w kierunku trygonometrii sferycznej znacznie zwiększyły dokładność. Czas obserwacji mierzono na ogół za pomocą zegarów wodnych, których kilka egzemplarzy zachowało się z ostatnich dwóch stuleci przed naszą erą. Dokładność zapisów wynosiła początkowo około 1/2 godziny. Pomimo wielkich opracowań na przestrzeni wieków, typowa dokładność do 1300 roku wynosiła około 0,4 godziny i była znacznie lepsza w przypadku danych o zaćmieniach Słońca. Współrzędne ciał niebieskich mierzono, podobnie jak w Europie, z punktów rozmieszczonych na tyle blisko siebie, że obserwatorzy bez instrumentów mogli z dość dużą dokładnością oszacować odległość obiektów od nich w du. W przeciwieństwie do 12 domów zodiaku, chińskie xiu (loże księżycowe) były zbiorem 28 nierównomiernie rozmieszczonych gwiazd w widocznych konstelacjach. Było to podobne do współrzędnych używanych w Indiach i nazywanych nakshatra oraz współrzędnych świata islamskiego zwanych al-manāzil . Loże księżycowe były w zasadzie równie zadowalające jak zodiak, ale sporadyczne niezamierzone zmiany w ich gwiazdach determinujących wpływały na dokładność, gdy nowe metody predykcyjne testowano w oparciu o starożytne zapisy obserwacyjne. Niekończące się polemiki nie rozstrzygnęły, gdzie i kiedy powstały loże. Ich 28 imion po raz pierwszy pojawia się razem na lakowym pudełku zakopanym w 433 roku p.n.e. Dopiero w źródłach z IV lub III wieku podają współrzędne obserwacji.
Reformy kalendarza
Pierwsze zjednoczenie Chin w 221 r. p.n.e. doprowadziło do powstania jednego kalendarza, ale po ,stuleciu system regularnie przewidywał dzień wolny w przewidywaniu nowiu. Po reformie kalendarza w 104 r. p.n.e., w 7 r. .p.n.e. astronomowie rozszerzyli techniki tworzenia kalendarzy na system astronomiczny (li), który obejmował wszystkie przewidywalne zjawiska, w tym zaćmienia i ruchy planet. Motywacją tej ekspansji było w równym stopniu pragnienie dwóch cesarzy odnowienia swojego porządku politycznego zgodnie z zasadami określonymi przez religię kosmiczną, jak i dążenie do innowacji technicznych. System Potrójnej Zgodności z 7 roku p.n.e. nie został poprawiony fragmentarycznie, lecz zastąpiony zupełnie nowym systemem obliczeniowym w roku 85 n.e. Ponieważ zastąpienie integralne stało się normą, a prestiż imperialny zależał od dokładnych przewidywań, przed 1912 rokiem zaproponowano 101 systemów, z czego 41 weszło do oficjalnego użytku. Podobnie jak Almagest Ptolemeusza, ten system Potrójnej Zgodności określa procedury krok po kroku generowania kompletnych efemeryd wspomnianych powyżej. Urzędnik posiadający jedynie podstawowe umiejętności arytmetyczne może przeprowadzić cały proces, korzystając z wbudowanej tabeli, która pozwala uniknąć skomplikowanych obliczeń. Chińskie metody obliczeniowe różniły się od greckich podejściem numerycznym lub algorytmicznym, a nie geometrycznym. Przewidywanie zaćmień Słońca, co sprowadza się do znalezienia przecięcia stożka cienia z kulistym Słońcem, jest trudne bez geometrii. Dlatego pozostawało to głównym problemem. Chińczycy zaczęli od odliczenia średnich cykli słonecznych i księżycowych, aby ustalić, kiedy oba ciała się przecięły. Wyniki były tak słabe, że astronomowie najwyraźniej odliczyli 135 miesięcy od zaobserwowanego zaćmienia, aby przewidzieć kolejne, bardziej skuteczną technikę. Jednakże celem astronomii matematycznej było przewidywanie bez konieczności patrzenia w niebo. Yang Wei w roku 237 zrezygnował z polegania na wcześniejszych obserwacjach, wprowadzając koncepcję granicy zaćmień (w języku współczesnym odległość koniunkcji od przecięcia orbit). Niezwykle ważne były techniki obliczania pozornych, a nie średnich ruchów Księżyca (223 r.) i Słońca (ok. 604 r.) oraz ich połączenie w przewidywaniu lunacji (619). Opracowane algorytmy interpolacji liniowej (piąty rząd do 1064 r.) i metody prototrygonometryczne (zaczynające się mniej więcej w tym samym czasie) w coraz większym stopniu przybliżały wyniki analizy geometrycznej.
Rozwój
Biurokratyczny charakter astronomii nie zmienił się znacząco na przestrzeni wieków. Ponieważ nominacje były zwykle synekurami, często dziedzicznymi, innowacje często pochodziły od osób z zewnątrz - astronomów-amatorów, którzy mieli dostęp do informacji o poprzednich systemach publikowanych w kronikach dynastycznych. Do Biura często powoływano pomysłodawcę nowego systemu, po jego dokładnym przetestowaniu. Niektóre dynastie dbające o bezpieczeństwo zabroniły prywatnego studiowania astronomii, odcinając to źródło nowych metod. Jednak inne administracje testowały urzędników, aby podnieść poziom praktyki, lub włączały kwestie techniczne do ogólnego egzaminu do służby cywilnej, aby motywować do powszechnych studiów astronomicznych. Ponieważ rząd cenił wiedzę astronomiczną i pozostawał jedynym źródłem masowego wsparcia badań, jego duże projekty skierowały naukę w kilku nowych kierunkach. Należą do nich:
• Zbudowano obserwatoria wyposażone w szeroką gamę instrumentów. Przetrwała ogromna obserwacyjna KULA ARMILLARNA z 1442 r., odtwarzająca projekt z 1074 r., oraz "skrócona armilarna" (równikowy moment obrotowy, jianyi), której projekt sięga co najmniej około 1270 r.
• Skonstruowano skomplikowane instrumenty demonstracyjne, takie jak seria zegarów astronomicznych napędzanych wodą i sterowanych wychwytem. Ich punktem kulminacyjnym był ogromny zegar, który Su Song zbudował około 1090 r.
• Przeprowadzono badania długości i szerokości geograficznej na dużą skalę, aby zwiększyć dokładność rejestrowania danych i zbadać takie kwestie, jak różna widoczność zaćmień. Ta z 1279 r. obejmowała 6000 mil z północy na południe i 2000 mil ze wschodu na zachód.
• Wielokrotnie katalogowano gwiazdy stałe, zwłaszcza w celu ustalenia gwiazd wyznaczających loże księżycowe. Dziesięć takich badań stało się podstawą oficjalnej astronomii w latach 964-1106
.
Pomimo konserwatyzmu nieodłącznie związanego z oficjalnym kierunkiem i stereotypową formą astronomii, rząd ułatwił ulepszenia każdego aspektu efemeryd. Kilka ważnych, które nie zostały jeszcze odnotowane, to (w kolejności daty rozpoczęcia oficjalnego używania lub w inny sposób pisma):
• Precesja (dosłownie "różnica roczna", sui cha, 330), zdefiniowana jako różnica czasu między rokiem tropikalnym a rokiem gwiazdowym. Stała ta odpowiadała ryc. 2. Wielki zegar astronomiczny z 1089 r., pochodzący ze współczesnego Xin yixiang fa yao. przesunięcie punktu przesilenia zimowego o 1 du na 50 lat. Chińczycy nie postrzegali tego jako obrotu równika wokół bieguna ekliptyki.
• Dokładne czasy nowiu księżyców ustalono na podstawie obserwacji zaćmień Księżyca (384).
• Przeprowadzono ciągłe badania pozornych ruchów planet (około 729 r.). Pierwotnie nacisk na przewidywanie zaćmień doprowadził do zaniedbania tego problemu.
• Przybliżenie trygonometrii sferycznej zastosowanej do sfery niebieskiej (1279) połączono z grupą innych zmian, takich jak podstawienie części dziesiętnych ułamków mieszanych i odrzucenie tradycyjnrej zależności od odliczania cykli z wczesnej epoki.
Po rewolucji 1911 r. odrzucono tradycyjne podejście nie ze względu na jego szczególne wady, ale z powodu powszechnego ruchu w stronę modernizacji. Po ponad stuleciu imperializmu i nieustannej wojny Chiny były zbyt biedne, aby aż do roku 1975 masowo inwestować we współczesną astronomię na poziomie zbliżonym do światowego .
Wpływ międzynarodowy
Ponieważ Chiny były dominującą kulturą w Azji Wschodniej, instytucje i metody oficjalnej astronomii stworzyły podstawę dla odpowiedników (zawsze o charakterze lokalnym) w Korei, Japonii i Wietnamie. Chęć dokładnego przewidywania zaćmień słońca zmotywowała Chińczyków do zatrudnienia ekspertów w dziedzinie metod geometrycznych tradycji greckiej. Zatrudniali Hindusów od 665 r., muzułmanów podczas okupacji mongolskiej (1279-1367) oraz misjonarzy jezuickich w XVII i XVIII wieku. Ten ostatni faktycznie, oferując najeźdźcom mandżurskim swoje umiejętności rzucania armat i obliczania obowiązkowych efemeryd imperialnych, przejął kontrolę nad Biurem Astronomicznym. Nawet gdy jezuici wprowadzili techniki europejskie, zmienili je do tradycyjnej formy li. Chociaż w swoich chińskich pismach wspominali o Koperniku i innych ważnych postaciach europejskich, ograniczenia kontrreformacji uniemożliwiły im opisanie rewolucyjnych zmian w kosmologii.
Zastosowania we współczesnej astronomii
Chociaż ograniczeni pozytywiści ignorują historię astrologii, w Chinach główne dziedzictwo nauki tradycyjnej i współczesnej nie wywodzi się z technik obliczeniowych, ale ze szczegółowych astrologicznych zapisów obserwacji, niespotykanych gdzie indziej. Najpełniejsze dane dotyczące starożytnych supernowych, które zostały skorelowane ze zjawiskami pulsarowymi, pochodzą głównie z Chin. Informacje na temat czasu, wielkości i czasu trwania dużej liczby zaćmień Słońca i Księżyca rzuciły światło na świeckie przyspieszenie Księżyca i Ziemi. Daty każdego zwrotu Komety Halleya przez ponad 2000 lat wyjaśniała swój ruch. Zapisy, niektóre wielokrotne, dotyczące 147 odrębnych pojawień się plam słonecznych i około dwukrotnie większej liczby zórz polarnych, okazały się cenne do badania powiązań między tymi dwoma zjawiskami i testowania hipotez dotyczących minimów plam słonecznych.
Chiron
Chiron należy do współczesnej populacji mniejszych planet zwanych CENTAURAMI, których orbity przecinają się z orbitami gigantycznych planet zewnętrznych: Saturna, Urana i Neptuna. Chiron był pierwszym odkrytym centaurem i być może najbardziej niezwykłym ze względu na swoją aktywność kometową i inne cechy. Centaury są prawdopodobnie byłymi mieszkańcami PASA KUIPERA, dlatego też Chirona można uznać za naszego pierwszego i najbardziej dostępnego wysłannika z odległych zakątków Układu Słonecznego. Badania Chirona i innych obiektów Centaurów oraz Pasa Kuipera pozwalają nam zbadać historię powstawania i ewolucji Układu Słonecznego. Chiron okrąża Słońce pomiędzy Saturnem a Uranem po 50-letniej orbicie, w odległości heliocentrycznej od 8,5 AU do nieco poniżej 19 AU (jednostka astronomiczna to odległość między Ziemią a Słońcem, w przybliżeniu równa 1,5×1013 cm). Chiron przeszedł przez peryhelium 14 lutego 1996 r. i był wówczas przedmiotem międzynarodowej kampanii obserwacyjnej. Średnica Chirona wynosi około 180 km; zakres ostatnich pomiarów przeprowadzonych na różnych długościach fal wynosi około 150 do 370 km, chociaż obserwacje zakrycia i IR potwierdzają wartość w pobliżu 180 km. Chiron ma wielkość bezwzględną H = 6,5 mag; w całym zakresie orbity jej pozorna wielkość waha się od 16 do 20 mag. Krzywa blasku w świetle widzialnym jest porównywalna z krzywą blasku w ultrafiolecie, z okresem 5,9 h i zmianą między szczytami wynoszącą około 0,1 mag. Pomiary w zakresie widzialnym wykazały, że Chiron ma zazwyczaj stosunkowo neutralną lub szarą barwę (co oznacza, że nie odbija ani nie absorbuje preferencyjnie określonych długości fal światła, które go oświetlają). Ten szary kolor jest niezależny od fazy rotacyjnej, choć istnieją obserwacje wskazujące na pewne zmiany koloru, prawdopodobnie związane z aktywnością komety. Na przykład obserwacje w ultrafiolecie pokazują podobny neutralny kolor w okresach spoczynku, chociaż podczas wybuchu Chiron wykazywał możliwe nachylenie koloru niebieskiego, a ALBEDO (odbicie) wzrósł. Odkrycie Chirona jest następstwem historycznego postępu odkrywania nowych klas mniejszych planet w regionach Układu Słonecznego, które wcześniej uważano za puste. Pierwszą asteroidę, CERES, odkrył Piazzi w 1801 roku, a wkrótce po niej w ciągu następnych sześciu lat odkryto PALLAS, JUNO i VESTA. W miarę udoskonalania teleskopów, detektorów i technik granice obserwacji ciał asteroidowych przesuwały się z czasem od głównego pasa, przesuwając się zarówno na zewnątrz (poprzez grupy Cybele, Hilda i TROJANASTEROID), jak i do wewnątrz (poprzez Amor, Apollo i grupy Atona). W 1977 roku horyzont małych ciał naszego Słońca , system został rozszerzony na orbity tak odległe jak Uran wraz z odkryciem przez Charlesa Kowala obiektu 1977 UB, później oznaczonego jako asteroida numer 2060 i nazwanego Chiron. Chiron zasugerował nową klasę małych ciał zwanych centaurami - przemierzającymi planety zewnętrzne. Do końca 1999 r. odkryto w sumie 17 centaurów. Piętnaście lat po odkryciu Chirona nasze spojrzenie na Układ Słoneczny zostało jeszcze bardziej poszerzone dzięki pierwszemu odkryciu obiektu Pasa Kuipera, 1992 QB1, przez Davida Jewitta i Jane Luu. Był to pierwszy z setek takich obiektów, które obecnie odkryto, których orbity znajdują się poza Neptunem. Te odkrycia obserwacyjne w przekonujący sposób wykazały, że rozległa planeta zewnętrzna i obszary transneptunowe rzeczywiście roją się od małych ciał.
Połączenie Chirona z resztą Układu Słonecznego
Uważa się, że Chiron jest uciekinierem z Pasa Kuipera, rezerwuaru KOMET i większych PLANETOZYMALI, postulowanego przez Edgewortha i Kuipera w latach czterdziestych i pięćdziesiątych XX wieku. Jeden z głównych dowodów potwierdzających pochodzenie Chirona ma charakter dynamiczny. Badania przeprowadzone przez Shio Oikawę i Edgara Everharta, a ostatnio przez Luke′a Donesa, Harolda Levisona i Martina Duncana wykazały, że orbita Chirona jest niestabilna z powodu zaburzeń ze strony gigantycznych planet w skali czasu < 106 lat. To oraz podobna do komety aktywność Chirona dostarczają mocnego, choć poszlakowego dowodu na to, że Chiron niedawno przybył do regionu planetarnego. Mniej więcej w tym samym czasie, gdy odkryto dynamiczną niestabilność orbity Chirona, symulacje ewolucji orbity po raz pierwszy zaczęły przekonująco potwierdzać pogląd, że orbit większości komet krótkookresowych nie można wyznaczyć na podstawie odległej, sferycznej CHMURY OORTA. Jak omawiali Martin Duncan, Thomas Quinn i Scott Tremaine w artykułach z 1988 i 1990 r., postulowane źródło dyskowe w zewnętrznym Układzie Słonecznym (nieodkryty jeszcze Pas Kuipera) musi być źródłem takich obiektów. Symulacje dynamiczne wykazały, że obiekty w Pasie Kuipera pomiędzy 30 a 50 AU wykazują dynamicznie chaotyczne orbity z powodu zaburzeń grawitacyjnych ze strony planet-olbrzymów. W przypadku wystąpienia takich zaburzeń odległości peryhelium obiektu w tym obszarze mogą gwałtownie się zmniejszyć, aż w końcu orbita obiektu przetnie orbitę Neptuna. Gdy to nastąpi, obiekt prawie na pewno doświadczy bliskiego spotkania z Neptunem, który następnie może wyrzucić obiekt na znacznie większą lub znacznie mniejszą orbitę. Obiekty wyrzucane na mniejsze orbity mogą następnie podlegać silnym zakłóceniom ze strony innych planet-olbrzymów. W ten sposób obiekty w Pasie Kuipera mogą sukcesywnie ewoluować w orbity podobne do orbit komet krótkookresowych i Centaurów, takich jak Chiron. Dodatkowy dowód na to, że Chiron przybył z Pasa Kuipera, jest fizyczny. Średnica Chirona wynosząca około 180 km, jego kolor i oznaki substancji lotnych na powierzchni są zgodne z szacunkami wielkości, zaobserwowanymi kolorami i oczekiwanym składem chemicznym powierzchni dla niektórych typów obiektów Pasa Kuipera. Biorąc pod uwagę dynamiczną niestabilność orbit Centaurów, wiarygodną metodę przenoszenia obiektów z Pasa Kuipera do Układu Słonecznego oraz fizyczne podobieństwa między Centaurami i obiektami z Pasa Kuipera, jest zatem prawdopodobne, że Chiron i inne Centaury są unikalnymi obiektami przejściowymi, łączącymi zewnętrzne Pas Kuipera w Układzie Słonecznym i obiekty znajdujące się w wewnętrznym Układzie Słonecznym, takie jak komety z rodziny Jowisza.
Obserwacje: kometa czy mniejsza planeta?
Jak wspomniano powyżej, jedną z unikalnych cech Chirona wśród obecnie znanych centaurów jest to, że wykazywał on przejściową COMA, która wykazała poziom aktywności, który może być zarówno wysoki w aphelium, jak i w peryhelium. Wskazując na jego niezwykłą naturę, Chiron ma dwa akceptowane oznaczenia: "(2060) Chiron" i "95P/Chiron", w zależności od tego, czy uważa się go za mniejszą planetę, czy za kometę. Jednak Chiron jest około 50 razy większy od typowej komety. Niezwykłą aktywność po raz pierwszy odkryli Dave Tholen, William Hartmann i Dale Cruikshank w 1988 roku, kiedy jasność Chirona podwoiła się, gdy znajdował się on jeszcze w odległości 12 jednostek astronomicznych od Słońca. Wkrótce potem Karen Meech i Michael Belton zaobserwowali śpiączkę o wielkości około 105 km wokół Chirona. Jednym z wyjaśnień tej śpiączki jest to, że składa się ona z submikronowych cząstek pyłu, które uciekają (porywane w wyniku lotnego odgazowania) z niskiej atmosfery. Marc Buie, James Elliot, Schelte Bus i kilkunastu
współpracowników obserwowało Chirona podczas zakrycia gwiazd w 1993 roku, a ich dane wskazują na istnienie cech przypominających dżety, typową właściwość komet i wywnioskowaną z modeli i innych obserwacji Chirona. Dżety te sugerują, że koma powstaje z kilku aktywnych obszarów, a nie z bardziej wszechobecnej sublimacji na powierzchni. Pierwsze widmo Chirona w ultrafiolecie uzyskał w 1995 roku Noah Brosch za pomocą spektrometru długich fal atelitu INTERNATIONAL ULTRAVIOLET EXPLORER w trybie niskiej rozdzielczości (6 Å). Rok później spektrograf słabych obiektów na Kosmicznym Teleskopie Hubble'a dokonał obserwacji Chirona w ultrafiolecie z rozdzielczością 2 Å podczas jednego z jego wybuchów. Ten "wybuch" polegał na dużym (około 60%) wzroście strumienia Chirona, ale co ciekawe, nie było dowodów na przedłużoną śpiączkę, jak można by się spodziewać w takim przypadku. Źródło tego znaczącego wzrostu jest nieznane, a analiza przeprowadzona przez Joela Parkera, Alana Sterna, Michela Festou i Michaela
A′Hearna sugeruje, że może to być kuszący dowód na bardzo niezwykłą funkcję fazową, ponowne pokrycie powierzchni w wyniku niezaobserwowanego wybuchu lub zimnego, trwałego , przypowierzchniowa "mgła" (atmosfera o małej wysokości), która doświadczyła osobliwego, nierozwiązanego wybuchu. Istnieją również dowody na to, że podczas tego wybuchu kolor Chirona zmienił się z szarego na lekko niebieski. Zbieżność tej pozornej zmiany koloru ze wzrostem strumienia może być oznaką małych ziaren rozpraszających Rayleigha w śpiączce Chirona lub na jej powierzchni, związanych z wyższym albedo. Chiron wykazywał aktywność we wszystkich punktach swojej orbity, a zakres wybuchów jest szeroki zarówno pod względem amplitudy (od kilku procent do ponad dwukrotności), jak i czasu trwania (od tygodni do miesięcy). W rzeczywistości Chiron był bardziej aktywny w swoim aphelium w 1970 roku niż w kolejnych dziesięcioleciach, kiedy był bliżej Słońca. Taka analiza (przeprowadzona przez Schelte Busa, Edwarda Bowella, Alana Sterna i
Michaela A′Hearna) działalności Chirona była możliwa dzięki zapoznaniu się z historycznymi kliszami fotograficznymi z archiwów obserwatoriów. Źródło działalności Chirona pozostaje nadal kwestią otwartą. Ponieważ Chiron jest aktywny na tak dużych odległościach - m.in. poza Saturnem - jego aktywność nie może być napędzana przez sublimację lodu wodnego, który nie jest lotny na tej odległości (lód wodny został po raz pierwszy odkryty na Chironie przez Michaela Fostera, Simona Greena, Neila McBride′a i Johna Daviesa w 1998 r. i był obserwowany o innych centaurach autorstwa Roberta Browna, Dale′a Cruikshanka i ich współpracowników). Jednak obliczenia modelowe przeprowadzone przez Dianę Prialnik, Noah Brosch i Drorę Ianovici pokazują, że obserwowany wzór aktywności Chirona może wynikać z CO, który początkowo jest uwięziony w amorficznym lodzie wodnym, ale następnie uwalniany podczas krystalizacji lodu. Aktywność Chirona musi być napędzana przez lody, które są lotne w tych odległościach, a możliwe
gatunki kandydujące obejmują CO, który jest częstym źródłem aktywności w kometach, N2, który jest powszechny na Plutonie i księżycu Neptuna, Trytonie, czyli CH4. Zmienność wybuchów Chirona, widoczny brak korelacji między aktywnością a odległością od Słońca oraz obserwacje cech przypominających dżety sugerują, że powierzchnia Chirona może być nierównomiernie pokryta obojętnym materiałem. Znajomość gatunku napędzającego aktywność Chirona jest kluczem do zrozumienia jego powiązań z innymi obiektami i regionami Układu Słonecznego. W 1995 roku Maria Womack i Alan Stern dokonali milimetrowych obserwacji Chirona, gdy znajdował się on w odległości heliocentrycznej 8,5 jednostki astronomicznej. Wykryli tlenek węgla o gęstości kolumnowej N(CO) = 9 × 1012 cm-2, co sugeruje szybkość produkcji Q(CO) = 2 × 1028 s-1, jeśli CO pochodzi bezpośrednio z jądra. Jest to porównywalne z tempem produkcji CO przez kometę Hale′a - Boppa w odległości
heliocentrycznej 3,8 jednostki astronomicznej. Widma ultrafioletowe Kosmicznego Teleskopu Hubble'a zapewniają najlepsze jak dotąd górne granice dla wielu innych gatunków. Dane nie wykazały żadnych dowodów na emisję komy u CS λ2576, OH λ3085 ani żadnego innego gatunku śpiączki i ustaliły górne granice liczebności kolumny N(CS)<4,3×1013cm-2 i N(OH) <1,5×1014 cm-2, odpowiadające szybkości wytwarzania cząsteczek macierzystych odpowiednio Q(H2O) < 4 × 1030 s-1 i Q(CS2) < 4 × 1028 s-1.
Przyszłość Chirona
Regularne i szczegółowe obserwacje obiektów należących do Pasa Kuipera wciąż wykraczają poza możliwości współczesnych instrumentów, dlatego Chiron, ze względu na swoją względną bliskość, zapewnia astronomom najlepszą okazję do zbadania właściwości obiektu, który niedawno znajdował się w Pas Kuipera. Należy w dalszym ciągu prowadzić obserwacje jego sporadycznych wybuchów, aby rozpoznać mechanizmy leżące u podstaw jego działania i źródło śpiączki. Istotnym krokiem byłoby jednoznaczne wykrycie i pomiary liczebności gatunków tworzących gazy śpiączkowe. Miejmy nadzieję, że do czasu, gdy Chiron powróci na kolejne przejście przez peryhelium 3 sierpnia 2046 r., nasze instrumentarium astronomiczne i nasza wiedza na temat centaurów osiągną taki poziom, w którym będziemy mogli przeprowadzić szczegółowe obserwacje i analizy jego właściwości fizycznych w odniesieniu do Pasa Kuipera. Być może nawet wykorzystamy półstulecie Chirona do wystrzelenia misji kosmicznej mającej na celu spotkanie z tym wyjątkowym emisariuszem z
zewnętrznych granic naszego Układu Słonecznego
Chondryty
Chondryty są najczęstszym rodzajem METEORYTÓW spadających na Ziemię z kosmosu. Swoją nazwę zawdzięczają temu, że większość z nich zawiera "chondry" (od greckiego "chondros", ziarno), które są koralikami krzemianowymi, czasami spotykanymi w dużych ilościach. Chondrule zawsze fascynowały naukowców. Wynalazca mikroskopu petrograficznego, H. C. Sorby, opisał je jako kropelki ognistego deszczu. Są to zasadniczo szkliste koraliki powstałe w wyniku gwałtownego, ale krótkiego ogrzewania, w wyniku którego ziarna pyłu utworzyły kropelki stopu wielkości milimetrów. Jednak przyczyna ogrzewania pozostaje tajemnicą. Najważniejszą cechą chondrytów jest to, że z wyjątkiem kilku wysoce lotnych pierwiastków mają taki sam skład jak Słońce. Są to także skały niezwykle starożytne, których wiek powstania jest porównywalny z wiekiem Układu Słonecznego (4600 milionów lat). Wreszcie mają unikalne tekstury sugerujące akumulację różnorodnych składników z niewielkimi lub żadnymi późniejszymi zmianami. Natomiast ACHONDRYTY to meteoryty o wyraźnie niesłonecznym składzie i skały magmowe powstałe w wyniku różnego rodzaju wulkanizmu. Największym chondrytem widzianym spadającym z kosmosu jest Jilin o masie 4000 kg, natomiast największym, którego upadku nie zaobserwowano, ale dla którego meteorytem znalezionym na powierzchni Ziemi jest chondryt Carewa, znaleziony w Rosji w 1968 roku. Najsłynniejszy chondryt to prawdopodobnie METEORYT ALLENDE, który spadł w Meksyku w 1969 r. Znaleziono około 2 ton porozrzucanych na polach uprawnych w prowincji Chihuahua. Chondryt Allende słynie z dużej ilości białych kruszyw krzemianowych o niezwykłych właściwościach chemicznych i izotopowych. Chondryt Semarkona o masie 691 g, który spadł w Indiach w 1940 r., jest dobrze znany naukowo, ponieważ należy do największej klasy chondrytów, która najbardziej przypomina pierwotną materię Układu Słonecznego. Meteoryty zwykle dają spektakularne efekty, gdy spadają przez atmosferę, powstają kule ognia, wiele huków dźwiękowych, a nawet zapachy, a powierzchnie pozostałych kamieni czernieją w miejscach, gdzie cienka warstwa materiału stopiła się podczas przejścia przez atmosferę. Meteoryty zwykle rozpadają się na wiele kawałków, które są rozrzucone po elipsie na Ziemi, przy czym najcięższe kawałki przemieszczają się najdalej. Meteoryt Pułtusk wyprodukował 100 000 fragmentów. Zaobserwowano, że około 850 chondrytów spadło i umieszczono w muzeach na całym świecie, a na Ziemi odnaleziono prawie 20 000 ich fragmentów, głównie w Ameryce Północnej, Afryce Północnej, środkowej i zachodniej Australii, a zwłaszcza na Antarktydzie. W artykule opisano klasyfikację i podstawowe właściwości chondrytów, ich historię fizyczną określoną na podstawie badań izotopowych, datowania radiometrycznego i petrologii, a także niektóre aktualne pomysły na ich pochodzenie.
Klasyfikacja i podstawowe właściwości chondrytów
Klasy chondrytów podano w tabeli 1 wraz z informacjami o ich głównych właściwościach.
Uwzględniono także dwie klasy "prymitywnych achondrytów". Tradycyjnie uważano je za achondryty ze względu na ich magmową teksturę, ale ich skład jest słoneczny i obecnie przyjmuje się, że są to chondryty, które stopiły się bez zmiany składu. Chociaż chondryty mają takie same proporcje większości pierwiastków jak Słońce, dwoma lotnymi pierwiastkami, które nie występują w proporcjach słonecznych, są siarka i tlen. Ilość tych pierwiastków, w szczególności tlenu, jest bardzo zróżnicowana pomiędzy chondrytami. Ma to istotne implikacje dla występujących minerałów. W chondrytach EL i EH (zwanych łącznie "chondrytami enstatytowymi") żelazo występuje w postaci metalu i siarczku, ale niewiele lub nie występuje w postaci krzemianowej. Dominującym minerałem krzemianowym jest enstatyt, MgSiO3, od którego pochodzi nazwa tej klasy. Chondryty H, L i LL (zwane łącznie "zwykłymi chondrytami") zawierają więcej tlenu niż chondryty enstatytowe. Tak więc, chociaż część żelaza występuje w postaci metalu i siarczków, większość występuje w postaci krzemianów w postaci minerałów kamiennych (krzemianowych), oliwinu i piroksenu. (Oliwin to stały roztwór Mg2SiO4 i Fe2SiO4, termin Fa w tabeli odnosi się do procentowej zawartości Fe2SiO4, natomiast piroksen to stały roztwór MgSiO3 i FeSiO3, termin Fs w tabeli odnosi się do procentowej zawartości FeSiO3 .) Chondryty CI, CM, CV i CO (zwane łącznie "chondrytami węglowymi") zawierają więcej tlenu niż inne chondryty, a w niektórych przypadkach żelazo nie występuje już w postaci metalu, ale jest całkowicie zastąpione magnetytem i podobnymi minerałami. CHONDRYTY WĘGLOWE zawierają również większe ilości składników lotnych niż inne chondryty, przy czym chondryty CI składają się w 20% z wody i dlatego najlepiej uważać je za raczej twarde kulki błota. Właściwości te można dogodnie przedstawić za pomocą wykresu żelaza w postaci metalicznej względem żelaza w postaci siarczkowej i krzemianowej .Na takim wykresie, wykorzystanym po raz pierwszy przez laureata Nagrody Nobla Harolda Ureya i jego kolegę Harmona Craiga, chondryty będą leżeć po przekątnej z meteorytami ubogimi w tlen w lewym górnym rogu i meteorytami bogatymi w tlen na dole. Przekątna będzie "słonecznym żelazem całkowitym" linii, jeśli stosunek żelaza do krzemu jest równy wartości słonecznej. Jednakże chondryty oddalają się od przekątnej Słońca, co wskazuje, że oprócz różnic w ilości zawartego w nich tlenu, niektóre chondryty zawierają różne ilości całkowitego żelaza. Inne właściwości wydają się różnić w zależności od tych klas chondrytów, takie jak obfitość wysoce ogniotrwałych (nielotnych) pierwiastków, które wykazują niewielki, ale znaczący spadek w porównaniu z chondrytami słonecznymi w miarę przechodzenia od chondrytów węglowych przez zwykłe do enstatytu. Podobnie względna obfitość trzech izotopów tlenu w różnych klasach chondrytów jest wysoce charakterystyczna. Chondryty węglowe (z wyjątkiem chondrytów CI) zawierają większą część głównego izotopu tlenu (16O) niż skały z Ziemi i Księżyca, podczas gdy chondryty enstatytowe i chondryty CI mają podobne proporcje do Ziemi i Księżyca, a zwykłe chondryty mają mniejszą zawartość 16O . Największy wpływ na izotopy tlenu wykazują chondryty CV i wydają się one być powiązane z charakterystycznymi dla tej klasy białymi agregatami krzemianowymi. Główne pytania stawiane przez klasy chondrytów brzmią: biorąc pod uwagę, że chondryty są starożytne i mają zasadniczo skład słoneczny, jak doszło do tych różnic w składzie chemicznym żelaza, ilości żelaza i innych właściwościach? Co mówią nam o warunkach panujących we wczesnym Układzie Słonecznym? Jedną ze wskazówek co do natury procesu, który powoduje te właściwości, jest natura i liczebność chondr oraz względne rozmiary chondr i ziaren metalu. Liczebność chondrul spada z około 75% obj. w zwykłych chondrytach do 35% obj. w enstatytach oraz chondrytach CV i CO, do mniej niż 10% obj. w CM i zasadniczo do zera w chondrytach CI. Chondrule są bardzo zróżnicowane, niektóre zawierają krzemiany bogate w żelazo i są stosunkowo bogate w pierwiastki lotne, a inne zawierające krzemiany ubogie w żelazo, są zubożone w pierwiastki lotne. Zatem można przynajmniej argumentować, że niektóre trendy dotyczące tlenu i pierwiastków ogniotrwałych odzwierciedlają liczebność i proporcje różnych typów chondr. Wielkość ziaren metali również znacznie się różni w zależności od klasy. Chondryty enstatytowe mają najmniejsze, a zwykłe chondryty największe ziarna metalu, podczas gdy chondryty węglowe na ogół zawierają niewiele metalu lub nie zawierają go wcale.
Historia chondrytów
Jeśli spojrzeć pod mikroskopem na serię z tej samej klasy, często można dostrzec szeroką gamę tekstur, przy czym chondry są wyraźne w niektórych chondrytach i rozmyte w innych. Chondruły to zasadniczo ziarna oliwinu i piroksenu otoczone materiałem, który w niektórych chondrach jest szklisty, w innych półprzezroczysty, a w jeszcze innych krystaliczny. Podobnie matryca pomiędzy chondrami i ziarnami metalu jest drobnoziarnista w niektórych chondrytach, a gruboziarnista w innych. Oprócz tych trendów fizycznych, skład ziaren i faz mineralnych staje się bardziej jednolity w miarę rozmycia tekstur. Wszystkie te efekty przypisuje się nagrzewaniu skały po jej złożeniu. Efekt ten nazywany jest metamorfizmem i jest opisywany systemem numeracji od 3 do 6, przy czym meteoryty niezmienione to typ 3, a meteoryty silnie przemienione to typ 6. Ze szczegółowych badań chemii faz w równowadze chemicznej możemy oszacować, że typy 3, 4 , 5 i 6 odpowiadają w przybliżeniu temperaturom odpowiednio 400-600°C, 600-700°C, 700-750°C i 750-950°C. Typy 1 i 2 odnoszą się do chondrytów metamorfizowanych w obecności znacznych ilości wody (∿50% obj.), typ 1 w temperaturze 100-150°C i typ 2 w temperaturze <20°C. Na podstawie profili składu metalu zwykłych chondrytów, spowodowanych niepełną równowagą, możemy oszacować, że szybkości chłodzenia po metamorfizmie wynosiły zazwyczaj 10-100 K Myr-1. Inny proces, któremu uległa większość, jeśli nie wszystkie chondryty, znajduje odzwierciedlenie w wyglądzie chondrytów gołym okiem. Często wydają się być zbudowane z fragmentów wcześniej istniejących skał. Meteoryt z Fayetteville jest doskonałym przykładem takiej tekstury. Technicznie rzecz biorąc, proces ten nazywa się "brekcjacją", a skały - "BRECCIAS". Fragmenty zupełnie normalnego chondrytu są czasami otoczone ciemniejszą "glebą" złożoną z pokruszonych chondrytów i bogatą w gazy obojętne, węgiel i kryształy uszkodzone przez promieniowanie. Meteoryty te nazywane są "brekcjami regolitowymi bogatymi w gaz". Były to szczątki powierzchniowe jakiegoś pozbawionego powietrza ciała wystawionego na działanie wiatru słonecznego i energetycznego promieniowania słonecznego. Astronauci programu Apollo znaleźli podobne skały na Księżycu. Oprócz metamorfozy i brekcji wiele meteorytów wykazuje oznaki nagłych wzrostów temperatur, po których następuje bardzo szybkie ochłodzenie. Kryształy są pękane i deformowane, a minerały metaliczne i siarczkowe topione i wciskane w pęknięcia, a czasami minerały uzyskują niezwykłą teksturę. Efekty te można odtworzyć w laboratorium, wystawiając chondryty na działanie fal uderzeniowych wytwarzanych przez plastikowe materiały wybuchowe lub duże działa. Skutki są klasyfikowane jako seria poziomów S1, S2, S3, S4, S5 i S6, które odnoszą się do ciśnień uderzeniowych <5 GPa, 5-10 GPa, 10-20 GPa, 20-30 GPa, 30-50 Odpowiednio GPa i >50 GPa (1 GPa, czyli gigapaskal, równa się około 10 000 atm). Źródłem fali uderzeniowej doświadczanej przez chondryty jest prawie na pewno zderzenie dwóch ASTEROID w przestrzeni kosmicznej. Jedne z najlepszych informacji na temat historii chondrytów, jakie posiadamy, dostarczają różne metody datowania. Gdy tylko meteoryt zostanie usunięty ze swojego pierwotnego ciała macierzystego i osiągnie rozmiary metra, PROMIENIE KOSMICZNE bombardują kamień i tworzą izotopy, które inaczej nie byłyby obecne. Na podstawie tych izotopów można obliczyć czas ekspozycji na promieniowanie kosmiczne. Często stwierdza się, że w tym samym czasie odsłonięto dużą liczbę chondrytów danej klasy, co stanowi mocny dowód na to, że wszystkie lub większość chondrytów została uwolniona w tym czasie z tego samego obiektu macierzystego. Najlepszym przykładem jest klasa chondrytów H, której większość została wystawiona na działanie promieni kosmicznych 8 milionów lat temu. Kilka innych klas chondrytów wykazuje podobne wartości szczytowe w rozkładach wieku ekspozycji. Inna metoda datowania prowadzi do tego samego wniosku w przypadku innej głównej klasy chondrytów, chondrytów L. "Wiek Ar - Ar" opiera się na rozpadzie radioaktywnym 40K do 40Ar; potas mierzy się w laboratorium na podstawie obfitości innego wytworzonego eksperymentalnie izotopu, 38Ar. Większość chondrytów L ma wiek Ar-Ar około 500 milionów lat, a wiele z nich jest intensywnie nagrzewanych szokowo. Wydaje się zatem, że 500 milionów lat temu wszystkie te oddzielne chondryty L doświadczyły powszechnego zdarzenia grzewczego, które spowodowało utratę gazu 40Ar i zresetowanie zegara Ar - Ar. Musiały także być w tym czasie częścią tego samego obiektu nadrzędnego. Ekspozycja i wiek Ar - Ar świadczą o tym, że członkowie dużych klas chondrytów pochodzili z jednego lub dwóch obiektów w kosmosie.
Pochodzenie chondrytów
Jakie więc były obiekty, z których pochodzą chondryty? Podczas upadku zaobserwowano kilka meteorytów, głównie chondrytów, na tyle dobrze, że można było określić ich orbity. Orbity przypominają orbity ASTEROID BLISKOZIEMI, zbliżających się na odległość około 0,9 jednostki astronomicznej od Słońca i wychodzących do głównego PASA ASTEROID na około 2,5 jednostki astronomicznej (1 AU, "jednostka astronomiczna", to odległość Ziemi od Słońca, wynosząca 150 milionów kilometrów). Związek między kometami i asteroidami jest niejasny, a aż połowa asteroid znajdujących się w pobliżu Ziemi może to wymarłe jądra komet, ale wiele z nich mogło pochodzić z głównego pasa asteroid. Widmo światła słonecznego odbitego od powierzchni asteroid dostarcza wskazówek co do ich powierzchni . W ten sposób podzielono obecnie na klasy ponad 2000 planetoid, a wiele z nich przypomina meteoryty . Jednakże asteroidy o widmach przypominających zwykłe chondryty - klasę chondrytów dominującą w strumieniu meteorytów na Ziemi - są wśród asteroid bardzo rzadkie. Idealne dopasowania można znaleźć w przypadku mniej niż 1% asteroid i nawet jeśli założyć, że na powierzchnie asteroid wpływa jakaś forma wietrzenia kosmicznego, wówczas mniej niż 11% asteroid może być źródłem głównych klas chondrytów na Ziemi. Istnieją zasadniczo dwa czynniki decydujące o tym, które meteoryty dotrą do Ziemi, poza liczebnością ich macierzystych asteroid w pasie asteroid. Są to mechanizmy orbitalne służące do przenoszenia obiektów z pasa asteroid na Ziemię i do atmosfery ziemskiej. Przejście przez atmosferę ziemską niszczy większość delikatnych meteorytów CI i CM, ale pozostawia nietknięte twarde, zwykłe chondryty. Prawie połowa sklasyfikowanych asteroid w pasie głównym ma widma przypominające widma chondrytów CI lub CM, podczas gdy tylko kilka procent meteorytów docierających do powierzchni Ziemi należy do tych klas. Uważamy, że większość zwykłych klas chondrytów pochodzi z ciał pojedynczych, a dane widmowe pokazują, że obiekty te są rzadkie w pasie asteroid. Ostatnio zasugerowano, że chondryty H pochodzą z asteroidy 6 Hebe, przy czym "6" wskazuje, że była to planetoida 6 Hebe, odkryto szóstą asteroidę. Ten 200-kilometrowy obiekt nie tylko ma widmo powierzchni podobne do chondrytów H, zmieszanych z niektórymi pokrewnymi METEORYTAMI ŻELAZNYMI, ale także znajduje się w przestrzeni, gdzie zarówno Saturn, jak i Jowisz wywierają silny okresowy wpływ grawitacyjny, który może wysyłać meteoryty z Hebe na Ziemię. Jeśli założymy, co wydaje się prawdopodobne, że różne klasy chondrytów pochodzą z różnych asteroid, to w jaki sposób powstały te różne klasy? Jak ich asteroidy macierzyste mają różne powierzchnie? Jest to równoznaczne z pytaniem, jak powstały chondry w meteorytach i jak zmieniły się proporcje metali i krzemianów w zależności od klasy. Większość naukowców twierdzi, że w Mgławicy doszło do powstawania chondrytów i oddzielania metali od krzemianów, że błyskawice lub inne impulsy energii przelatywały przez pył mgławicy, tworząc chondry, oraz że wirujące w mgławicy ziarna metalu i krzemianu uległy rozdzieleniu, być może w wyniku sortowania aerodynamicznego za pomocą gazu lub być może w innym procesie. Jednakże autor niniejszego artykułu zasugerował, że na powierzchniach asteroid zachodziło zarówno tworzenie chondr, jak i oddzielanie metali od krzemianów. Zasugerowałem, że chondry powstają w wyniku uderzenia oraz że ziarna metalu i krzemianu oddzielają się, gdy gazy z wnętrza asteroidy, głównie woda, przedostają się przez suche warstwy powierzchniowe, sortują chondry i metal pod względem wielkości i grawitacji oraz dostosowują ich względne proporcje, gdy uciekł w kosmos. Zatem pochodzenie meteorytów jest zasadniczo takie samo, jak pochodzenie asteroid. Mgławica, z której powstało Słońce, oddzieliła się od większego obłoku międzygwiazdowego i uległa zapadnięciu grawitacyjnemu, tworząc proto-Słońce i szereg pierścieni materii, które szybko połączyły się w planety. W miejscu pasa asteroid, 2-3 jednostki astronomiczne od Słońca, siły grawitacyjne głównych planet (Jowisza i Saturna) były tak silne, że uniemożliwiono koalescencję i utworzyła się duża liczba maleńkich PLANETOZYMALI. Niektóre z nich urosły w wyniku AKRECJI, ale większość uległa fragmentacji w wyniku uderzenia, tworząc pas asteroid podobny do tego, jaki obserwujemy dzisiaj. Wiele asteroid zawierało wystarczającą ilość radioaktywnego izotopu glinu, 26Al, że wytworzyły się duże ilości ciepła, które uległy stopieniu, tworząc wiele magmowych klas meteorytów. Produkt pochodny rozpadu 26Al, 26Mg, znaleziono w fazach bogatych w glin niektórych meteorytów. Jednak niektóre chondryty ogrzewano bez topienia, a wiele w ogóle nie było podgrzewanych. Chondryty są wyraźnie prymitywnymi materiałami z wczesnego Układu Słonecznego. Aby podkreślić tę kwestię, w chondrytach odkryto ziarna diamentu, grafitu, węglika krzemu i tlenku glinu, które mają właściwości izotopowe, co wskazuje, że nie powstały one w naszym Układzie Słonecznym, ale zostały wyrzucone z zewnętrznych atmosfer różnych gwiazd. Są to ziarna przedsłoneczne, MIĘDZYGWIAZDOWE. Tak więc, choć chondryty są powszechnie uważane za zwiastunów przynoszących nam informacje na temat wczesnego Układu Słonecznego, w bardzo realnym sensie stanowią łącznik pomiędzy naszymi laboratoriami a procesami zachodzącymi w przestrzeni międzygwiazdowej i odległych gwiazdach
Chromosfera
Chromosfera (gr. χρωμα, kolor) to gazowa powłoka atmosferyczna otaczająca Słońce, a ogólniej gwiazdy, o typowej grubości 2000 km, leżąca nad FOTOSFERĄ SŁONECZNĄ i zawierająca głównie wodór i hel.
Wprowadzenie historyczne
Całkowite zaćmienie z 1860 r. można uznać za pierwsze poważne badanie chromosfery. Podczas zaćmień księżyc wydaje się otoczony kolorowym okręgiem z kilkoma wystającymi strukturami, zwanymi PROMINENCES, które rozciągają się przez zewnętrzną koronę i drobniejsze struktury, takie jak "poils" po francusku, które byłyby spikulami. Podczas zaćmienia w 1970 r. C. A. Young użył spektrografu i szczeliny stycznej. Kiedy nadszedł moment całkowitego zaćmienia, został nagrodzony nagłym pojawieniem się licznych linii emisyjnych zwanych widmem błyskowym. Zjawisko to trwało zaledwie kilka sekund, ponieważ Księżyc szybko pokrył najniższe warstwy chromosfery. W 1901 r. J. Evershed opublikował widmo chromosfery i omówił podobieństwa i różnice w stosunku do widma fotosferycznego. W drugiej połowie XIX wieku nowy rodzaj instrumentu, spektroheliograf, został opracowany w Mt Wilson przez G. E. Hale′a, a w Meudon przez H. Deslandresa. Obserwując linie H i K zjonizowanego wapnia (Ca II), odnieśli sukces i odkryli regularny wzór chromosfery zwany siecią chromosferyczną. Interpretacja tych linii w emisji powyżej krawędzi była zagadkowa i nikt w tamtym czasie nie myślał, że temperatura chromosfery może być wyższa niż fotosfery. Musieliśmy czekać do 1942 roku na odkrycie gorącej KORONY otaczającej Słońce. Nowe opracowanie instrumentalne pomogło lepiej zrozumieć chromosferę. W 1933 roku B. Lyot opublikował raport na temat filtrów dwójłomnych o wąskim paśmie, które umożliwiały zobaczenie spikuli na krawędzi. Filtry te stały się dość szeroko rozpowszechnione i używane w latach 50. XX wieku, a drobna struktura chromosfery była systematycznie badana, wykorzystując linię H?, jako krzaki drobnych jasnych i ciemnych struktur powiązanych w sieć. Struktury te nazywane są plamkami. Poza zaćmieniem chromosferę można obserwować za pomocą KORONAGRAFÓW. Ten rodzaj instrumentu został po raz pierwszy opracowany przez B. Lyota. Zasada działania opiera się na wprowadzeniu sztucznego księżyca zasłaniającego dysk fotosferyczny. Główne cechy chromosfery to jej grubość 2000 km oraz podstawowa temperatura i ciśnienie. Poza krawędzią Słońca widmo chromosferyczne charakteryzuje się liniami emisyjnymi. Na dysku linie te pojawiają się jako ciemne linie w widmie słonecznym. Odpowiadają one pochłanianemu promieniowaniu o dyskretnych długościach fal przez elementy chromosfery. Główne linie w widmie widzialnym zostały zidentyfikowane i nazywane są liniami Fraunhofera (tabela 1). Intensywność linii odzwierciedla warunki fizyczne plazmy, która pochłania lub emituje promieniowanie i jest dobrą diagnostyką temperatury plazmy. Powyżej fotosfery temperatura najpierw nadal spada do minimum 4200 K, a następnie ponownie wzrasta.
Morfologia i dynamika spokojnej chromosfery
Wygląd chromosfery zależy w dużym stopniu od linii użytej do obserwacji, a dokładniej od długości fali, w której uzyskano obraz, np. CaIIHand K, Hα, He II 304 Å. Dysk słoneczny obserwowany w liniach Fraunhofera ma średnicę nieznacznie większą niż dysk fotosferyczny i jest pokryty wzorem bardzo różniącym się od ziarnistego wzoru fotosfery. W liniach H i K Ca II obrazy chromosfery pokazują jasną sieć otaczającą mniej lub bardziej duże komórki o średnicy rzędu 30 000 km. Ten wzór komórek pokrywa fotosferyczną supergranulację, która jest przejawem wielkoskalowej konwekcji słonecznej, ważnego mechanizmu transportu strumienia magnetycznego. Linie H i K mają specjalny profil z niezwykle szerokimi skrzydłami absorpcyjnymi i centralną emisją. Centralna emisja linii K nazywana jest K3, dwa sąsiadujące maksima nazywane są K2 (K2v fioletowe skrzydło i K2r czerwone skrzydło), a daleko w skrzydłach nazywane są K1. Podobne definicje obowiązują dla linii H. Spektroheliogramy w K1 pokazują wzór fotosferyczny z granulacją i plamami słonecznymi. W K3 występuje siatkowaty wzór jasności na całej powierzchni Słońca, który reprezentuje sieć i supergranule lub sieć wewnętrzną, zwaną również siecią internetową. Sieć jest bardziej widoczna w dwóch symetrycznych strefach na północ i południe od równika, położonych na szerokościach geograficznych tropikalnych. W K2 bardzo małe jasne punkty są widoczne na całej powierzchni Słońca.
Sieć
Sieć chromosferyczna jest bezpośrednio związana z polem magnetycznym. Wydaje się jaśniejsza niż średnia chromosfera ze względu na zmiany ciśnienia i temperatury oraz prawdopodobnie ogrzewanie w namagnesowanej atmosferze. Siła centralnej części linii K mierzona w paśmie 1Å jest używana jako wskaźnik (indeks K) do definiowania lokalnej gęstości strumienia magnetycznego w leżącej pod nią fotosferze i jest używana dla gwiazd do definiowania stopnia magnetyzmu gwiazdy. W spokojnym Słońcu indeks K wzrasta liniowo wraz z gęstością strumienia magnetycznego. Jednak prawo to nie jest prawdziwe w obszarach namagnesowanych (przekraczających 400 G), gdzie prawo potęgowe maleje z wykładnikiem mniejszym od jedności. Ta forma jest nazywana efektem baldachimu. Najbardziej widoczne przykłady zjawisk baldachimu są związane z plamami słonecznymi. Pole tworzy baldachim nad niemagnetycznym obszarem między 600 a 1000 km w chromosferze. Sieć jest miejscem zakotwiczenia pętli koronalnych rozciągających się na wysokości koronalne. Spektroheliogram Hα? ma pewne podobieństwa do spektroheliogramu K3 z dwiema jasnymi strefami równoległymi do równika. Kontrast sieci jest jednak słabszy niż w K3. W linii Lymana (Lα) sieć jest znacznie bardziej wzmocniona niż w Hα i ma wygląd włóknisty.
Jasne ziarna
W K2 linii Ca II, a lepiej w liniach UV, sieć i sieć internetowa są bardziej ziarniste. Ziarna mają wysoki kontrast przy długościach fal reprezentatywnych dla minimum temperatury, np. w kontinuum przy λ ∿ 1600 Å. Kosmiczny obraz satelity TRACE pokazuje takie wzory ziaren w wysokiej rozdzielczości. Jasne ziarna kontinuum UV są obserwowane wszędzie jako jasne punkty. Mają one charakterystyczną wielkość 1000 km i nadwyżkę temperatury jasności 30-360 K. W sieci jasne punkty są na ogół związane z elementami magnetycznymi, które się zderzają. Przeważnie mają przeciwne bieguny, a jasne punkty są wynikiem nagrzewania się plazmy po ponownym połączeniu. Strumień magnetyczny jest przekształcany w ciepło. W sieci wewnętrznej, na spektroheliogramach o wysokiej rozdzielczości uzyskanych w skrzydłach K2 lub H2 linii Ca II, jasne ziarna (jasne ziarno Ca II) są ponownie dobrze obserwowane. Przez wiele lat uważano, że są one spowodowane obecnością małych rurek magnetycznych, takich jak jasne punkty sieci. Związek tych jasnych ziaren z małymi elementami magnetycznymi był przedmiotem długiej debaty, ponieważ koliniowość nie była rozstrzygająca. Obecnie udowodniono, że jasne ziarna są wynikiem zachowania oscylacji chromosferycznych, które wytwarzają fale uderzeniowe.
Struktury drobne
Spektroheliogramy Hα pokazują sieć chromosferyczną, ale bardziej wyraźnie istnienie bardzo małych wydłużonych struktur. Wokół plam słonecznych gromadzą się struktury zwane fibrylami. Grubsze i dłuższe struktury w obszarach aktywnych lub między obszarami aktywnymi nazywane są włóknami. Małe struktury widoczne w emisji powyżej krawędzi to kolce. Małe zarośla drobnych struktur zakotwiczone w sieci to plamki. Te drobne struktury są kontrolowane przez pole magnetyczne, które ogranicza plazmę. Pole magnetyczne odgrywa ważną rolę w chromosferze.
Plamy
Plamki to nieregularne nici o dużym kontraście jasności, które łączą się ze sobą, tworząc quasi-regularny wzór wokół i nad supergranulami w fotosferze. Plamy wyglądają inaczej przy różnych długościach fal w linii Hα. W centrum linii jasne plamy leżą nisko (700-3000 km nad fotosferą), podczas gdy ciemne plamy tworzą grubą fragmentację, ale domieszka jasnych i ciemnych cech sprawia, że wzór na dużą skalę jest mniej wyraźny niż w liniach Ca II H i K w spokojnym Słońcu. Czasami drobne struktury przyjmują specyficzne układy, takie jak rozety, które mają naprzemiennie jasne i ciemne drobne plamy promieniujące na zewnątrz ze wspólnego jasnego środka. Jasne jądro odpowiada magnetycznemu elementowi sieci. Widoczność jasnych plam H? szybko zanika, gdy obserwowana długość fali jest przesuwana od środka linii. Przy 0,6 Å w kierunku niebieskich skrzydeł linii K można znaleźć tylko ciemne wydłużone plamy. Ich przerywane skupiska wyznaczają granice komórek supergranul. Ciemne plamki widoczne w pobliżu kończyny w tej pozycji długości fali na niebieskich lub czerwonych skrzydłach zachowują swoje wąskie kształty i często tworzą się w skupiskach lub krzakach. W długościach fal radiowych (przy 6 cm) sieć drobnoskalowa jest rozdzielona. Wszystkie jasne cechy 6 cm pokrywają jasne plamki Ca II K. Typowy czas życia plamek wynosi 12-20 min. Są one miejscami ruchów w górę i w dół o krótszych okresach życia. Obserwuje się quasi-periodyczność 5-10 min. Ruchy w dół są dobrze obserwowane u podstawy plamek. Są one najwyraźniej odpowiedzialne za niektóre jasne ziarna ze względu na kompresję plazmy lub wzrost natężenia pola magnetycznego. Te przepływy w dół wyjaśniają powszechne przesunięcie ku czerwieni obserwowane w sieci. Plamy można uważać za cylindry o grubości D = 500-1000 km i temperaturze T = 8000-15 000 K. Ciśnienie wynosi około 0,5 dyn cm-2, a prędkości wynoszą od 5 do 10 km s-1. Różnicę między ciemnymi i jasnymi plamami można wyjaśnić wzrostem ciśnienia gazu.
Spikule
Na krawędzi obserwuje się struktury przypominające strumienie, zwane spikulami, rozciągające się do gorącej korony. Spikule mają temperaturę 10 000 K i gęstość 10-13 g cm-3. Wznoszą się na maksymalną wysokość około 10 000 km z prędkością około 20 km s-1. Na dysku w dowolnym momencie występuje od 5000 do 30 000 spikuli. Duża liczba spikuli w połączeniu z ich zmierzonymi prędkościami oznacza strumień masy skierowany w górę o dwa rzędy wielkości większy niż strumień wiatru słonecznego. Ten strumień masy jest wystarczająco duży, aby całkowicie wypełnić koronę w ciągu 3 godzin. W jaki sposób przepływ masy powraca do chromosfery? Kuszące jest znalezienie odpowiedzi w przepływie w dół mierzonym w sieci i silnie widocznym u podstawy plamek. Czy plamki mają tę samą naturę co spikule? To również było przedmiotem długiej debaty i nadal jest przedmiotem kontrowersji. Niemniej jednak spikule były polem magnetycznym odgrywającym ważną rolę i nie można ich zaniedbać.
Modele rozwidlone
Inny widok chromosfery uzyskano z obserwacji w pasmach CO (pasmo tlenku węgla). Pasma te są optycznie grube u podstawy inwersji temperatury. Rdzeń najsilniejszych linii CO nie jest centralnie odwrócony, wbrew przewidywaniom modeli półempirycznych. Zamiast tego cechy CO wykazują chłodne jądro, co wskazuje na obecność niskiej temperatury (T < 4000 K) powyżej minimalnej wysokości temperatury. Skonstruowano modele rozwidlone, aby wyjaśnić powstawanie CO. Przyznano, że część chromosfery może być wystarczająco zimna. Taki chłodny model (T ∿ 4000 K do wysokości 1500 km) został również zaproponowany na nowo w symulacji jasnych ziaren wewnątrz sieci (oscylacje chromosferyczne). Modele półempiryczne niekoniecznie muszą odzwierciedlać średnią chromosferę. Jest to otwarte pytanie.
Formowanie się linii
Modele półempiryczne pozwalają jednak wyjaśnić centralne odwrócenie linii H i K Ca II. Kształt profili linii zależy w dużym stopniu od profilu temperatury w chromosferze i ich reżimu formowania (przez zderzenia lub promieniowanie). Jeśli linia jest kontrolowana przez zderzenia, jak na przykład linia K Ca II, stosunek absorpcji do emisji (funkcja źródła) wzrasta w chromosferze, a rdzeń linii ulega samoodwróceniu. Jeśli linia jest kontrolowana przez promieniowanie, jak na przykład linia Hα, funkcja źródła maleje wszędzie, a rdzeń linii jest w absorpcji bez odwrócenia. Linie UV są w emisji, ponieważ ich funkcje źródła są wyższe niż intensywność kontinuum chromosferycznego. W przypadku linii Lymana skrzydła powstają w chromosferze, a rdzeń znajduje się w strefie przejściowej w jeszcze wyższych temperaturach. Jednak przy długościach fal radiowych (milimetr i centymetr) promieniowanie jest zbliżone do promieniowania ciała doskonale czarnego w temperaturach chromosferycznych.
Namagnesowana atmosfera i drobne struktury
Podczas gdy fotosfera jest zdominowana przez konwekcję ze względu na wysokie ciśnienie gazu, chromosfera jest dobrze ustrukturyzowana przez pole magnetyczne. Plazma jest zamrożona w liniach pola magnetycznego i w ten sposób zarysowuje struktury pola magnetycznego. Ta właściwość jest przydatna do wizualizacji struktur. Rury strumienia magnetycznego, gdy pojawiają się z powodu wyporności magnetycznej, są wypychane i koncentrowane w elementy strumienia o średnicy kilkuset kilometrów, w wyniku ruchów konwekcyjnych widocznych jako granulki i supergranule oraz tak zwanego zapadania się konwekcyjnego. Ta koncentracja strumienia prowadzi do powstania sieci chromosferycznej, np. porów, faculi i plam słonecznych. Ruchy fotosferyczne i wyporność magnetyczna mogą być źródłem ciągłych modyfikacji koronalnego pola magnetycznego i obserwowanych zdarzeń dynamicznych, tj. ponownego połączenia na małą skalę i ekspansji na dużą skalę. W chromosferze stosunek ciśnienia gazu do ciśnienia magnetycznego β (β = 8πp/B2) jest już mniejszy od jedności w większości miejsc, co oznacza, że dominuje ciśnienie magnetyczne. Rury strumieniowe odgrywają ważną rolę w transporcie energii i masy w górę do korony. Amplitudy prędkości chromosferycznych są większe niż fotosferycznych i mogą osiągnąć średnią wartość 1-1,5 km s-1. Potwierdza to ważność równania ciągłości (ρVA = stała) w rurach strumieniowych, gdzie ? to gęstość, A to przekrój poprzeczny rury, a V to prędkość plazmy. Drobne struktury pokrywają średnią chromosferę. Istnieje nieciągłość w gradiencie parametrów fizycznych atmosfery, a modele półnieskończone nie są już ważne; bardziej odpowiednie są techniki modelowania chmur. W klasycznym przypadku struktura ma być stosunkowo cienką chmurą nad jednolitą atmosferą, a obie z nich przyczyniają się do obserwowanych profili. Od czasu pierwszej propozycji takiej techniki w 1964 roku przez J. Beckersa, przeprowadzono wiele badań z wykorzystaniem takich modeli dla plamek, fal i włókien. Wykorzystując metodę modelu chmury do analizy danych spektroskopowych, wykryto prędkości tak duże jak prędkości spikuli w plamkach. Spikule powinny być plamkami obserwowanymi w określonych warunkach fizycznych, takich jak duże prędkości. Dynamika w drobnych strukturach jest różnorodna i duża. Wiele modeli jest proponowanych w celu wyjaśnienia przepływów w takich strukturach: opierają się one albo na impulsach gradientu ciśnienia u podstawy struktur, albo na przepływach syfonowych, albo są przejawem ruchów falowych w rurach strumieniowych.
Fale i ogrzewanie
Oscylacje w chromosferze zostały wykryte całkiem niedawno, ze znacznymi różnicami zarówno w widmach mocy, jak i fazy między siecią wewnętrzną a siecią. Oscylacje trwające około 3 minut występują głównie w sieci wewnętrznej.
Oscylacje trwające trzy minuty
Wzór oscylacji sieci wewnętrznej jest dobrze skorelowany ze wzorem oscylacji trybu p w fotosferze. Jednak powolne oscylacje sieciowe nie są. Odpowiadają one interferencjom z falami uderzeniowymi z 5-minutowych oscylacji fotosferycznych i 180-sekundowych okresowych oscylacji stojących. Te ostatnie oscylacje mają długość fali poziomej 80 Mm. Nie są one związane z rurami strumienia magnetycznego. Identyfikacja wnętrz komórek sieciowych z chromosferą bazalną ożywiła zainteresowanie pochodzeniem ziaren obserwowanych w Ca II H2v i K2v oraz okresowo występujących w C I. 3-minutowe oscylacje mogą być związane z przestrzennie nierozdzielonymi "skupiskami" ziaren. Ostatnie symulacje generowania jasnych ziaren Ca II K2v przez wstrząsy fal zostały przeprowadzone całkiem pomyślnie przez M. Carlssona. Mechanizm wyzwalający te fale nie jest jeszcze w pełni poznany.
Oscylacje niskiej częstotliwości
Moc sieci jest zdominowana przez oscylacje niskiej częstotliwości o okresach większych niż 5 min (8-20 min). W jasnych obszarach sieciowych, na granicach komórek, wykryto przypadkowe ruchy w skali 2-10 sekund łuku. Niedawno, wolne oscylacje 6-7 min zostały zidentyfikowane przy użyciu linii Lymana obserwowanych za pomocą spektrometru SUMER na pokładzie misji kosmicznej SOHO. Fale te wydają się rozprzestrzeniać w górę i nie są spójne przestrzennie. Jedną z możliwości jest to, że te oscylacje są związane z pseudookresowym zachowaniem plamek lub spikuli, ponieważ mogą one wytwarzać takie ciągi fal. Jasne cechy silne w dalekim skrzydle H? lub w Ca II odpowiadałyby podstawie plamek i miałyby zatem charakter magnetyczny.
Ogrzewanie
Wiele oscylacji obserwuje się w chromosferze. Czy te fale ogrzewają chromosferę? Gdy fale akustyczne przemieszczają się w górę przez atmosferę słoneczną, gradient gęstości powoduje wzrost amplitudy fali (V ), tak że iloczyn ρV2 pozostaje mniej więcej stały. Biorąc pod uwagę obserwowane prędkości na niskich poziomach, można wywnioskować wysokość, na której amplituda osiąga prędkość dźwięku, co prowadzi do powstania fali uderzeniowej. Fale uderzeniowe mogą rozpraszać energię mechaniczną w ciepło za pomocą procesów nieliniowych. Przeprowadzono obszerne obliczenia w celu zbadania wydajności takich procesów. Wykazano, że ogrzewanie falami uderzeniowymi może być wydajne w niskiej chromosferze, ale na wyższych poziomach fale akustyczne powinny stać się zanikające, a dostępna energia staje się zbyt mała, aby skompensować straty radiacyjne wywnioskowane z obserwowanego widma. Ostatnie odkrycie jasnych ziaren zostało wyjaśnione w kategoriach symulacji fal przemieszczających się w chromosferze.
Aktywna chromosfera
Aktywna chromosfera obejmuje wszystkie przejawy aktywności słonecznej obserwowane w liniach chromosferycznych . Aktywność słoneczna jest bezpośrednio związana z aktywnością magnetyczną i objawia się istnieniem aktywnych centrów i nowo pojawiającym się strumieniem magnetycznym.
Aktywne centrum
Obraz uzyskany w linii Hα na Pic du Midi pokazuje wzór włókien otaczających plamę słoneczną. Struktury te są powiązane z półcieniem plamy. Mogą być zorientowane promieniowo lub obracać się zgodnie z ruchem wskazówek zegara lub przeciwnie do ruchu wskazówek zegara. Niedawno odkryto, że wzór włókien podąża za orientacją zgodną z ruchem wskazówek zegara na półkuli południowej i przeciwnie do ruchu wskazówek zegara na półkuli północnej. To prawo helisy wydaje się być ważne w globalnym spojrzeniu na aktywność Słońca. Niektóre ciemne struktury wyłaniają się z plamy słonecznej z dużymi prędkościami. Zostały odkryte przez Ellermana i są nazywane bombami Ellermana. Charakteryzują się bardzo szerokimi profilami emisji w linii Hα. W aktywnym centrum obserwuje się jasne obszary, tzw. plagi lub faculae. W starych grupach plamy słoneczne znikają jako pierwsze, a pozostają tylko faculae, które następnie rozpraszają się i zanikają.
Związek z cyklem słonecznym
Znormalizowany rozkład obszarów obszarów aktywnych, przy użyciu plag Ca IIK lub strumienia magnetycznego, zmienia się w zależności od fazy cyklu słonecznego. Proporcja przypisywana plagom i silnej sieci w całkowitej zmianie strumienia magnetycznego zmienia się w różnych ilościach w całym cyklu, np. o czynnik 8 dla plag, czynnik 40 dla regionów silnej sieci i czynnik 10 dla kompleksu aktywności. Całkowita wzmocniona sieć i sygnał plagi są większe w okresach aktywności. Aktywna sieć odpowiada za dużą część całkowitej zmiany natężenia promieniowania słonecznego. Ta pozorna zmiana cyklu słonecznego o wzmocnionym kontraście intensywności wynosi jednak tylko 2% dla sieci i 9% dla plag.
Nowo powstający strumień magnetyczny
Nowy strumień magnetyczny pojawia się nieustannie, a pełny wzór magnetyczny Słońca odnawia się w ciągu 40 godzin. Pojawienie się strumienia ma różne konsekwencje w górnych warstwach atmosfery i różne sygnatury w zależności od miejsca, w którym się pojawia. Kiedy nowy strumień pojawia się w centrum supergranulek, przemieszcza się w kierunku krawędzi i oddziałuje z siecią strumienia magnetycznego. W chromosferze sygnaturą powstającego dipola jest układ łukowych włókien. Te łukowate rury wznoszą się, osiągają wysokość około 5000 km, unosząc gęstszy materiał niż w otaczającej atmosferze. Na obu końcach łuków materiał opada z powodu grawitacji z prędkością około 20 km s?1, czego nie można jednak uznać za ruchy swobodnego spadku. W H? gęsty materiał pojawia się jako cechy absorpcyjne, ale w ultrafiolecie (SOHO) lub w miękkim promieniowaniu rentgenowskim (YOHKOH, japoński satelita) pojawia się w emisji i jest jaśniejszy niż otaczający materiał. W przeciwnym razie zjawiska dynamiczne omówione powyżej są związane z aktywnością słoneczną. Skręcanie i ścinanie rur strumieniowych może powodować powstawanie prądów wzdłuż linii pola. Na dużą skalę różnicowy obrót wywoła rozciągnięty układ prądowy, który będzie stale wzrastał, co doprowadzi do zewnętrznej ekspansji linii pola magnetycznego, co jest widoczne w przypadku Yohkoh. Efektywna przewodność elektryczna korony słonecznej jest tak wysoka, że struktury pola powstałe w wyniku pojawienia się strumienia nie mogą natychmiast się zrelaksować do stanu bezprądowego. Obecność prądów może prowadzić do powstawania różnych struktur, takich jak protuberancje, a wszelkie zakłócenia prowadzą do erupcji, takich jak WYRZUTY MASY KORONALNEJ SŁONECZNEJ lub ROZBŁYSKI
Chromosfera: Powstające obszary strumienia
Opisano powstawanie dużych skupisk pól magnetycznych (obszarów aktywnych) na powierzchni Słońca. Ciemne struktury znane jako PLAMY SŁOŃCOWE są konsekwencją tego procesu. Pojawienie się obszaru aktywnego na powierzchni Słońca jest jednym z najbardziej widocznych procesów, które można śledzić, patrząc na Słońce codziennie. Obszary, które przed pojawieniem się miały normalny wygląd konwekcyjny pęcherzyków (GRANULACJA), w ciągu kilku dni rozwiną ciemne plamy słoneczne i PORY PLAMY SŁOŃCOWE oraz jasne FAKULKI. Przy widocznych długościach fal (bardzo często w jądrze i skrzydłach czerwonej linii H?) możemy zaobserwować powstawanie obszaru aktywnego w najgłębszych obserwowalnych warstwach, FOTOSFERA SŁONECZNA i CHROMOSFERA. Obecnie możemy również śledzić ten proces w zakresie widma UV i rentgenowskiego z kosmosu, gdzie śledzimy powstawanie obszaru aktywnego w najbardziej zewnętrznej warstwie Słońca, KORONACH. To w chromosferze i koronie wszystkie procesy energetyczne związane z pojawieniem się strumienia można łatwiej śledzić. Interakcja nowo pojawiającego się strumienia i istniejących wcześniej linii pola zwykle wyzwala dużą liczbę ROZBŁYSKÓW (nagłe, przejściowe uwolnienie energii prawdopodobnie związane z ponownym połączeniem magnetycznym). Dynamika obserwowana we wszystkich tych zakresach długości fal wyraźnie pokazuje, że pojawienie się obszaru aktywnego należy rozumieć jako wynik wzrostu wyporności struktury magnetycznej z głębszych warstw Słońca. Uważa się, że linie pola magnetycznego, które tworzą obszar aktywny, są generowane przez pewnego rodzaju mechanizm DYNAMO (jak prawie wszystkie kosmiczne zjawiska magnetyczne). Dokładna lokalizacja tego dynama w Słońcu nie jest jasno ustalona, ale badania heliosejsmiczne sugerują, że generowanie i magazynowanie pól dynama odbywa się blisko podstawy strefy konwekcyjnej (patrz WNĘTRZE SŁONECZNE: STREFA KONWEKCYJNA). Na powierzchni Słońca, pojawienie się zlokalizowanych, ogromnych ilości pól magnetycznych sugeruje, że na dnie strefy konwekcyjnej pole jest zorganizowane w izolowane rury strumienia magnetycznego lub liny. Uważa się, że te rury strumienia magnetycznego są formowane jako toroidalne pętle we wnętrzu Słońca (patrz SŁONECZNE FOTOSFERYCZNE RURY STRUMIENIA MAGNETYCZNEGO). Ich stabilność tam pozostaje kontrowersyjna, ale jest jasne, że rozwijają one silną tendencję do unoszenia się (przynajmniej częściowo) w kierunku powierzchni. Ta wyporność pochodzi z dodatkowego ciśnienia wywieranego przez pole magnetyczne, które zmniejsza ciśnienie gazu wewnątrz pętli (równowaga ciśnieniowa jest bardzo wydajnym mechanizmem, który można założyć dla tych rur). Niższe ciśnienie gazu można osiągnąć tylko poprzez niższe temperatury i/lub gęstości gazu wewnątrz nich. Dlatego jesteśmy zmuszeni rozważyć rury magnetyczne, które mając niższe gęstości, rozwiną pewną nieskompensowaną wyporność i uniosą się (podobnie jak bąbelki w wodzie, ale z innymi czynnikami fizycznymi odgrywającymi ważną rolę). Wtargnięcie tych magnetycznych baniek do atmosfery słonecznej oznacza pojawienie się regionu aktywnego. Region aktywny zwykle ma wyraźną linię podziału między dwiema biegunowościami (przez bieguny rozumiemy tutaj pola magnetyczne z wektorami skierowanymi na zewnątrz Słońca i polami skierowanymi do Słońca). Po pojawieniu się, dwie biegunowości są widoczne na powierzchni rozdzielone długością geograficzną. Linie pola magnetycznego zaczynają się od jednej biegunowości (rysunek 1, po prawej), wyginają się nad powierzchnią Słońca wypełniając koronę słoneczną (widziane z sond kosmicznych, takich jak Yohkoh i SOHO) i kończą się na drugiej biegunowości (rysunek 1, po lewej). W głębokich (nieobserwowalnych) warstwach, linie pola obu biegunowości nurkują w dół i łączą się z systemem toroidalnych rur strumieniowych. Ta konfiguracja linii pola po pojawieniu się jest nazywana przez astronomów słonecznych konfiguracją pętli w kształcie -kształtu.
Opis obserwacyjny powstających obszarów strumienia
Pojawianie się aktywnych obszarów w atmosferze słonecznej jest zjawiskiem stosunkowo łatwym do zauważenia w dowolnym paśmie widmowym używanym do monitorowania Słońca. Jest to szczególnie prawdziwe, jeśli porównamy je z bardziej nieuchwytnym odwrotnym procesem zaniku aktywnych obszarów. Już pod koniec lat 60-tych Bruzek (1967) przedstawił klasyczny opis procesu pojawiania się, jaki można zaobserwować w jądrze H? (tj. w chromosferze). Ukuł termin łukowy układ włókien (AFS), aby opisać układ równoległych pętli, które łączą punkty podeszwy powstającego obszaru strumienia (EFR). Te łukowate pętle są od tego czasu uznawane za sygnaturę narodzin aktywnego obszaru. Jak widać w chromosferze, centralna część AFS wykazuje prędkości wznoszące do 10 km s-1, odzwierciedlając ruch układu magnetycznego w górę napędzany wypornością. Bliżej punktów podnóża EFR pętle wykazują prędkości cofania rzędu kilkudziesięciu km s-1, wytworzone przez materię opadającą wzdłuż linii pola magnetycznego. Podczas procesu wyłaniania się punkty podnóża rozdzielają się z szybkością kilku km s-1, podczas gdy pomiędzy nimi pojawia się nowy strumień. Pętle tworzące AFS podlegają ciągłym zmianom (czas życia pojedynczych włókien ≈30 min), podczas gdy oddziałują z nowymi liniami pola wznoszącymi się od dołu. Po kilku godzinach układ strumienia w punktach podnóża jest zorganizowany w kilka porów, ciemnych struktur widocznych w białym świetle, gdzie nie występuje normalny ziarnisty wygląd fotosfery. Pole magnetyczne w tych strukturach może utrudniać normalny transport ciepła przez konwekcję (tj. granulację), a obniżona temperatura gazu sprawia, że wydają się one ciemne w porównaniu z otaczającą atmosferą. W ciągu dni następujących po pierwszym zauważeniu AFS może nastąpić kilka wybuchów pojawiania się strumienia magnetycznego i dość często to właśnie w tych późniejszych wybuchach większość strumienia magnetycznego przedostaje się przez fotosferę. Pory utworzone ze wszystkich różnych epizodów pojawiania się mogą ostatecznie połączyć się, tworząc plamę słoneczną. Proces ten jest napędzany przez podpowierzchniową topologię pętli strumienia bardziej niż przez jakikolwiek przepływ, który może tam panować. Zwykle ma to miejsce w wiodącym (względem obrotu Słońca) punkcie EFR i obserwuje się stabilną okrągłą plamę słoneczną. W następnym punkcie, jeśli w ogóle powstanie plama słoneczna, zwykle odpowiada ona mniej stabilnej (krócej istniejącej) strukturze o nieregularnym kształcie. Ta różnica między wiodącymi i następującymi punktami jest bardzo dobrze udokumentowana, ale jej pochodzenie jest dalekie od pełnego zrozumienia. AFS jest widoczne, gdy nowy strumień wyłania się z dołu. Zwykle nie trwa to dłużej niż 4-5 dni. Wyłanianie się strumienia opisane powyżej jest zgodne z ideą pętli magnetycznej w kształcie -, która wznosi się przez strefę konwekcji słonecznej. Podczas tego wznoszenia się pętla przechodzi przez silnie rozwarstwioną atmosferę zewnętrzną i oddziałuje z ruchami konwekcyjnymi. Wszystko to prawdopodobnie prowadzi do rozpadu pojedynczej początkowej pętli na kilka pętli. Na powierzchni każda z nich powoduje epizod wyłaniania się. Fakt, że różne epizody mogą później powodować powstawanie porów, które łączą się w jedną plamę słoneczną, wskazuje, że głębiej w dół system strumienia zachował swoją tożsamość. Obserwacje EFR zostały po raz pierwszy przeprowadzone w chromosferze ze względu na dostępność procesu, jak widać w H?. Obecnie EFR-y śledzono również w warstwach fotosferycznych, gdzie znajdujemy ciemne wyrównania między punktami podnóża z wydłużonymi granulkami pokazującymi, jak pole magnetyczne zakłóca normalną granulację widoczną gdzie indziej. Obserwacje spektropolarymetryczne linii fotosferycznych ujawniły przepływy w dół do 2 km s?1 w pobliżu punktów podnóża. Te przepływy w dół są fotosferycznymi odpowiednikami znacznie silniejszych chromosferycznych prądów zstępujących (z powodu niższych gęstości) wspomnianych powyżej. W fotosferze wykryto prędkości przepływu w górę centralnych części EFR, które osiągają wartości 1 km s?1. Oczywiste jest, że linie pola przyspieszają, gdy wznoszą się przez te warstwy, aby osiągnąć jeszcze wyższe prędkości w górę w chromosferze. Ostatnie obserwacje fotosfery wykonane za pomocą zaawansowanego polarymetru Stokesa wyjaśniły kilka kwestii, które pozostawały bez odpowiedzi przed zastosowaniem pełnej polarymetrii Stokesa o wysokiej czułości. Ten instrument umożliwia wiarygodne oszacowanie średniego wektorowego pola magnetycznego w elemencie rozdzielczości i ułamka powierzchni zajmowanego przez pole. Te obserwacje wyraźnie wykryły poziome (poprzeczne) linie pola, gdy przechodzą przez fotosferę, reprezentując sygnaturę górnej części powstających pętli. Wewnętrzna siła pola mierzona w miejscach poziomych linii pola mieści się w zakresie 200-600 G, tj. przy lub poniżej ekwipartycji z energią kinetyczną ruchów ziarnistych. Tego wyniku oczekiwano z faktu, że pola te są w stanie zaburzyć wzór granulacji. Pola w zakresie 1200 G lub wyższym są widoczne tylko w pionowych punktach podeszwy, w postaci albo faculae, albo porów. Twierdzono, że silniejsze pola występujące w punktach podeszwy są osiągane po procesie konwekcyjnego zapadania się napędzanym przez wszechobecny przepływ w dół tam występujący. Chociaż może tak być, obserwacje ASP wykazały, że przepływ w dół jest widoczny w regionach, które już znajdują się w zakresie kilogaussów; zatem sam przepływ w dół nie może być uznany za sygnaturę zapadania konwekcyjnego. Jedynym sposobem ustalenia, czy ten proces jest odpowiedzialny za wysokie (dwukrotnie ekwipartycyjne) pola występujące w pionowych punktach podeszwy, jest zidentyfikowanie regionu pionowego słabego pola, w którym rozwija się przepływ w dół i po krótkim odstępie czasu (minuty) rozwija siły kilogaussów. Tego jeszcze nie zaobserwowano i stanowi to ważne wyzwanie dla nowoczesnych spektropolarymetrów w obecnym cyklu słonecznym. Złożone wzorce wyłaniania się Opisana dotychczas konfiguracja pętli w kształcie -kształtu aktywnego regionu reprezentuje prosty układ bipolarny, który opisuje większość przypadków wyłaniania się obserwowanych na Słońcu. Ta konfiguracja w naturalny sposób pasuje do prawa biegunowości Hale′a. Prawo to stwierdza, że na danej półkuli słonecznej, podczas jednego cyklu słonecznego, polaryzacja większości aktywnych regionów jest zorientowana tak, że polaryzacja dodatnia (linie pola skierowane na zewnątrz Słońca) poprzedza polaryzację ujemną (linie pola skierowane do Słońca). Odwrotna kolejność byłaby w drugiej półkuli. Dwubiegunowy charakter struktur w kształcie - w każdej półkuli da początek prawu Hale′a. Jednak niewielki odsetek przypadków wyłaniania się (około 1%) nie może być opisany tą dwubiegunową konfiguracją. Niektóre aktywne regiony rozwijają to, co nazywa się konfiguracją δ, w której pojedyncza plama (plama δ) zawiera w swoich półcieniach dwa rdzenie cienia o przeciwnych biegunach. Kolejność dwóch biegunów jest ogólnie odwrotna do tej przewidzianej przez prawo Hale′a (w powyższym przykładzie rdzeń cienia o ujemnej biegunowości będzie poprzedzał rdzeń dodatni). Ta konfiguracja δ-spot, choć rzadka, jest bardzo ważna, ponieważ reprezentuje regiony najbardziej produktywne dla rozbłysków obserwowane na powierzchni. Grupy δ są odpowiedzialne za prawie wszystkie duże rozbłyski. Istnienie złożonych linii neutralnych (gdzie biegunowość zmienia znak) wydaje się sprzyjać występowaniu bardzo energetycznych procesów. Niedawno zaczęliśmy rozumieć , że ta złożona konfiguracja może być wynikiem ewolucji pętli toroidalnych podczas przechodzenia przez słoneczną strefę konwekcyjną. Niektóre konfiguracje pola magnetycznego w tych pętlach są podatne na rozwinięcie skrętu większego niż 90° w górnej części pętli, odwracając w ten sposób kolejność biegunowości. Ta niestabilność zagięcia rozwija się podczas wznoszenia się pętli. Będzie więc miała miejsce tylko wtedy, gdy skala czasowa niestabilności będzie krótsza niż czas wznoszenia się. Odwrócona część pętli może przekształcić się w zwartą plamę słoneczną, wykazującą dwie biegunowości na powierzchni. W niektórych przypadkach ewolucja może być na tyle złożona (przez rekoneksję linii pola), że może wytworzyć zamknięte układy magnetyczne, które przedostają się przez powierzchnię Słońca .
Chromosfera: Fibryle
Fibryle to ciemne, wydłużone, krzywoliniowe wzory w CHROMOSFERZE widziane przez filtr, który izoluje widmową linię absorpcyjną H? wodoru. Dobrze rozwinięte fibryle występują w i wokół SŁONECZNYCH REGIONÓW AKTYWNYCH i KANAŁÓW WŁÓKIEN SŁONECZNYCH. Podobnie jak większość tradycyjnej nomenklatury używanej do opisu atmosfery słonecznej, termin fibryla pochodzi z łaciny ("małe włókno") i wywodzi się z bogatego, ale ograniczonego widoku oferowanego przez obrazy H?. Współczesne badania nad fibrylami mają na celu powiązanie ich wyglądu z właściwościami fizycznymi struktur w atmosferze. Ważnym elementem tego celu jest zrozumienie związku między fibrylami a delikatną strukturą spokojnej chromosfery. Jak widać w H?, spokojna chromosfera jest zdominowana przez jasne i ciemne plamki, struktury, które, chociaż często wydłużone, są charakterystycznie krótsze, krótsze i wykazują mniejszą organizację na dużą skalę niż fibryle. Przeważająca hipoteza głosi, że pole magnetyczne jest najważniejszym wyznacznikiem drobnej struktury chromosfery. Różnica w wyglądzie H? między obszarami spokojnymi i aktywnymi powinna zatem odzwierciedlać różnice w organizacji pola. Istnieje wiele pośrednich dowodów na poparcie tej hipotezy i żadnych, które by jej przeczyły; ale nadal istnieje niewiele bezpośrednich pomiarów pola magnetycznego w chromosferze.
Wygląd
Tradycyjnie fibryle są identyfikowane z ciemnymi cechami; jaśniejsze i ciemniejsze cechy Hα są ściśle powiązane. Nawet gdy orientacja fibryli w danym obszarze jest jasna, często trudno jest śledzić pojedynczą ciemną cechę na odległość większą niż kilka tysięcy kilometrów. Duże fibryle rozciągają się na odległość do 30 000 km; są one czasami nazywane nitkami chromosferycznymi. Widoczna szerokość fibryli waha się od 2000-3000 km aż do granicy rozdzielczości obrazów naziemnych, około 300 km. Fibryle prawdopodobnie mają strukturę lub podstrukturę w jeszcze drobniejszych skalach, jak sugerują najlepsze obrazy. Pozorny współczynnik kształtu (długość do szerokości) fibryli waha się od około 3-4 (mniej wydłużona cecha prawdopodobnie nie byłaby nazywana fibrylą) do 30-40. Kiedy aktywny region rodzi się jako powstający region strumienia, krótkie fibryle, które się pojawiają, nazywane są włóknami łukowymi. Ciemne fibryle są wymieszane z cechami, które są wyraźnie jaśniejsze niż chromosfera tła. Ponieważ powstające regiony strumienia są zawsze magnetycznie dwubiegunowe, a przeciwległe końce włókna łukowego wskazują na przeciwne bieguny, włókna łukowe wspierają w prostej geometrii ogólną hipotezę, że fibryle podążają za liniami sił magnetycznych. W miarę rozwoju aktywnego regionu pojedynczy układ włókien łukowych jest zastępowany rosnącym gąszczem fibryli, co odzwierciedla rosnący rozmiar i złożoność magnetyczną regionu. Znaczne PLAMY SŁOŃCOWE są otoczone fibrylami, które zaczynają się w półcieniu światła białego, ale często rozciągają się w superpółcieniu, daleko poza granicę półcienia. Fibryle superpółcienia w złożonym obszarze aktywnym są często silnie zakrzywione i nieradialne. Można się tego spodziewać, jeśli fibryle podążają za polem magnetycznym. Gdy pole magnetyczne fotosfery jest złożone, nawet pole potencjału nad fotosferą może być zakrzywione i nieradialne wokół koncentracji strumienia; gdy pole fotosfery jest wysoce niepotencjalne, jak często się je mierzy, oczekuje się silnej krzywizny i kształtów "S". Tak więc proste wzory fibryli prowadzące od jednej plamy słonecznej do drugiej są raczej wyjątkiem niż regułą. Co więcej, zazwyczaj występują liczne epizody pojawiania się strumienia w miarę wzrostu regionu. Wzór fibryli ulega fragmentacji, gdy linie pola magnetycznego z nowo powstałego strumienia łączą się ponownie z istniejącym strumieniem. Kanał włókienkowy lub włóknisty może tworzyć się wewnątrz lub na granicy obszaru aktywnego. Włókna są niewyraźne wewnątrz kanału; po obu stronach włókienka są wyrównane z długą osią kanału. Pomiary poziomego pola magnetycznego wewnątrz włókienek wskazują, że pole przebiega głównie wzdłuż osi włókna, chociaż włókno oddziela obszary o przeciwnej polaryzacji magnetycznej na poziomie fotosfery. Długie włókienka mogą tworzyć się wokół granicy obszaru aktywnego, szczególnie w kierunkach sąsiednich obszarów aktywnych, co ponownie sugeruje, że włókienka podążają za połączeniami magnetycznymi. Rozpadający się obszar aktywny jest często zdominowany przez pojedynczą dużą i regularną plamę słoneczną. W pobliżu plamki jej włókienka rozciągają się niemal promieniowo na zewnątrz. Wyraźne włókienka superpenumbry mogą rozciągać się dwa razy dalej niż granica półcienia i czasami wykazują wzór wirowy z powodu interakcji z obrotem Słońca. Duży fibryl często wydaje się przesłaniać jaśniejsze struktury, co sugeruje, że fibryl jest wyżej w atmosferze słonecznej. Pod tym względem fibryle są analogiczne do ciemnych plamek w cichych regionach. Trudno jest podać zakres wysokości fibryli. Wysokość jest trudna do zmierzenia w poszczególnych przypadkach, zmienia się wzdłuż fibryli i waha się między fibrylami superpenumbralnymi, krótkimi fibrylami w obszarach o złożonej strukturze magnetycznej i długimi fibrylami, które można by równie dobrze nazwać pętlami regionu aktywnego. Wygląd systemów fibryli widzianych w perspektywie w pobliżu kończyny sugeruje, że fibryle są uniesione o 3000 km lub więcej ponad chromosferę tła. Widzi się, że systemy włókien łukowych rozciągają się na wysokości 10 000-15 000 km
Dynamika
System włókien łukowych trwa od 1 do 3 dni. Pojedynczy żarnik łukowy ma krótszy czas życia, około 10-30 min. Szczyt systemu włókien łukowych unosi się z pozorną prędkością v 20 km s-1, co jest zgodne z jego identyfikacją z powstającym strumieniem magnetycznym. Materiał wydaje się płynąć w dół wzdłuż łuków z v ≈ 30-50 km s-1. Ogólny wzór włókienek dobrze rozwiniętego regionu ewoluuje stopniowo, w ciągu kilku godzin, i może pozostać rozpoznawalny przez wiele dni. Pod tym względem włókienka są bardziej stabilne niż ciemne plamki w cichych regionach. Naturalna interpretacja jest taka, że ogólna struktura magnetyczna aktywnego regionu jest określana przez duże i stosunkowo długowieczne koncentracje strumienia magnetycznego, podczas gdy ciemne plamki otaczają małe koncentracje strumienia, zwykle związane z SIECIĄ CHROMOSFERY, które zmieniają się w skalach czasowych od minut do godzin. Jednak pojedyncze fibryle mają krótszy czas życia niż ich wzór geometryczny, wahający się od około 1 minuty dla najmniejszych fibryli do 20 minut dla największych. Wzór fibryli superpenumbry izolowanej plamy słonecznej zmienia się jeszcze wolniej niż wzór fibryli dojrzałego obszaru aktywnego. Czas życia pojedynczego fibryli superpenumbry wynosi około 3-40 minut, nieco dłużej niż czas życia fibryli w młodszym obszarze aktywnym, ale nadal znacznie krócej niż czas życia wzoru. Najbardziej charakterystyczną cechą dynamiczną fibryli superpenumbry jest przepływ materiału wzdłuż ich długości, do wewnątrz i w dół, wynoszący 5-20 km s-1. Ten odwrotny efekt Eversheda w chromosferze kontrastuje z wolniejszym przepływem na zewnątrz w półcieniu na poziomie fotosfery. Wypływ chromosferyczny występuje również w mniejszości fibryli superpenumbry. Trudno jest, wykorzystując obserwacje naziemne zaburzone przez turbulencje atmosferyczne, zdecydować, czy istnieje bezpośrednia korespondencja między polem przepływu a jasnością Hα. Niektóre wysokiej jakości obserwacje sugerują, że kanały przepływu zwykle pokrywają się z fibrylami, ale nie precyzyjnie lub nie zawsze. Podobnie jak fibryle, poszczególne przepływy często zmieniają się nie do poznania w ciągu kilku minut, podczas gdy wzór przepływu może utrzymywać się przez wiele godzin. Przepływy chromosferyczne w aktywnym regionie niezwiązane z plamami słonecznymi były badane mniej dokładnie niż przepływy penumbralne i superpenumbralne.
Interpretacja
Dlaczego fibryle są ciemne? Jak wysoko znajdują się w atmosferze słonecznej? Jak gorące i gęste są? Jaki jest kierunek i siła pola magnetycznego w ich wnętrzu? Jak te wielkości fizyczne mają się do ich wartości poza fibrylą na tej samej wysokości? Fibryle były rozpoznawane i badane przez wiele lat, jednak odpowiedzi na te pytania są zaskakująco niepewne z dwóch głównych powodów: ponieważ fibryle są definiowane przez ich wygląd w Hα i łatwiej jest uzyskać wysokiej jakości obrazy w tej linii absorpcyjnej niż je zinterpretować; oraz ponieważ trudno jest zmierzyć pola magnetyczne w chromosferze. Ilościową interpretację obrazów Hα można ująć w kategoriach profilu kontrastu, C(λ) = (I - I0)/I0, gdzie I (λ) jest profilem intensywności Hα w fibryli, a I0(λ) jest profilem odniesienia reprezentującym chromosferę międzyfibrylową. Chociaż profil kontrastu nie jest konieczną konstrukcją w zadaniu odtworzenia I(&llambda;), jest on koncepcyjnie użyteczny z dwóch powodów. Po pierwsze, uchwyca on charakterystyczną cechę fibryli: że jest ona ciemna w stosunku do otoczenia w rdzeniu Hα. Po drugie, jeśli fibryle są rzeczywiście wyżej w atmosferze niż obszary międzyfibrylowe, możliwe jest przybliżenie fibryli jako cechy przypominającej chmurę, która jest oświetlana od dołu przez pole promieniowania tła, które jest zbliżone do pola średniej chromosfery. Większość analiz profili kontrastu H? wykorzystuje (lub krytykuje) pewną odmianę modelu chmury opisanego poniżej. Do profili kontrastu stosuje się kilka rozważań obserwacyjnych. Po pierwsze, rozdzielczość długości fali powinna stanowić niewielką część szerokości linii H?, która wynosi około 1,5 Å (pełna szerokość przy połowie głębokości). Spektrografy i najlepsze filtry wąskopasmowe rutynowo osiągają 100-125 mÅ (pełna szerokość przy połowie maksymalnej transmisji), ale wiele obrazów Hα? jest pozyskiwanych za pomocą filtrów o paśmie przepustowym 0,25-0,5 Å. Teoretyczny profil kontrastu musi zostać spleciony z pasmem przepustowym filtra przed porównaniem z takimi obrazami. Po drugie, filtrogramy powinny być pozyskiwane przy więcej niż jednej długości fali; w przeciwnym razie nie będzie możliwe oddzielenie zmian w kształcie profilu linii od przesunięć długości fali spowodowanych efektem Dopplera. Obrazy przy różnych długościach fali nie powinny być rozdzielone w czasie o więcej niż minutę lub więcej, aby fibryla nie uległa znaczącej ewolucji w trakcie sekwencji. Po trzecie, porównanie teoretycznych i obserwowanych profili kontrastu powinno w idealnym przypadku uwzględniać efekty widzenia atmosferycznego i instrumentalnego światła rozproszonego - ale jest to trudne. Wreszcie, koncepcja profilu tła jest tylko pierwszym przybliżeniem. Atmosfera międzyfibrylowa niekoniecznie jest taka jak "cicha" fotosfera, ani stała w różnych miejscach. Podstawowy model chmur (przypisywany J. Beckersowi) opiera się na przenoszeniu promieniowania linii widmowej przez dyskretną cechę
gdzie I0(λ) i I(λ) to natężenia wchodzące i wychodzące z obiektu, S(λ) to funkcja źródła liniowego, a τ(λ) to głębokość optyczna. Szczegółowa analiza nielokalnej równowagi termodynamicznej (NLTE) formowania się linii słonecznej Hα ustaliła, że w zakresie 2-3 szerokości Dopplera od środka linii: (a) współczynnik absorpcji ma profil Gaussa (Dopplera); i (b) funkcja źródła jest niemal niezależna od długości fali, odzwierciedlając dominację rozpraszania niekoherentnego. Pierwszy wynik, wraz z założeniem, że szerokość Dopplera współczynnika absorpcji jest stała wzdłuż linii wzroku, oznacza, że głębokość optyczna będzie również miała formę Gaussa
τ(λ) = τ0 exp[-(λ - Δλv)2/Δλ2D]
gdzie λ jest mierzone od środka profilu odniesienia I0, ΔλD jest szerokością Dopplera, a Δλv jest prędkością linii widzenia obiektu względem odniesienia. Drugi wynik, wraz z założeniem, że funkcja źródłowa jest stała wzdłuż linii widzenia przez chmurę, pozwala na zintegrowanie równania transferu, aby uzyskać
Model jest stosowany poprzez dostosowanie parametrów S, τ0, ΔλD i Δλv poprzez nieliniowe dopasowanie najmniejszych kwadratów w celu uzyskania najlepszej zgodności między równaniem (1) a obserwowanym profilem kontrastu. Naturalnie pojawia się szereg pytań dotyczących stosowalności modelu chmur. Czy może on wytworzyć profile kontrastu zgodne z obserwacjami? Czy jest fizycznie spójny? Czy jest realistyczny? Czego dowiadujemy się z dopasowanych parametrów? . Kontrast zależy od długości fali w linii i może być ujemny (ciemny) lub dodatni (jasny). Profil jest asymetryczny, jeśli chmura ma różną od zera prędkość w linii wzroku. Model chmur był szerzej stosowany do struktur w spokojnym Słońcu (jasne i ciemne plamki) niż do włókienek i pętli w aktywnych regionach. Większość obserwowanych profili kontrastu plamek może być odpowiednio dopasowana przez model. Postać równania (1) nakłada dwa proste ograniczenia na teoretyczny profil kontrastu. Po pierwsze, jeśli S < I0(0), to S < I0 (λ) dla wszystkich λ, ponieważ profil odniesienia ma minimalną intensywność przy λ = 0. Tak więc, jeśli cecha jest ciemna w nieprzesuniętym środku linii, to musi być ciemna wszędzie w linii. W przypadku fibryli wydaje się to być prawdą w ramach niepewności obserwacyjnych. Po drugie, ponieważ
a prawa strona jest zawsze dodatnia, kontrast przy równych przesunięciach długości fali od środka nieprzesuniętej linii musi mieć ten sam znak. Ten warunek jest automatycznie spełniony dla cech, które są ciemne przy wszystkich długościach fali; czasami obserwuje się, że jest naruszony dla innych typów cech. Krótko mówiąc, model chmury można w rozsądny sposób dopasować do większości ciemnych cech w H?. Jednak nie zapewnia to, że model jest fizycznie sensowny. Podstawowym zarzutem jest to, że dla dowolnej konkretnej geometrii struktury pochłaniającej w odniesieniu do atmosfery bazowej, funkcja źródłowa jest określana przez głębokość optyczną, szerokość absorpcji Dopplera i prędkość objętościową gazu w strukturze. Tak więc nie jest fizycznie spójne dopasowanie parametrów modelu chmury niezależnie. Gdy model chmury jest porównywany z metodami, w których funkcja źródłowa jest wyprowadzana z teorii NLTE, okazuje się, że wyniki zgadzają się dość dobrze dla chmur "wysokich" - tych, które opierają się na kącie znacznie mniejszym niż jeden radian, patrząc od podstawy chromosfery tła. W przypadku "niskich" chmur model chmur jest zawodny: może w ogóle nie pasować, a nawet jeśli tak jest, wartości dopasowanych parametrów nie muszą odpowiadać ich wartościom fizycznym. Wolne chmury naruszają podstawowe założenie modelu, że chmury nie mają reakcji zwrotnej na leżącą u ich podstaw chromosferę. Inne założenia modelu chmur (stałość funkcji źródłowej, szerokość Dopplera i prędkość objętościowa wzdłuż każdej linii widzenia oraz globalna niezmienność profilu linii odniesienia) nie są tak fundamentalne i można je złagodzić w formie modeli chmur wielochmurowych lub różnicowych. Niezależnie od tego, jaki model jest dopasowany do obserwacji, celem jest oszacowanie wartości fizycznie interesujących parametrów. Na podstawie obserwacji H? można dość dobrze oszacować gęstość i ciśnienie gazu, ale temperatura kinetyczna jest słabo ograniczona. Zintegrowany z profilem współczynnik absorpcji w linii Hα (pomijając emisję wymuszoną) jest podany przez
gdzie e i m to ładunek i masa elektronu, fabs to siła oscylatora absorpcji, a N2 to gęstość absorberów (tutaj drugiego poziomu wodoru). Jeśli absorpcja ta jest rozłożona na profilu Dopplera, współczynnik absorpcji w centrum profilu wynosi
W przybliżeniu chmury τ0 = κ0L, gdzie L to grubość struktury wzdłuż linii widzenia, a wstawiając wartości liczbowe
N2 = 7,3 × 107τ0ΔλD/L cm-3
Model chmury daje τ0 i ΔλD. Grubość L jest szacowana na podstawie obserwowanego wymiaru poprzecznego fibryli (oba warunki atmosferyczne i podstruktura wzdłuż linii widzenia mogą przyczyniać się do oszacowania wyższego niż wartość prawdziwa). Równanie prowadzi do typowego zakresu N2 = (1-5) × 104 cm-3 dla różnych ciemnych cech, w tym fibryli. Modele NLTE płyt gazowych napromieniowanych promieniowaniem fotosferycznym i chromosferycznym konsekwentnie dają przybliżoną zależność między N2 i Ne, gęstością elektronów: Ne = 3,2 × 108N1/22 . Zastosowanie tej zależności do podanego zakresu dla N2 daje zakres Ne = (3-7) × 1010 cm-3. Całkowitą gęstość liczbową wodoru (obojętnego i zjonizowanego), NH, można wyprowadzić, jeśli znana jest frakcja jonizacji x ≡ Ne/ NH.
Modele NLTE dają wartości x tak małe jak 0,4 dla cienkich (L ≈ 500 km), chłodnych (T ≈ 7000 K) płyt, aby zasadniczo zakończyć jonizację dla temperatur znacznie powyżej 104 K, co prowadzi do pochodnego zakresu NH = (0,3-2) × 1011 cm-3. Ponieważ gęstość otoczenia na wysokościach większych niż kilka tysięcy kilometrów wynosi NH ≈ 109 cm-3, fibryle są zazwyczaj znacznie gęstsze niż ich otoczenie. Pochodne ciśnienie gazu, pg = NekT (1 + 1,085/x), ma mniejszy zakres ze względu na przeciwstawne efekty temperatury i jonizacji, pg = 0,1-0,3 dyn cm-2. Wszystkie te zakresy należy traktować ostrożnie, ponieważ obejmują większość, ale z pewnością nie wszystkie, struktury, które można nazwać fibrylami. Nie jest zaskakujące, że temperatura wewnątrz fibryli jest słabo ograniczona przez obserwacje Hα, ponieważ funkcja źródłowa jest zdominowana przez fotojonizację z powodu zewnętrznego pola promieniowania, a nie przez wewnętrzne zderzenia. Modele płytowe NLTE ustalają górny limit na około 2 × 104 K; w wyższych temperaturach kontrast jest dodatni w środku linii dla wszystkich rozsądnych wartości pozostałych parametrów. Typowy zakres ΔλD = 0,4-0,6 Å daje spójne, ale również słabe ograniczenie z zależności ΔλD = (λ/c)(ξ2 + 2kT /m)1/2 : T = (7-40) × 103 K dla prędkości mikroturbulentnej w zakresie ξ = 10-20 km s-1. Ponieważ temperatura otoczenia na wysokościach większych niż kilka tysięcy kilometrów wynosi T ≈ 106 K, fibryle są zazwyczaj znacznie chłodniejsze niż ich otoczenie.
Siła pola magnetycznego wewnątrz fibryli nie jest znana z pewnością na podstawie bezpośrednich pomiarów. Ograniczone pomiary kierunku pola przy użyciu linii chromosferycznych są zgodne z hipotezą, że fibryle podążają za liniami sił magnetycznych. Jest to również zgodne z faktem, że pole 10 G odpowiada ciśnieniu magnetycznemu pmag = B2/8π = 4 dyn cm-2, rzędowi wielkości większemu niż ciśnienia gazu oszacowane powyżej. Oczekuje się, że pole przekroczy 10 G w całej wysokiej chromosferze i niskiej koronie aktywnego obszaru i często może przekroczyć 100 G, więc β ≡ pgas/pmag << 1 powinno obowiązywać w obrębie fibryli. Ciśnienie dynamiczne ρv2/2 gazu płynącego z prędkością 30 km s-1 jest porównywalne z pmag dla B = 10 G. Prędkość materiału w linii wzroku w pewnym punkcie wzdłuż fibryli jest czasami szacowana albo na podstawie przesunięcia Dopplera linii (przesunięcie długości fali dwusiecznej cięciwy na wybranej
głębokości w profilu linii), albo przez odnotowanie długości fali, przy której materiał wydaje się najciemniejszy (ma najwyższą wartość bezwzględną kontrastu). Prędkości szacowane metodą kontrastu naiwnego są prawie nieskorelowane z prędkościami wywnioskowanymi z modelu chmury i nie powinny być stosowane. Prędkości szacowane na podstawie przesunięcia Dopplera zazwyczaj zgadzają się co do znaku z prędkościami chmury, ale są kilkakrotnie mniejsze co do wartości bezwzględnej. Prędkości wyprowadzone z modelu chmury powinny być dokładniejsze niż którakolwiek z prostszych metod. Prędkości tak wyprowadzone dla układów włókien łukowych i dużych fibryli są często naddźwiękowe w niektórych punktach wzdłuż struktury dla dowolnej dopuszczalnej wartości temperatury gazu. Przyszłe badania Chociaż fibryle są definiowane przez ich wygląd w Hα, analiza widm H? ujawnia fizyczną substancję stojącą za definicją: fibryle to dynamiczne struktury, które podążają za liniami pola magnetycznego, ale są gęstsze i chłodniejsze
niż ich otoczenie. Są ważnymi elementami aktywnej chromosfery. Przyszłe badania nad fibrylami powinny zatem wykraczać poza wąski cel obserwacji i wyjaśnienia ich wyglądu w H? i obejmować pełen zakres diagnostyki. Szczególnie pomocne byłyby: dwuwymiarowa spektroskopia (obrazowa) w liniach widzialnych wrażliwych na temperaturę, a także H?; widma obrazowania UV/EUV z sond kosmicznych; oraz pomiary magnetyczne w liniach chromosferycznych, takich jak Hβ i He I 1083 nm. Jak najwięcej z tych pomiarów powinno być wykonywanych jednocześnie. Taki zakres obserwacji pomógłby ustalić nie tylko warunki fizyczne wewnątrz fibryli, ale także dynamiczny związek fibryli ze strukturą pola magnetycznego i plazmy koronalnej w aktywnym regionie.
Chromosfera: Mechanizmy ogrzewania
Ogrzewanie mechaniczne
Chromosfery (i korony) istnieją dzięki mechanicznemu ogrzewaniu. Ogrzewanie mechaniczne obejmuje wszystkie procesy, które przekształcają nieradiacyjną energię hydrodynamiczną lub magnetyczną w energię cieplną, czyli w mikroskopijny losowy ruch cieplny. Fizyka chromosfer (i koron) różni się od fizyki ATMOSFER GWIEZDNYCH i warstw wewnętrznych, gdzie energia dopływa wyłącznie z promieniowania, konwekcji i przewodzenia cieplnego. Ponieważ obserwacje pokazują, że emisja chromosfery silnie zależy od pola magnetycznego, dzieli się procesy ogrzewania chromosfery na czyste mechanizmy hydrodynamiczne i mechanizmy magnetyczne. Oba typy mechanizmów można dalej podzielić na procesy szybkie i wolne. W przypadku mechanizmów magnetycznych szybkie lub falowe mechanizmy nazywane są mechanizmami prądu przemiennego (AC), a wolne mechanizmy - mechanizmami prądu stałego (DC). Mechanizm ogrzewania mechanicznego składa się z trzech procesów: generowania nośnika energii, transportu tej energii mechanicznej i jej rozpraszania. Ostatecznie energia mechaniczna pochodzi z procesów jądrowych w jądrze gwiazdy. Energia tam generowana jest transportowana w formie promieniowania i konwekcji na powierzchnię gwiazdy, gdzie w strefie konwekcji powierzchniowej generowana jest energia mechaniczna. Generowanie energii mechanicznej jest spowodowane ruchami gazu w strefie konwekcji, które są największe w obszarach o najmniejszej gęstości w pobliżu górnej granicy tej strefy. W konsekwencji energia mechaniczna jest generowana w wąskiej warstwie powierzchniowej. Ponieważ obecne obserwacje nie mogą z całą pewnością stwierdzić, czy obszar powierzchni Słońca jest pozbawiony pól magnetycznych małej skali, czy nie, a ponieważ nagrzewanie w kanałach prądowych o średnicy metrów nie może być obecnie rozdzielone, trudno jest zidentyfikować konkretny mechanizm nagrzewania z listy proponowanych procesów. Aby uzyskać obszerną listę proponowanych mechanizmów nagrzewania, zobacz Narain i Ulmschneider (1996), a także artykuł na temat MECHANIZMÓW NAGRZEWANIA KORONALNEGO. Zwykle kilka mechanizmów działa jednocześnie. Zaskakująco tylko obserwacje gwiazd (gdzie chromosfery są zredukowane do źródeł punktowych) były w stanie definitywnie zidentyfikować fale akustyczne jako ważny podstawowy mechanizm dla chromosfer gwiazdowych. Powodem tego jest to, że dla gwiazd efektywna temperatura Teff może zostać zmieniona o rząd wielkości, grawitacja g o 4, metaliczność o 3, a prędkość obrotowa o 2 rzędy wielkości. To znacznie rozszerza zakres przewidywań teoretycznych i tym samym umożliwia kluczowe obserwacje. W poniższych podsekcjach konieczność mechanicznego ogrzewania, zoo mechanizmów, obliczenia wytwarzania energii mechanicznej, obserwowane szybkości mechanicznego ogrzewania i możliwy obraz całkowitego ogrzewania chromosfery są omawiane bardziej szczegółowo.
Konieczność mechanicznego ogrzewania
Rozważmy element gazowy w chromosferze, gdzie przepływy wprowadzane przez wiatr słoneczny można pominąć. Całkowita szybkość ogrzewania, czyli ilość ciepła netto na sekundę, ΦT (erg cm-3s-1), wpływającego do elementu przez jego granice, jest podana przez
ΦT = ΦR + ΦJ + ΦC + ΦV + ΦM = 0,
ponieważ w równowadze dynamicznej chromosfera nie wykazuje zależności czasowej. Terminy po prawej stronie oznaczają ogrzewanie radiacyjne, Joule′a, przewodzące ciepło, lepkie i mechaniczne. Typowa empiryczna szybkość chłodzenia chromosfery ze standardowego modelu słonecznego wynosi -ΦR = 10-1 erg cm-3 s-1. Rozważmy typowe zaburzenie akustyczne lub magnetohydrodynamiczne w chromosferze słonecznej o charakterystycznych wartościach: rozmiar L = 200 km, temperatura ΔT = 1000 K, prędkość Δv = 3 km s-1 i zaburzenie pola magnetycznego ΔB = 10 G. Używając odpowiednich wartości przewodnictwa cieplnego κth, lepkości ηvis i przewodnictwa elektrycznego λel otrzymujemy (w erg cm-3 s-1)
gdzie cL jest prędkością światła. Widać, że w chromosferze ΦC, ΦV i ΦJmożna pominąć w stosunku do ΦR, a główny bilans energetyczny zachodzi między chłodzeniem radiacyjnym a ogrzewaniem mechanicznym. Gdyby ogrzewanie mechaniczne zostało wyłączone, uzyskano by równowagę radiacyjną, ΦR = 4πκ(J ? S) = 0. Oznacza to, że w skali czasu relaksacji radiacyjnej wynoszącej około ułamka godziny równowaga radiacyjna zostałaby osiągnięta. Tutaj κ jest nieprzezroczystością, J średnią intensywnością, a S funkcją źródła. Jednak szybkości ogrzewania ΦC, ΦV i ΦJ
Zoo mechanizmów grzewczych
Mechanizmy hydrodynamiczne składają się z fal pulsacyjnych o okresach dłuższych niż okres odcięcia akustycznego, P > PA = 4πcS/γg (gdzie cS jest prędkością dźwięku, a γ = 5/3 stosunku ciepła właściwego) oraz fal akustycznych, gdzie P < PA. Te mechanizmy hydrodynamiczne rozpraszają się poprzez wstrząsy. Mechanizmy magnetyczne to podobne do akustycznych fale MHD o wolnym trybie i podłużne fale rurowe, a także poprzeczne i skrętne fale Alfvéna. Te dwa ostatnie typy fal są trudne do rozproszenia w chromosferze i zbadano liczne mechanizmy rozpraszania, sprzężenie modów, ogrzewanie rezonansowe, ogrzewanie turbulentne. Ponadto występują powierzchniowe fale magnetoakustyczne, które rozpraszają się poprzez sprzężenie modów, absorpcję rezonansową i mieszanie faz. Mechanizmy prądu stałego związane z ponownym połączeniem pola magnetycznego najprawdopodobniej działają na wysokościach powyżej chromosfery. Uważa się, że tak zwane zdarzenia turbulentne i wybuchowe widoczne w linii warstwy przejściowej C IV są spowodowane takimi procesami rekoneksji. Więcej szczegółów można znaleźć w Narain i Ulmschneider (1996).
Generowanie energii mechanicznej
Energia mechaniczna jest generowana przez turbulentne ruchy gazu w strefie konwekcyjnej. Numeryczne badania i obserwacje konwekcji wskazują, że przepływy turbulentne można opisać za pomocą widma energii typu Kołmogorowa. Korzystając z takiego widma, w którym średnia kwadratowa prędkości turbulentnej jest podawana z modeli strefy konwekcyjnej (które zależą od Teff, g i parametru długości mieszania α, gdzie α = 2 dobrze zgadza się z obserwacjami), strumienie energii fal akustycznych dla Słońca i dużej liczby gwiazd zostały obliczone przy użyciu teorii Lighthilla-Steina (Ulmschneider i inni, 1996). Teoria Lighthilla dotycząca kwadrupolowego generowania dźwięku jest w doskonałej zgodności z obserwacjami w zastosowaniach naziemnych. Teoria Lighthilla-Steina dostarcza również widm częstotliwości akustycznych, które rozciągają się od okresu odcięcia PA do około czynnika 100 mniejszego z maksimum w przybliżeniu przy okresie PM = PA/5. Dla Słońca można znaleźć typowe wartości całkowitego strumienia energii fali akustycznej wynoszące 1,7 × 108 erg cm-2 s-1 i okresie PM = 60 s, przy użyciu parametru długości mieszania α = 2,0. Strumienie fal podłużnych i poprzecznych w rurach magnetycznych obliczono dla Słońca poprzez ściskanie i potrząsanie modelem rury przez zewnętrzne, zależne od czasu przepływy turbulentne przy danej wysokości wzbudzenia. Rysunek przedstawia chwilowe i uśrednione wygenerowane strumienie fal podłużnych (góra) i poprzecznych (dół) w rurze jako funkcję czasu.
Rysunek pokazuje bardzo stochastyczną naturę procesu generowania. Generowanie energii falowej następuje w postaci spurtów, co jest zgodne z obserwacjami. Spurty są spowodowane nagłymi wzrostami prędkości przepływu. Na rysunku 2 zastosowano te same zależne od czasu turbulentne fluktuacje prędkości. Dla Słońca typowy średni strumień fal podłużnych wynosi 1,5 × 108 erg cm-2 s-1, a dla strumienia poprzecznego wartość około 30 razy wyższą, przy czym płaskie maksimum rozciąga się od PM = 90 s do dłuższych okresów. Biorąc pod uwagę ten sam strumień fal akustycznych wewnątrz i na zewnątrz rury, należy zdać sobie sprawę, że gęstość gazu wewnątrz rury jest mniej więcej o współczynnik 6 mniejsza od gęstości zewnętrznej. W porównaniu z tą niską gęstością strumień fal wewnątrz rury jest duży, co prowadzi do szybkiego powstawania szoków, ale także do poważnych efektów NLTE (odejścia od równowagi termodynamicznej), które silnie modyfikują straty radiacyjne.
Empiryczne szybkości nagrzewania mechanicznego
Standardowe empiryczne modele chromosfery słonecznej wskazują, że obszary aktywne (gdzie dominują pola magnetyczne) wymagają strumieni mechanicznych FM = 1,3 × 108 erg cm-2 s-1, podczas gdy obszary spokojne 1,4 × 107 erg cm-2s-1. Wartości te pomnożono przez współczynnik 2,3, aby uwzględnić straty linii przez Fe II. Bezpośrednie pomiary fluktuacji prędkości zostały wykorzystane do oszacowania strumienia akustycznego w chromosferze słonecznej. Ponieważ fluktuacje prędkości są obserwowane jako fluktuacje przesunięcia Dopplera rdzeni linii widmowych, należy zachować ostrożność, aby dokonać korekty w celu uwzględnienia widoczności i efektów funkcji wkładu linii. Deubner (1988) ustala FM = 2 × 107, 1,2 × 106, 4,5 × 105 erg cm-2s-1 na wysokościach odpowiednio 300, 800, 1500 km. Rdzenie emisyjne linii Ca IIH i K oraz linii Mg II h i k są wiarygodnymi wskaźnikami chromosfer. Wykreślając dla wielu gwiazd empiryczne strumienie emisji rdzeni w tych liniach w stosunku do Teff, można stwierdzić, że strumienie wykazują dobrze zdefiniowaną dolną granicę, która rozciąga się np. dla Ca II od FCa = 1 × 107 erg cm-2s-1 dla wczesnych gwiazd typu F do 2 × 104 erg cm-2s-1 dla późnych gwiazd typu M. Ta granica jest nazywana linią bazową strumienia. Niedawno wykazano, że tę bazową emisję można odtworzyć za pomocą ogrzewania akustycznego (Buchholz i in. 1998). Jednakże stwierdzono, że gwiazdy o tym samym Teff i grawitacji g wykazują różną emisję chromosferyczną i że emisja ta jest większa, gdy gwiazdy obracają się szybciej. Ponieważ szybko obracające się gwiazdy ze strefą konwekcji powierzchniowej generują więcej pól magnetycznych za pośrednictwem mechanizmu dynama, jasne jest, że nadmierne ogrzewanie jest spowodowane przez mechanizmy ogrzewania magnetycznego. Szybko obracająca się gwiazda ma o rząd wielkości więcej emisji chromosferycznej niż emisja bazowa.
Całkowity obraz ogrzewania chromosfery
Udane odtworzenie linii strumienia bazowego za pomocą modeli ogrzewania falami akustycznymi wyjaśniło, że podstawowym procesem ogrzewania w chromosferach są fale akustyczne. Mechanizm ten działa niezależnie od rotacji. Im szybciej obraca się gwiazda, tym bardziej jest pokryta polami magnetycznymi, które na wysokościach fotosferycznych i subfotosferycznych pojawiają się w postaci rur strumienia magnetycznego. Fluktuujące przepływy gazu w turbulentnej strefie konwekcyjnej poza rurami wzbudzają podłużne, poprzeczne i skrętne fale rur MHD. Poprzez formowanie się szoków podłużne fale w dolnej i środkowej chromosferze ogrzewają rury strumienia, co wyjaśnia nadmierną emisję w obszarach magnetycznych. Przy większej liczbie rur na gwieździe, wytwarzana jest większa energia fal rurowych. Znacznie wydajniej wytwarzane fale poprzeczne mają dwa problemy: poważnie cierpią z powodu wycieku energii falowej z dala od rury i trudno je rozproszyć. Bardzo prawdopodobne, że są odpowiedzialne za ogrzewanie wysokiej chromosfery i warstwy przejściowej. Tutaj obserwacje gwiazd linii C IV wskazują, że oprócz ogrzewania falowego, ogrzewanie prądem stałym przez mikrorozbłyski generowane przez zdarzenia rekoneksji zwiększa ogrzewanie falowe Alfvéna. Te zdarzenia rekoneksji są wynikiem powolnych poziomych ruchów konwekcyjnych (zwanych ruchami stóp), które prowadzą do skręcania i splatania rur strumienia magnetycznego. Strefa konwekcji jest zatem źródłem nie tylko ogrzewania prądem przemiennym, ale także stałym. Prawdopodobnie mniej wydajnie generowane fale torsyjne najprawdopodobniej przechodzą przez chromosferę bez rozproszenia i stają się ważne w koronie i wietrze gwiazdowym. Wydajna trójwymiarowa symulacja magnetohydrodynamiki w strefach konwekcji gwiazdowej powinna w przyszłości być w stanie całkowicie wyjaśnić zjawisko chromosfery, które w przypadku braku jakichkolwiek danych wejściowych z przestrzeni międzygwiazdowej musi być w końcu całkowicie zależne od wnętrza gwiazdy.
Chromosfera: Magnetyczny baldachim
Magnetyczny baldachim to warstwa pola magnetycznego skierowana równolegle do powierzchni Słońca i znajdująca się w niskiej CHROMOSFERZE, pokrywająca obszar bez pola SŁONECZNEJ FOTOSFERA. Ma natężenie pola rzędu 0,01 T i pokrywa znaczną część powierzchni Słońca. Magnetyczny baldachim można porównać z baldachimem lasu deszczowego: pnie drzew odpowiadają MAGNETYCZNYM RUROM STRUMIENIA, które wznoszą się pionowo z poziomu fotosfery, podczas gdy rozprzestrzeniające się rozgałęzione liście porównują się z poziomo rozprzestrzeniającym się polem magnetycznym. Podobnie jak w przypadku baldachimu lasu deszczowego, magnetyczny baldachim ma swoje własne życie i nie jest łatwo dostępny do obserwacji. Magnetyczny baldachim można wywnioskować obserwacyjnie z magnetogramów wykonanych w chromosferycznych liniach widmowych lub teoretycznie z magnetohydrostatycznej ekstrapolacji łatwo obserwowalnego pola magnetycznego fotosfery.
Dowody obserwacyjne na istnienie sklepienia magnetycznego
Na początku lat 80. XX wieku R G Giovanelli i H P Jones prowadzili szeroko zakrojone badania sklepienia magnetycznego, opierając się na wcześniejszych sugestiach i danych obserwacyjnych W C Livingstona. Wykorzystali magnetogramy pola sieciowego w pobliżu krawędzi słonecznej , wykonane w chromosferycznych liniach widmowych w zakresie podczerwieni i widzialnym, np. linia tripletowa 854,2 nm Ca II i linia Mg I b2 przy 517,3 nm. Te magnetogramy zazwyczaj pokazują inwersję biegunowości wzdłuż linii, która pokrywa się z krawędzią unipolarnego pola sieciowego. (Sieć magnetyczna widoczna jest na fotosferycznych magnetogramach, zarysowując granice supergranuli.)
W kierunku środka dysku od linii inwersji polaryzacji pole rozproszone (ciemny obszar na rysunku (a)) rozciąga się dobrze nad obszarem, który nie wykazuje pola magnetycznego na poziomie fotosferycznym i który ma taką samą (normalną) polarność jak sieć magnetyczna. Po stronie krawędzi ta plama normalnej polaryzacji pokazuje obwódkę o przeciwnej polaryzacji. Inwersja polaryzacji i wzór obwódki to bardzo powszechna cecha chromosferycznych magnetogramów pola sieci w pobliżu krawędzi. Występuje również w regionach aktywnych i plamach słonecznych. Rysunek (b) pokazuje strukturę magnetyczną, która najbardziej naturalnie wyjaśnia taki magnetogram. Pokazuje przednią elewację sekcji wskazanej na rysunku (a). Normalna do powierzchni Słońca (poziom wysokości, na którym głębokość optyczna kontinuum przy λ = 500 nm wynosi jedność (τ500 = 1)) jest nachylona pod kątem θ względem linii widzenia, co odpowiada obserwacji w pobliżu krawędzi Słońca. Chociaż pole sieci magnetycznej jest rozdrobnione i składa się z wielu małych rur strumienia magnetycznego, na rysunku (b), dla jasności, jest ono przedstawione przez pojedynczą rurę strumienia zorientowaną pionowo. Na granicy sieci pole może swobodnie rozprzestrzeniać się w kierunku poziomym, tworząc w ten sposób magnetyczny baldachim, który pokrywa obszar wolny od pola ff. Odwrócenie biegunowości magnetycznej chromosferycznego magnetogramu można teraz łatwo zrozumieć jako spowodowane polem baldachimu w następujący sposób. Linie widzenia przechodzące przez pole sieciowe odbierają składową pola magnetycznego w kierunku obserwatora, podobnie jak linie widzenia przechodzące przez pole baldachimu na lewą (środek dysku) stronę sieci (przerywana linia widzenia), wyjaśniając rozszerzone pole rozproszonej sieci. Pole korony po prawej (w kierunku krawędzi) strony sieci powoduje jednak składową linii widzenia o przeciwnym kierunku (ciągła linia widzenia), co powoduje powstanie prążka o przeciwnej polaryzacji. Należy zauważyć, że odpowiadający magnetogram sieci magnetycznej na poziomie fotosferycznym miałby wyłącznie dodatnią biegunowość. W kierunku krawędzi pola sieciowe najwyraźniej zbliżają się do siebie wraz ze wzrostem kąta aspektu linii widzenia θ, powodując powstanie coraz węższego wzoru prążków o zmiennej polaryzacji w magnetogramie. Korzystając ze standardowego modelu atmosfery słonecznej, równanie transferu promieniowania dla światła spolaryzowanego jest integrowane wzdłuż linii widzenia przechodzącej przez pole korony, tak jak to pokazano na rysunku (b). Zakładając, że atmosfera jest wolna od pola do wysokości zc, a korona składa się z jednorodnej warstwy pola magnetycznego o natężeniu Bc, wysokość korony zc można wyprowadzić z porównania obliczonego w ten sposób sygnału magnetogramu obserwowanego. Ponieważ tylko pole magnetyczne blisko podstawy korony przyczynia się znacząco do sygnału magnetogramu (z powodu szybkiego spadku gęstości i natężenia pola wraz z wysokością), założenie jednorodnego, czysto poziomo skierowanego pola korony jest uzasadnionym przybliżeniem. Takie obliczenia doprowadziły do wysokości korony 600-1000 km nad powierzchnią Słońca (odpowiadającej dolnej chromosferze) w regionach spokojnego Słońca i tak niskich, jak 200 km w REGIONACH AKTYWNYCH. W przeciwieństwie do tego, proste modele rurki strumieniowej sieci magnetycznej pokazują, że pole korony tworzy się w górnej chromosferze i KORONIE. Tylko modele, które uwzględniają istotne różnice między atmosferą wewnątrz rury strumieniowej (atmosfera wewnętrzna) i na zewnątrz niej (atmosfera zewnętrzna), są w stanie wytworzyć nisko położone pole korony. PLAMY SŁOŃCOWE również obserwują powstawanie nisko położonego pola korony, które rozciąga się na dużą odległość poza półcieniem (superpenumbra) z wysokością korony od stu do kilkuset kilometrów. W tym przypadku, w przeciwieństwie do korony sieciowej, dominującą rolę w utrzymywaniu korony na niskiej wysokości odgrywają siły napięcia magnetycznego.
Model rurki strumieniowej osłony magnetycznej
Biorąc pod uwagę natężenie pola magnetycznego pola sieciowego na powierzchni Słońca (τ500 = 1), B0 i ułamek powierzchni zajmowany przez to pole, współczynnik wypełnienia magnetycznego f0, najprostszy model, który można skonstruować, składa się z zespołu statycznych, obrotowo symetrycznych, pionowych rur strumieniowych, które są równomiernie rozmieszczone na poziomie τ500 = 1. Zwykle zakłada się, że na tym poziomie natężenie pola składowej pionowej jest stałe w rurce strumieniowej, Bz(r) = B0 = const., a atmosfera wewnętrzna i zewnętrzna są równoległe do płaszczyzny (brak zmian w kierunku bocznym, ale tylko w kierunku pionowym). Biorąc dodatkowo pod uwagę ciśnienie gazu pg jako funkcję wysokości dla atmosfery wewnętrznej i zewnętrznej, konfigurację pola magnetycznego można obliczyć dla wszystkich wysokości, w tym osłony i obszaru chromosferycznego, rozwiązując równanie magnetohydrostatyczne. Powierzchnia rury strumieniowej wyróżnia się
nieciągłością (w przypadku idealnej plazmy) zmiennych fizycznych w taki sposób, że ciśnienie magnetyczne, pmag = B2/2μ, wywierane przez pole powierzchni rury strumieniowej jest równe różnicy ciśnienia gazu między atmosferą zewnętrzną i wewnętrzną, tj. B2/2μ|Surface = pg ext ? pg int gdzie μ = 4π × 10-7 V s A-1 m-1 to przenikalność magnetyczna przyjęta jako przenikalność wolnej przestrzeni. To równanie jest bezpośrednią konsekwencją prawa Ampére′a i jest nadal ważne w obecności sił krzywizny magnetycznej. W skrajnym przypadku całkowicie opróżnionej rury strumienia, pg int = 0, i otrzymujemy Bmax(z) = [2μpg ext(z)]1/2, co wynosi około 0,17 T na poziomie powierzchni Słońca i około 0,02 T na wysokości 500 km. Ze względu na wykładniczy spadek zewnętrznego ciśnienia gazu pg ext wraz z wysokością, rura strumienia magnetycznego rozszerza się, utrzymując jednocześnie całkowity strumień magnetyczny stały. Na rysunku widać, że pole magnetyczne w zewnętrznych częściach rury staje się poziome na pewnej krytycznej wysokości, tworząc w ten sposób pole baldachimu.
To poziomo rozprzestrzeniające się pole łączy się z polem o równej polarności sąsiednich rur strumienia, w którym to przypadku wygina się z powrotem i na zewnątrz w kierunku pionowym, lub łączy się z sąsiednimi rurami o przeciwnej polaryzacji, tworząc strukturę przypominającą pętlę. Pierwszy przypadek pokazano na rysunku , gdzie pole korony łączy się z sąsiednim polem o tej samej biegunowości na wysokości 900 km. Pozioma odległość, na jaką rozciąga się pole korony, zależy od lokalnego współczynnika wypełnienia, który waha się od ≈0,2 (regiony PLAGE) do 5×10-4 (ciche Słońce). Tak więc pole korony może obejmować duży obszar wolnej od pola fotosfery spokojnego Słońca. Na rysunku rozciąga się ono tylko na umiarkowanym poziomym rozpiętości (od 700 do 1400 km w regionie wysokości od 800 do 1100 km) ze względu na współczynnik wypełnienia 5 × 10-3, który jest dziesięć razy większy niż w regionie spokojnego Słońca. Wysokość, na której pojawia się pole korony, wysokość korony zc krytycznie zależy od kombinacji atmosfery zewnętrznej i wewnętrznej. Pole korony o wysokości podstawy zgodnej z obserwacjami powstaje tylko wtedy, gdy atmosfera rurki strumieniowej wykazuje wzrost temperatury chromosferycznej, podczas gdy temperatura w atmosferze zewnętrznej nadal spada poniżej wysokości minimum temperatury atmosfery rurki strumieniowej. W takich okolicznościach ciśnienie gazu wewnątrz rurki strumieniowej szybko zbliża się do ciśnienia otaczającego gazu w punkcie krytycznym powyżej wysokości minimum temperatury. Zgodnie z równaniem zmusza to powierzchnię rurki strumieniowej do rozprzestrzeniania się w kierunku poziomym, ponieważ skończone pole powierzchni nie może sięgnąć poza wysokość krytyczną, gdzie pg ext - pg int = 0, niezależnie od natężenia pola lub współczynnika wypełnienia. Czy możliwe jest, że atmosfera zewnętrzna pozostaje chłodna do podstawy korony? Analiza linii widmowych Słońca cząsteczki tlenku węgla, a także modele równowagi radiacyjnej uwzględniające wpływ cząsteczki CO, pokazują, że na dużej części powierzchni Słońca temperatura musi znacznie spaść poniżej klasycznego minimum temperatury, tak aby atmosfera rozwidlała się na składnik gorący i chłodny w pobliżu wysokości klasycznego minimum temperatury, które występuje około 500 km nad powierzchnią Słońca .Jest bardzo prawdopodobne, że gorący i chłodny składnik reprezentują odpowiednio wewnętrzną i zewnętrzną atmosferę rury strumieniowej. Zatem występowanie pola korony wydaje się być ściśle związane z termicznym rozwidleniem atmosfery słonecznej.
Konsekwencje korony magnetycznej
W wyniku termicznego rozwidlenia atmosfera bezpośrednio pod podstawą korony jest stosunkowo chłodna ( ≤ 4000 K), podczas gdy sama korona może już mieć temperaturę chromosferyczną, w zależności od równowagi ogrzewania i chłodzenia. Stąd podstawa korony reprezentuje termiczną warstwę graniczną, która ma ważne konsekwencje dla tworzenia się linii widmowych w dolnej chromosferze, takich jak centralny rdzeń emisyjny Ca II H i K lub Mg II h i k. Tworzenie się tych rdzeni emisyjnych jest tłumione przez chłodną atmosferę pod podstawą korony. Z drugiej strony, ponieważ atmosfera rury strumieniowej wykazuje wzrost temperatury chromosferycznej, rdzenie emisyjne rozwijają się w pełni wzdłuż osi rury strumieniowej i w jej pobliżu, a ich rozmiar zależy od szybkości rozszerzania się rury strumieniowej. Jest to zgodne z zaobserwowaną zwiększoną emisją chromosferyczną w obszarach sieciowych i jej brakiem (z wyjątkiem sporadycznych jasnych ziaren) w obszarach wewnątrzsieciowych. Model pokazuje zatem, że linie emisyjne w niskiej chromosferze są przestrzennie przerywane w skalach około 1 sekundy łuku i są silnie skorelowane z intensywnym polem magnetycznym na poziomie fotosfery, przy czym obie prognozy są zgodne z obserwacją. Linie rezonansowe MgII tworzą się nieco wyżej w atmosferze niż linie Ca II, prawdopodobnie głównie powyżej podstawy korony. Odpowiednio, linie te pokazują rdzenie emisyjne również w obszarze wewnątrzsieciowym. Pole akanopiczne w połączeniu z przestrzennie oddzielnym ruchem masy pod baldachimem (np. ruch konwekcyjny) może silnie wpływać na kształt wrażliwych na Zeemana linii widmowych, gdy są obserwowane w świetle spolaryzowanym . Profil Stokesa V linii widmowej (różnica między prawoskrętnym i lewoskrętnym kołowo spolaryzowanym światłem jako funkcja długości fali), który jest antysymetryczny w normalnych warunkach, może przyjąć ekstremalnie asymetryczny kształt w zależności od prędkości i wysokości baldachimu. Baldachim magnetyczny prawdopodobnie niesie konsekwencje dla powstawania i siły wstrząsów akustycznych, które są wynikiem fal biegnących w górę generowanych na poziomach fotosfery i strefy konwekcyjnej. Fale te preferencyjnie wywołują wstrząs na wysokości około 1 Mm, a więc blisko podstawy baldachimu, dając początek jasnym ziarnom Ca IIH2V i K2V. Oczekuje się również, że dokładne właściwości emisyjne tych ziaren zostaną zmodyfikowane przez obecność osłony magnetycznej. Jako kolejna konsekwencja osłony magnetycznej, częstotliwości oscylacji akustycznych p-mode słonecznego wysokiego stopnia modalnego są przesunięte do większych wartości. Dla danego trybu to przesunięcie CZĘSTOTLIWOŚCI jest proporcjonalne do kwadratu natężenia pola osłony, które jest w przybliżeniu proporcjonalne do współczynnika wypełnienia fotosfery, f0. Jest to możliwe wyjaśnienie zmienności częstotliwości oscylacji p-mode w CYKLU SŁONECZNYM i ich korelacji z aktywnością magnetyczną.
Chromosfera: Sieć
Sieć chromosferyczna na Słońcu została odkryta przez HALE′A w 1892 r. za pomocą jego nowo wynalezionego spektroheliografu. Jest to plamisty wzór (Hale nazwał go "strukturą siatkową") pokrywający dysk słoneczny poza aktywnymi obszarami, który pojawia się, gdy Słońce jest obrazowane w diagnostyce widmowej utworzonej w CHROMOSFERZE . Wzór sieci ma wygląd plastra miodu przy charakterystycznych rozmiarach komórek 10-40 sekund łuku i składa się z małych plamek magnetycznych, które, choć niekompletnie, wyznaczają granice komórek supergranulacji w leżącej pod nimi fotosferze (SOLAR PHOTOSFHERE: SUPERGRANULATION). Każdy obszar magnetyczny mierzy kilka sekund łuku i prawdopodobnie składa się z klastra rur strumieniowych, które są już fizycznie połączone na wysokościach chromosferycznych (1000-5000 km nad fotosferą) lub wydają się połączone z powodu rozpraszania promieniowania (SOLAR PHOTOSPHERIC MAGNETIC FLUX TUBES: OBSERVATIONS). Sieć chromosferyczna jest bardzo precyzyjnie współprzestrzenna z siecią magnetyczną obserwowaną za pomocą magnetografów w fotosferze. Powodem współprzestrzenności jest kilogaussowa siła pola fotosferycznych rur strumieniowych. Tak wysoka siła pola idzie w parze z niemal ewakuacją, a zatem dużą wypornością, a zatem promieniową (pionową) orientacją (SOLAR PHOTOSPHERE). Plamy sieciowe wydają się jasne w liniach chromosferycznych (linie rezonansowe Ca II H i K przy λ = 396 nm i 393 nm, wewnętrzne skrzydła linii Hα serii Balmera wodoru przy 656,3 nm i wiele linii emisyjnych w średnim ultrafiolecie). Obserwowana jasność wzrasta wraz z widoczną gęstością strumienia magnetycznego w leżącej pod spodem fotosferze, skutecznie mierząc gęstość przestrzennej rury strumieniowej. Wzmocnienie intensywności jest prawdopodobnie spowodowane ogrzewaniem związanym z magnetyzmem, ale dokładny mechanizm nie został zidentyfikowany (CHROMOSFERA: MECHANIZMY OGRZEWANIA). Wzór sieci jest dynamiczny w skalach czasowych godzin. Jego ewolucja jest regulowana przez ciągłe pojawianie się nowego pola magnetycznego w komórkach supergranulacji, późniejszą migrację pola do granic komórek narzuconą przez przepływy supergranulacji, dalszą migrację wzdłuż granic supergranulacji i ostateczne zanikanie pola poprzez dyspersję, ponowne połączenie, subdukcję lub wznoszenie się do górnej atmosfery.
Skład
Rury strumienia magnetycznego, które tworzą sieć magnetyczną, są widoczne pojedynczo na zdjęciach fotosfery o najwyższej rozdzielczości. W szczególności są one najostrzej widoczne w paśmie Fraunhofera G wokół λ = 430,5 nm. Pasmo to składa się z molekularnych linii CH, które znacznie jaśnieją, w niezrozumiały sposób, w miejscach, w których silne rury strumienia w pasach międzykrystalicznych dynamicznie oddziałują z otaczającymi przepływami konwekcyjnymi. Rury strumienia pojawiają się na filtrogramach pasma G jako maleńkie jasne punkty o średnicy 0,1-0,2 sekundy łuku - tuż przy granicy dyfrakcji najlepszych teleskopów (SOLAR PHOTOSPHERE: FILIGREE; SOLAR TELESCOPES AND INSTRUMENTS: GROUND). Plamy w nadległej chromosferze wydają się bardziej rozproszone, z ziarnistą strukturą w skali 1-2 sekundy łuku. W obserwacjach naziemnych najlepiej widać je podczas obrazowania chromosfery słonecznej w rdzeniach linii Ca II H i K. Są to najsilniejsze linie widmowe optycznie dostępnej części widma słonecznego, ponieważ wapń jest pierwiastkiem powszechnie występującym, a większość cząstek wapnia znajduje się w pojedynczo zjonizowanym stanie podstawowym w całej fotosferze i niskiej chromosferze. Ponadto łatki sieciowe są dobrze widoczne w liniach ultrafioletowych od niższych stadiów jonizacji pierwiastków powszechnie występujących, takich jak CI i CII w średnim ultrafiolecie. Pozostają widoczne w liniach ultrafioletowych od wyższych stadiów jonizacji do temperatury formowania ≈105 K i są również widoczne w Lyman &alph; przy λ = 121,5 nm (najsilniejsza linia w widmie słonecznym). Bardziej złożona morfologia jest widoczna w Hα niż w Ca II K, ponieważ H? ma dodatkowe wkłady z dużo wyższych warstw, ze względu na wysoką energię wzbudzenia. Tylko w wysokiej temperaturze i stosunkowo dużej gęstości staje się wystarczająco nieprzezroczysty. Gdy obserwuje się sieć w centrum linii Hα, ma ona ciemne rozszerzenia zwane plamkami lub, gdy są dłuższe niż kilka sekund łuku, fibryle (CHROMOSFERA: WŁÓKNA). Rozciągają się one w kolce, gdy są widoczne na krawędzi (CHROMOSFERA: SPICULES). Takie włókniste struktury niewątpliwie przedstawiają topologię pola magnetycznego i mogą reprezentować dolne części pętli koronalnych (CORONAL LOOPS), ale ich zachowanie jest bardzo dynamiczne i wyraźnie bardziej złożone, niż przewidywałyby statyczne modele pętli. Statyczne modele rozszerzania się rurki strumienia wraz z wysokością (SOLAR PHOTOSPHERIC MAGNETIC FLUX TUBES: THEORY) przewidują, że na znacznie niższych poziomach pole magnetyczne powinno już rozchodzić się do niemal jednorodnego wypełnienia przestrzeni (CHROMOSFERA: MAGNETIC CANOPY). Obserwowane przepływy plamek, włókienek i kolców odwzorowują bardziej pionowe linie pola, ponieważ gaz porusza się swobodnie tylko wzdłuż pola. Bardziej nachylone przepływy nie sięgają tak wysoko. Przestrzenna koincydencja z siecią magnetyczną w fotosferze może być wykorzystana do określenia biegunowości magnetycznej sieci chromosferycznej. Ma ona tendencję do bycia mieszaną biegunowością na dużych obszarach spokojnego Słońca i stawania się jednobiegunową w pobliżu obszarów aktywnych lub pozostawania jednobiegunową w pozostałościach poprzednich obszarów aktywnych. Duże obszary jednobiegunowe występują również w pobliżu biegunów słonecznych.
Topologia i ewolucja wzoru
Wygląd komórkowy sieci chromosferycznej jest niekompletny, w przeciwieństwie do granic komórek supergranulacji obserwowanych na fotosferycznych dopplergramach. Na niskorozdzielczych spektroheliogramach CaIIK komórki są łatwiej zarysowane niż na wysokorozdzielczych filtrogramach CaIIK, co pokazuje, że przepływy supergranulacji nie powodują wypełnienia pól granic komórek wszędzie. Ponadto istnieją ruchome, małe obszary koncentracji pola w komórkach supergranulacji, które jeszcze nie dotarły do granicy komórki. Jest prawdopodobne, że wiele z tych ruchomych obszarów niedawno wyłoniło się spod powierzchni. Rozmiary komórek sieci chromosferycznej są większe (średnica 32 mm) w przypadku określenia za pomocą klasycznych metod autokorelacji niż w przypadku stosowania metod topologicznych, które identyfikują komórki na podstawie diagnostyki gradientowej (średnica 13-18 mm). Wydaje się, że nie ma bezpośredniego związku między rozmiarem komórki a zawartością magnetyczną, chociaż w obszarach niespokojnych komórek bez pola wydają się być znacznie mniejsze. Przestrzenne charakterystyki komórek są zdominowane przez przestrzenną gęstość centrów przepływu w górę, tak jak ma to miejsce w przypadku granulacji na mniejszą skalę (SOLAR PHOTOSPHERE: GRANULATION). Rzeczywiście, zarówno granulacja, jak i supergranulacja wydają się tworzyć jako pęcherzyki zaczynające się od miejsca "zarodka", tj. centrum wypływu, a oba są wypełnieniem powierzchni. Łaty magnetyczne pierwotnie pojawiają się w dwubiegunowych efemerycznych regionach wewnątrz komórek supergranulacji, a następnie są transportowane do granic komórek supergranulacji, gdzie pozostają ograniczone. Ruch stężeń magnetycznych można opisać za pomocą losowego spaceru w odpowiedzi na ciągle ewoluujące ruchy konwekcyjne. W skali granulacji ziarniste buforowanie powoduje, że stężenia magnetyczne poruszają się w losowym spacerze z typowymi długościami kroków równymi promieniowi granulatu (R ≃ 0,5 Mm) i krokami czasowymi równymi czasowi życia granulatu (T ≃ 10 min). Wzory przepływu przez komórki supergranulacji przetrwają dłużej niż pojedyncze przepływy granularne na małą skalę, tak że łatki są ostatecznie zbierane w granicach supergranularnych przez odpływy supergranularne. Następnie przemieszczają się wzdłuż tych granic i w ten sposób zarysowują granice supergranularne. Można to zaobserwować zarówno dla sieci chromosferycznej na filtrogramach Ca II K i obrazach ultrafioletowych o wysokiej rozdzielczości, jak i na magnetogramach fotosferycznych. Wzdłuż granic supergranularnych pole magnetyczne wydaje się skoncentrowane w łatkach o średniej zawartości strumienia magnetycznego 2,5 × 1018 Mx (Mx, Maxwell = 10
Właściwości dynamiczne
Dokładna współprzestrzenność między siecią chromosferyczną a polem magnetycznym fotosfery oraz zależność potęgowa między jasnością sieci a pozorną gęstością strumienia (głównie mierząca gęstość przestrzenną rurki strumienia) silnie sugerują, że mechanizm ogrzewania zdominowany magnetycznie działa w lub wzdłuż rurek strumienia kilogaussowego, które tworzą sieć (CHROMOSFERA: MECHANIZMY OGRZEWANIA). Jednak wiele prób nie znalazło modów falowych, które zdradzałyby transfer energii kinetycznej z fotosfery, gdzie rurki strumienia są uderzane przez przepływy ziarniste, aż do wysokości chromosferycznych, gdzie rozpraszanie fal mogłoby przyczynić się do ogrzewania, które jest wymagane do wyjaśnienia obserwowanej jasności. Jak dotąd wszystkie badania oscylacji sieci zidentyfikowały jedynie dość wolne okresy, 5 minut lub dłuższe. Wynik ten stoi w ostrym kontraście z falami akustycznymi trwającymi około 4 do 2 minut, które są wszechobecne w regionach sieci. Nie jest nawet jasne, czy obserwowane powolne modulacje opisują tryby falowe (takie jak łamanie wewnętrznych fal grawitacyjnych), czy też po prostu losowe ruchy wymuszone przez kołysanie się punktu stopy. Tak więc rzeczywisty mechanizm, dzięki któremu plamy sieciowe są jasne, choć niewątpliwie wynika to z fizyki dynamicznej rury strumieniowej, nie został jeszcze zidentyfikowany.
Chromosfera: Spikule
Już w 1877 r. ojciec Secchi opisał przypominające dżety, wydłużone struktury w chromosferach słonecznych, które Walter Orr Roberts w 1945 r. nazwał spikule. Obserwuje się je w optycznych liniach emisyjnych chromosfery wodoru (szczególnie linia 656 nm Hα), zjonizowanego wapnia (szczególnie linie 393 nm i 397 nm H i K) oraz liniach helu (szczególnie linie neutralnego helu 588 nm i 1083 nm). Rysunek przedstawia serię obrazów CHROMOSFERY wykonanych przy różnych długościach fal w linii H?, pokazujących struktury spikularne.
Z wyjątkiem najniższych wysokości nad krawędzią Słońca, do 1500 km, spikule są wyraźnie widoczne. Typowe właściwości spikuli to: szerokość 900 km, średnia wysokość 8000 km, czas życia 15 min, prędkości pozorne 25 km s-1. Z obrazów takich jak ten na rysunku można wyprowadzić przestrzenne właściwości chromosfery i jej strukturę. Większość lub cała emisja chromosferyczna w tych liniach wydaje się pochodzić ze spikuli, więc można uczciwie powiedzieć, że chromosfera słoneczna, przynajmniej na wysokościach przekraczających 1500 km nad fotosferą, składa się z materiału spikularnego. Spadek średniej jasności chromosfery wraz z wysokością jest wynikiem spadku jasności poszczególnych spikuli i liczby spikuli wraz z wysokością. Obserwując linię Hα, linię najczęściej używaną, obserwujemy średnią wysokość spikuli wynoszącą 8000 km, nieco mniej w pobliżu równika słonecznego, więcej na biegunach. Należy jednak zauważyć, że ich górna granica nie jest dobrze zdefiniowana, więc obserwowana wysokość zależy od warunków obserwacji. Pojedyncze spikule mogą sięgać znacznie wyżej, a obserwowane wysokości przekraczają 10 000 km. W literaturze można znaleźć odniesienia do tak zwanych "super-spikuli", zwłaszcza w dyskusji na temat obserwacji krawędzi Słońca wykonanych w liniach dalekiego ultrafioletu, takich jak linia zjonizowanego helu przy 30,4 nm. Super-spikule są znacznie większe niż spikule; są to struktury, które pod względem swoich właściwości znajdują się pomiędzy spikułami a przejściowymi protuberancjami słonecznymi (SURGES). Nie są one uwzględnione w niniejszym kontekście, zostaną krótko omówione na końcu tej sekcji. Obserwowana szerokość spikuli wynosi średnio 900 km, co jest prawdopodobnie górnym limitem, ponieważ nie jest korygowana pod kątem efektów obrazowania atmosfery Ziemi
Dynamika
Dynamika spikuli jest najbardziej interesująca. Na początku wyglądają jak "gejzery" w tym sensie, że następuje wznoszący się strumień materiału z prędkościami dochodzącymi do 25 km s-1M trwający około 5 minut, ale ze ścieżką, która jest często nachylona względem lokalnego kierunku pionowego. Po osiągnięciu typowej maksymalnej wysokości 9000 km w ciągu 5 minut wyrzut ustaje. Następuje zanik jasności spikuli lub powrót emitującego materiału do fotosfery. Podsumowując, znacznie więcej spikuli wydaje się unosić niż opadać. Całkowity cykl życia tych, które opadają, wynosi około 15 minut. Ponieważ materiał spikularny jest w dużej mierze zjonizowany, ruchy mają tendencję do podążania za kierunkiem linii pola magnetycznego. Orientacje i ruchy spikularne są zatem dobrym przybliżeniem wzoru struktury pola magnetycznego w tej części atmosfery słonecznej. Bezpośrednie pomiary natężenia pola magnetycznego za pomocą efektu Zeemana lub prawdopodobnie efektu Hanlego nie są jeszcze dostępne . Chociaż występują znaczne czasowe i lokalne zmiany przestrzenne w orientacjach, istnieją wyraźne zmiany w średnich orientacjach kierunków kolców, a zatem pól magnetycznych, wraz z szerokością geograficzną Słońca. W pobliżu równika słonecznego orientacje, chociaż średnio pionowe, różnią się znacznie od kolca do kolca. W pobliżu biegunów orientacje są bardziej jednolite, głównie zbliżone do pionowych, ale czasami systematycznie pochylone. W regionach polarnych nachylenie wydaje się podążać za orientacjami pióropuszy koronalnych. Ze względu na systematyczne zachowanie grupowe kolców w tym miejscu, wzory te są czasami określane jako konfiguracje "jeżozwierza" lub "pola pszenicy". Astronomowie zawsze obawiają się, że pozorne ruchy widoczne w filmach, takich jak te w chromosferze Hα, mogą nie odpowiadać rzeczywistym ruchom. Pozorne ruchy mogą wynikać z innych efektów, takich jak zmiany czasowe w warunkach wzbudzenia atomowego. Jedynym sposobem sprawdzenia realności ruchów jest obserwacja przesunięcia Dopplera linii widmowej. Jest to jednak trudna rzecz do zrobienia, ponieważ pozorne "właściwe ruchy" występują w płaszczyźnie nieba, podczas gdy przesunięcie Dopplera odpowiada ruchom w linii wzroku. Porównanie jest zatem statystyczne i wymaga znajomości różnych nachyleń spikuli. Dotychczasowe obserwacje, uwzględniające te rozważania, rzeczywiście wykazały, że pozorne ruchy są rzeczywistymi ruchami materialnymi. Przesunięcia Dopplera wydają się różnić w zależności od spikuli, co powoduje przechylenie linii emisyjnych widma. Te zmiany są często interpretowane w kategoriach obrotu spikuli.
Właściwości fizyczne
Oprócz informacji o prędkościach, analiza widmowa emisji spikularnej dostarcza ważnych informacji o warunkach fizycznych w spikulach. Obserwacje widmowe są dostępne w wielu różnych liniach: liniach Balmera wodoru (Hα do Hε), liniach neutralnego helu (linia D3 przy 588 nm, linia 1083 nm) i liniach zjonizowanego wapnia przy 393, 397, 850 i 854 nm). Obserwowana emisja tych linii wskazuje na temperatury w okolicach 15 000 K, prawdopodobnie niższe (<10 000 K) na wysokościach poniżej 2000 km, a gęstości elektronów maleją z 1,5×1011 cm-3 przy h = 2000 km do 3×1010 cm-3 przy h = 10 000 km. Na niższych wysokościach kolce są osadzone w tym, co zwykle nazywa się obszarem przejściowym chromosfera-korona. Na większych wysokościach są osadzone w samej KORONA o milionie stopni, ale musi istnieć lokalny obszar przejściowy między każdą kolcem a tą koroną. Nic nie wiadomo o tych lokalnych obszarach przejściowych. Przyszłe obserwacje o wysokiej rozdzielczości z kosmosu linii emisyjnych o wyższej temperaturze w ultrafiolecie (na przykład linie CIV przy 155 nm i można oczekiwać, że linia Lyα helu przy 30,4 nm wyjaśni to). Ciśnienie elektronów w spikulach na wysokości 8000 km wynosi 0,09 dyn cm-2 w porównaniu do 0,02 dyn cm-2 w otaczającej koronie. Różnica jest na tyle duża, że może być rzeczywista, wskazując prawdopodobnie na znaczne nadciśnienie w spikulach chromosferycznych. Ponadto z szerokości linii widmowych w spikulach można wyprowadzić nietermiczne poszerzenie o około 20 km s-1, z czego część może skutkować ciśnieniem turbulentnym. Izolowane pole magnetyczne o natężeniu zaledwie 1G powoduje ciśnienie magnetyczne o natężeniu 0,04 dyn cm-2, co stanowi zmianę o 1 G w średnim polu, na przykład 12 G w zmianie o 1 dyn cm-2. Poza ukierunkowaniem ruchu spikularnego, dla których pole musi być znacznie większe niż 1 G, zmiany pola magnetycznego między spikulą a otaczającą koroną muszą być mniejsze niż 1 G, przy czym zmiany natężenia pola magnetycznego, jeśli występują, są mniejsze w spikulach. Ta wrażliwość równowagi ciśnień na niewielkie zmiany natężenia pola magnetycznego wskazuje również na duże efekty, jakie pole magnetyczne może mieć na dynamikę spikul. Istnieje całkiem duża liczba modeli teoretycznych dotyczących pochodzenia spikul, wszystkie obejmujące efekty pola magnetycznego. Ze względu na podobieństwo ich wymiarów do wymiarów komórek konwekcyjnych słonecznych, które są obserwowane na powierzchni Słońca jako GRANULACJA, oraz ze względu na podobieństwo wskaźników narodzin spikul i granulek w obrębie wyższych stężeń pola magnetycznego obserwowanych na granicach supergranuli słonecznych (patrz dalej w tej sekcji), zasugerowano, że spikule są wynikiem oddziaływań konwekcji i pola magnetycznego. Oczywiste jest, że potrzebne są ulepszone obserwacje widm i obrazów spikul, w tym obserwacje o wyższej rozdzielczości przestrzennej ich prędkości i, jeśli to możliwe, pól magnetycznych. Również obserwacje spiculi obserwowane w projekcji na tarczę słoneczną są bezcenne. To jest główny temat poniższej dyskusji.
Wygląd na tle tarczy słonecznej
Podczas obserwacji struktur takich jak PROMINENCE lub spikule w wyższej atmosferze słonecznej na tle tarczy słonecznej, struktury te można zobaczyć jako ciemne cechy w absorpcji lub jako jasne struktury w emisji. Takie struktury są ciemne, gdy ilość promieniowania tła z tarczy słonecznej, która jest absorbowana, jest większa niż ilość emitowana przez samą strukturę. Stosunek emisji do współczynnika absorpcji w strukturze jest określany jako "funkcja źródłowa" struktury lub w skrócie S. Struktura jest jasna, gdy S przekracza intensywność tła I, ciemna, gdy jest mniejsza. Kontrast zależy od grubości optycznej ?, tak że różnica intensywności I od tła jest równa: ΔI = (I - S)(1- e-τ ). Ten prosty model widoczności struktur pokrywających jasne tło słoneczne jest często określany jako "model chmur". Ten sam model w rzeczywistości obowiązuje dla chmur ziemskich i dla każdej innej podobnej konfiguracji w dowolnym miejscu. W przypadku warunków panujących w atmosferze słonecznej funkcję źródłową Scan należy przyjąć jako niezależną od długości fali i kierunku. Intensywność tła jest funkcją długości fali (Hα jest silną linią absorpcyjną Fraunhofera) i położenia na tarczy słonecznej (ciemnienie krawędzi słonecznej). Dlatego też jest całkiem prawdopodobne, że znak kontrastu spikuli widzianych w projekcji na tarczę słoneczną zmienia się wraz z położeniem w linii Fraunhofera i położeniem dysku. Biorąc pod uwagę warunki fizyczne w spikulach opisane wcześniej, można by się spodziewać, że spikule będą ciemne, gdy są widziane w skrzydłach linii przez większość tarczy słonecznej. W pobliżu jądra linii H i na skrajnym brzegu można spodziewać się jasnych struktur kontrastowych. Tuż przy krawędzi słonecznej, gdzie jasność dysku szybko spada i faktycznie zanika poza krawędzią, oczekiwane zachowanie kontrastu spikuli jest bardzo złożone. Dlatego też bardzo trudno jest prześledzić spikule z zewnątrz krawędzi z powrotem na tarczę słoneczną, aby jednoznacznie bezpośrednio zidentyfikować struktury dysku ze spikulami. Jednakże powszechnie przyjmuje się, że ciemne, wąskie, wydłużone "plamki" widoczne na monochromatycznych obrazach na skrzydłach linii Hα należy identyfikować z chromosferycznymi spikulami w projekcji na tarczę słoneczną. Termin (1- e-τ ) w modelu chmur jest również zależny od długości fali, ponieważ optyczna grubość τ jest. Nie wpływa to na znak kontrastu, tylko na jego wielkość. Biorąc pod uwagę tę identyfikację spikul widzianych na tle tarczy słonecznej, można określić szereg innych ważnych parametrów. Jjasno wynika, że spikule nie są równomiernie rozmieszczone na tarczy słonecznej. Znajdują się one w tak zwanej sieci chromosferycznej, która graniczy z komórkami ziarnistości fotosferycznej. Chociaż szacuje się, że na Słońcu jest około 10 razy mniej spikuli niż granulek, gęstość granulek i spikuli, a także ich współczynnik urodzeń w obrębie tych obszarów sieci są porównywalne. Sugeruje to fizyczny związek między strukturą granulacji a występowaniem spikuli w tych regionach, przy czym dobrze znane lokalne wzmocnienie pola magnetycznego Słońca w tych elementach sieci o około 100 G niemal na pewno odgrywa ważną rolę. Jednak próby ustanowienia takiego połączenia obserwacyjnego do tej pory nie powiodły się. Podejrzewa się, że ograniczona rozdzielczość przestrzenna i prawdopodobnie spikule pochodzące znacznie powyżej fotosfery mogą być przyczyną tych nieudanych prób. Ale może być oczywiście tak, że nie ma takiego połączenia ani z samymi granulkami, ani z pasami międzyziarnowymi.
Rola spikuli
Jaką rolę odgrywają spikule w odniesieniu do innych aspektów słonecznych? Na podstawie parametrów fizycznych łatwo oszacować strumień energii kinetycznej i strumień masy w połączonych spikulach. W poruszających się ku górze spikulach strumień energii kinetycznej jest pomijalny w porównaniu z innymi transferami energii do i z korony. Jest to czynnik 100 mniejszy niż na przykład straty energii przewodzącej w dół od korony słonecznej. Strumień masy to zupełnie inna sprawa. W fazie poruszającej się ku górze strumień masy spikuli przewyższa utratę masy korony słonecznej przez WIATR SŁONECZNY o dwa rzędy wielkości. W tym sensie spikule mogą być szerszym zainteresowaniem, a nie być zjawiskiem o znaczeniu jedynie lokalnym. Nie istnieje powszechnie akceptowany model magnetohydrodynamiczny dla spikuli. Zaproponowano szereg modeli wykorzystujących różnorodne mechanizmy fizyczne, w tym różne rodzaje zjawisk falowych, niestabilności, rekoneksję magnetyczną itp. w oparciu o prędkość i pola magnetyczne związane na przykład
z granulkami i supergranulkami. Wszystkie one twierdzą, że wyjaśniają wiele obserwowanych właściwości spikuli. Aby odróżnić te modele, konieczne będą ulepszone obserwacje spikuli. Nowe narzędzia, takie jak optyka adaptacyjna do Słońca i obserwacje UV o wysokiej rozdzielczości, które prawdopodobnie będą dostępne w niedalekiej przyszłości, prawdopodobnie wyjaśnią sytuację. Istnieją większe struktury widoczne szczególnie dobrze w liniach ultrafioletowych, takich jak linia He+ Lyα przy 30,4 nm, które są podobne w zachowaniu do spikuli. Są one określane jako "super-spikule" i są najczęściej widoczne na wysokich szerokościach geograficznych Słońca. Próby powiązania tych struktur z obrazami H? chromosfery i protuberancji nie powiodły się. Czasami wyjątkowo długie spikule w Hα są również widoczne w regionach polarnych Słońca. Zostały nazwane "makro-spikule". Niewiele wiadomo na temat zachowania i pochodzenia tych większych struktur.
Chromosfera: Bifurkacja termiczna
Bifurkacja termiczna odnosi się do istnienia "chłodnych chmur" gazu (T < 3500 K) na dużych wysokościach w atmosferze słonecznej, w obrębie tego, co uważano za jednolicie gorącą (T ∿ 7000 K) CHROMOSFERĘ. Odnosi się również do niestabilności chłodzenia, promowanej przez cząsteczki tlenku węgla, która działa w miejscach, w których mechaniczne ogrzewanie chromosfery jest słabe. Chłodne chmury odkryto dzięki anomalnemu zaciemnieniu silnych linii absorpcyjnych CO o długości 4,7 μm w pobliżu skrajnego brzegu; po raz pierwszy rozpoznano je na początku lat 70. XX wieku, a ostatnio potwierdzono w zaskakujących emisjach poza brzegiem pasm podczerwonych CO. Ponieważ tlenek węgla jest zarówno głównym czynnikiem diagnostycznym chłodnego gazu, jak i możliwym czynnikiem przyczyniającym się do jego powstawania, niskotemperaturowe wypukłości do chromosfery zostały uznane za "COmosferę". Podstawowa przyczyna chłodnego gazu i to, jaką część objętości niskiej chromosfery może on zajmować, pozostają kontrowersyjne.
Tło
Na początku lat 70. R W Noyes i D N B Hall zgłosili dziwnie obniżone temperatury jasności absorpcji tlenku węgla w widmach podczerwonych (4,7 μm) wykonanych blisko krawędzi tarczy słonecznej. "Chłodne rdzenie" linii CO - tak niskie jak 3700 K - były zaskakujące, ponieważ były tak chłodne, jak najniższe temperatury, jakie uważano za występujące w PLAMACH SŁONECZNYCH, prawdopodobnie najchłodniejszych cechach atmosfery słonecznej. Noyes i Hall zauważyli również uderzające wahania intensywności linii CO w podczerwieni, prawdopodobnie w zgodzie z kompresjami wysokościowymi i rozrzedzeniami spowodowanymi przez globalne oscylacje trybu p. W tym czasie rozwinęła się kontrowersja, czy minimalna temperatura u podstawy inwersji temperatury chromosfery była tak wysoka jak 4400-4500 K wskazywane przez Ca II 393 nm i Mg II 279 nm, czy też 4200 K sugerowane przez natężenia kontinuum zarówno w obszarach dalekiego ultrafioletu, jak i submilimetrowych. Podczas debaty Tmin, ciekawe odkrycie Noyesa i Halla zostało odrzucone jako nieistotna osobliwość. Sami autorzy przypisywali ciemne jądra silnych linii CO efektowi związanemu z wąskimi, chłodnymi pasami subdukcji wzoru granulacji fotosfery. W wielu umysłach anomalie temperatur CO były zatem związane z małoskalowym zjawiskiem SŁONECZNEJ FOTOSFERY, o wątpliwym znaczeniu dla globalnej atmosfery, a z pewnością nie dla nadległej chromosfery. Pod koniec lat 70. XX wieku w Kitt Peak uruchomiono nowy, potężny przyrząd optyczny i podczerwony - spektrometr transformaty Fouriera (FTS) o długości fali 1 m. Debata na temat Tmin ponownie rozbudziła zainteresowanie alternatywnymi sposobami śledzenia rozwarstwienia termicznego zewnętrznej fotosfery. T.R. Ayres (zwolennik "gorącego" Tmin) i L Testerman ponownie przyjrzeli się anomalnemu zachowaniu skrajnych krawędzi linii CO, przekonani, że pomiary FTS o wysokiej precyzji doprowadzą pasma CO v = 1 do zgodności z innymi proxy Tmin. Jednak Ayres i Testerman nie tylko potwierdzili wcześniejszy wynik Noyesa i Halla, ale także doszli do wniosku, że anomalię CO można wyjaśnić w najbardziej naturalny sposób, dodając nową warstwę do atmosfery słonecznej; wszechobecny zimny składnik nakładający się na dolne partie tradycyjnej gorącej chromosfery. Równocześnie Ayres zaproponował wyjaśnienie nietypowego chłodnego gazu wysokogórskiego. Jego mechanizm "bifurkacji termicznej" był rozwinięciem kluczowej roli radiacyjnego chłodzenia powierzchni CO - czegoś w rodzaju odwróconego efektu cieplarnianego - pierwotnie opisanego niezależnie przez T. Tsuji i HR Johnsona w kontekście fotosfer czerwonych olbrzymów. Pomysł jest następujący. Przejścia wibracji-rotacji CO bardzo wydajnie zamieniają energię zderzeń gazu na fotony podczerwone. Te fotony, które uciekają z tego obszaru, zabierają energię cieplną i w ten sposób chłodzą gaz. Gdy w zewnętrznych warstwach fotosfery występuje niewielkie lub żadne mechaniczne ogrzewanie, silne chłodzenie powierzchni w pasmach CO o długości 4,7 μm powoduje przejście gazu do stanu niskiej temperatury, równoważąc łagodne ogrzewanie w kontinuum H? (optycznie cienka absorpcja głównie widocznych fotonów z tła pola promieniowania fotosfery). Jeśli jednak na niewielką składową radiacyjną zostanie wprowadzona niewielka ilość mechanicznego ogrzewania, gaz się ogrzeje, a cząsteczki CO zaczną się dysocjować. Utrata CO zmniejsza chłodzenie, co prowadzi do dodatkowego ocieplenia i dalszej dysocjacji. Następujący po tym termiczny niepokój ("katastrofa grzewcza") zatrzymuje się dopiero powyżej około 6000 K, gdzie częściowa jonizacja wodoru uwalnia wystarczającą ilość elektronów, aby zderzając się pobudzić wysokotemperaturowe gatunki chłodzące, takie jak Ca+ i Mg+. Jeśli następnie mechaniczne ogrzewanie zostanie usunięte, gaz najpierw ochładza się do temperatury granicznej H? (∿4900 K), w którym to momencie zaczyna się tworzyć CO, co dalej chłodzi gaz; tworzy się więcej CO itd., co prowadzi do "katastrofy chłodzącej", która przywraca region do niskotemperaturowej gałęzi "rozwidlonego" bilansu energetycznego. W tym ujęciu zewnętrzna atmosfera Słońca może istnieć w dwóch dość różnych stanach termicznych - jeden zimny, drugi gorący - w zależności od ilości lokalnie zdeponowanej energii mechanicznej. Mechanizm rozgałęzienia termicznego naturalnie działa tylko na dużych wysokościach; gdy pasma CO v = 1 staną się optycznie grube, fotony podczerwone są uwięzione w regionie źródłowym, a chłodzenie radiacyjne jest silnie tłumione. Na obrazie bifurkacji termicznej klasyczna gorąca chromosfera jest ograniczona do małych przegrzanych struktur skąpanych w wszechobecnej chłodnej warstwie wysokogórskiej blisko równowagi radiacyjnej.
Interfejs fotosfera-chromosfera
Klasyczny obraz, zilustrowany na lewym panelu, to warstwowanie równoległe do płaszczyzny; hierarchia odrębnych warstw, kontrolowana przez różne budżety energii, ale przez którą temperatura przebiega płynnie. Warstwowa atmosfera przedstawia zidealizowaną odpowiedź hydrostatycznie rozwarstwionego gazu, w którym mechaniczne ogrzewanie jest równomierne poziomo i zmienia się powoli wraz z wysokością. Kluczowe warstwy i ich wzajemne powiązania opisano w innym miejscu w tym tomie. Nowy paradygmat - struktury - zilustrowano po prawej stronie rysunku . Nie jest on wcale nowy, ale istniał w tej czy innej formie od czasu, gdy pierwsze zdjęcia chromosfery i korony o wysokiej rozdzielczości przestrzennej zostały wykonane dziesiątki lat temu. Zbiór pól magnetycznych - zorganizowanych w hierarchię pętlopodobnych cech - stanowi KORONĘ. Jej spód kończy się baldachimem, zajmującym to, co wcześniej nazywano górną chromosferą. Sam baldachim jest dalej zakorzeniony głównie w sieci supergranulacji przez smukłe lejkowate rurki strumieniowe. Przenikają one w dół przez fotosferę do strefy konwekcyjnej, ostatecznie łącząc się z głębokim obszarem źródłowym strumienia magnetycznego. Interakcje między splątanymi polami w i nad baldachimem powodują lokalne zdarzenia wybuchowe śledzone przez strumienie o dużej prędkości w liniach dalekiego ultrafioletu. Większość emisji "chromosferycznej" powstaje w baldachimie, przeplatana ciepłym gazem o dużych kontrastach gęstości poziomej. Dodatkowe wkłady pochodzą z przedłużeń rur strumieniowych w dół, które są najwyraźniej gorętsze niż otaczające "ciche" medium przynajmniej do środkowej fotosfery. Trzeci składnik powstaje z błysków komórek u podstawy baldachimu. Te przejściowe zdarzenia są powszechnie widoczne we wnętrzach komórek supergranulacji. Uważa się, że są one spowodowane przez skierowane na zewnątrz zaburzenia akustyczne, które stają się strome i tworzą wstrząsy na dużych wysokościach. Baldachim jest wszechobecny, a jego prążki gęstości można prześledzić na filtrogramach Hα. Składniki błysku komórkowego i tuby strumienia na małej wysokości są zwarte, co powoduje powstawanie odpowiednio przejściowych i trwałych jasnych punktów na spektroheliogramach Ca K 393 nm. Pomiędzy górną fotosferą (h ∿ 500 km) a podstawą baldachimu (h ∿ 1000 km) znajduje się COmosfera, wspomniana wcześniej chłodna strefa, zastępująca to, co historycznie określano jako niską chromosferę. Istotne aspekty zjawiska bifurkacji termicznej zostały zweryfikowane pod koniec lat 80. w serii modeli ab initio atmosfer słonecznych skonstruowanych przez L. Andersona i R. G. Athaya. Autorzy odkryli, że bardzo niskie temperatury (T < 3000 K) są możliwe na dużych wysokościach (gdzie dominuje chłodzenie CO); strefa chłodzona CO może przetrwać w obliczu niskiego poziomu mechanicznego ogrzewania, ale znika nagle, gdy ogrzewanie przekroczy poziom krytyczny. Jednocześnie symulacje radiacyjne 2D hydrodynamiczne konwekcji z chłodzeniem CO na dużych wysokościach, przeprowadzone przez M. Steffena i .D Muchmore′a, wykazały również, że silna emisja powierzchniowa w pasmach Δv = 1 może utrzymać zimną (T ≾ 3000 K), poziomo jednorodną warstwę powyżej klasycznego Tmin w obliczu fluktuującego pola promieniowania ziarnistego i przestrzelenia. Poza Słońcem mechanizm bifurkacji termicznej został rozpoznany jako jeden aspekt bardziej ogólnego zjawiska autokatalitycznych "katastrof chłodzenia molekularnego". Działają one w różnych środowiskach kosmicznych; na przykład napędzając fragmentację i zapadanie się obłoków molekularnych lub tworząc ziarna krzemianowe w rozdętych zewnętrznych otoczkach czerwonych nadolbrzymów.
Aktualne badania
W 1992 roku, zainspirowane rosnącym zainteresowaniem fizyką słoneczną w podczerwieni - nie tylko kontrowersją wokół CO, ale także głównymi korzyściami dla badań pola magnetycznego - Narodowe Obserwatorium Słoneczne (NSO) zainstalowało dużą kratę podczerwieni w 13,8-metrowym głównym spektrografie 1,5-metrowego teleskopu McMath-Pierce. Krata mozaikowa, jedna z największych na świecie, została uratowana z wycofanego z użytku poziomego spektrografu podczerwieni, w którym Noyes i Hall przeprowadzili swoje pionierskie obserwacje pasm CO 4,7 μm dwie dekady wcześniej.
Emisje poza granicami
W kwietniu 1993 r., w dniu szczególnie dobrej widoczności podczas testów inżynieryjnych na nowo odnowionym spektrografie, W Livingston z personelu NSO odkrył niezwykłe emisje poza granicami linii CO. Granica odpowiada punktowi na rzutowanym dysku Słońca, w którym linia widzenia staje się przezroczysta w kontinuum; w ten sposób intensywność tła zanika. Linie CO mogą emitować poza "krawędzią" kontinuum, jeśli nadal są optycznie grube wzdłuż ścieżki promienia: promieniujące cieplnie - choć chłodne - linie CO świecą na tle zasadniczo ciemnego nieba. (Na dysku blask gorącego promieniowania kontinuum powoduje, że chłodne jądra CO pojawiają się w "absorpcji"). Obserwacja wykazała bezpośrednio, że gaz cząsteczkowy musi występować znacznie powyżej wysokości, na której konwencjonalne modele umieszczają inwersję temperatury chromosfery; symulacje sugerują, że chłodny gaz występuje prawdopodobnie do 1000 km. Rysunek 2 przedstawia emisje poza granicami w obszarze 4,67 ?m. Obserwacje uzyskano rano 9 maja 1996 r. przy bezchmurnym niebie i umiarkowanie dobrej widoczności. Zostały one pozyskane za pomocą systemu kamery kriogenicznej z długą szczeliną, który zastąpił skaner jednokanałowy używany przez Livingstona. Szczelina spektrografu została umieszczona w poprzek północnego brzegu, prostopadle do niego. Rysunek przedstawia współaddycję pięciu najostrzejszych spektrogramów z serii 1000 krótkich ekspozycji.
Współaddycyjna klatka została podzielona przez średni ślad widmowy na dysku w celu znormalizowania intensywności i stłumienia absorpcji z atmosfery Ziemi. Linie CO to pagórki emisji, rozciągające się poza jasną krawędź kontinuum, na rysunku (góra); każdy "wypukły" odpowiada pojedynczemu przejściu CO, wszystkie obserwowane jednocześnie, w tym samym punkcie brzegu. Rysunek (dół) przedstawia rozszerzenia translimb, mierzone bin po bin w całym widmie; "0" odnosi się do widocznej krawędzi kontinuum. Chociaż maksymalne przemieszczenia w rdzeniach najsilniejszych linii CO (∿0,7 ) stanowią jedynie połowę efektywnej rozdzielczości instrumentalnej (z powodu widzenia, dyfrakcji i rozpraszania), można je dokładnie zmierzyć w odniesieniu do kontinuum. (W ten sam sposób, w jaki maleńkie paralaksy - setne części sekundy łuku - można zmierzyć na płytkach o rozdzielczości przestrzennej nie lepszej niż 1 sekunda łuku). Emisje CO poza gałęzią gromadzą się wzdłuż ogromnej długości ścieżki przez niską chromosferę. Mówią nam bezpośrednio, że gdzieś wzdłuż linii widzenia znajduje się jakiś chłodny gaz, ale nie gdzie ani ile. Kluczowym pytaniem jest, jak szeroko rozpowszechniony jest naprawdę chłodny gaz.
Mapy powierzchniowe temperatury i prędkości
Dzięki sekwencyjnemu przesuwaniu teleskopu McMath-Pierce, nowy system kamer z długą szczeliną pozwala na zbudowanie map pasmowych kluczowych parametrów linii CO: centralnej intensywności absorpcji (związanej z temperaturą powierzchni), przesunięcia Dopplera (miara prędkości w linii wzroku) i poszerzenia linii (śledzenie lokalnej turbulencji). Skanowanie przestrzenne można wykonywać wielokrotnie, aby tworzyć "filmy". Pierwsze użycie nowego systemu do obrazowania widmowego CO nastąpiło w październiku 1993 r. przez H. Uitenbroeka, R. Noyesa i D. Rabina. Dodatkowe mapowanie termiczne i prędkości CO zostało przeprowadzone przez T. Ayresa i D. Rabina następnej wiosny. Oba badania wykazały, że widoczna mozaikowa kołdra przestrzennych zmian jasności CO jest związana głównie ze wzorem interferencji oscylacji, szczególnie na dużych wysokościach (tj. w silnych liniach CO). Od czasu do czasu obserwowano trwałe "jasne punkty" CO, pokrywające się z fragmentami sieci Ca K (obszary silnego pola magnetycznego rozmieszczone wzdłuż punktów stagnacji dużego poziomego wzoru przepływu supergranulacji). W żadnym z badań nie znaleziono dowodów na znaczną populację bardzo ciemnych punktów. Ten brak ogranicza alternatywne wyjaśnienia anomalnego ściemnienia krawędzi pasm CO.
Jak powszechny jest chłodny gaz?
Aby odtworzyć skrajne ściemnienie krawędzi i emisje poza krawędzią rdzeni linii CO, wymagany jest albo (1) chłodny materiał o wysokim współczynniku wypełnienia (powiedzmy ∿80%) na dużych wysokościach, albo (2) mniejsza frakcja pokrycia (powiedzmy ∿20%) znacznie zimniejszych struktur. W pierwszym przypadku zachowanie intensywności jest kontrolowane wszędzie przez wszechobecny chłodny składnik, a obraz patrzący prosto w dół na powierzchnię Słońca powinien wydawać się stosunkowo łagodny i bez cech charakterystycznych, poza stosunkowo niewielkimi fluktuacjami spowodowanymi wzorem trybu p. W drugim przypadku izolowane zimne, ale poprzecznie nieprzezroczyste "filary" dominują tylko w pobliżu krawędzi, gdzie skutecznie "zacieniają" wszelkie gorące struktury (te ostatnie są naturalnie przezroczyste w CO). W centrum dysku jednak zimne obszary (z T ∿1000 K) powinny ukazywać się jako małoskalowe "ciemne plamy" ze współczynnikiem wypełnienia ∿20%. Jak dotąd - w ramach stałej rozdzielczości kilku sekund łuku spotykanej w dobrych warunkach w Kitt Peak - nie zaobserwowano niczego, co choć trochę przypominałoby oczekiwane rozsypywanie ciemnych punktów. Przeciwny scenariusz - wszechobecna COmosphere - wydaje się zatem bardziej obiecujący.
Dynamiczna COmosfera?
Alternatywny pogląd na COmosferę zaproponowali M. Carlsson i R. F. Stein. Jednowymiarowe symulacje radiacyjno-hydrodynamiczne sugerują, że zakres wysokości 500-1000 km może znajdować się w ciągle ewoluującym stanie termicznym z powodu przejścia stromych ciągów fal akustycznych z dołu. Przy tak niskich gęstościach skale czasowe formowania chemicznego CO są długie. Populacja cząsteczkowa nie może reagować na chwilowe zaburzenia temperatury, ale zamiast tego osiąga równowagę opartą na średnim czasowo profilu termicznym (dość chłodnym w modelu Carlssona i Steina). Takie ustalone tło CO, występujące w zmieniającym się środowisku termicznym, może być w stanie wyjaśnić emisje poza krawędzią i ekstremalne zaciemnienie krawędzi linii podczerwonych Δv = 1. Jednocześnie można by zarejestrować znaczące uśrednione w czasie sygnatury ultrafioletowe z tej samej objętości przestrzennej (głównie z pików o wysokiej temperaturze, ze względu na wykładniczą wrażliwość emisji termicznej (funkcja Plancka) przy krótkich długościach fal). Drugie wyjaśnienie dynamiczne zaproponowali H Uitenbroek i R Noyes. Sugerują, że COmosfera jest produktem ubocznym ekspansywnego chłodzenia konwekcyjnych granulek, które przelatują przez stabilne warstwy wysokiej fotosfery. Obserwacyjne konsekwencje tych propozycji powinny być dalej badane. Ponadto chemia CO (i chłodzenie) powinny zostać uwzględnione w symulacjach dynamicznych.
Implikacje
Ostatecznie COmosfera jest najprawdopodobniej stosunkowo pasywną strefą zewnętrznej atmosfery, w rzeczywistości jedynie zewnętrznym przedłużeniem fotosfery. Jej znaczenie przejawia się w sposobie przypisywania aktywności radiacyjnej różnych poziomów atmosfery w globalnej ocenie budżetu energetycznego. Gęstość gazu jest duża w zakresie 500-900 km w porównaniu z wyżej położoną strefą korony. Ponieważ chłodzenie radiacyjne zależy od ∿n2, zakres wysokości pośredniej odgrywa strategiczną rolę w budżecie energetycznym. Można sobie wyobrazić, że obliczenie całkowitych strat radiacyjnych (które muszą równoważyć ogrzewanie wejściowe, a zatem są jego przybliżeniem) przyniesie zupełnie inne odpowiedzi, jeśli nastąpi wzrost temperatury w tych warstwach (klasyczna chromosfera) w porównaniu ze spadkiem temperatury (COmosfera). Jeśli model termiczny jest stronniczy, możliwe są duże błędy w wnioskowanym wejściu energii mechanicznej. (Źródło ogrzewania chromosferycznego jest od dawna tajemnicą w fizyce słoneczno-gwiazdowej). Na koniec należy wspomnieć, że efekty bifurkacji termicznej są stosunkowo słabe w gwiazdach typu G, takich jak Słońce, i prawdopodobnie nie występują wśród cieplejszych typów F. Dzieje się tak, ponieważ przy krytycznym Teff, o kilkaset kelwinów cieplejszym niż temperatura słoneczna, temperatura graniczna H? staje się zbyt wysoka, aby populacja zarodkowa cząsteczek CO mogła się utworzyć i wywołać kaskadę chłodzenia. Odwrotnie, mechanizm ten staje się coraz ważniejszy w kierunku późniejszych klas widmowych, szczególnie widocznych wśród chłodnych czerwonych olbrzymów o niskiej grawitacji.
Podsumowanie
Kiedyś uważano, że rozwarstwienie atmosfery słonecznej jest dobrze zrozumiane, na podstawie bogatej diagnostyki ultrafioletowej i optycznej. Jednak w ciągu ostatnich dwóch dekad badania widm molekularnych w podczerwieni ujawniły niepokojące anomalie. Mocne linie 4,7 μm podstawowych pasm tlenku węgla wykazują bardzo chłodne temperatury jasności na skrajnym skraju i ciekawe emisje poza skrajem, wystające setki kilometrów w rzekomo gorącą chromosferę. Prosta - ale kontrowersyjna - propozycja jest taka, że niska chromosfera wcale nie jest gorąca, ale zamiast tego jest przesiąknięta chłodzonymi CO "chmurami", COmosferą, jeśli wolisz.
Klasyfikacja widm gwiazdowych
Jak naukowcy podchodzą do problemu próby zrozumienia niezliczonych miliardów obiektów? Jednym z pierwszych kroków jest uporządkowanie danych i opracowanie schematu klasyfikacji, który może zapewnić najlepszy wgląd w naturę obiektów. Percepcja i wgląd są głównymi celami klasyfikacji. W astronomii, gdzie istnieją "miliardy i miliardy" gwiazd, klasyfikacja jest ciągłym procesem, a nowe odkrycia są albo włączane do schematu klasyfikacji, albo pozostają izolowane jako osobliwości warte dalszych badań. Wraz z nowymi teleskopami i nowymi detektorami otwierającymi nowe okna na wszechświat, potrzeba klasyfikacji prawdopodobnie będzie nadal stanowić niezbędny składnik postępu astronomicznego. Gdybyśmy mogli szybko podróżować między gwiazdami, najpierw zauważylibyśmy ich rozmiar, kolor i jasność powierzchni. Będąc przywiązani do Ziemi, możemy zobaczyć tylko Słońce w szczegółach, ale istnieje wiele różnych kryteriów, których możemy użyć do klasyfikowania gwiazd i innych obiektów: położenie, jasność, polaryzacja, kolor, widmo, jasność powierzchni, ruch i zmienność. Spośród nich widmo dostarcza najwięcej informacji o naturze gwiazdy. Astronomia nie jest nauką eksperymentalną, pomimo opowieści o porwaniach przez kosmitów. W przeciwieństwie do większości naukowców astronomowie są ograniczeni do obserwacji z odległości. Gwiazd i galaktyk nie można podgrzewać palnikiem Bunsena; nie można dodawać do gwiazdy substancji chemicznych, aby dowiedzieć się czegoś na temat reakcji. Eksperymenty kosmiczne się zdarzają, ale ich czas jest przypadkowy, więc obserwator musi być cierpliwy i obserwować, nie mając wyboru co do parametrów zdarzenia. Aby zmaksymalizować szanse na uchwycenie eksperymentu kosmicznego, przeprowadzono i nadal będą przeprowadzane duże badania gwiazd i galaktyk. Ze względu na tę potrzebę uporządkowania dużych zbiorów danych obserwacyjnych, W. W. Morgan z Obserwatorium Yerkes na Uniwersytecie w Chicago opracował wyrafinowaną filozofię klasyfikacji, którą nazwał "Proces MK". Co ciekawe, rozwój astronomii wyprzedził myślenie bawarskiego filozofa Ludwiga Wittgensteina na temat wykorzystania okazów w klasyfikacji (Wittgenstein 1953). Najważniejszą funkcją systemu klasyfikacji jest zapewnienie ogólnego układu odniesienia, w którym można dopasować większość badanych obiektów. Statystyki oparte na schemacie klasyfikacji mogą zapewnić potężne spostrzeżenia na temat natury rozważanych obiektów. Trendy można zaobserwować wśród normalnych obiektów, a rzadkie lub patologiczne obiekty można łatwo zidentyfikować. Izolowanie osobliwości jest również ważne w astronomii, ponieważ szczegółowe badanie osobliwych gwiazd często dostarcza nowych spostrzeżeń na temat natury i zachowania normalnych gwiazd. Klasyfikacja jest podstawą naszego zrozumienia gwiazd i EWOLUCJI GWIAZD. Oprócz opracowania ogólnego układu odniesienia i rozróżniania osobliwych widm, techniki klasyfikacji można bardzo skutecznie stosować do określania odległości do gwiazd. Chociaż metoda ta jest określana jako "paralaksa spektroskopowa", nazwa ta jest myląca, ponieważ technika ta nie wykorzystuje bezpośrednio rzeczywistej PARALAKSY trygonometrycznej. Opiera się na założeniu, że gwiazdy o podobnym widmie mają podobne podstawowe parametry. To założenie pozwala astronomom wykorzystywać pobliskie gwiazdy o dobrych paralaksach trygonometrycznych do zapewnienia kalibracji, którą można następnie zastosować do odległych gwiazd o podobnym widmie. Do niedawna umiarkowanie gorące lub duże gwiazdy, które należą do najwyraźniej najjaśniejszych gwiazd ze względu na ich wewnętrzną jasność, ale które w rzeczywistości są znacznie rzadsze na jednostkę objętości niż gwiazdy takie jak Słońce, nie miały odpowiedników wystarczająco blisko, aby technika paralaksy trygonometrycznej była skuteczna, więc opracowano metody pośrednie. Pośrednie metody obejmują wykorzystanie PODWÓJNYCH GWIAZD i GROMAD GWIAZD do bootstrappingu z powszechnych gwiazd o znanych odległościach do rzadkich gorących, WYSOKIEJ JASNOŚCI GWIAZD, przyjmując takie same odległości dla członków gromady. Korzystając z danych z satelity astrometrycznego HIPPARCOS, możliwe jest teraz rozszerzenie kalibracji odległości o współczynnik 10, co pozwala na bezpośrednie kalibracje czerwonych i żółtych olbrzymów, a także wielu gwiazd gorętszych od Słońca; jednak nadolbrzymy i najgorętsze gwiazdy nadal pozostają poza zasięgiem wysokiej jakości paralaks trygonometrycznych. Do kalibracji jasności tych rzadkich, ale jasnych gwiazd nadal stosuje się techniki dopasowania układów podwójnych i gromad. Proces stosowany do klasyfikacji polega na porównaniu nieznanego widma ze znanymi widmami dobrze zbadanych gwiazd standardowych (okazów), przy użyciu technik rozpoznawania wzorców obejmujących wszystkie cechy w widmie gwiazdowym. Gdy używa się widm dobrej jakości i nieznana gwiazda jest starannie porównywana z dobrym zestawem gwiazd standardowych, możliwe jest uzyskanie bardzo wiarygodnych i pouczających wyników. Słabe wyniki są zazwyczaj spowodowane niewystarczającą lub nieodpowiednią siatką widm gwiazd standardowych.
Historia klasyfikacji widm gwiazdowych
Ojciec ANGELO SECCHI (1818-78), astronom jezuita pracujący w latach 60. XIX wieku w Obserwatorium Watykańskim, jako pierwszy przedstawił ogólny schemat klasyfikacji widm gwiazdowych. Obserwował tysiące gwiazd za pomocą wizualnego spektroskopu i małych teleskopów (apertura 15-25 cm), ale jego obserwacje nie były fotograficzne, więc niebiesko-fioletowy obszar widma nie był widoczny, głównie dlatego, że ludzkie oko nie jest zbyt wrażliwe na głęboko niebieskie długości fal. Najchłodniejsze gwiazdy dominują w jego schemacie klasyfikacji, tworząc dwie z czterech jego klas, częściowo dlatego, że należą do najwyraźniej najjaśniejszych gwiazd w wizualnym obszarze widma, a częściowo ze względu na uderzający wygląd ich pasm molekularnych. Współcześnie jego cztery klasy to:
I. gwiazdy gorętsze od Słońca,
II. gwiazdy podobne do Słońca,
III. gwiazdy chłodniejsze od Słońca z pasmami absorpcji tlenku tytanu w żółtych i czerwonych obszarach widma oraz IV. gwiazdy chłodniejsze od Słońca z pasmami absorpcji cząsteczkowej węgla w żółtych i czerwonych obszarach widma.
Gwiazdy klasy IV można łatwo odróżnić od gwiazd klasy III po ich bardziej czerwonym kolorze, położeniu pasm i wyglądzie pasm węglowych, które zanikają w kierunku przeciwnym do pasm tlenku tytanu. Pod koniec XIX wieku Edward C. Pickering i inni zdali sobie sprawę z wagi widm fotograficznych i teleskopów z pryzmatami obiektywowymi do klasyfikowania bardzo dużej liczby gwiazd przy użyciu jednolitego schematu ze spójnymi kryteriami. Projekt "HD" w Harvard College Observatory był sponsorowany przez Henry&pirme;ego Drapera i realizowany głównie przez ANNIE JUMP CANNON, która do połowy lat dwudziestych sklasyfikowała ponad ćwierć miliona gwiazd w jednorodnym, jednowymiarowym układzie. System HD, który obecnie mniej więcej odpowiada skali temperatur współczesnej astronomii, pierwotnie opierał się głównie na sile linii wodorowych, a typy były przypisywane w kolejności alfabetycznej: A, B, C, …Później, gdy odkryto, że linie wodorowe osiągają maksymalną siłę (gwiazdy typu A) w temperaturach niższych niż w przypadku gwiazd typu B i gwiazd typu O, a także, że niektóre litery są zbędne, kolejność liter zmieniono na kolejność stosowaną obecnie dla układu odniesienia temperatury: OBAFGKM(SRN). Typy SRN są w nawiasach, ponieważ ich temperatury są równoległe do gwiazd GKM, a widma różnią się składem chemicznym, a nie temperaturą. Istnieją różne mnemoniki opracowane dla (i przez) studentów, aby pomóc zapamiętać kolejność, ale najpopularniejszą jest "Oh, Be A Fine Girl (Guy), Kiss Me Sweetly Right Now". Dr Nancy Houk z University of Michigan reklasyfikuje wszystkie gwiazdy katalogu HD w dwuwymiarowym układzie MK. Również na Harvardzie Antonia Maury wyodrębniła klasę osobliwych gwiazd, które sklasyfikowała, umieszczając małą literę "c" przed klasą temperatury. Jej ważny wgląd stał się podstawą drugiego wymiaru, który odpowiada grawitacji powierzchniowej i jest związany z jasnościami gwiazd. Zaproponowano wiele innych systemów, ale większość z nich jest przeznaczona do klasyfikacji gwiazd w określonych regionach DIAGRAMU HERTZSPRUNGA-RUSSELLA i jest wykorzystywana z korzyścią tylko w tej części diagramu HR. System BCD Barbiera, Chalonge′a i Divana, który mierzy skok Balmera bezpośrednio, jest dobrym przykładem; jest skuteczny w swoim celu, ale nie nadaje się jako ogólny układ odniesienia. Inne z różnych powodów nie uzyskały szerokiej akceptacji. System Mount Wilson opracowany przez Adamsa w latach 30. XX wieku jest innym przykładem; w tym przypadku kalibracja była używana do klasyfikacji, więc parametry zmieniały się za każdym razem, gdy wprowadzano nowy model. System Adamsa stał się bardzo uciążliwy i nieefektywny. Więcej historycznych przykładów można znaleźć w artykule Kurtza w The MK Process oraz w doskonałej historii spektroskopii autorstwa Hearnshawa 1986: The Analysis of Starlight. W Obserwatorium Yerkes Uniwersytetu Chicagowskiego w 1943 r. WW Morgan, P C Keenan i E Kellman zaproponowali system klasyfikacji widm gwiazd znany jako "system MKK". "System MK" (zrewidowany przez Morgana i Keenana w 1953 r. na podstawie MKK) jest praktycznie jedynym powszechnie używanym obecnie ogólnym układem odniesienia. Jego sukces w dużej mierze wynika z filozofii klasyfikacji opracowanej przez W W Morgana - procesu MK, którego układ MK jest podzbiorem.
System MK
Systemy klasyfikacyjne są tworzone z jakiegoś powodu. Używając konkretnego systemu, ważne jest, aby być świadomym, dlaczego został stworzony, jak został skonstruowany, jakie są jego użyteczne granice, jak ewoluował i jaką wiarygodność osiągnął. Łącznie odpowiadają one mandatowi systemu. Mandatem systemu MK jest opisanie niebiesko-fioletowego obszaru widma gwiazdy w kategoriach zestawu standardowych gwiazd, bez odwoływania się do fotometrii, teorii lub innych informacji. Wartość oddzielenia systemu MK od fotometrii i teorii początkowo polega na tym, że na styku dwóch niezależnych systemów znajdują się informacje, które są tracone, jeśli jednemu systemowi pozwoli się wpływać na drugi. Znacznie bardziej produktywne jest porównanie dwóch autonomicznych systemów, zakładając, że oba są starannie wykonane, niż deklarowanie wyższości jednego lub drugiego. Na przykład nie ma relacji jeden do jednego między fotometrią a widmem, chociaż ogólnie rzecz biorąc systemy są skorelowane i mogą być używane do kalibracji. Innym przykładem jest teoria, która obejmuje wiele upraszczających założeń i ciągle ewoluuje (jak powinna). W tym przypadku wyprowadzone parametry zmieniają się wraz z nowymi postępami w modelach, więc najlepiej nie mieszać teorii i klasyfikacji a priori. Użycie współczynników siły linii pomaga w porównywaniu widm i umożliwia wysoki poziom rozróżniania typów widmowych i klas jasności. System MK wykorzystuje następującą nomenklaturę.
(a) Sekwencja harwardzka (OBAFGKMSRN) jest zachowana dla głównych podziałów osi temperatury , aby zachować pewną ciągłość z wielką pracą Henry Draper Catalog. Gwiazdy typu O są najgorętsze i najmasywniejsze, podczas gdy gwiazdy M są najchłodniejsze. Wiemy teraz, że gwiazdy węglowe (R i N) mają mniej więcej taką samą temperaturę jak gwiazdy G, K i M, z wyjątkiem tego, że stosunek węgla do tlenu jest odwrócony, a gwiazdy S mają podobne temperatury do gwiazd M, z wyjątkiem tego, że wykazują pasma absorpcji ZrO.
(b) Po każdej literze następują podziały 0-9, z wyjątkiem gwiazd typu O, dla których O3 jest najgorętszym typem.
(c) Dodano klasę związaną z jasnością, reprezentującą pośrednio absolutną jasność gwiazdy, jak wskazują cechy wrażliwe na grawitację powierzchniową i mikroturbulencje. Cyfry rzymskie są używane do reprezentowania klasy jasności, w tym sensie, że superolbrzymy to I, olbrzymy to III, a gwiazdy ciągu głównego (zwane karłami, chociaż są podobne do Słońca) to V . Czasami podziały a, ab i b są używane do uściślenia klasyfikacji jasności w tym sensie, że ab jest środkiem pola, a a należy do najjaśniejszych gwiazd w polu.
(d) Nie ma pojedynczego trzeciego wymiaru reprezentującego obfitość, ponieważ w gwiazdach osobliwych pierwiastki mogą być indywidualnie dotknięte. Tak więc osobliwość jest oznaczana symbolem pierwiastka (Fe, Ba, C, CH, CN itd.), po którym następuje liczba 1-5, która jest dodatnia dla nadmiaru i ujemna dla niedoboru.
(e) Gdy w klasie osobliwej jest wystarczająco dużo okazów, definicja "normalnego" może zostać rozszerzona o nie. Tak było w przypadku superolbrzymów, szybko rotujących gwiazd, gwiazd linii emisyjnej i innych. Tak więc w klasyfikacjach używa się kilku dodatkowych symboli. Kilka przykładów zilustruje zasady. Szybkie rotatory są oznaczane literami n lub nn, w zależności od szybkości obrotu. Gwiazdy z liniami wodoru w emisji są oznaczone literą e, co oznacza szczegółowy opis widma gwiazdy w notatkach; ponieważ linie emisyjne są zwykle zmienne w skalach lat, szczegóły nie są podane w ogólnym typie widmowym, ale raczej w notatkach, wraz z datą. Gorące gwiazdy typu O z helem, węglem, azotem lub tlenem w emisji są oznaczone literą f. Bardzo gorące gwiazdy tracące masę w zawrotnym tempie są klasyfikowane jako GWIAZDY WOLFA-RAYETA (WR).
(f) Jeśli gwiazda w ogóle nie pasuje do układu, nadaje się jej oznaczenie standardowego okazu, który najbardziej do niej pasuje, i dołącza się literę p, co oznacza osobliwą (i prawdopodobnie szczególnie interesującą) gwiazdę. Osobliwość jest następnie opisana w notatce.
(g) Typowe przykłady klasyfikacji są następujące: G2 V (klasyfikacja Słońca), oznaczająca gwiazdę o umiarkowanej temperaturze i masie, która znajduje się w stabilnym stadium syntezy wodoru w swoim życiu; M6 IIIe wskazuje na chłodną gwiazdę olbrzymkę emitującą wodór, która prawdopodobnie przekształca hel w węgiel w celu uzyskania energii, oraz B0 Ib (zbliżona do klasyfikacji gwiazdy, która później stała się supernową 1987A), reprezentująca bardzo gorącą, dużą, bardzo masywną gwiazdę, która szybko ewoluuje (mówiąc astronomicznie); K0 IIIb Fe2, CH1, CN?2 oznaczające umiarkowanie chłodną gwiazdę olbrzyma, nieco słabszą od większości olbrzymów, z mocnymi metalami (Fe2), dość silnym pasmem G (CH1), a także słabym CN; A5p (Cr, Eu) opisuje umiarkowanie gorącą gwiazdę z wyraźnymi liniami chromu i europu.
Proces MK
Sukces systemu MK wynika głównie z "procesu MK", arystotelesowskiego, indukcyjnego podejścia do klasyfikacji w ogólności, które opiera się na konkretnych okazach (standardowych gwiazdach w przypadku widm gwiazdowych) i jest niezależne od kalibracji z teorii lub fotometrii. Nie opiera się na modelach teoretycznych lub średnich, jak w podejściu platońskim, ale jest autonomiczne i opiera się na istniejących obiektach. Klasyfikacja widma gwiazdowego jest opisem w kategoriach zestawu standardowych gwiazd, więc rzeczywista klasyfikacja pozostaje taka sama, gdy kalibracja zmienia się ze względu na postęp w technikach fotometrycznych, teorii atmosfer gwiazdowych lub innych metodach określania temperatury, grawitacji powierzchniowej, struktury atmosfery lub składu chemicznego. Każde pole klasyfikacji jest reprezentowane przez jeden lub więcej okazów, a nie przez jego parametry fizyczne. Na przykład gwiazda standardowa αPsA = HD216956 reprezentuje pole A3 V w systemie MK. Widmo niesklasyfikowanej gwiazdy jest dokładnie porównywane ze widmem gwiazdy standardowej i określane jako podobne lub nie do αPsA. Jeśli jest podobne do αPsA, jest klasyfikowane jako A3 V; jeśli nie jest podobne do αPsA, jest porównywane z inną gwiazdą standardową i proces jest kontynuowany, aż do znalezienia dopasowania. Nie jest to tak żmudne, jak się wydaje, ponieważ szybkie przejrzenie widma nieznanej gwiazdy powie doświadczonemu obserwatorowi (lub programowi komputerowemu), która grupa gwiazd standardowych najprawdopodobniej pasuje. Następnie stosuje się bieżącą kalibrację pudełka, opartą na kalibracji gwiazd standardowych, w celu określenia parametrów fizycznych nieznanej gwiazdy. Przy dużej liczbie gwiazd, które zostały sklasyfikowane, byłoby koszmarem powtarzać pracę za każdym razem, gdy pojawią się nowe dane fizyczne. Wartość autonomicznej metodologii klasyfikacji polega na tym, że gdy kalibracja zmienia się z roku na rok lub z osoby na osobę, klasyfikacja nie musi być ponownie ustalana. Metodologia procesu MK przedstawia sposób rozszerzenia systemu MK poza jego definicje długości fal i standardy. Możliwe jest stworzenie nowych autonomicznych systemów, niezależnych od systemu MK i od siebie nawzajem, które obejmą nowe kategorie obiektów wewnątrz i na zewnątrz Drogi Mlecznej.
Nowe obszary długości fal: rozszerzenie klasyfikacji
Ogólnym układem odniesienia dla typów MK jest niebiesko-fioletowy obszar widma, który pierwotnie został wyznaczony przez połączenie starych spektrografów pryzmatycznych, które odcinały ultrafiolet (UV) i względną niewrażliwość emulsji żółtej, czerwonej i podczerwonej (IR) w latach 30. XX wieku. Nawet dzisiaj, z satelitami, instrumentami o wysokiej przepustowości UV i i CCD, które są bardzo czułe w czerwieni i podczerwieni, niebiesko-fioletowy pozostaje najlepszym wyborem dla ogólnego układu odniesienia, ponieważ zawiera wiele linii i pasm o szerokim zakresie wzbudzenia. Jednak w przypadku szczególnych problemów klasyfikacyjnych w szczególnych częściach diagramu HR często dużą zaletą jest użycie innych długości fal. Rozkład energii dla najgorętszych gwiazd osiąga szczyt w ultrafiolecie, gdzie występują silne linie odpowiednie do klasyfikacji gwiazd typu O i B. Kryteria klasyfikacji i atlasy zostały opublikowane przez astronomów NASA, Janet Rountree i Nolana Walborna. Widma UV są silnie zależne od utraty masy gwiazd (wiatrów) i zakłada się, że utrata masy jest skorelowana z jasnością gwiazdy, co nie zawsze jest prawdą; istnieją wyjątki. Ponadto chłodne gwiazdy nie mają dużo światła w ultrafiolecie, a ich widma UV są zdominowane przez linie chromosferyczne. Tak więc UV może być korzystnie wykorzystywane w konkretnych projektach obejmujących gorące gwiazdy, ale nie jest dobrym ogólnym układem odniesienia. Rozkład energii dla najchłodniejszych gwiazd osiąga szczyt w podczerwieni i szybko spada w kierunku niebiesko-fioletowym. IR jest najlepszym obszarem dla pasm molekularnych, które są najbardziej użytecznymi kryteriami dla chłodnych gwiazd. Jest to zaleta przy klasyfikowaniu temperatur chłodnych gwiazd, ale w podczerwieni jest bardzo mało linii atomowych, a linie z ziemskiej atmosfery silnie interferują. Niebieskie widma są potrzebne do prawidłowego określenia metaliczności, ponieważ istnieje znacznie większa różnorodność linii atomowych o różnych wzbudzeniach. Gorące gwiazdy mają mniej energii w podczerwieni, a widma są silnie zależne od materii okołogwiazdowej. Zatem IR może być korzystnie używany do konkretnych problemów związanych z chłodnymi gwiazdami, ale nie jest dobry jako ogólny układ odniesienia.
Dialekt cyfrowy
Większość atlasów klasyfikacyjnych sprzed 1980 r. była fotograficzna, ale większość prac od tego czasu była cyfrowa. Obecnie CCD są używane powszechnie. Istnieją pewne różnice w użyciu tych dwóch mediów; jednak problemy charakterystyczne dla rewolucji cyfrowej zostały rozwiązane. Podczas gdy widma fotograficzne są logarytmiczne (gęstość) i dwuwymiarowe, widma cyfrowe są liniowe i są zwykle przedstawiane jako jednowymiarowe ślady (rysunek 5). W rozpoznawaniu wzorców oko woli patrzeć na powierzchnie niż na ślady linii. Detektory cyfrowe są znacznie bardziej wydajne niż emulsje fotograficzne, chociaż obserwatorzy często niedoceniają ogólnego fotograficznego stosunku sygnału do szumu (S/N) przy określaniu równoważnego cyfrowego S/N. Najlepiej poszerzone widma fotograficzne używane do klasyfikacji mają S/N wynoszący około 200-300, więc cyfrowy odpowiednik najlepszej pracy fotograficznej powinien być podobny. Wielu obserwatorów pracuje z dużo mniejszą ilością, a dokładność ich wyników cierpi. Jednak podczas pracy z niezwykle słabymi obiektami konieczne jest pójście na kompromis. Dobre klasyfikacje cyfrowe są możliwe przy S/N = 50, a przeciętne przy S/N = 35, ale poniżej tego wyniki prawdopodobnie będą niewiarygodne. Inna różnica w podejściu dotyczy procesu porównywania ze standardowymi gwiazdami. Ze względu na nieliniowość procesu fotograficznego ekspozycje (tj. S/N) dla standardów musiały być podobne. Jednak w przypadku liniowych danych cyfrowych wskazane jest, aby jasne standardy były brane przy bardzo wysokim S/N (kilkaset), nawet jeśli nieznane można brać tylko przy bardzo niskim S/N. W przypadku danych cyfrowych należy zachować ostrożność, aby zapobiec utracie informacji lub wprowadzeniu fałszywych informacji podczas procesu redukcji, szczególnie podczas rektyfikacji. Ponadto podczas porównywania prześledzeń ważne jest, aby używać stosunków bliskich linii i patrzeć na siłę linii, a nie na ostre dna linii, ponieważ w przypadku silnych linii dno linii znajduje się przy niższym S/N, a skrzydła linii są o wiele bardziej niezawodne i ważne. Dlatego też dane cyfrowe, chociaż znacznie bardziej wydajne, wszechstronne i łatwiejsze w obróbce niż fotografia, muszą być wykorzystywane ostrożnie, aby uzyskać lepsze rezultaty.
Automatyzacja procesu klasyfikacji
Tradycja klasyfikacji widmowej MK obejmuje wizualne porównywanie całego niebiesko-fioletowego widma gwiazdy w celu znalezienia dopasowania do jednej ze standardowych gwiazd. Ludzie są bardzo dobrzy w rozpoznawaniu wzorców, co jest trudne dla komputerów. Jednak opracowano potężne techniki komputerowe do automatyzacji poprzez symulację procesu rozpoznawania wzorców. (Aby zapoznać się z przeglądem, zobacz artykuł Kurtza w Garrison (1984)). Najbardziej udane metodologie, które pozwalają komputerom radzić sobie równie dobrze lub lepiej niż ludzie w przypadku normalnych gwiazd, to podejście minimalnej odległości metrycznej (MMD) i sieci neuronowej (NN). Każde z nich ma swoje zalety i każde zostało przetestowane na dużych zbiorach danych. Techniki automatyzacji można stosować z wielką korzyścią w przypadku zbiorów danych milionów gwiazd. W takich przypadkach, gdy zostaną znalezione nowe typy osobliwości, są one oznaczane do rozważenia przez ludzi. Oznacza to nie tylko, że można sklasyfikować bardzo dużą liczbę gwiazd, ale że nadal będą potrzebni eksperci, aby zinterpretować wyniki.
Grupy naturalne
System MK został stworzony do wykorzystania widm o wystarczająco wysokiej rozdzielczości, aby umożliwić wykrycie najważniejszych osobliwości, ale wystarczająco niskiej, aby dotrzeć do gwiazd tak słabych, jak to możliwe. Ten kompromis jest spełniony w zakresie rozdzielczości 0,1-0,3 nm. Są jednak sytuacje, w których przydatne byłoby posiadanie pewnych informacji o gwiazdach tak słabych, jak to możliwe, co oznaczałoby rozszerzenie procesu MK do niższych rozdzielczości. W.W. Morgan opracował koncepcję grup naturalnych, która wykorzystuje najsilniejsze, najbardziej wyróżniające się cechy widma, aby identyfikować unikalnie określone typy gwiazd, nawet przy ekstremalnie niskich rozdzielczościach. Przykładami są gwiazdy A0 V, których linie wodorowe są silniejsze niż w jakimkolwiek innym normalnym typie gwiazd i można je wykryć przy rozdzielczościach tak niskich, jak 2-3 nm. Tak więc, jeśli linie wodoru są nadal widoczne, gdy rozdzielczość widma jest obniżona do tej wartości, gwiazda musi być w przybliżeniu A0 V. Przy bardzo niskiej rozdzielczości (np. 3 nm) gwiazdy G8-K2 III są wyjątkowo wyjątkowe, ponieważ ich temperatury i grawitacje powierzchniowe są optymalne dla szczytowej widoczności szerokich pasm CN. Podobnie najchłodniejsze gwiazdy można klasyfikować jednoznacznie i łatwo przy bardzo niskiej rozdzielczości, wykorzystując ich pasma TiO i VO w czerwonym obszarze widma i ich pasma CO w domenie IR. Potężne techniki grup naturalnych można zatem wykorzystać jako początkowy filtr do zdefiniowania zestawu obiektów do dalszych badań, ale nie nadają się do definitywnych typów dla pojedynczych gwiazd, ponieważ trzy wspomniane obszary są również lokalizacjami wielu osobliwych i interesujących gwiazd, których osobliwości nie są widoczne przy tak niskiej rozdzielczości.
Zintegrowane widma: układy podwójne, gromady i galaktyki.
Koncepcja grup naturalnych może być również wykorzystana do rozwikłania złożoności zintegrowanych widm gwiazd podwójnych, gromad kulistych i galaktyk. Jeśli na przykład pasma CN są silne w zintegrowanym widmie jądra galaktyki, musi istnieć znaczący wkład w światło gwiazd olbrzymów G8-K2. MgH to pasmo molekularne, które jest widoczne tylko w chłodnych karłach; jeśli nie jest widoczne w zintegrowanym widmie, chłodne karły nie mogą być obecne w wystarczającej liczbie, aby przeciwdziałać światłu olbrzymów, które, choć znacznie rzadsze, są również znacznie jaśniejsze. W W Morgan i jego współpracownicy rozwinęli ten pomysł do granic możliwości, używając ekstremalnie niskiej rozdzielczości (1000 nm mm-1), co dało widma przypominające kijanki. Asocjacja Cyg OB6 została odkryta przy użyciu kijanek, aby ujawnić silnie zaczerwienione, bardzo słabe, masywne, gorące gwiazdy, które różniły się od chłodnych gwiazd o podobnych kolorach. Te techniki grup naturalnych nie zostały w pełni wykorzystane w interpretacji zawartości gwiazdowej gromad i galaktyk. Pryzmaty obiektywne, spektrografy wieloobiektowe i badania. Pobieranie pojedynczych widm do dużych badań jest bardzo czasochłonne. Jednym ze sposobów na zwiększenie wydajności jest użycie szerokokątnego TELESKOP-U SCHMIDT wyposażonego w cienki pryzmat na całej aperturze, co pozwala na uzyskanie widm wszystkich gwiazd na dużym obszarze. Na początku lat 1900. Annie Jump Cannon używała widm pryzmatów obiektywnych do przypisywania typów widmowych w systemie Harvard do ponad ćwierć miliona gwiazd na całym niebie. Reklasyfikacja wszystkich gwiazd Henry′ego Drapera w dwuwymiarowym systemie MK dokonana przez dr Nancy Houk również opiera się na widmach pryzmatów obiektywnych. Światłowody są używane do jednoczesnego uzyskiwania wielu widm słabych obiektów. Nowoczesne spektrografy wieloobiektowe mogą być używane do pobierania widm o niskiej dyspersji setek gwiazd lub galaktyk na raz, co pozwala na uzyskanie tysięcy widm na noc. Zautomatyzowane techniki klasyfikacji można by wykorzystać z dużym powodzeniem, zapewniając wstępne, internetowe typy widm gwiazd i sygnalizując obserwatorowi wykrycie nietypowych widm (np. supernowej w odległej galaktyce). Jednak pomysł ten nie został jeszcze skutecznie zbadany.
Kalibracja: efektywna temperatura, logarytm grawitacji i obfitości
Proces MK jest indukcyjny. Klasyfikacje opierają się wyłącznie na zestawie standardowych gwiazd i są niezależne od wyników teorii, fotometrii i wszystkich innych zewnętrznych wpływów. Po przeprowadzeniu klasyfikacji przydatne jest skalibrowanie systemu, powiązanie go z innymi metodami, a także podstawowymi parametrami Teff, log g i [Fe/H]. Autonomiczne podejście, takie jak proces MK, jest przydatne, ponieważ w interfejsie znajdują się informacje, które zostałyby utracone, gdyby metody nie były a priori niezależne. Dzięki nowym danym z satelitów, takich jak HIPPARCOS, możliwe jest skalibrowanie jasności pobliskich gwiazd, a tym samym uzyskanie odległości dla wszystkich gwiazd o podobnych widmach. Teoria ATMOSFER GWIEZDNYCH może być wykorzystana do kalibracji typów widmowych, klas jasności i wskaźników obfitości w odniesieniu do podstawowych parametrów Teff, log g i obfitości kluczowych pierwiastków.
Zasada komplementarności
Porównując wyniki różnych podejść do interpretacji widm gwiazdowych pod względem podstawowych parametrów, takich jak Teff, log g i [Fe/H], najbardziej produktywne jest myślenie o metodach jako komplementarnych, z ważnymi informacjami w interfejsie. Na przykład, podczas gdy istnieje ogólna zgodność między starannie zmierzonymi kolorami gwiazdy a jej widmem, nie ma korelacji jeden do jednego między fotometrią a widmem, głównie dlatego, że odnoszą się one do różnych części atmosfery gwiazdy. Fotometria odnosi się przede wszystkim do dolnej części fotosfery, podczas gdy widmo powstaje z kilku warstw fotosfery. Różne wyniki uzyskane dwiema technikami mogą wskazywać na szczególną strukturę w atmosferze. Jeśli obie techniki zostały użyte ostrożnie, zwykle istnieje dobry powód tej różnicy, a wiele typów osobliwych gwiazd zostało odkrytych dzięki niezgodności między ich kolorami a ich widmami.
Podsumowanie
Opisano indukcyjny proces klasyfikacji widm gwiazdowych. Dzięki starannej uwadze przy porównywaniu ze standardowymi okazami można osiągnąć wysoki poziom rozróżnienia. Proces MK jest potężnym narzędziem do astrofizycznego wglądu. W.W. Morgan, twórca systemu klasyfikacji widmowej MK, napisał: "Można powiedzieć, z pewną dozą prawdy, że formy widmowe pomogły sklasyfikować się same, pokazując, gdzie czują się najbardziej komfortowo".
Klimat
Klimat Ziemi można zdefiniować jako globalny stan fizyczny, uśredniony w pewnym okresie czasu (zwykle dekady lub dłużej), ATMOSFERY ZIEMI, OCEANU i pokrywy lodowej. Obecność stosunkowo gęstej atmosfery - trzeciej wśród ciał stałych w Układzie Słonecznym - sprawia, że Ziemia nadaje się do zamieszkania. Bez pokrycia energią podczerwoną emitowaną z powierzchni Ziemi i dolnej atmosfery, warunki byłyby znacznie poniżej zera prawie wszędzie na świecie. Podczas gdy atmosfera jest najbardziej bezpośrednią i namacalną częścią systemu klimatycznego Ziemi, przynajmniej dla życia na lądzie, ocean odgrywa kluczową rolę. Ocean i atmosfera wymieniają ciepło i parę wodną (a także dwutlenek węgla i inne gazy). Znacznie większa masa oceanu w porównaniu z atmosferą zapewnia tłumiący efekt dla systemu klimatycznego, ale paradoksalnie może również powodować jego przejście z jednego konkretnego stanu do drugiego (na przykład z klimatu lodowcowego na interglacjalny). Ta podwójna rola oceanu jest konsekwencją obecności prądów oceanicznych, które z kolei zależą od dystrybucji ciepła i soli (zasolenia) w zależności od lokalizacji i głębokości. Gdyby nie nasze głębokie oceany, klimat Ziemi byłby drastycznie różny od obecnego stanu i stanów z przeszłości odnotowanych w zapisie geologicznym. Pokrywy lodowe odgrywają również rolę w silnym odbijaniu energii Słońca i magazynowaniu słodkiej wody, która po stopieniu zmienia zasolenie oceanu i globalny poziom mórz. Podstawowym źródłem energii dla klimatu jest Słońce. Obrót Ziemi, sezonowe wahania orientacji biegunów i długoterminowe zmiany orbity służą do modulacji ilości energii słonecznej otrzymywanej z miejsca na miejsce i w różnych skalach czasowych. Pomimo dość drastycznych zmian klimatu na przestrzeni dziejów, niezwykłym faktem wynikającym z zapisu geologicznego jest zasadnicza stabilność wody w stanie ciekłym na dużych obszarach powierzchni Ziemi co najmniej do 4 miliardów lat temu. Wymiana masy i energii między różnymi składnikami systemu klimatycznego, a także ich interakcje ze skorupą ziemską, musiały utrzymać tę zasadniczą stabilność w obliczu dużych postępujących zmian w produkcji energii przez Słońce, co sugeruje teoria ewolucji gwiazd. Zamieszkiwalność Ziemi jest zatem o wiele bardziej złożona niż tylko jej korzystne położenie około 150 milionów km od Słońca. Światowy monitoring klimatu stał się możliwy dopiero w ciągu ostatnich kilku dekad dzięki udoskonaleniom w transporcie, instrumentacji i technologiach przesyłania informacji. Bezpośrednie pomiary, tj. in situ, stanowią pierwszy rodzaj zbieranych danych klimatycznych i obejmują ciśnienie, temperaturę, zawartość wody (wilgotność), prędkość wiatru, zawartość soli (w miejscach oceanicznych), warunki zachmurzenia i opadów. Liczba stacji powierzchniowych wzrosła z około 60 w 1875 r. (które znajdowały się głównie w Stanach Zjednoczonych i Europie Zachodniej) do około 7000 stacji raportujących codziennie dzisiaj. Dane z górnych warstw atmosfery są trudniejsze do zebrania, ale pod koniec lat 80. około 800 stacji (głównie w pobliżu lotnisk) wystrzeliło pakiety przenoszone przez balony ("rawinsondy" lub "radiosondaże") dwa razy dziennie, aby mierzyć parametry meteorologiczne na wysokościach do 30 km. Monitorowanie satelitarne rozpoczęło się od wystrzelenia TIROS 1, pierwszego satelity zaprojektowanego specjalnie do obserwacji pogody, w 1960 r. W ciągu następnych czterech dekad monitorowanie wzorców chmur i opadów za pomocą satelitów orbitujących stało się ustaloną częścią badań nad pogodą i klimatem i rozszerzyło się o zdalne obserwacje chemii atmosfery, bilansu energii atmosferycznej, stanu morza i wielu innych parametrów. Wiele z tych informacji jest obecnie publicznie dostępnych, zasadniczo natychmiastowo, za pośrednictwem sieci WWW (zainteresowani czytelnicy mogą najłatwiej uzyskać dostęp za pośrednictwem strony internetowej służby pogodowej swojego kraju). Badanie klimatów trzech innych dużych ciał stałych w naszym układzie słonecznym z istotnymi atmosferami - Wenus, Marsa i Tytana - ujawnia bardzo różne reżimy klimatyczne. Wenus wykazuje ogromną atmosferę CO2, która jest oszałamiającym przykładem efektu ocieplenia cieplarnianego. Cienka atmosfera CO2 Marsa jest napędzana przez kombinację procesów znanych ziemskim klimatologom, ale ze znacznymi różnicami w sezonowym cyklu CO2 do i z polarnych regionów Marsa oraz występowaniem sporadycznych globalnych burz pyłowych. Oprócz głębokich atmosfer zewnętrznych planet, gruba atmosfera księżyca Saturna, Tytana, podtrzymuje skromną szklarnię i profil temperatury o kształcie bardzo podobnym do ziemskiego, chociaż o setki stopni Celsjusza chłodniejszy. Badając klimaty tych innych stałych światów, można uzyskać pewien wgląd w warunki wymagane w innych systemach planetarnych, aby mogły istnieć planety nadające się do zamieszkania. Ludzkość zmienia chemię i bilans energetyczny atmosfery Ziemi, wprowadzając do powietrza i wody duże ilości dwutlenku węgla, chlorofluorowęglowodorów (CFC) i innych produktów naszej przemysłowo-rolniczej cywilizacji. CFC zmniejszają grubość wysokogórskiej warstwy ozonowej Ziemi, która chroni narażone organizmy przed zabójczą energią ultrafioletową ze Słońca. Dwutlenek węgla i inne gazy wzmacniają efekt osłony podczerwonej w atmosferze, ogrzewając planetę, a także zmieniając zachowanie systemu klimatycznego w skali dziesięcioleci. Świadome decyzje dotyczące kontroli emisji gazów cieplarnianych i niszczących warstwę ozonową wymagają głębokiego zrozumienia, jak działa system klimatyczny, zrozumienia, które jest czerpane z nowych generacji urządzeń powierzchniowych, powietrznych i kosmicznych.
Składniki systemu klimatycznego Ziemi
Atmosfera
Atmosfera jest tym, co najbardziej kojarzymy z klimatem i jest gospodarzem krótkoterminowej i przestrzennie zlokalizowanej zmienności zwanej pogodą. Atmosfera Ziemi składa się głównie z cząsteczkowego azotu (N2), stanowiącego 78% powietrza pod względem liczby. Około 21% atmosfery to cząsteczkowy tlen (O2), produkt fotosyntezy roślin i mikroorganizmów, który reaguje ze zwykłymi minerałami i zniknąłby w ciągu mniej niż 10 milionów lat, gdyby nie te procesy. Para wodna, ponieważ skrapla się, tworząc chmury, i jest połączona poprzez kondensację i parowanie z oceanami i lądem Ziemi, jest bardzo zmienna w zależności od miejsca i wysokości (patrz CYKL WODY). Średnio globalnie jej stosunek mieszania w pobliżu podstawy atmosfery wynosi 1%. Dwutlenek węgla (CO2) jest podstawowym źródłem węgla dla cyklu fotosyntezy roślin i bakterii i obecnie stanowi 330 części na milion (0,000 33) atmosfery. Całkowita masa atmosfery Ziemi szacowana jest na 5 × 1018 kg, co określa się na podstawie gęstości atmosferycznej i struktury wysokości. Atmosferę można w rzeczywistości postrzegać jako koncentryczne warstwy gazu, z których każda wyróżnia się określonymi mechanizmami transportu energii, a zatem profilem temperatury. Troposfera charakteryzuje się spadkiem temperatury wraz z wysokością (z wyjątkiem powierzchni, gdzie lokalnie temperatura może wzrastać wraz z wysokością w cienkiej warstwie inwersyjnej). W troposferze konwekcja i promieniowanie przenoszą ciepło w górę z powierzchni, która jest ogrzewana przez widoczne promieniowanie słoneczne. To tutaj tworzą się prawie wszystkie chmury i zachodzi pogoda, zachodzi wymiana gazów ląd-morze-powietrze i istnieje biosfera. Troposfera kończy się w tropopauzie, około 8 km nad powierzchnią w regionach polarnych i 13 km w tropikach (również ze znacznymi wahaniami sezonowymi). Tutaj profil temperatury zmienia kierunek, a temperatura zaczyna wzrastać wraz z wysokością w stratosferze. Stratosfera jest ogrzewana przez absorpcję promieniowania ultrafioletowego i podczerwonego, głównie przez ozon (O3), jako część fotochemicznego cyklu tworzenia i niszczenia. W miarę jak ozon zanika, chłodzenie przez emisję promieniowania w przestrzeń kosmiczną przez CO2 prowadzi do zatrzymania wzrostu temperatury w stratopauzie około 50 km nad powierzchnią; powyżej temperatura spada wraz z wysokością w mezosferze. Powyżej 100 km wysokości fotoliza (rozbicie cząsteczki przez absorpcję fotonów) O2 i jonizacja gwałtownie zwiększają temperaturę wraz z wysokością w termosferze, gdzie przewodzenie zastępuje promieniowanie jako kluczowy proces transportu energii. W dalszej dyskusji na temat klimatu rozważane są tylko stratosfera i troposfera, w których znajduje się ponad 90% całkowitej masy atmosferycznej. Obrót Ziemi i różnicowe ogrzewanie słoneczne jako funkcja szerokości geograficznej i pory roku napędzają wzorce cyrkulacji atmosferycznej. Ogrzewanie słoneczne jest największe na równiku i najmniejsze na biegunach; stąd atmosfera musi transportować ciepło z równika na biegun. Dzieje się tak za pośrednictwem tzw. cyrkulacji Hadleya, w której ciepłe powietrze unosi się i jest transportowane na wyższe szerokości geograficzne, ochładza się i opada. Cyrkulacja Hadleya nie składa się z pojedynczej komórki w przypadku Ziemi; zamiast tego trzy komórki w każdej półkuli przemieszczają ciepło w kierunku biegunów.Wznoszące się powietrze na granicach komórek rozchodzi się, prowadząc do pasów powietrza niskiego ciśnienia, podczas gdy opadające powietrze zbiega się na granicach komórek, dając strefy wyższego ciśnienia. Ponieważ Ziemia obraca się, temu wzorowi pasów wysokich i niskich towarzyszy dominujący strefowy wzór wiatru. Wiatry zachodnie zwiększają prędkość wraz z wysokością, osiągając maksimum tuż pod stratosferą jako wąskie strumienie strumieniowe, które odpowiadają za ruch układów burzowych średnich szerokości geograficznych. Pasaty, wiejące ze wschodu, są głównym motorem oceanicznego Prądu Zatokowego poprzez naprężenia tarcia na powierzchni morza. Na opisany powyżej pierwotny wzór cyrkulacji nałożony jest szereg wtórnych układów wysokiego i niskiego ciśnienia związanych z zaburzeniami w podstawowym przepływie. Obrót Ziemi tworzy skuteczną siłę Coriolisa, która działa pod kątem prostym do kierunku wiatru: w prawo na półkuli północnej i w lewo na półkuli południowej. Na szerokościach geograficznych wyższych niż 10° i wysokościach powyżej warstwy granicznej tarcia atmosfery siła Coriolisa jest wystarczająco silna, aby niemal całkowicie zrównoważyć siłę gradientu ciśnienia między ośrodkami wysokiego i niskiego ciśnienia. Ta równowaga geostroficzna powoduje, że obszary wysokiego ciśnienia wirują zgodnie z ruchem wskazówek zegara, a obszary niskiego ciśnienia wirują przeciwnie do ruchu wskazówek zegara na półkuli północnej - i w przeciwnym kierunku na półkuli południowej. Obszary niskiego ciśnienia są zatem regionami cyklonicznymi (na półkuli północnej), w których wznoszące się powietrze tworzy chmury i systemy opadów, jeśli dostępna jest wystarczająca ilość wilgoci. Obszary wysokiego ciśnienia antycyklonalnego charakteryzują się osiadaniem, parowaniem, a zatem wysychaniem; są to na ogół cechy sprzyjające pogodzie (ponownie kierunek cyrkulacji jest odwrócony na półkuli południowej). Niektóre układy wysokiego i niskiego ciśnienia są trwałymi cechami, sezonowo lub rocznie, ale mogą zmieniać siłę i położenie z roku na rok. Inne są zmienne przestrzennie i czasowo, takie jak układy burzowe i huragany na średnich szerokościach geograficznych. Układy cykloniczne na średnich szerokościach geograficznych i tropikalne istnieją z powodu zaburzeń przepływu, które rosną z czasem. Niestabilności baroklinowe są wyzwalane przez istnienie południkowego (północ-południe) gradientu temperatury w atmosferze geostroficznej i dlatego są odpowiedzialne za układy burzowe na średnich szerokościach geograficznych (gdzie efekt Coriolisa jest silny). Niestabilności barotropowe z kolei działają na równikowych szerokościach geograficznych i stanowią klasę niestabilności, w której tylko energia kinetyczna (nie termiczna) jest przenoszona z tła rotacji atmosfery do rosnącego zaburzenia. Uważa się, że niestabilności barotropowe powodują depresje tropikalne, które w niektórych przypadkach stają się burzami tropikalnymi lub huraganami, w równikowym pasie niskiego ciśnienia zwanym strefą konwergencji międzyzwrotnikowej (ITCZ). W przeciwieństwie do równowagi geostroficznej atmosfer ziemskich i marsjańskich, na Wenus i księżycu Saturna, Tytanie, wiatry stratosferyczne są szybsze niż rotacja planet. Wynikająca z tego silna siła odśrodkowa dominuje nad siłą Coriolisa, prowadząc do tzw. równowagi cyklostroficznej.
Hydrosfera
Ziemia jest wyjątkowa wśród planet Układu Słonecznego, ponieważ posiada ogromną warstwę ciekłej wody, nasz ocean. Oprócz wody oceanicznej, systemy słodkiej wody są rozproszone na powierzchni Ziemi w postaci rzek i jezior. Znaczna ilość wody krąży również w górnej warstwie skorupy ziemskiej wnętrza Ziemi. Woda ta miesza się z głębokim oceanem w szerokim zakresie skal czasowych, od bardzo krótkich do geologicznych (tj. milionów lat). Cały system ciekłej wody jest określany jako hydrosfera i ma masę szacowaną na 1,7 × 1021 kg, z czego zdecydowana większość znajduje się w oceanie. Tak więc ilość wody w kontakcie z atmosferą w skalach czasowych znacznie krótszych niż geologiczne wynosi 200 razy więcej niż masa atmosfery Ziemi i silnie modyfikuje reakcję klimatu na zmiany warunków zewnętrznych, a także tworzy własne funkcje wymuszające. Oceany skutecznie magazynują duże ilości energii cieplnej (pierwotnie światła słonecznego), która jest później uwalniana jako ciepło jawne lub utajone. Temperatura oceanu ma bezpośredni wpływ na ilość pary wodnej, głównego gazu cieplarnianego, uwalnianego do atmosfery; oceany magazynują również duże ilości CO2 (drugiego głównego gazu cieplarnianego) w sposób zależny od temperatury. Średnia głębokość oceanu wynosi 4 km; niektóre z najgłębszych części mieszają się z górnymi warstwami lub atmosferą tylko sporadycznie, podczas gdy najwyższa część oceanu bardzo szybko i nieprzerwanie wymienia gazy i ciepło z atmosferą. Ocean przenosi ciepło z równika na biegun w ilościach porównywalnych z tym, co jest transportowane przez atmosferę. W przeciwieństwie do atmosfery istnieje duża skala codziennej równomierności temperatury w pobliżu powierzchni oceanu i powolna zmiana sezonowa. Podobnie jak duży kryty basen, ocean tłumi wahania temperatury w atmosferze i kontroluje niższą wilgotność atmosferyczną (zawartość pary wodnej) na dużych obszarach Ziemi. Ocean wykazuje wzorce cyrkulacji, które przynoszą ciepłe prądy wody do wysokich szerokości geograficznych, a zimną wodę do regionów równikowych. Zmniejszają one gradient temperatury w atmosferze z północy na południe. Najbardziej znanym przykładem pierwszego jest Prąd Zatokowy Atlantycki. Prąd Pacyficzny na południe od wybrzeża Kalifornii jest znanym przykładem drugiego, który sprawia, że letnia woda oceaniczna jest bardzo zimna aż do Los Angeles. Prądy powierzchniowe są napędzane przez naprężenia wiatru, a zbieżność lub rozbieżność przepływów prowadzi do ruchów pionowych (downwelling lub upwelling) pod powierzchnią. To jednak nie jest cała historia. Oceany zawierają około 3 części na tysiąc rozpuszczonych soli, które zarówno obniżają temperaturę zamarzania wody, jak i zmieniają jej gęstość. Pierwszy efekt pozwala, aby średnie roczne temperatury na wysokich szerokościach geograficznych były prawie 2°C poniżej zera. Efekt gęstości jest taki, że powoduje, że wody o wzrastającym zasoleniu stają się gęstsze. Głębokie wzorce cyrkulacji w oceanie są słabo znane z powodu braku obserwacji. Efekty gęstości termicznej i słonej (termohalinowej), ściśliwość wody oceanicznej (właściwie dość ważne na dużych głębokościach) i zachowanie masy związane z przepływem powrotnym wody z prądów powierzchniowych napędzają ogólną cyrkulację oceaniczną. Ze względu na ściśliwość i efekty termiczne bardzo zimna, głęboka woda oceaniczna może nie wymieniać się z powierzchnią częściej niż setki lat. Położenie kontynentów odgrywa kluczową rolę w cyrkulacji i w szczególności może wpływać na wydajność transportu ciepła z północy na południe. Rola wiatru w napędzaniu prądów oceanicznych i wpływ prądów na redystrybucję ciepła dostępnego dla atmosfery skutkuje złożonym, sprzężonym systemem klimatycznym ocean-atmosfera. Najlepszym przykładem (i prawdopodobnie najważniejszym w określaniu globalnego stanu klimatu; patrz poniżej) jest Prąd Zatokowy do północnego pasa transmisyjnego Pacyfiku. Prąd Prądu Zatokowego jest napędzany naprężeniem wiatrów pasatowych wywieranych na powierzchnię oceanu w tropikach i wiatrów zachodnich na średnich szerokościach geograficznych. Prąd przesuwa ciepłe wody na północny wschód, wzdłuż wschodniego wybrzeża Stanów Zjednoczonych. Parowanie zwiększa zasolenie prądu; wymiana ciepła z atmosferą wzdłuż trasy prowadzi do netto chłodzenia wody i ocieplenia atmosfery. W rezultacie postępujące, północne zagęszczenie osiąga krytyczny etap w pobliżu Islandii, gdzie woda Zatoki staje się gęstsza niż otoczenie i opada. Przewrócenie jest wspomagane przez wiatry, które odsuwają zimniejsze wody powierzchniowe, pozwalając głębszym częściom prądu unosić się, uwalniać ciepło i szybko się ochładzać. Woda znajdująca się obecnie na dnie płynie na południe, wokół Afryki, a następnie na północ do zimniejszego północnego Pacyfiku. Tam unosi się na powierzchnię, a rozbieżność odsuwa wody otoczenia, część przesuwa się na południe w kierunku początku Prądu Zatokowego. Najważniejszym skutkiem tej cyrkulacji jest transport znacznej ilości ciepła równikowego do regionu północnego Atlantyku, co znacznie łagodzi klimat Europy i tym samym zapobiega tworzeniu się ogromnych pokryw lodowych.
Kriosfera
Kriosfera składa się z trwałych i sezonowych pokryw lodowych i śniegu Ziemi, a także wiecznej zmarzliny, które razem stanowią 80% zasobów słodkiej wody na planecie. Głównymi składnikami są pokrywy lodowe Antarktydy, Grenlandii, wieczna zmarzlina w Ameryce Północnej i Azji, lód morski, górskie systemy lodowcowe i sezonowe pola śnieżne. Chociaż tylko około 2% wody na Ziemi jest zamarznięte, kriosfera ma głęboki wpływ na obecny klimat i na oscylacje lodowcowo-interglacjalne ostatnich 2 milionów lat. Bardzo wysoka refleksyjność lodu wodnego (która jest wrażliwa na wielkość cząstek, a zatem warunki powstawania i wiek, a także na zanieczyszczenia) odbija promieniowanie słoneczne w widzialnych i bliskich ultrafioletowych częściach widma. W podczerwieni termicznej lód wodny jest dość ciemny, a zatem działa jako bardzo wydajny nocny radiator ziemskiego promieniowania cieplnego. Duże ciepło utajone topnienia lodu wodnego działa również jako silny pochłaniacz ciepła, szczególnie w chłodniejszych epokach, w których występuje bardziej masywne zlodowacenie niż obecnie. Kriosfera wzmacnia wpływ na klimat dychotomii półkuli północnej i południowej w rozmieszczeniu kontynentów i oceanów. Ponieważ półkula północna ma znacznie większą powierzchnię lądu niż południowa, rozwój masywnego zlodowacenia kontynentalnego w średnich szerokościach geograficznych, cecha epok lodowcowych, jest głównie efektem półkuli północnej. To z kolei może wiązać czas początku zlodowaceń z konfiguracjami parametrów orbitalnych i spinowych Ziemi, które powodują minima w średniorocznym nasłonecznieniu półkuli północnej. Jednak w znacznie krótszych (sezonowych) skalach czasowych obecność dużego kontynentu polarnego na południu i oceanu polarnego na północy wpływa na względne reakcje biegunów na zmniejszone nasłonecznienie w okresie zimowym.
Ocieplenie cieplarniane
Przydatność Ziemi do życia jest w dużej mierze wynikiem stabilności ciekłej wody na powierzchni; średnia roczna globalna temperatura powierzchni oceanu wynosi 288 K. Jednak samo przyrównanie średniej rocznej ilości promieniowania słonecznego pochłanianego przez powierzchnię Ziemi do wychodzącego bolometrycznego promieniowania cieplnego daje efektywną temperaturę 255 K, znacznie poniżej punktu zamarzania wody (nawet z solami). Wysoka temperatura powierzchni Ziemi, a zatem stabilność ciekłej wody, jest konsekwencją wyższej średniej nieprzezroczystości atmosfery w podczerwieni (gdzie promieniowanie cieplne jest uwalniane w przestrzeń kosmiczną) niż w długościach fal optycznych (gdzie występuje szczyt widma słonecznego). Termin efekt cieplarniany jest nierozerwalnie związany z tą podstawową właściwością ziemskiej atmosfery, pomimo faktu, że w szklarni konwekcja napędzana termicznie zasadniczo nie odgrywa żadnej roli, podczas gdy jest ważna w regulacji niższej temperatury ziemskiej atmosfery. Rozkład długości fal
fotonów płynących ze Słońca, przybliżony jako ciało czarne o temperaturze 6000 K, osiąga szczyt przy długości fali około 0,6 μm , gdzie gazy atmosferyczne prawie nie mają absorpcji (z wyjątkiem tzw. pasm Chappuis ozonu). Tak więc w bezchmurnej atmosferze światło słoneczne mogłoby praktycznie swobodnie docierać do powierzchni (chociaż rozpraszanie Rayleigha przez cząsteczki powietrza preferencyjnie rozprasza krótsze długości fal z wiązki słonecznej, co prowadzi do znajomo niebieskiego nieba). Chmury odbijają około 20% przychodzącego światła słonecznego, podczas gdy powierzchnia odbija średnio mniej niż 10%. Około 2/3 światła słonecznego padającego na Ziemię jest pochłaniane przez grunt lub niższą atmosferę i przekształcane w fotony o rozkładzie widmowym, który, przybliżony przez ciało czarne, odpowiada temperaturze 255 K (bez efektu cieplarnianego; 288 K z ociepleniem cieplarnianym). Szczyt rozkładu widmowego tych termalizowanych fotonów znajduje się w środkowej części podczerwieni widma, przy długości
fali około 15-20 μm, a atmosfera jest tam bardzo nieprzezroczysta. Dominują pasma absorpcji pary wodnej i CO2, a dziury w widmie absorpcji wypełniają CH4, O2, O3, tlenki azotu, a nawet sztuczne freony. Na poziomie gruntu atmosfera jest wysoce nieprzezroczysta powyżej długości fali 5 μm, ale absorpcje maleją wraz z wysokością, ponieważ obfitość kolumny atmosfery (od danego poziomu do przestrzeni) i ciśnienie maleją. Na wysokości 10 km atmosfera jest w dużej mierze ponownie przezroczysta. Fotony termiczne płynące w górę z ziemi mają średnie swobodne ścieżki znacznie krótsze niż przychodzące promieniowanie słoneczne, którego strumień energii muszą zrównoważyć. Absorpcja i ponowne promieniowanie fotonów termicznych przekierowuje część strumienia z powrotem w dół; skierowany w dół strumień maleje wraz z wysokością, ponieważ przezroczystość atmosfery wzrasta. W wyniku tej nieefektywności w transporcie ciepła na zewnątrz w stosunku do promieniowania widzialnego słonecznego, temperatura powierzchni musi wzrosnąć powyżej temperatury efektywnej, aby zapewnić równowagę między strumieniem energii przychodzącej i wychodzącej. Wysokości nad powierzchnią również muszą doświadczać podwyższonych temperatur, ale stopniowo mniej w miarę przesuwania się na zewnątrz. W ten sposób temperatura wzrasta między wysokością, na której fotony podczerwone mogą swobodnie płynąć na zewnątrz, średnim poziomem promieniowania i powierzchnią. Stromość wzrostu temperatury jest modyfikowana od wartości cieplarnianej przez szereg innych procesów transportu energii. Najważniejsza jest konwekcja. Gdy gradient temperatury staje się stromy, przekraczając wyidealizowaną, adiabatyczną szybkość gradientu, powietrze staje się niestabilne, a masowe ruchy pionowe (konwekcja) transportują ciepło w górę z adiabatyczną szybkością gradientu. W przypadku braku wody odpowiednia adiabatyczna szybkość gradientu to tak zwana sucha wartość 10 K km-1. Kondensacja wody podczas formowania się chmur uwalnia ciepło utajone, które umożliwia wilgotny (czasem mokry) konwekcyjny transport ciepła przy gradientach temperatury znacznie poniżej suchej adiabaty. W pierwszym przybliżeniu obserwowany średni gradient temperatury w atmosferze Ziemi jest wilgotnym gradientem adiabatycznym. Dalsza modyfikacja profilu temperatury następuje, gdy wiatry adwekcyjne transportują ciepło z jednego miejsca do drugiego, a układy burzowe przenoszą zarówno wilgoć, jak i ciepło w kierunkach poziomym i pionowym. Rysunek 3 podsumowuje różne mechanizmy transportu energii w górę i w dół. Istotny punkt dotyczący efektu cieplarnianego nie powinien być przesłonięty złożonością wielu procesów transportu. Przychodzący strumień energii musi być zrównoważony przez wychodzący, a jeśli atmosfera jest mniej przejrzysta dla wychodzącego (cieplnego) promieniowania niż dla przychodzącego (słonecznego), temperatura powierzchni jest podwyższana, aż do osiągnięcia równowagi. Jednak reakcja klimatu Ziemi na wzrost gazów cieplarnianych jest trudna do przewidzenia ze względu na dużą liczbę stopni swobody. Modyfikacje tworzenia się chmur, opadów, pokrywy lodowej na powierzchni, cyrkulacji oceanicznej, temperatury i rozpuszczalności CO2 stanowią reakcje na wzrost gazów cieplarnianych, które mogą zapewnić dodatnie lub ujemne sprzężenia zwrotne. Efekt stopniowego wzrostu gazów cieplarnianych można przewidzieć (stopniowo wyższa temperatura powierzchni), ale dyskretne zmiany (szczególnie duże) mogą po prostu popchnąć klimat Ziemi w inny stan. Ekstremalny przykład efektu cieplarnianego jest dostępny do zbadania na Wenus, gdzie ciśnienie powierzchniowe wynosi 92 bary, a atmosfera składa się w 96% z dwutlenku węgla. Ponieważ warstwa odbijającego kwasu siarkowego i chmur wodnych pokrywa glob, powierzchnia Wenus otrzymuje tylko kilka procent światła słonecznego padającego na szczyt atmosfery - mniej niż Ziemia otrzymuje na swojej powierzchni, mimo że ta ostatnia jest o 40% bardziej oddalona od Słońca. Mimo to temperatura powierzchni Wenus wynosi 730 K, wartość ta odzwierciedla ekstremalne pokrycie podczerwienią zapewniane przez wysokie ciśnienie powierzchniowe CO2, a także wkład pomniejszych gatunków, takich jak para wodna (około 100 części na milion atmosfery). Podobnie jak w przypadku Ziemi, transport energii na zewnątrz odbywa się głównie przez konwekcję, ale na Wenus jest to całkowicie sucha konwekcja. Cienka atmosfera Marsa ma średnie ciśnienie powierzchniowe wynoszące zaledwie 7,5 mbar i jest prawie pozbawiona wody. Dlatego też, mimo że składa się w 95% z dwutlenku węgla (co daje wyższe ciśnienie parcjalne CO2 niż na Ziemi), pasma absorpcji dwutlenku węgla są bardzo wąskie w częstotliwości, pozbawione poszerzenia zapewnianego przez wysokie ciśnienie azotu; ponadto pasma absorpcji wody prawie nie istnieją. W ten sposób występuje tylko bardzo mały efekt cieplarniany o temperaturze 5 K. Ogrzewanie powierzchni przez słońce napędza konwekcję i w związku z tym tworzy troposferę rozciągającą się na 40 km. Jednakże gradient temperatury jest znacznie mniejszy niż w przypadku suchej adiabatyki ze względu na zawieszenie cząstek pyłu w atmosferze, które pochłaniają światło słoneczne na wszystkich wysokościach przez troposferę. W niektórych latach globalne burze pyłowe obciążają atmosferę tak dużą ilością pyłu, że profil temperatury otoczenia ulega silnemu zaburzeniu.
Ogólne modele cyrkulacji: ocean i atmosfera
Podstawowym narzędziem teoretycznym zarówno do prognozowania pogody, jak i do badań nad zmianami klimatu jest numeryczny ogólny model cyrkulacji, czyli GCM. Ziemia jest podzielona na siatkę z komórkami o rozmiarach tak małych, jak to praktycznie możliwe dla dostępnych zasobów obliczeniowych. W każdej siatce stosowane są następujące równania: (a) poziome równania ruchu; (b) prawo hydrostatyczne; (c) równania ciągłości; (d) bilans energetyczny (pierwsza zasada termodynamiki); (e) równanie stanu dla wilgotnego i suchego powietrza; (f) równanie bilansu pary wodnej. Tworzą one zamknięty układ z warunkami brzegowymi określonymi przez pomiary meteorologiczne lub (w przypadku modeli paleoklimatycznych) dane geologiczne i założenia. Dzięki szybkim komputerom ruchy atmosferyczne można sprzężyć z ruchami oceanów, co prowadzi do modeli GCM ocean-atmosfera. W przypadku składnika oceanicznego obowiązują podobne równania do (a)-(f), z tą różnicą, że (e) jest zastąpione równaniem stanu dla wody oceanicznej, a (f) jest zastąpione równaniem bilansu dla zasolenia. Nad obszarami porośniętymi roślinnością musi być również uwzględniony transfer pary wodnej i energii z i do roślin poprzez ewapotranspirację. Równania są zintegrowane, aby śledzić ewolucję czasową, w trzech wymiarach, cyrkulacji atmosferycznej, intensywności i położenia ośrodków wysokiego i niskiego ciśnienia, temperatury, transferu ciepła i masy między atmosferą a oceanem i innych parametrów. Ze względu na ogromną różnicę w skalach czasowych między atmosferą a oceanem konieczne jest pewne uproszczenie modelu oceanu (na przykład płytki ocean reprezentujący najwyższą, dobrze wymieszaną warstwę) lub uśrednienie procesów atmosferycznych. Coraz częściej przeprowadzane są pełne symulacje łączące te dwa elementy w miarę wzrostu mocy obliczeniowej. Pozostają jednak istotne ograniczenia. W przypadku atmosfery procesy zachodzące w skalach poniżej rozmiaru siatki mogą mieć znaczący wpływ. Na przykład orograficzne unoszenie mas powietrza przez zlokalizowane lub topograficznie złożone góry, niewielkie zmiany w schematach użytkowania gruntów lub skomplikowane relacje geograficzne między lądem a zatokami lub morzami często nie mogą być dobrze obsługiwane przez modele GCM. Powstawanie opadów jest wysoce wrażliwe na procesy w podskali, dlatego modele GCM są mniej skuteczne w szczegółowym śledzeniu tego procesu. Jak zobaczymy poniżej, zmiany wzorców opadów nad lądem i morzem mogły być przyczyną głębokich zmian stanu klimatu i możliwe, że symulacje GCM, szczególnie jeśli uśredniono czas w celu śledzenia zmian dekadowych lub dłuższych, mogą je pominąć. Przeprowadzono wystarczającą liczbę obserwacji atmosfery Marsa, aby umożliwić zastosowanie modeli GCM o znacznym stopniu zaawansowania. Całkowity brak globalnego oceanu na Marsie oznacza, że nie ma dużego pochłaniacza ciepła, który mógłby tłumić zmiany klimatu w sezonowych lub dłuższych skalach czasowych, ani źródła pary wodnej, która mogłaby modyfikować gradienty atmosferyczne i służyć jako źródło powstawania masywnych chmur. Zamiast tego klimat Marsa jest napędzany głównie przez sezonowe cykle CO2 i pyłu. Regiony polarne stają się tak zimne zimą (150 K), że główny składnik atmosfery, CO2, skrapla się, tworząc rozszerzoną czapę na półkuli zimowej. Roczny cykl CO2 z jednej zimowej półkuli do drugiej moduluje ciśnienie atmosferyczne o 30%. Zjawisko to, nie mające analogu na Ziemi ani Wenus, zostało bezpośrednio zmierzone przez lądowniki VIKING i MARS PATHFINDER. Między innymi powoduje ono znaczną zmienność w naturze cyrkulacji Hadleya od równika do średnich szerokości geograficznych, która obejmuje jedną komórkę Hadleya podczas przesileń i dwie podczas równonocy. Na wyższych szerokościach geograficznych zimą i wiosną występują zaburzenia przemieszczania się, które są podobne do ziemskich systemów burzowych; nie występują one latem. Takie systemy są wykrywane zarówno przez stacje meteorologiczne lądowników, jak i przez bardzo delikatne ślady chmur wodnych widoczne na obrazach globalnych.
Wydarzenia klimatyczne: ENSO i monsun azjatycki
El Niño-Oscylacja Południowa to zjawisko klimatyczne, którego istnienie i ogólnoświatowe powiązania zostały rozpoznane dopiero w ciągu ostatnich kilku dekad. Stanowi doskonały przykład interakcji atmosfera-ocean i zdolności regionalnych zaburzeń wywołanych przez ocean do powodowania ogólnoświatowych zmian wzorców pogodowych. W odstępach około 2-10 lat niezwykle silny prąd oceaniczny spycha ciepłe, nisko zasolone wody powierzchniowe w kierunku zachodniego wybrzeża Ameryki Południowej, gdzie następnie przemieszcza się na południe. Zjawisko to określa się mianem El Niño, co jest zapożyczeniem tradycyjnego terminu używanego przez peruwiańskich rybaków do opisu corocznego ocieplenia wód przybrzeżnych tuż po Bożym Narodzeniu. Ociepleniu wód wschodniego Pacyfiku towarzyszy wzrost temperatury powietrza. Silne El Niño może utrzymywać się przez ponad rok, a zaburzenia prądów oceanicznych Pacyfiku są generowane na przestrzeni wielu tysięcy mil na zachód od Ameryki Południowej. Zaburzenie atmosferyczne towarzyszące zmianom oceanicznym jest jeszcze bardziej rozpowszechnione. W latach El Niño susza występuje w Australii, Indonezji, południowo-wschodniej Afryce i północno-wschodniej Ameryce Południowej, podczas gdy niezwykle obfite deszcze mogą wystąpić w Ekwadorze, północnym Peru, wschodniej Afryce równikowej i obszarach na południe od Indii. Zmiana wzorców pogodowych była tradycyjnie uważana za odrębne zjawisko obejmujące przesunięcia w pozycjach sezonowych wzorców wysokiego i niskiego ciśnienia, znane jako Oscylacja Południowa. Dopiero w latach 60. ustalono związek przyczynowo-skutkowy między nią a El Niño. Mechanika zaburzeń oceanicznych obejmuje fale generowane na Pacyfiku, które wypychają ciepłą wodę na wschód, podnosząc tam nieznacznie poziom morza i zmniejszając ilość ciepłej wody w zachodnim Pacyfiku. Początek i zanik tego zdarzenia obejmują złożoną, słabo poznaną serię interakcji między zmienionym rozkładem temperatury powierzchni morza a wzorcem temperatury atmosferycznej. To, czego w ogóle nie rozumiemy, to pochodzenie zjawiska ENSO w całości. Propozycje wahają się od pomysłu, że sam wzór cyrkulacji oceanicznej napędza oscylację, aż po mało prawdopodobną koncepcję, że podmorskie erupcje dostarczają ciepło do głębokiego oceanu i stymulują ten efekt. Słabo zrozumiano również, czy oscylacje ocean-atmosfera mogą istnieć gdzie indziej niż w równikowym Pacyfiku. Wreszcie, wysunięto spekulację, że ENSO jest symptomem coraz cieplejszego klimatu na granicy niestabilności i że chłodniejsze czasy w holocenie nie doświadczały takich oscylacji. Znaczne letnie deszcze na subkontynencie indyjskim i otaczających go częściach Azji są częścią sezonowej zmiany wzoru wiatru zwanej monsunem azjatyckim. Wielki osioł płaskowyżu tybetańskiego, duży obszar lądowy kontynentu azjatyckiego z towarzyszącymi mu ekstremalnymi sezonowymi kontrastami temperatur i położenie ITCZ odgrywają rolę w definiowaniu monsunowego reżimu klimatycznego. Najbardziej dramatyczna jest sezonowa zmiana wiatrów wiosną, podczas której wiatry średniego poziomu zmieniają się z zachodnich na wschodnie, a ekstremalnie gorące i suche warunki późną wiosną ustępują miejsca wilgotnemu przepływowi na lądzie, gdy zaczyna się lato. Złożony kontynentalny przepływ powietrza jest inicjowany, co prowadzi do dużych ilości opadów w miejscach takich jak Indie. Ilość opadów deszczu dostarczanych zarówno lokalnie, jak i w całym regionie zmienia się dramatycznie z roku na rok i wydaje się być skorelowana z siłą El Niño. Ponieważ Indie i niektóre inne kraje azjatyckie są zależne od monsunu w zakresie znacznej części swojego zaopatrzenia w wodę rolniczą, przewidywalność zmienności monsunu i jej związek ze światowymi zjawiskami, takimi jak ENSO, stanowią kwestie klimatyczne o dużym znaczeniu dla człowieka.
Zmiany klimatu w przeszłości
Informacje o zmianach klimatu pochodzą, w najdłuższych skalach czasowych (od miliardów do setek milionów lat), z izotopów tlenu w krzemionkach i dowodów geologicznych, w tym geograficznego rozmieszczenia gatunków kopalnych i sygnatur zlodowacenia. W pośrednich skalach czasowych (od milionów do dziesiątek milionów lat), obfitość izotopów w osadach dna morskiego (węgiel i wodór) dostarczają bardziej szczegółowego zapisu klimatycznego. Wreszcie, w krótszych skalach czasowych dostępnych jest wiele wskaźników klimatycznych, od danych izotopowych w osadach dna morskiego w całym plejstocenie, po dane z rdzeni lodowych (wskaźniki temperatury izotopowej, zawartość dwutlenku węgla itp.), a także rdzenie słojów drzew, dane o przepływie strumieni i zapisy historyczne dla obecnego etapu holocenu. Rysunek przedstawia widmo mocy zmian temperatury atmosferycznej w skalach czasowych od geologicznej do dobowej.
Pochodzenie różnych szczytów, od najdłuższej do najkrótszej skali czasowej, jest następujące. Dane izotopowe sugerują ogólny spadek temperatury powierzchni od czasu najwcześniejszych osadów, prawdopodobnie z powodu spadku poziomu CO2 w atmosferze Ziemi. Uważa się, że obfitość tego gazu jest regulowana przez skomplikowane interakcje między wietrzeniem krzemianów (prowadzącym do uwięzienia CO2 w postaci węglanów na dnie morskim) a wulkanicznym wytłaczaniem CO2 związanym w dużej mierze z tektonicznym recyklingiem płyt oceanicznych i osadów. Dane geomorfologiczne i izotopowe wskazują na jeden, a może dwa okresy głębokich, niemal globalnych epok lodowcowych przed 500 milionami lat, a także (wraz z danymi kopalnymi) zmiany klimatu w skali stu milionów lat. Takie zmiany prawdopodobnie odzwierciedlają zmieniające się położenie kontynentów, które wpływają na cyrkulację oceaniczną, a tym samym transport ciepła, wraz ze związanymi z tym zmianami w tempie rozprzestrzeniania się dna morskiego, wulkanizmem i aktywnością górotwórczą, które wpływają na obfitość CO2 w atmosferze. Słabe wahania widoczne w 10-milionowych okresach czasu mogą być spowodowane czynnikami wulkanicznymi lub tektonicznymi, ale mogą również odzwierciedlać efekty stochastyczne, takie jak oscylacje jasności Słońca, a nawet przejścia Układu Słonecznego do i z galaktycznych obłoków molekularnych. Silne sygnały zmian klimatu w skalach czasowych 10 000-100 000 lat są prawie na pewno wynikiem zmian nachylenia osi Ziemi, mimośrodu orbity i fazowania różnych parametrów orbitalnych. Te cykle Milankovicia są naturalną konsekwencją grawitacyjnego wpływu Księżyca i innych planet na Ziemię i prowadzą do złożonych cyklicznych modulacji sezonowej i średniorocznej absorpcji promieniowania słonecznego przez Ziemię. Wariancja jest silna, ponieważ modulacje doprowadziły do oscylacji Ziemi w ciągu ostatnich 2 milionów lat, pomiędzy stanami znaczącego zlodowacenia półkuli północnej o czasie trwania rzędu 100 000 lat i ciepłymi okresami interglacjalnymi trwającymi zwykle 1/10 czasu trwania zlodowacenia. Słaby podpis wahań klimatycznych w skali tysiącletniej jest związany z optymalnym klimatem w środkowym holocenie i późniejszym ochłodzeniem. W historycznych skalach czasowych osobliwa Mała Epoka Lodowcowa, która rozpoczęła się kilka wieków temu i zakończyła się w XIX wieku, może być postrzegana jako silna wariancja, podobnie jak oscylacje typu ENSO w skalach dekadowych i półrocznych. Ruch orbitalny Ziemi, nachylenie osi i obrót (w ich obecnych względnych orientacjach) powodują silne wahania w skalach rocznych, sezonowych i dobowych. Dwa szczególnie dobrze zbadane przykłady warunków klimatycznych w przeszłości mają znaczenie dla naszego zrozumienia wywołanych przez człowieka zmian klimatycznych. Dane izotopowe i dowody geologiczne w postaci rozkładów kopalnych i geomorfologii dowodzą, że Ziemia w okresie kredy (65-100 milionów lat temu) była wolna od stałych pokryw lodowych. Aby wyjaśnić dane, różnica temperatur między równikiem a biegunem musiała wynosić 1/2-1/4 tego, co jest obecnie, przy czym równik nie był dużo cieplejszy niż obecnie, ale bieguny były cieplejsze o 20-40°C. Samo podwojenie lub czterokrotne zwiększenie poziomu CO2 w atmosferze nie wyjaśnia klimatu kredowego, ponieważ podnosi temperatury równikowe zbyt mocno. Zamiast tego, zwiększony oceaniczny transport ciepła z równika na biegun jest przywoływany w modelach GCM, które pasują do danych geologicznych i izotopowych. Pochodzenie takiego zwiększonego oceanicznego transportu ciepła nie jest dobrze poznane; być może różnica w konfiguracji kontynentalnej w okresie kredy mogła odegrać rolę. Epizod młodszego dryasu, który miał miejsce około 11 000 lat temu, podczas przejścia od zimnych warunków lodowcowych do cieplejszych warunków holocenu, jest szczególnie godny uwagi. Był to zimny okres w kontynentalnych obszarach wokół północnego Atlantyku, który trwał nie dłużej niż stulecie, podczas którego lodowce odwróciły swój bieg. Paradoksalnie, początkiem epizodu młodszego dryasu było topnienie samych lodowców. Woda z topniejącego lodowca gromadziła się w częściach wschodniej Kanady i spływała w dół Missisipi z objętością dorównującą obecnej rzece Amazonce. Lodowce blokujące ten masowy przepływ słodkiej wody przed dostaniem się do północnego Atlantyku cofnęły się na tyle około 11 000 lat temu, że woda z topniejącego lodu zaczęła płynąć na wschód. Przypuszcza się, że ten napływ słodkiej wody do północnego Atlantyku rozcieńczył słony Prąd Zatokowy na tyle, że zapobiegło to jego opadnięciu w pobliżu Islandii, a tym samym zmniejszyło lub zablokowało towarzyszące temu uwalnianie ciepła. Cyrkulacja Zatoki ustała, zastąpiona stabilną górną warstwą bardzo zimnej wody, która schłodziła północną Europę i Kanadę oraz ponownie zainicjowała narastanie lodowców poprzez zwiększone roczne opady śniegu i zmniejszone topnienie śniegu. Gdy przepływ słodkiej wody opadł, prąd Zatoki powrócił, a ocieplenie zaczęło się ponownie. Bardzo niedawne dane z rdzeni lodowych ujawniają wiele innych szybkich epizodów wahań klimatu w epokach lodowcowych i interglacjalnych plejstocenu, niektóre na skalę dziesięcioleci lub krótszą. Powyższa interpretacja epizodu młodszego dryasu doprowadziła do spekulacji, że podobne odwrócenie wywołane na północnym Atlantyku może nastąpić, jeśli działalność człowieka przyspieszy globalne ocieplenie (patrz poniżej). Modele GCM przewidują zwiększone opady deszczu na wysokich szerokościach geograficznych, ponieważ poziom CO2 wzrośnie w nadchodzącym stuleciu. Wystarczające opady deszczu mogą zmniejszyć zasolenie wód północnego Atlantyku do takiego stopnia, że osiadanie wody u wybrzeży Islandii zostanie przerwane, jak w młodszym dryasie. Trudno przewidzieć wynikłą zmianę klimatu przy użyciu modeli GCM, ale prawdopodobnie może ona zmierzać w kierunku zwiększonego zlodowacenia z dodatnim sprzężeniem zwrotnym zapewnianym przez wysoką refleksyjność lodu wodnego. Szczegóły tej domniemanej odpowiedzi na globalne ocieplenie są mniej ważne niż ogólna lekcja z młodszego dryasu, że zaburzenia związane ze zmianą klimatu w jednym kierunku mogą spowodować, że system klimatyczny zmieni tryb, który ewoluuje w zupełnie innym kierunku.
Globalne ocieplenie wywołane przez człowieka
Począwszy od połowy XIX wieku poziom CO2 w atmosferze zaczął wzrastać w wyniku działalności człowieka, w tym spalania paliw kopalnych i wylesiania. Obecna obfitość CO2 jest o 30% wyższa niż poziom bazowy przed wzrostem. Ponadto działalność człowieka zwiększa obfitość CH4 i CFC w atmosferze, które zwiększają absorpcję podczerwieni wraz z CO2. Zwiększenie zawartości gazów cieplarnianych w atmosferze zmusza średni poziom promieniowania do przesunięcia się w górę; w odpowiedzi średnia temperatura powierzchni musi wzrosnąć, aby zrównoważyć przychodzący strumień słoneczny. Jednak złożoność różnych efektów związanych z taką zmianą, w tym przesunięcia chmur i opadów, a także rola oceanu w magazynowaniu i uwalnianiu ciepła i dwutlenku węgla, wymagają użycia modelu GCM w celu szczegółowego przewidywania wynikających z tego zmian klimatycznych. Bezpośrednie zapisy temperatur z ostatnich stu lat, a także wskaźniki temperatury zastępczej dostępne w całym holocenie sugerują, że ostatnia dekada była wyjątkowo ciepła, być może najcieplejsza w ciągu ostatnich 1000 lat. Wiele debat politycznych dotyczy interpretacji danych (naturalne wahania czy wywołane przez człowieka globalne ocieplenie?) i przydatności modeli GCM w przewidywaniu lokalnych lub regionalnych skutków. Klimat może reagować liniowo na rosnącą zawartość gazów cieplarnianych, przynajmniej przez jakiś czas. Jednak młodszy dryas i inne dowody szybkich zmian klimatu w zapisie geologicznym służą jako ostrzeżenie, że działalność człowieka, zakłócając skład atmosfery, zmusi nas do radzenia sobie ze znacznymi i prawdopodobnie niepożądanymi szybkimi zmianami klimatu.
Przyszłość badań nad klimatem
Przyszłość badań nad klimatem będzie zależeć, tak jak w ciągu ostatniego półwiecza, od międzynarodowych programów współpracy w zakresie monitorowania klimatu i oceny danych klimatycznych. Specjalne programy, często ograniczone czasowo i czasami motywowane zarówno politycznymi, jak i naukowymi nakazami, przynoszą korzyści dziedzinie badań nad klimatem poprzez dodatkowe finansowanie i przyciąganie utalentowanych studentów do tej dziedziny. Międzynarodowe Lata Polarne w latach 1882-1883 i 1932-1933 były wczesnymi przykładami skupionymi na zbieraniu danych w Arktyce. Międzynarodowy Rok Geofizyczny od 1957 do 1958 roku wykazał wykonalność znacznie szerszej, jeśli nie globalnej, koordynacji gromadzenia danych w zakresie badań Ziemi, w tym klimatu. Niedawno Światowa Organizacja Meteorologiczna i Program Środowiskowy Narodów Zjednoczonych powołały Międzynarodowy Panel ds. Zmian Klimatu, który opracował kilka głównych opublikowanych ocen stanu i najbliższej przyszłości klimatu Ziemi. Kraje prowadzące podróże kosmiczne koordynują obserwacje satelitarne, a w przypadku Stanów Zjednoczonych i Europy są w trakcie wdrażania głównych systemów opartych na przestrzeni kosmicznej w celu monitorowania klimatu Ziemi z poziomem dokładności i szerokością zasięgu znacznie przewyższającą poprzednie wysiłki. Te systemy satelitarne stanowią obecne inwestycje w wysokości miliardów dolarów i euro i będą rosły w przyszłości. Imponujący wzrost możliwości obliczeniowych przyniesie korzyści badaniom klimatu na dwa sposoby, umożliwiając bardziej rozbudowane i wierniejsze modele klimatyczne oraz umożliwiając gromadzenie i przetwarzanie bardzo dużych zestawów danych na temat klimatu Ziemi. Nowe podejścia obliczeniowe do przetwarzania informacji i dostępność sieci WWW sprawiają, że dane klimatyczne są bardziej zrozumiałe i dostępne zarówno dla badaczy, jak i decydentów. Stopniowe gromadzenie danych z sond kosmicznych na Marsie, Wenus i Tytanie pozwoliło na zastosowanie modeli GCM do tych trzech pozostałych stałych ciał planetarnych o znacznych atmosferach. Takie wysiłki testują nasze zrozumienie fizyki klimatu w reżimach bardzo różniących się od reżimu samej Ziemi. W miarę jak nasze doświadczenie z klimatem Ziemi staje się coraz bardziej szczegółowe wraz z eksploracją klimatów innych planet, nasze zrozumienie procesów w nim zachodzących będzie się dramatycznie pogłębiać.
Bliskie gwiazdy podwójne
Często okazuje się, że gwiazda ma gwiazdę towarzyszącą, która znajduje się bardzo blisko niej. Często też te dwie gwiazdy zmieściłyby się wygodnie w naszym układzie słonecznym, którego promień wynosi około dziesięciotysięcznej odległości do najbliższej gwiazdy. Czasami te dwie gwiazdy są tak blisko siebie, że praktycznie się stykają. W kilku przypadkach rzeczywiście się stykają, a nawet zachodzą na siebie, tak że możemy mieć pojedynczą jednostkę w kształcie ósemki (układ podwójny "kontaktowy") składającą się z dwóch jąder gwiazdowych w pojedynczej cienkiej otoczce. Większość bliskich układów podwójnych (CB) jest odkrywana jedną z dwóch technik: (i) mogą one wykazywać okresowe przesunięcie Dopplera spowodowane ruchem na orbicie keplerowskiej (SPECTROSCOPIC BINARY STARS, lub SB) lub (ii) mogą wykazywać okresowe zaćmienia, gdy jedna gwiazda przechodzi przed drugą (ECLIPSING BINARIES, lub EB). SB i EB mają okresy od ∿30 lat do kilku dni, a nawet kilku minut. Konkretnie, ustaliliśmy okres 30 lat jako górną granicę dla "bliskości". Oznacza to separacje, zgodnie z trzecim prawem Keplera, mniejsze niż orbita Saturna, w przybliżeniu. Istnieją inne sposoby rozpoznawania niektórych klas CB. Na przykład, wybuchy kategorii NOVA i karłowatych nowych wskazują na binarność, a tak samo (często, ale nie zawsze) jest produkcja promieni rentgenowskich. Jednak binarność takich obiektów jest znana tylko dlatego, że bardzo duża ich część po dokładnym zbadaniu okazuje się być albo SB, albo EB (lub obydwoma). Statystyczny rozkład okresów w CB nie jest jeszcze dobrze określony. Chociaż znanych jest kilka tysięcy SB i EB, ich wykrycie podlega wielu efektom selekcji. Na przykład, krótkie okresy są zwykle łatwiejsze do rozpoznania niż długie okresy. Najbardziej systematyczne badania wykazują, że dłuższe okresy, powiedzmy 3-30 lat, są częstsze niż krótkie, powiedzmy 3-30 dni, ale tylko o skromny czynnik, być może czynnik 5. Wśród gwiazd podobnych do Słońca prawdopodobnie około 20% to CB, jak zdefiniowano powyżej, podczas gdy wśród masywnych gwiazd typu widmowego O proporcja musi być znacznie wyższa, ponieważ około 25% ma okresy do zaledwie około 30 dni. Dłuższe okresy orbit spektroskopowych wśród gwiazd typu O są trudne do rozpoznania, ponieważ takie gorące i masywne gwiazdy mają tendencję do wewnętrznego widmowego "drgania", które może ukryć ruch orbitalny. Jeśli dwie gwiazdy typu słonecznego krążą wokół siebie (ściśle wokół swojego środka ciężkości) z okresem około 10 lat, byłyby mniej więcej tak daleko od siebie, jak Jowisz od Słońca. Moglibyśmy nie myśleć o tym jako o bliskim, ponieważ ich separacja byłaby prawie tysiąc razy większa niż ich promienie. Jednak w miarę ewolucji gwiazdy stają się większe, ostatecznie o współczynnik kilkuset w promieniu, a może nawet tysiąca. Oczywiste jest, że gdy gwiazda jest prawie tak duża jak orbita, na której się znajduje, musi się wydarzyć coś dość drastycznego. Istnieje wiele dowodów obserwacyjnych na to, niektóre bezpośrednie, a niektóre pośrednie. Bezpośrednio obserwujemy szereg układów podwójnych, w których strumień gazu przepływa z jednej gwiazdy do drugiej. Pośrednio widzimy szereg CB zawierających zwarte pozostałości gwiazdowe: BIAŁE KARŁY (WD), GWIAZDY NEUTRONOWE (NS), a nawet CZARNE DZIURY (BH). Te pozostałości mogą wydawać się dość odległe w swoich obecnych układach podwójnych, ale muszą być potomkami gwiazd, które kiedyś były znacznie większe. Mogą znajdować się w układach podwójnych, które obecnie są zbyt blisko siebie, aby kiedykolwiek zawierały normalne gwiazdy, więc w przeszłości musiała mieć miejsce jakaś interakcja. CB są interesujące z co najmniej trzech bardzo różnych powodów. Po pierwsze, dokładny pomiar orbity, zwłaszcza w układach, które są zarówno SB, jak i EB, może doprowadzić do określenia mas i promieni gwiazd. Jest to w rzeczywistości jedyny wiarygodny sposób określania takich podstawowych parametrów. Po drugie, pokazują one szeroki zakres procesów fizycznych, których nie można zaobserwować w przypadku pojedynczych gwiazd, na przykład strumienie gazu, które mogą zostać oderwane od jednego składnika i zaabsorbowane przez drugi. Po trzecie, dają nam możliwość przetestowania wniosków na temat ewolucji gwiazd. Gwiazda o danej masie początkowej rozpoczyna większą część swojego życia w skromnym promieniu, porównywalnym ze Słońcem, gdy synteza jądrowa (spalanie wodoru do helu) zostaje ustanowiona w jej centralnym jądrze. Jest to gwiazda "ciągu głównego" (MS) i pozostaje taka, rozszerzając się powoli o współczynnik około 2,5 promienia, aż wyczerpie paliwo wodorowe w swoim centrum. Następnie ewoluuje szybciej do dużego promienia, dużej jasności i niskiej temperatury powierzchni: staje się CZERWONYM OLBRZYMEM (RG). Centralne jądro wytwarzające energię staje się natomiast bardziej zwarte. Czas życia jako RG wynosi zazwyczaj ∿10-30% czasu życia w paśmie MS. W końcu albo (a) osiąga tak wysoką jasność, że jest w stanie zdmuchnąć większość swoich zewnętrznych warstw poprzez silny wiatr gwiazdowy, albo (b) w przypadku bardziej masywnych gwiazd jądro staje się tak zwarte, że grawitacja powoduje jego implozję, a nagłe uwolnienie energii grawitacyjnej w jądrze zdmuchuje otoczkę w eksplozji supernowej. Pozostałość w obu przypadkach jest zwartym, bezwładnym obiektem, a WD w przypadku (a) i NS lub BH w przypadku (b). Czas życia tej pozostałości jest niezwykle długi, ale jednocześnie obiekt jest bardzo słaby i dlatego niepozorny. Wydaje się, że dość podstawową właściwością ewolucji gwiazd jest to, że w miarę starzenia się ich jądra stają się mniejsze, a otoczki większe. Obecne Słońce ma około 50% swojej masy w wewnętrznych 50% swojego promienia. Jednak Słońce stanie się RG za około 5 Gyr, a na późnym etapie tego procesu wewnętrzne 50% masy skurczy się do jądra (w praktyce WD) o jednej dwudziestej swojego obecnego promienia, podczas gdy pozostałe 50% rozszerzy się do otoczki około 300 razy większej od swojego obecnego promienia. Jednocześnie jego jasność wzrośnie do kilku tysięcy razy swojej obecnej wartości. Bardziej masywne gwiazdy przechodzą przez dość podobne etapy, ale tym szybciej, im większa masa. Najwyraźniej taka ekspansja musiałaby zostać w jakiś sposób zmodyfikowana, gdyby Słońce miało towarzysza w układzie podwójnym na orbicie, powiedzmy, takiej jak Ziemia. Ta orbita ma promień około 200 razy większy od promienia Słońca. W rzeczywistości, gdy Słońce osiągnie promień wynoszący zaledwie około 80 razy większy od obecnej wartości, obecność tego hipotetycznego towarzysza na orbicie Ziemi spowodowałaby, że otoczka Słońca stałaby się niestabilna. Krytyczny rozmiar jest określany przez jej "PŁAT ROCHE′A" . Dla każdej pary mas i każdego rozdzielenia orbitalnego istnieje krytyczna powierzchnia w kształcie ósemki, która ma jeden składnik w środku każdego płata. Jeśli objętość gwiazdy przekroczy objętość jej płata Roche′a, gwiazda staje się niestabilna. Jej materiał powinien wydostawać się z jej płata przez punkt przecięcia i do drugiego płata. Zaobserwowano, że kilka gwiazd robi właśnie to. Na przykład w Algol (β Per), pierwszej odkrytej EB (przez Goodricke&perime;a w 1783 r.), promień jednego składnika jest niemal równy promieniowi jego płata, a obecność strumienia gazu w układzie od dawna jest rozpoznawana przez obecność linii emisyjnych. W pozornym paradoksie gwiazda wypełniająca jej płat jest mniej masywna niż towarzysz, co przeczy teoretycznemu oczekiwaniu, że to bardziej masywna gwiazda powinna stać się niestabilna jako pierwsza. Odpowiedź na to pytanie jest taka, że gwiazda, która pierwotnie była bardziej masywna, rzeczywiście stała się niestabilna jako pierwsza, ale następnie straciła tak wiele swoich zewnętrznych warstw z powodu swojej niestabilności, że teraz jest mniej masywna z dużym marginesem. Większość, ale prawdopodobnie nie cała, utraconej masy została akreowana przez towarzysza, co jeszcze bardziej zwiększyło margines. Cztery aspekty ewolucji gwiazd są szczególnie ważne w kształtowaniu naszych oczekiwań dotyczących gwiazd podwójnych.
(i) Gwiazdy mają tendencję do zwiększania rozmiaru wraz z wiekiem, przynajmniej tak długo, jak gwiazda ma jeszcze paliwo jądrowe do spalenia. Zachowują swoją początkową masę przez większość swojego życia, ale na późnym etapie dużego promienia i dużej jasności wyrzucają znaczną część swojej masy w przestrzeń, pozostawiając zwartą, wyczerpaną pozostałość.
(ii) Tempo ewolucji silnie wzrasta wraz ze stopniem ewolucji; ekstremalny RG ewoluuje sto razy lub więcej razy szybciej niż na MS.
(iii) Tempo ewolucji jest bardzo wrażliwe na początkową masę gwiazdy: jeśli jeden składnik układu podwójnego jest powiedzmy o 20% bardziej masywny niż drugi, można się spodziewać, że przejdzie przez całe swoje życie i stanie się zwartą pozostałością, podczas gdy drugi pozostaje prawie niezmieniony na MS. Gwiazdy, których początkowa masa jest mniejsza od masy Słońca, nie mogą w ogóle znacząco ewoluować w czasie życia (uważa się, że wynosi ∿10-15 Gyr) wszechświata. (iv) Natura pozostałości (WD, NS lub BH) prawdopodobnie zależy głównie od początkowej masy gwiazdy, choć z dużo mniejszą pewnością niż trzy poprzednie propozycje. WD wydają się pochodzić z gwiazd nie większych niż 6 lub 7 razy masywniejszych od Słońca, BH prawdopodobnie z gwiazd 30-50 razy masywniejszych od Słońca, a NS z mas pośrednich. Może jednak występować pewne znaczące nakładanie się, być może w zależności od niektórych pozornie drugorzędnych właściwości gwiazdy, takich jak jej prędkość obrotowa lub siła jej pola magnetycznego.
Wstępne oczekiwanie jest takie, że tak jak ewolucja pojedynczej gwiazdy zależy głównie od jednej wielkości, jej początkowej masy, tak ewolucja układu podwójnego będzie zależeć głównie od trzech wielkości, dwóch początkowych mas i okresu orbitalnego (lub równoważnie, separacji). Ostatni z nich określi, jak daleko w swojej ewolucji może posunąć się gwiazda o większej masie początkowej, zanim stanie się niestabilna, wypełniając swój płat Roche′a i przekazując masę swojemu towarzyszowi. Po przekroczeniu tego punktu ewolucja obu gwiazd może stać się wyraźnie inna niż byłaby, gdyby nie znajdowały się w układzie podwójnym. Trzy wielkości, o których mowa powyżej, dwie masy i okres, określają (zgodnie z prawem grawitacji Newtona) nie tylko separację, ale także moment pędu. Jest to kardynalna zasada fizyki, że w układzie izolowanym moment pędu jest zachowany. Transfer masy między gwiazdami, gdy jedna z nich wypełni swój płat Roche′a, zmieni okres i separację obu gwiazd, ale nie powinien (można by przypuszczać) zmieniać jej momentu pędu. Zasada ta pozwala nam przewidzieć, jaka będzie przyszła ewolucja po rozpoczęciu transferu masy (zwykle określanego jako przepełnienie płatu Roche′a). Na tej podstawie spodziewamy się mniej więcej następujących rzeczy:
(a) przegrywający nadal traci masę, aż zostanie rozebrany do swojego zwartego (WD) jądra, a orbita w tym procesie staje się znacznie szersza;
(b) zyskujący, który prawdopodobnie nadal jest gwiazdą MS, chyba że jego początkowa masa była dość zbliżona do masy zyskującego, zacznie ewoluować szybciej i z kolei stanie się duży, aż wypełni swój własny płat Roche′a.
W praktyce jednak sytuacja wydaje się bardziej skomplikowana. Prawdopodobnym wyjaśnieniem jest to, że gwiazdy, zwłaszcza w układach podwójnych, tracą masę, nie tylko względem siebie, ale (w efekcie) do nieskończoności, tak że układ nie jest izolowany. Masa utracona do nieskończoności może przenosić moment pędu. Jeśli masa ta jest stosunkowo bogata w moment pędu w porównaniu z pierwotnym układem podwójnym, utrata może sprawić, że układ podwójny stanie się mniejszy. Jeśli jest stosunkowo uboga, może sprawić, że układ podwójny stanie się szerszy, a nawet (co jest nieco zaskakujące) tak szeroki, że stanie się nieograniczony, a oba składniki same będą zmierzać do nieskończoności w różnych kierunkach. Dwa dość ekstremalne przykłady mogą to zilustrować. Gwiazda 0957 ? 66 jest układem podwójnym dwóch gwiazd białych, z których każda ma masę około jednej trzeciej masy Słońca. Okres orbitalny jest krótszy niż 1,5 h. Nawet całkowita masa jest zbyt mała, aby mogła nastąpić jakakolwiek ewolucja, więc układ musiał stracić co najmniej jedną trzecią swojej pierwotnej masy; bardziej realistycznie, co najmniej 60%. Ponadto moment pędu jest zbyt niski, nawet o jeszcze większy współczynnik, aby układ zawierał kiedyś dwie gwiazdy MS zdolne do znaczącej ewolucji. Układ musiał utracić co najmniej 85-90% swojego pierwotnego momentu pędu. Z drugiej strony zauważyliśmy powyżej, że duża część masywnych (typu O) gwiazd MS znajduje się w CB. Można się spodziewać, że gwiazdy typu O będą ewoluować w NS, a mimo to NS są obserwowane jako przytłaczająco pojedyncze; tylko około 5% pulsarów radiowych występuje w układach podwójnych. Sugeruje to, że eksplozja supernowej, która towarzyszyła zapadnięciu się jądra do rozmiaru NS, usunęła znaczną część masy, z łatwością ponad 50% pierwotnej masy układu, jednocześnie usuwając nieproporcjonalnie mało momentu pędu. Taki proces może całkowicie zakłócić układ podwójny, dając jeden, a w dłuższej perspektywie dwa izolowane NS. Wariantem tego jest to, że eksplozja supernowej ma pewien stopień asymetrii, tak że pozostałość po eksplozji otrzymuje "kopa", który może być wystarczająco silny, aby wyrzucić ją z układu. Aby zrozumieć ewolucję CB, musimy zatem zwrócić uwagę na możliwe procesy powodujące utratę masy lub utratę momentu pędu, oprócz wszelkich spodziewanych przepełnień Rochelobe. Kilka procesów jest wymienionych tutaj.
a) Promieniowanie grawitacyjne z pewnością spowoduje utratę momentu pędu, choć zwykle w bardzo powolnej skali czasowej. Jednak wspomniana powyżej para WD powinna wpaść w siebie w ciągu mniej niż 1 Gyr.
(b) Aktywność magnetyczna może powodować utratę masy. Uważa się, że ta aktywność jest siłą napędową wiatru słonecznego. Taki wiatr jest znacznie silniejszy w rozwiniętych RG niż w gwiazdach MS, zwłaszcza stosunkowo szybko obracających się RG, które często występują w CB. Pole magnetyczne, łączące gwiazdę z wiatrem, może powodować "hamowanie magnetyczne", prawdopodobnie wydajny proces utraty momentu pędu. Utrata masy wynosząca 0,1% może wiązać się z utratą momentu pędu wynoszącą 10%.
(c) Nawet pojedyncze gwiazdy tracą dużo masy, być może 50-80% początkowej masy, z powodu znacznie silniejszych "superwiatrów" w ich bardzo jasnych ostatnich stadiach. Część z tego może zostać akreowana przez towarzysza, nawet jeśli żadna z gwiazd nigdy nie wypełni jego płata Roche'a. Ta utrata masy prawdopodobnie nie spowoduje dużej utraty momentu pędu, a ostateczny układ podwójny może być mniej więcej tak blisko, jak początkowy układ podwójny, a nawet nieco szerszy.
(d) Przepełnienie płatu Roche'a może spowodować katastrofalną ucieczkę, jeśli stosunek masy (przegrany/zyskający) jest duży lub przegrany ma głęboko konwekcyjną otoczkę, taką jak można się spodziewać w układzie RG. Masa zrzucona przez przegrywającego, zamiast gromadzić się na zyskującym, może gromadzić się w "wspólnej otoczce" wokół układu i ostatecznie zostać wyrzucona, niosąc nie tylko dużą ilość masy, ale także nieproporcjonalnie dużą ilość momentu pędu, tak że ostateczny układ podwójny może być znacznie mniejszy niż początkowy. Ten proces może nawet doprowadzić do zlewania się, a pozostały obiekt będzie szybko obracającą się pojedynczą gwiazdą.
(e) Jak wskazano powyżej, wybuch supernowej może usunąć dużo masy i albo zwiększyć, albo zmniejszyć moment pędu w pozostałej masie. Dobrze wymierzony "kopniak" może nawet spowodować połączenie się, w wyniku czego pozostałość NS uderzy w towarzyszący MS i opadnie do jego środka.
Wiele zaobserwowanych układów podwójnych wydaje się być modyfikowanych przez jeden lub więcej z tych procesów, prawdopodobnie oprócz przepełnienia płatu Roche′a. Tabela zawiera listę szeregu układów podwójnych i ich parametrów astrofizycznych, takich jak okres, masy, mimośród, separacja i promienie (jeśli są znane).
Wykazują one szeroki zakres stanów ewolucyjnych dla każdego składnika. Oprócz stanów MS, RG, WD, NS, BH uwzględniamy dwa kolejne, przedciąg główny (PM) i gorącą pozostałość, które opisujemy poniżej. Stan taki jak "RG+MS; S" oznacza, że gwiazda RG i MS znajduje się w stanie "półoddzielonym" (S) - gdzie większa gwiazda wypełnia swój płat Roche′a. D odnosi się do stanu "oddzielonego" - a C do stanu "kontaktowego" . TY CrA jest najwyraźniej bardzo młodym układem podwójnym, w którym mniej masywna gwiazda nadal kurczy się w kierunku MS; fuzja wodoru nie osiągnęła jeszcze stanu równowagi. Kiedy to nastąpi, układ będzie przypominał nieco GGLup, w którym mniej masywna gwiazda jest również mniejsza. α Vir (Spica), GG Lup, RT And, α Aur (Capella) i V2291 Oph to wszystkie normalne układy, niektóre bardzo bliskie, a niektóre szersze, w których nie wystąpił jeszcze żaden przelew płatów Roche′a. W każdym przypadku bardziej masywna gwiazda wypełni swój płat Roche′a w odpowiednim czasie. W α Aur widzimy, że obie gwiazdy są olbrzymami: zgodnie z punktem (iii) powyżej mają niemal równe masy. V2291 Oph ma dość długi okres (∿1 rok). Gdyby był jeszcze 20 razy dłuższy, RG mógłby ewoluować bez przelewu płatów Roche′a, ale z ostatnim epizodem superwiatru - procesem (c) powyżej - który przekształciłby go w a WD bez większego wpływu ani na okres, ani na drugą gwiazdę. Pozostawiłoby to ją jak α CMa (Syriusz), gdzie WD ma tylko połowę masy swojego towarzysza, ale prawdopodobnie była kiedyś bardziej masywnym składnikiem. Dalsza ewolucja drugiej gwiazdy w V2291Oph byłaby podobna (nadal zakładając, że okres byłby dłuższy) i pozostawiłaby szeroką parę WD, takich jak EG52. Jednak ? Cap pokazuje, że pewna znacząca interakcja może mieć miejsce przy okresach orbitalnych kilku lat. Tutaj jedna gwiazda, prawdopodobnie pierwotnie bardziej masywna, jest WD, ale towarzysz RG ma widmo niezwykle bogate w bar (Ba) - a także niektóre inne pierwiastki. Oczekuje się, że te pierwiastki powstaną w wyniku syntezy jądrowej dopiero na bardzo późnym etapie ewolucji, krótko przed etapem superwiatru. Musiały zostać wytworzone przez pierwszą gwiazdę, wyrzucone w jej superwiatrze i akreowane przez drugą gwiazdę, gdzie teraz pojawia się w widmie. BF Cyg jest prawdopodobnie w stanie, w którym ζ Cap będzie ewoluować, gdy jej gigantyczny składnik będzie jeszcze większy. Ten "symbiotyczny" układ pokazuje połączenie chłodnej, bardzo dużej gwiazdy i małego gorącego obiektu, prawdopodobnie gorącej pozostałości RG, która utraciła otoczkę, ale jeszcze nie jest WD. Gorący obiekt wydaje się oddziaływać z wiatrem z obecnego składnika RG, który być może wypełnia połowę jego płatu Roche′a. Kiedy wypełnia swój płat Roche′a, interakcja może być dość dramatyczna - przypadek (d) powyżej - prowadząc do fazy wspólnej otoczki i pozostawiając parę WD + WD, prawdopodobnie pośrednią w okresie między 0957 ? 66 a EG52. CI Cyg jest innym układem symbiotycznym, ale tutaj gorący obiekt jest prawdopodobnie gwiazdą MS, ogrzewaną przez akrecję z wiatru RG, a nie WD. Jest zatem raczej mniej niż bardziej rozwinięta niż ζ Cap (i prawdopodobnie ma znacznie mniejszą masę). Epizod ze wspólną otoczką wydaje się raczej prawdopodobny, ponieważ przyszły przegrany, RG, jest prawdopodobnie trzy razy masywniejszy od zyskującego. Masa wyrzucona we wspólnej otoczce może na krótko zabłysnąć jako mgławica planetarna w świetle ultrafioletowym z odsłoniętego jądra RG (gorąca pozostałość), a jeśli okres ten zostanie znacznie skrócony przez fazę wspólnej otoczki, jak się spodziewano, możemy otrzymać obiekt taki jak UU Sge, który jest otoczony przez mgławicę planetarną Abell 63. Wiele innych mgławic planetarnych ma gwiazdy centralne CB, które najłatwiej zrozumieć jako pozostałości fazy wspólnej otoczki . W UU Sge można by się spodziewać, że gorący resztkowy obiekt ostygnie dość szybko do WD, a następnie układ może nie zmieniać się dalej, ponieważ druga gwiazda ma zbyt małą masę, aby ewoluować - punkt (v). Jednak utrata momentu pędu przez proces (b) może działać, ponieważ wiadomo, że chłodne, szybko obracające się karły MS są aktywne magnetycznie. To zmniejszyłoby układ podwójny do momentu, aż mógłby stać się podobny do DQHer, gdzie chłodny karzeł wypełniałby swój płat Roche′a. Takie układy podwójne są zmiennymi "kataklizmicznymi", które wykazują epizodyczne wybuchy. Są one spowodowane połączeniem niestabilności w akreującym przepływie gazu (nowe karłowate) i niestabilności termojądrowej w gazie niedawno akreowanym na powierzchni składnika WD (nowe klasyczne). DQ Her miał klasyczny wybuch nowej w 1934 roku. Układy o krótkim okresie początkowo, takie jak GG Lup, ? Vir i RT And, powinny osiągnąć przepełnienie płatów Roche′a znacznie wcześniej niż powiedzmy CI Cyg, być może nawet przed przejściem z MS do RG. λ Tau i β Per (Algol) to dwa takie układy podwójne z trwającym przepełnieniem płatów Roche′a. Pierwszy może pochodzić ze stosunkowo masywnego układu, pośredniego między ? Vir i GG Lup, drugi z czegoś pośredniego między RT And i GG Lup. Przegrany w β Per jest teraz RG, ale był prawdopodobnie MS, gdy rozpoczął się przepełnienie płatów Roche′a. W przeciwieństwie do szerszych układów, takich jak V2291 Oph lub CI Cyg, nie ma miejsca, aby RG, w przyszłości, ewoluował do dużego promienia i masywnego rdzenia WD. Zamiast tego RG w β Per prawdopodobnie straci całą swoją otoczkę, gdy rdzeń będzie nadal obiektem o małej masie. Produktem będzie układ podobny do V1379 Aql, w którym gorący resztkowy obiekt (jeszcze nie WD) stanowi zaledwie 10% masy towarzysza i prawdopodobnie jest resztką dawnego RG. Towarzysz w V1379 Aql sam ewoluował z MS, stając się RG i wkrótce wypełni swój własny płat Roche′a. Znaczny stosunek mas prawdopodobnie sprawi, że będzie to zdarzenie o wspólnej otoczce - punkt (d) - a następnym etapem będą dwa WD o małej masie, na bardzo krótkiej orbicie, prawdopodobnie takiej jak 0957?66. Promieniowanie grawitacyjne - punkt (a) - spowoduje, że te WD będą się spiralnie zbliżać do siebie w dość krótkiej skali czasowej (około 10 milionów lat), aby spowodować trzeci epizod przepełnienia płatu Roche′a. Układ może przypominać AM CVn, który wydaje się (ale ze znaczną niepewnością) być układem podwójnym o ultrakrótkim okresie dwóch WD, przy czym większy (i mniej masywny) składnik przelewa się przez płat Roche'′. Niektóre układy podwójne, takie jak Z Her, są wystarczająco szerokie, aby jeden składnik stał się przynajmniej małym RG przed przepełnieniem płatu Roche′a. Dziwne jest tutaj to, że bardziej rozwinięty składnik jest nieco mniej masywny niż jego towarzysz. Może to być spowodowane punktem (b) powyżej; aktywność magnetyczna może powodować znacznie szybszą niż normalna utratę masy przez wiatr gwiazdowy, krótko przed rozpoczęciem przepełnienia płatu Roche′a. Jednak towarzysz sam jest dość rozwinięty i może być również RG, gdy rozpocznie się przepełnienie płatu Roche′a. Możemy zatem otrzymać podwójny układ podwójny RG półoddzielony, taki jak RT Lac. Późniejsza ewolucja może również przeprowadzić układ przez etapy takie jak V1379 Aql, 0957 ? 66 i AM CVn. W układzie początkowo takim jak RT And, w którym dwa składniki prawie się stykają, mimo że są ledwie rozwinięte, możemy się spodziewać, że bardzo krótko po przepełnieniu płatu Roche′a składniki faktycznie się zetkną . Zarówno ewolucja jądrowa, jak i hamowanie magnetyczne - punkt (b) - mogą sprawić, że układ będzie jeszcze mniejszy w tej fazie kontaktu, ale może to zrobić tylko wtedy, gdy przepływ masy zostanie średnio odwrócony, tak że mniej masywna gwiazda zostanie stopniowo wchłonięta przez bardziej masywną. Może to być początek układu takiego jak CrA, który musi być w dość zaawansowanym stadium, ponieważ jeden składnik jest 10 razy bardziej masywny niż drugi. Osobliwością w tym i innych układach podwójnych kontaktowych jest to, że oba składniki mają mniej więcej taką samą temperaturę i jasność, podczas gdy gdyby były oddzielne, mniej masywny składnik byłby co najmniej 1000 razy słabszy. Wydaje się to wskazywać, że gdy dwie gwiazdy są w kontakcie, cieplejsza podgrzewa chłodniejszą, wysyłając energię przez wąską "szyję" łączącą je. Można przypuszczać, że masa przepływa powoli w przeciwnym kierunku, aż do momentu, gdy mniej masywna gwiazda zostanie całkowicie pochłonięta, a to, co pozostaje, to pojedyncza gwiazda, dająca niewielkie wskazówki na temat jej poprzedniej historii podwójnej. Jeśli jeden składnik jest wystarczająco masywny, może być przeznaczony do tego, by skończyć jako NS lub BH, a nie WD. α Vir może w odpowiednim czasie wytworzyć dwa NS, &;ambda; Tau prawdopodobnie tylko jeden NS i jeden WD. Φ Per być może reprezentuje późny etap przyszłej ewolucji ? Vir, gdy przepełnienie płatów Roche′a rozebrał początkowo masywniejszą gwiazdę do gorącej pozostałości, która prawdopodobnie nie jest bardzo daleko od wybuchu supernowej. Dłuższy okres w Φ Per nie jest sprzeczny z dużo krótszym początkowym okresem, ponieważ zachowanie momentu pędu powinno powodować wzrost okresu w miarę postępu przepełnienia płatów Roche′a. CV Ser może być porównywalnie późnym etapem znacznie masywniejszego układu podwójnego, a można by argumentować, że bardziej rozwinięty, ale mniej masywny składnik może zmierzać w kierunku BH, a nie NS. Chociaż wcześniej argumentowaliśmy, że wybuch supernowej prawdopodobnie rozbije układ podwójny, rozsadzając dwa składniki na oddzielne pojedyncze gwiazdy, najwyraźniej nie zawsze tak się dzieje, ponieważ układy podwójne, takie jak QVNor i Cyg X-1, mają odpowiednio towarzysza NS i BH. Te ultrakompaktowe towarzysze są identyfikowane przez fakt, że są bardzo jasne w promieniach rentgenowskich . BH jest wnioskowana w Cyg X-1, ponieważ, chociaż jej masa nie jest dobrze znana, musi być ona w każdym rozsądnym modelu kilkakrotnie większa niż maksymalna możliwa masa NS. Zarówno w QV Nor, jak i Cyg X-1 występuje normalna gwiazda, jak również zwarta pozostałość. Ten normalny składnik musi sam rosnąć z wiekiem i prowadzić do drugiego epizodu przepełnienia Rochelobe. Jednak w tych przypadkach stosunek mas jest bardzo ekstremalny, co zgodnie z punktem (d) sugeruje fazę wspólnej otoczki z prawdopodobieństwem, że orbita skurczy się o duży współczynnik. To może być początek podwójnego układu podwójnego NS, takiego jak 1913 + 16. Nie rozpoznano jeszcze żadnego układu podwójnego BH + NS, ale prawdopodobnie możemy się spodziewać ich niewielkiej liczby w Galaktyce. Dość duży początkowy stosunek masy wydaje się być wymagany do wytworzenia układu takiego jak V404 Cyg, w którym jeden składnik jest BH, a drugi jest dość skromnym RG. Być może zaczęło się to od okresu tak długiego jak kilka lat, z jedną gwiazdą o masie 40 mas Słońca, a drugą tylko 2 lub 3. Bezpośrednio nie znamy takich układów, ale byłyby bardzo trudne do rozpoznania. Bardziej masywna gwiazda mogła na krótko stać się ekstremalnym RG, wypełnić swój płat Roche′a, a następnie ulec masywnemu wyrzuceniu otoczki i jednoczesnemu skurczeniu orbity przez mechanizm wspólnej otoczki. Pozostałość masywnej gwiazdy zapadła się następnie w eksplozji supernowej, tworząc BH, ale być może raczej przypadkowo, nie zakłócając nowego krótkookresowego układu podwójnego. Następnie składnik o małej masie ewoluował i teraz cierpi na przepełnienie Rochelobe. RG powinien stracić całą swoją otoczkę i skończyć jako WD: wynik byłby nieco podobny do układu podwójnego 1855 + 09, chociaż z czarną dziurą, a nie czarną dziurą. Aby uzyskać sam układ 1855 + 09, moglibyśmy potrzebować umiarkowanie mniej masywnych gwiazd pierwotnych, ale historia może być podobna. Nauka rozumienia procesów ewolucyjnych, w wyniku których gwiazdy CB osiągnęły konfiguracje, w których są obserwowane, jest wciąż w powijakach. W żadnym wypadku nie wszystkie niewielkie wybory w tabeli 1 wygodnie pasują do obecnego zrozumienia, a znanych jest kilka znacznie trudniejszych układów. Aby dodać do niepewności, kilka gwiazd okazuje się po dostatecznie dokładnej inspekcji potrójnymi, a trzecia gwiazda może być zdolna do interakcji z pierwszymi dwoma, aby zapewnić dodatkową warstwę złożoności.
Bliskie gwiazdy podwójne: powstawanie i ewolucja
Układ podwójny składa się z dwóch gwiazd związanych grawitacyjnie, które krążą wokół wspólnego środka ciężkości (COG). Obserwacje wskazują, że większość gwiazd należy do układów podwójnych lub nawet układów wielokrotnych składających się z trzech, czterech lub więcej gwiazd. Układy wielokrotne mają tendencję do hierarchii, tzn. układy potrójne zwykle składają się z bliskiej pary, przy czym trzeci towarzysz krąży w znacznie większej odległości itd. Pojedyncze gwiazdy, takie jak Słońce, są mniej powszechne. Dlatego nie można opracować kompleksowej teorii ewolucji gwiazd bez uwzględnienia efektów ewolucji podwójnej. Mówimy o BLISKICH GWIAZDACH PODWÓJNYCH, gdy dwie gwiazdy są tak blisko siebie, że mają głęboki wpływ na wzajemną ewolucję. Najczęściej jest to spowodowane siłami pływowymi (patrz poniżej), przez które gwiazdy są deformowane, a gdy jedna z gwiazd rozszerza się poza pewną krytyczną otaczającą powierzchnię (PŁAT ROCHE'A), powoduje wymianę masy między dwiema gwiazdami. Ponieważ gwiazdy znacznie pęcznieją w trakcie swojego życia, często o kilka rzędów wielkości, nawet układy podwójne z okresami orbitalnymi wynoszącymi dziesięciolecia mogą być bliskimi układami podwójnymi. G.P. Kuiper (1941) jako pierwszy rozpoznał znaczenie płatów Roche′a dla gwiazd podwójnych. Bliźniacze układy podwójne można podzielić na trzy szerokie klasy: oderwane (D), półoderwane (SD) i kontaktowe (C), w zależności od tego, czy żadna (D), tylko jedna (SD) lub obie gwiazdy wypełniają swoją krytyczną powierzchnię Roche′a dla wymiany masy. Prototypowym półoderwanym ciasnym układem podwójnym jest ALGOL (β Persei); jego okresowe (2,87 dnia) zmiany jasności zostały po raz pierwszy odkryte w 1667 r., ale dopiero w 1783 r. John Goodricke wyjaśnił te zmiany w kategoriach zaćmienia jednej gwiazdy przez drugą w ciasnym układzie podwójnym. Po wprowadzeniu spektroskopii gwiazdowej pod koniec XIX wieku udowodniono, że ta idea jest słuszna. Jednak wraz z pojawieniem się obliczeń ewolucji gwiazd na komputerach elektronicznych około 1950 r. ⊙
Deformacja pływowa gwiazd podwójnych
Gdy odległość orbitalna D między dwoma składnikami podwójnymi jest duża w porównaniu z wymiarem największej gwiazdy, dynamikę dwóch związanych gwiazd można odpowiednio opisać za pomocą układu dwóch mas punktowych. Jednakże, gdy rozmiar R największej gwiazdy nie jest dużo mniejszy niż odległość orbitalna D, należy wziąć pod uwagę wewnętrzną strukturę gwiazdy (gwiazd). Różnica między przyciągającą siłą grawitacyjną towarzysza na bliskiej i dalekiej stronie drugiej gwiazdy jest regulowana przez prawo odwrotnych kwadratów Newtona. Stosunek między siłą grawitacyjną towarzysza w dwóch skrajnych punktach obu półkul gwiazdowych większej gwiazdy wynosi zatem [(D - R)/(D + R)]-2. Ten stosunek może znacznie różnić się od jedności, jeśli R/D nie jest dużo mniejsze od jedności. Oczywiste jest, że wzajemne przyciąganie grawitacyjne nie tylko utrzymuje dwie gwiazdy razem na ich orbicie, ale także ściska gwiazdy, oddalając je od siebie wzdłuż linii łączącej dwa centra gwiazdowe. Ta deformacja jest przejawem "siły pływowej", tj. różnicy siły grawitacyjnej nad gwiazdą. Jeśli orbita jest ekscentryczna i/lub obroty gwiazd nie są synchroniczne z obrotem orbity, deformacja pływowa bliskich składników układu podwójnego jest oczywiście zależna od czasu. Spadek energii orbitalnej poprzez nieuchronne rozproszenie tych okresowych deformacji pływowych generuje momenty pływowe między gwiazdami, które mają tendencję do kołowego (i kurczenia) orbity i mają tendencję do synchronizowania spinów gwiazd z obrotem orbity. Skala czasowa tego procesu relaksacji pływowej szybko maleje wraz ze wzrostem R/D, tj. ze wzrostem ściskania pływowego składników układu podwójnego. W przypadku wystarczająco bliskich układów podwójnych deformacja pływowa gwiazd może stać się tak poważna, że materia powierzchniowa w jednej z gwiazd (lub obu) staje się niezwiązana i zaczyna płynąć do towarzysza, zjawisko znane jako przepełnienie płatów Roche′a (RLO).
Zasady transferu masy w ciasnych układach podwójnych
Przyjmijmy tzw. "przybliżenie Roche&pimel;a", tj. załóżmy, że momenty pływowe działały wystarczająco długo, aby orbita układu podwójnego stała się kołowa (tj. obie gwiazdy opisują okręgi wokół wspólnego środka ciężkości). Załóżmy również, że w wyniku momentów pływowych gwiazdy obracają się wokół swojego indywidualnego środka ciężkości z tą samą prędkością kątową, co orbita. Ponieważ wewnętrzny rozkład masy gwiazd wykazuje silne skupienie w centrum gwiazdy (zwykle wzrastające wraz z wiekiem), możemy, jako pierwsze przybliżenie dla pola grawitacyjnego w rozrzedzonych warstwach zewnętrznych, założyć, że cała masa jest skoncentrowana w centrum gwiazdy. Rozważmy teraz cząstkę testową (tj. masę punktową o zaniedbywalnej masie w porównaniu z masami gwiazd M1 i M2) dryfującą poza dwiema gwiazdami. Wprowadzając układ obracający się z tą samą prędkością kątową = [G(M1 + M2)/D3]1/2 co ruch orbitalny wokół środka ciężkości, możemy wyrazić przyspieszenie doświadczane przez tę cząstkę jako:
gdzie G jest stałą grawitacyjną Newtona, i
są wektorami od dwóch mas gwiazdowych do cząstki testowej, a r jest wektorem od COG do cząstki. Dwa ostatnie człony po prawej stronie opisują przyspieszenie odśrodkowe i przyspieszenie Coriolisa w naszym obracającym się układzie odniesienia. Można wykazać, że przyspieszenie współbieżnej cząstki testowej (z) można wyrazić jako gradient efektywnego potencjału grawitacyjnego (skorygowanego o efekt odśrodkowy):
gdzie d jest odległością cząstki od osi orbity przechodzącej przez COG. Powierzchnie równe Ψ są znane jako powierzchnie ekwipotencjalne Roche′a;. Przekroje poprzeczne z płaszczyzną orbity zawierają pięć szczególnych punktów, zwanych punktami Lagrange′a L1, L2,…, L5, w których przyspieszenie współporuszającej się cząstki znika, tj. w których przyspieszenie grawitacyjne spowodowane przez dwie gwiazdy jest dokładnie znoszone przez przyspieszenie odśrodkowe od osi orbity. Powierzchnia ekwipotencjalna przechodząca przez wewnętrzny punkt Lagrange′a L1 składa się z dwóch gruszkowatych płatów Roche′a i tworzy największą zamkniętą powierzchnię wokół każdej z dwóch gwiazd, łącząc się w punkcie L1. Można wykazać, że powierzchnie ekwipotencjalne Roche′a wewnątrz gwiazd pokrywają się z powierzchniami o równym ciśnieniu i gęstości: ekwipotencjalne Roche′a (w przybliżeniu) nadają kształt dwóm gwiazdom w układzie podwójnym. Co się stanie, jeśli jedna z dwóch gwiazd rozszerzy się i wypełni swój płat Roche′a? Widzieliśmy, że cząstka testowa w spoczynku w L1 nie doświadcza żadnego przyspieszenia netto. Jednak wewnątrz gwiazdy wypełniającej płat działa inna siła ze względu na gradient ciśnienia termicznego w gazie gwiezdnym. Jeśli gwiazda jest oderwana, ta siła ciśnienia równoważy przyciąganie grawitacyjne gwiazdy do wewnątrz (skorygowane o siłę odśrodkową spowodowaną obrotem gwiazdy). Ale ponieważ siła grawitacyjna netto (skorygowana o obrót) wynosi zero w L1, siła ciśnienia jest tam niezrównoważona i wydmuchuje strumień gazu przez region (punktu siodłowego) wokół L1 do płatu Roche′a towarzysza. Tam zostanie on szybko przyspieszony do prędkości naddźwiękowych przez przyciąganie grawitacyjne towarzysza. Przeniesiona masa (lub przynajmniej jej część) ostatecznie spadnie na towarzysza. Ponieważ przepływ masy przez L1 niesie orbitalny moment pędu, nie może on spaść bezpośrednio na gwiazdę towarzyszącą i - jeśli ta ostatnia jest wystarczająco zwarta, aby strumień nie uderzył w nią bezpośrednio - utworzy wokół gwiazdy towarzyszącej dysk akrecyjny, w którym część energii spadającej zostanie rozproszona i wypromieniowana. Wymiana masy głęboko zmienia dalszą ewolucję obu gwiazd.
Ewolucja orbitalna
Proces wymiany masy jest skomplikowanym zjawiskiem hydrodynamicznym, którego szczegóły są nadal słabo poznane. Ogólny obraz jest następujący. Załóżmy dla uproszczenia, że cała materia, która wpływa do płatu Roche′a towarzysza, jest ostatecznie akreowana przez towarzysza i że orbitalny moment pędu układu
jest zachowany podczas wymiany masy. Część orbitalnego momentu pędu może zostać pochłonięta (poprzez momenty pływowe) przez spiny gwiazd, ale z wyjątkiem ekstremalnych układów, można to zwykle pominąć. Ponieważ ilość masy i momentu pędu zmagazynowanego w materii przeniesionej, ale jeszcze nieakreowanej, można pominąć w porównaniu z ilością obu gwiazd, nowe rozdzielenie orbitalne po wymianie danej ilości masy jest podane przez warunek, że Jorb jest stały. Jeśli zróżnicujemy powyższe wyrażenie względem czasu (oznaczone kropką), to warunek Jorb = 0 daje
co pokazuje, że transfer masy z masywniejszej gwiazdy (M1) do gwiazdy mniej masywnej ( ˙M1 < 0) daje D˙ < 0 i w ten sposób powoduje kurczącą się orbitę. Z drugiej strony, gdy M1 < M2 transfer masy do Mposzerza orbitę. Obserwacje wielu układów podwójnych potwierdzają ten podstawowy obraz, chociaż wiele szczegółów jest nadal słabo znanych. Na przykład obserwacje materii okołogwiazdowej wokół bliskich układów podwójnych SD wskazują, że część przeniesionej materii może uniknąć akrecji przez towarzysza. Jednak z wyjątkiem sytuacji ekstremalnych,założenie braku utraty masy przez układ wydaje się ogólnie dawać przynajmniej jakościowo poprawny obraz.
Reakcja gwiazdy tracącej masę>
Ponieważ masywniejsza gwiazda (pierwotna) w układzie podwójnym ma największy promień i ewoluuje najszybciej, będzie pierwszą, która rozszerzy się do swojego płatu Roche′a w początkowo oderwanych bliskich układach podwójnych. Właśnie widzieliśmy, że separacja orbitalna D zanika w odpowiedzi na transfer masy do mniej masywnego składnika. Rozmiar płatu Roche′a wokół głównego zmniejsza się wraz z D i zależy od odpowiedzi głównego na utratę materii powierzchniowej, w jakiej skali czasowej kontynuowany jest transfer masy. Ta reakcja zależy od rozwarstwienia w otoczce głównego: głęboka otoczka konwekcyjna charakteryzuje się stromym gradientem temperatury. Kiedy masa jest tracona na jej powierzchni, szybka adiabatyczna ekspansja nowo odsłoniętych warstw powierzchniowych - w celu przywrócenia globalnej równowagi hydrostatycznej - wydobywa stosunkowo gorący materiał, sprawiając, że gwiazda początkowo jest większa niż jej konfiguracja równowagi termicznej. Z drugiej strony, kiedy otoczka jest przeważnie radiacyjna, dla której gradient temperatury jest mniej stromy, adiabatyczna ekspansja powoduje, że gwiazda jest mniejsza niż jej rozmiar równowagi termicznej. Oczywiste jest, że RLO z głębokiej konwekcyjnej otoczki jest z natury niestabilne, ponieważ im większa utrata masy, tym silniejsza szybka ekspansja adiabatyczna i tym większe rozszerzenie pierwotnego poza płat Roche′a. Możemy wyróżnić trzy skale czasowe dla transferu masy. Dynamiczna wymiana masy w skali czasowej występuje, gdy szybka adiabatyczna odpowiedź pierwotnego na utratę masy powoduje, że powierzchnia pierwotnego znajduje się poza skurczoną powierzchnią Roche′a. Pierwotnego nie można utrzymać wewnątrz jego płatu Roche′a, więc jego warstwy powierzchniowe zostaną wyczerpane przez ciągłą ekspansję przez L1. Taka sytuacja ma miejsce, gdy pierwotny jest (super)olbrzymem i ma głęboką konwekcyjną otoczkę. Podobna niestabilna sytuacja ma miejsce, gdy (masywniejsza) gwiazda kontaktowa jest zdegenerowana (biały karzeł), ponieważ takie gwiazdy zawsze rozszerzają się, tracąc masę. Wymiana masy w skali czasu termicznego ma miejsce, gdy po szybkiej adiabatycznej ekspansji, która przywraca globalną równowagę hydrostatyczną, gwiazda pierwotna pozostaje wewnątrz skurczonego płata Roche′a i nie dochodzi do niekontrolowanej wymiany masy. Transfer masy jest następnie napędzany przez (wolniejszą) relaksację termiczną gwiazdy pierwotnej: przywracając równowagę termiczną w jej zaburzonych warstwach zewnętrznych, gwiazda ponownie rozszerzy się poza płat Roche′a. Ten typ przepełnienia płatu Roche′a występuje w gwiazdach pierwotnych z (głównie) promienistymi warstwami zewnętrznymi i jest samoregulujący, ponieważ relaksacja termiczna i wynikająca z niej ekspansja konkurują z kurczeniem się spowodowanym szybką utratą masy. Wymiana masy w skali czasu jądrowego ma miejsce, gdy gwiazda kontaktowa jest mniej masywna niż akretor, a separacja układu podwójnego i ogólnie płat Roche′a rozszerzają się. W tych okolicznościach wymiana masy może być utrzymana tylko przez ewolucyjną ekspansję gwiazdy pierwotnej napędzaną reakcjami syntezy termojądrowej w jej wnętrzu. Sytuacja taka ma miejsce w późniejszych fazach transferu masy, po odwróceniu stosunku mas w układzie binarnym, i skutkuje najwolniejszym trybem wymiany masy.
Reakcja akreującego towarzysza
Rozważmy teraz, co dzieje się z akreującym towarzyszem wtórnym podczas początkowego RLO. Będąc mniej masywną gwiazdą w układzie, akreujący odłączony towarzysz ma zazwyczaj dłuższą skalę czasu termicznego niż gwiazda kontaktowa. Dlatego jego równowaga termiczna zostaje poważnie zaburzona przez szybką akrecję przeniesionego materiału, szczególnie dlatego, że akreowany materiał niesie znaczną energię kinetyczną po opadnięciu z L1. Ta energia kinetyczna jest w większości rozpraszana na powierzchni akretora lub w jej pobliżu, znacznie go ogrzewając. (Zwykle) niewielka część orbitalnego momentu pędu przenoszona przez strumień akrecyjny może spowodować szybki obrót akretora. Jest prawdopodobne, że akretor powiększy się do lub poza swój płat Roche′a, szczególnie podczas dynamicznej fazy transferu masy w skali czasu, ale prawdopodobnie również podczas wymiany w skali czasu termicznego. W takim przypadku układ podwójny wkrótce ewoluuje w układ kontaktowy ze wspólną otoczką wokół dwóch płatów Roche′a. Późniejsza ewolucja takich układów kontaktowych jest słabo poznana.
Przypadki A, B i C wymiany masy
Istnieją trzy główne fazy ewolucyjne, podczas których gwiazda rozszerza się i może najpierw wypełnić swój płat Roche′a, a mianowicie faza spalania wodoru w jądrze (faza ciągu głównego) oraz fazy szybkiego kurczenia się jądra w kierunku zapłonu helu i zapłonu węgla. Kippenhahn i Weigert (w 1967 r.) wprowadzili odpowiednią klasyfikację odpowiednio do przypadków A, B i C wymiany masy.
Przypadek A. Gwiazda pierwotna wypełnia swój płat Roche′a, będąc nadal w ciągu głównym. Gdy rozpocznie się przepełnienie płata Roche′a, równowaga termiczna gwiazdy pierwotnej staje się coraz bardziej zaburzona i następuje szybka faza wymiany masy w skali czasu termicznego, w której stosunek mas q jest więcej niż odwrócony. Następnie ewolucja zwalnia do skali czasu jądrowego. Gwiazda wypełniająca płat Roche′a stała się nadświetlnym podolbrzymem spalającym wodór w jądrze. Znanych jest wiele zmiennych zaćmieniowych tego typu. Symulacje numeryczne pokazują, że przypadek A wymiany masy prawie zawsze prowadzi do kontaktu podwójnego.>
>
Przypadek B. Pierwotny jest (sub)olbrzymem spalającym wodór w powłoce, gdy osiąga płat Roche′a. Początkowa szybka faza transferu masy może być albo w dynamicznej skali czasu (gdy pierwotny rozwinął głęboką otoczkę konwekcyjną), albo w skali czasu termicznego, gdy konwekcja w otoczce jest mniej rozwinięta. Następna wolniejsza faza transferu masy do teraz masywniejszego towarzysza przebiega albo w skali czasu termicznego kurczącego się jądra helowego, albo w skali czasu jądrowego źródła powłoki wodorowej w mniej masywnych pierwotnych jądrach, które rozwinęły zwarte zdegenerowane jądro helowe.>
>
W przypadku pierwotnych jąder pierwotnie masywniejszych niż 3M⊙ wymiana masy kończy się, gdy pierwotny zapłon helu w jądrze, przez co pozostałość pierwotnego jądra (prawie pozbawiona otoczki wodorowej) kurczy się wewnątrz płata Roche′a. Przypadek B w masywnych układach podwójnych wytwarza zatem gwiazdy niemal czystego helu (gwiazdy WOLFA-RAYETA (gwiazdy WR)) na orbicie z towarzyszem ciągu głównego. Masywniejsze gwiazdy helowe (w przybliżeniu MHe > 2,5M⊙) eksplodują następnie jako supernowe typu II: pozostałe jądro zapada się do gwiazdy neutronowej, a nawet czarnej dziury. Pierwotne gwiazdy, pierwotnie mniej masywne niż 3M⊙, kończą fazę szybkiego transferu masy, gdy ekspansja gwiazdy zwalnia wraz z początkiem degeneracji elektronów w silnie skompresowanym jądrze helowym. Następująca po tym powolna wymiana masy tworzy układy podwójne o stosunkach mas tak małych jak 1/5 lub 1/10. Wtórny układ ciągu głównego jest teraz znacznie jaśniejszy niż jego mniej masywny (zbyt jasny) towarzysz kontaktowy podolbrzyma. Jeśli nachylenie orbity jest korzystne, taki układ podwójny wykazuje zaćmienia i zostanie sklasyfikowany jako układ podwójny typu Algol. Transfer masy kończy się, gdy otoczka wodorowa gwiazdy kontaktowej zostaje wyczerpana zarówno przez spalanie otoczki, jak i utratę masy. Otoczka pozostałości kurczy się w obrębie płata Roche′a, a układ pierwotny ewoluuje w białego karła helowego o małej masie.
Przypadek C. Odpowiada to transferowi masy z gwiazd ewolucyjnych o bardzo rozciągniętych otoczkach i było mało badane, częściowo z uwagi na trudności w traktowaniu rozciągniętych chłodnych warstw zewnętrznych gwiazdy kontaktowej. Aby porównać rozmiar płata Roche′a z zazwyczaj kulistymi modelami gwiazd, należy określić promień Roche′a: jest to promień kuli o tej samej objętości co płat Roche′a.
Niekonserwatywna ewolucja układów podwójnych
Zauważyliśmy już, że część strumienia masy przechodzącego przez L1 w układach podwójnych półoddzielonych może opuścić układ, ale jak dotąd nie mamy możliwości wiarygodnego określenia tego. Istnieją jednak inne sposoby, w jakie masa może zostać utracona z układu podwójnego. Obserwacje pokazują, że wiele gwiazd traci masę w postaci wiatrów gwiazdowych, niezależnie od możliwego towarzysza układu podwójnego. Towarzysz może w rzeczywistości przechwytywać część tego wyrzuconego materiału wiatru, tak że wymiana masy może nastąpić nawet w układach podwójnych oddzielonych. Jednak wskaźniki transferu są na ogół znacznie mniejsze niż w przypadku RLO. W gwiazdach (super)olbrzymach i bardzo masywnych gwiazdach wczesnego typu straty wiatru gwiazdowego zabierają znaczną część masy gwiazdy. Szybki wiatr izotropowy, który odłącza się od gwiazdy na jej powierzchni, pozostawia moment pędu pozostałego niezmiennika masy i w ten sposób poszerza orbitę układu podwójnego, gdy masa grawitacyjna w układzie podwójnym maleje. Gwiazdy z powierzchniowymi polami magnetycznymi wystarczająco silnymi, aby sprzęgać się z wyrzucanym zjonizowanym materiałem wiatru i wymuszać współrotację na kilka promieni gwiazdowych od powierzchni, są obracane w dół przez moment magnetyczny. W układach podwójnych SD efektywna interakcja pływowa ma tendencję do utrzymywania rotacji gwiazdy synchronicznej z orbitą, tak że moment pędu spinowego przenoszony przez magnetycznie sprzężony wiatr musi być kompensowany przez orbitalny moment pędu układu. Skutecznie sprzężony wiatr może zatem wymusić zmniejszenie separacji orbitalnej. Jeśli te straty wiatru mogą wystąpić jednocześnie z RLO, szybkość transferu masy jest zwiększana przez indukowane kurczenie się płata Roche′a. Powszechnie uważa się, że takie "hamowanie magnetyczne" występuje w układach z gwiazdami typu G i K, np. w zmiennych kataklizmicznych (CV). Obserwacyjnie wnioskowane spowolnienie spinu gwiazd G wraz z wiekiem dostarcza nam informacji o tym hamowaniu magnetycznym, chociaż nie jest wcale pewne, czy wartości te można zastosować do szybko obracających się gwiazd podwójnych. Inny niekonserwatywny efekt wynika z ogólnej teorii względności Einsteina, która przewiduje, że zwarty układ podwójny emituje promieniowanie grawitacyjne, przenosząc moment pędu. Wynikowa szybkość utraty momentu pędu orbitalnego wynosi J˙
gdzie c jest prędkością światła. W ciasnych układach podwójnych z okresami orbitalnymi krótszymi niż około pół dnia indukowany rozpad orbity staje się znaczący.
Układy podwójne o wspólnej otoczce
Niewiele wiadomo o transferze masy i energii między dwiema gwiazdami w układach podwójnych kontaktowych, a ich ewolucji nie można wiarygodnie symulować. Najbardziej znaną klasą układów podwójnych kontaktowych są układy W Ursae Majoris (W UMa), które składają się z gwiazd typu widmowego G i K, o typowym stosunku mas wynoszącym 2. Gwiazdy te mają konwekcyjne warstwy zewnętrzne, a zatem wspólną otoczkę konwekcyjną, która, jak się uważa, pochłania płaty Roche′a obu gwiazd i leży wewnątrz powierzchni ekwipotencjalnej przez L2. Obserwuje się również układy podwójne kontaktowe z masywnymi gwiazdami wczesnego typu (które mają otoczki radiacyjne). Ponadto istnieją dowody obserwacyjne na istnienie układów podwójnych kontaktowych z chłodnymi składnikami nadolbrzymów z głębokimi otoczkami konwekcyjnymi.
Ewolucja spiralna
Zostało to zasugerowane przez B. Paczynskiego (w 1976 r.) i obecnie powszechnie uważa się, że w pewnych okolicznościach ewolucja układów podwójnych o wspólnej otoczce może być bardzo gwałtowna w przeciwieństwie do obserwowanych, pozornie stabilnych układów wymienionych powyżej. Krytycznym czynnikiem wydaje się stosunek masy układu podwójnego q = M1/M2. Jeśli gwiazda kontaktowa w bliskim układzie podwójnym jest znacznie masywniejsza i większa niż jej towarzysz, pochłonie ona niezaniedbywalną część orbitalnego momentu pędu, gdy siły pływowe próbują utrzymać jej spin synchroniczny z przyspieszeniem zwężającego się obrotu orbitalnego jej towarzysza. Nawet przed fazą SD naturalna ekspansja gwiazdy głównej spowalnia jej spin, przez co pływy stają się aktywne, aby resynchronizować gwiazdę. Ze względu na absorpcję orbitalnego momentu pędu przez gwiazdę główną, towarzysz musi lekko spiralnie do wewnątrz, po czym obraca się jeszcze szybciej na swojej orbicie. Aby przyspieszyć spin dużej gwiazdy w kierunku synchronizmu, należy pobrać z orbity jeszcze więcej momentu pędu, a dla wystarczająco dużej gwiazdy głównej układ podwójny przechodzi przez katastrofalną niestabilność pływową (G.H. Darwin, 1908), przez co towarzysz nurkuje w otoczce gwiazdy głównej. Towarzysz porusza się następnie z prędkością naddźwiękową przez otoczkę pierwotną, w wyniku czego fale uderzeniowe gwałtownie rozpraszają energię orbitalną, co prowadzi do jeszcze szybszego rozpadu orbity. Szczegóły i dokładny wynik tego skomplikowanego zjawiska są nieznane. W wielu przypadkach otoczka pierwotna może zostać wyrzucona przez rozproszoną energię orbitalną, tak że praktycznie tylko jej rdzeń pozostaje na ciasnej orbicie z być może usuniętym towarzyszem. Obserwowane mgławice planetarne z podwójnymi jądrami (około 5-10% populacji) mogą być wynikiem takiej ewolucji. Istnieje inne powiązanie obserwacyjne, mianowicie z CV, zwartymi układami podwójnymi ze składnikiem białego karła, który jest otoczony jasnym dyskiem akrecyjnym. Te układy wykazują słabe okresowe wybuchy (nowe karłowate) lub silne erupcje (nowe).
Powstawanie i ewolucja CV
Uważa się, że CV ewoluowały poprzez fazę spiralną, ponieważ składnik BIAŁEGO KARŁA musi być pozostałością jądra byłej dużej gwiazdy olbrzyma, która nigdy nie mogła zostać umieszczona w obecnie obserwowanych ciasnych układach podwójnych CV o typowych okresach orbitalnych mniejszych niż 10 h. Przypuszczalnie nieewoluujący towarzysz ciągu głównego białego karła, pierwotnie na szerokiej orbicie, zwinął się w znacznie większego i cięższego olbrzyma (przodka białego karła) z powodu niestabilności pływowej i odparował rozszerzoną otoczkę tego ostatniego, tak że pozostał tylko zdegenerowany rdzeń (biały karzeł). W przypadku separacji orbitalnych (zaraz po fazie spirali) większych niż wartość krytyczna układ podwójny ewoluuje powoli do szerszego układu, gdy nieewoluująca gwiazda rozszerza się do swojego płatu Roche′a i rozpoczyna się powolny transfer masy w skali czasu jądrowego. Uważa się, że w węższych układach dominującym jest magnetyczne hamowanie gwiazdy ciągu głównego, w wyniku czego separacja układu podwójnego zanika nawet wtedy, gdy gwiazda ciągu głównego wypełnia swój płat Roche′a i przekazuje materię do masywniejszego białego karła. Wzmocniony transfer masy generuje gorący, jasny dysk akrecyjny wokół białego karła, a układ podwójny staje się układem CV. Skala czasu hamowania magnetycznego jest znacznie krótsza niż skala czasu jądrowego gwiazdy kontaktowej, więc ewolucja jądrowa tej gwiazdy zostaje skutecznie zamrożona i ewoluuje ona w dół ciągu głównego, pozostając mniej więcej w równowadze termicznej. Jednak gdy okres orbitalny został skrócony do około 3 godzin, ciągła utrata masy lekko zaburzyła równowagę termiczną gwiazdy kontaktowej. Obserwacje wskazują, że nie istnieją żadne układy podwójne CV z okresem wynoszącym od około 3 do 2 godzin: tzw. przerwa okresowa. Uważa się, że przerwa okresowa jest spowodowana nagłym zakończeniem hamowania magnetycznego, co skutkuje przerwaniem transferu masy, gdy gwiazda kurczy się wewnątrz swojego płatu Roche′a, przywracając równowagę termiczną. Uważa się, że hamowanie magnetyczne kończy się, gdy gwiazda kontaktowa staje się w pełni konwekcyjna - co ma miejsce mniej więcej na tym etapie ewolucji w symulacjach numerycznych. Do tego czasu jedyne straty momentu pędu z układu podwójnego wynikają z promieniowania grawitacyjnego. Dopiero gdy orbita się rozpadnie, a płat Roche′a ponownie zacieśni się wokół gwiazdy o małej masie, RLO może kontynuować. Gdy kontynuowany RLO zredukuje masę gwiazdy kontaktowej do około 0,1 M⊙, jej skala czasu termicznego staje się dłuższa niż skala czasu utraty masy, tj. dłuższa niż skala czasu strat promieniowania grawitacyjnego. Dalsza utrata masy znacząco zaburza jej równowagę termiczną, a gwiazda oddala się od ciągu głównego. W tym momencie reakcje syntezy jądrowej w jej wnętrzu zaczynają zanikać, przez co gaz elektronowy ulega degeneracji. Po pewnym czasie gwiazda kontaktowa staje się tak zdegenerowana, że jej relacja masa-promień odwraca się i zaczyna się rozszerzać w odpowiedzi na utratę masy. Od tego momentu szybkość transferu masy jest dyktowana przez warunek, że płat Roche′a, a zatem separacja gwiazd, musi się zwiększać. Układ podwójny przechodzi zatem minimalny okres orbitalny, który w przypadku otoczek bogatych w wodór okazuje się wynosić około 80 min. Obserwowany brak układów CV poniżej Porb ≃ 80 min potwierdza, że transfer masy w tych zwartych układach CV jest rzeczywiście napędzany promieniowaniem grawitacyjnym.
Powstawanie i ewolucja rentgenowskich układów podwójnych o dużej masie (HMXB)
Masywne rentgenowskie układy podwójne składają się z masywnej gwiazdy wczesnego typu (OB) na orbicie z NEUTRONSTAR, która przechwytuje materię z wiatru gwiazdowego masywnej gwiazdy poprzez ogniskowanie grawitacyjne. Istnienie gwiazdy neutronowej oznacza, że układ podwójny przetrwał gwałtowną eksplozję SUPERNOWEJ (SN), w wyniku której powstała gwiazda neutronowa po zapadnięciu się wypalonego jądra gwiazdy pierwotnej. Uważa się, że przed eksplozją SN układ podwójny ewoluował poprzez przypadek B transferu masy, w którym stosunek mas się odwrócił, tak że pozostałość gwiazdy helowej układu głównego stała się mniej masywnym składnikiem, gdy eksplodowała jako SN (van den Heuvel i Heise, 1972). Gdyby to była bardziej masywna gwiazda, która eksplodowała, układ podwójny uległby rozproszeniu, chyba że eksplozja była asymetryczna i przypadkowo wygenerowałaby odpowiedni wypadkowy odrzut w kierunku przeciwnym do ruchu orbitalnego, tak aby układ podwójny mógł przetrwać. W przybliżeniu Bondiego-Hoyle′a efektywny promień przechwytywania wiatru gwiazdy neutronowej wynosi RA ≃ GM2/V2, gdzie V jest prędkością (naddźwiękowego) materiału wiatru w pobliżu gwiazdy neutronowej (w jej układzie odniesienia). Dla typowych prędkości wiatru RA jest większe niż promień geometryczny gwiazdy neutronowej. Prędkości wiatru są wysokie, rzędu prędkości ucieczki z powierzchni gwiazdy głównej, tak że towarzysz może akreować tylko niewielką część emitowanego wiatru. Materia wiatru nagrzewa się i emituje promienie rentgenowskie, gdy zderza się z gwiazdą neutronową, wytwarzając jasne źródło promieni rentgenowskich (np. Vela X-1); odpowiada to etapowi (e) na rysunku 4. W niektórych przypadkach (Cen X-3) wczesny RLO może być odpowiedzialny za emisję promieniowania rentgenowskiego, chociaż pełnowymiarowy transfer masy w skali czasu termicznego z masywnej gwiazdy prawdopodobnie prowadzi do zniknięcia źródła promieniowania rentgenowskiego przez samoabsorpcję i do późniejszego spiralnego wciągania gwiazdy neutronowej i odparowania otoczki masywnej gwiazdy. Spirala może wytworzyć nowy, ale teraz znacznie bardziej zwarty, rentgenowski układ podwójny, taki jak Cyg X-3 z okresem orbitalnym wynoszącym zaledwie 4,8 h. Spektroskopia w podczerwieni wykazała, że towarzyszem gwiazdy neutronowej jest gwiazda WR typu azotowego. Takie gwiazdy to gwiazdy helowe o masach przekraczających około 5M, tak więc gwiazda helowa w Cyg X-3 jest prawdopodobnie gołym rdzeniem pozostałym po spiralinie gwiazdy neutronowej w znacznie masywniejszą pierwotną gwiazdę wtórną. Gdy druga gwiazda helowa ewoluuje do fazy SN, układ podwójny może zostać rozerwany, pozostawiając dwie pojedyncze gwiazdy neutronowe, w których najmłodsza, ze względu na swój szybki spin i silne pole magnetyczne, działa jako pulsar radiowy. Jeśli okoliczności są sprzyjające (wybuch supernowej), a układ podwójny pozostaje związany, pozostajemy z kompaktowym układem pulsara podwójnego, z których kilka jest obserwowanych i w którym rozpad orbity przez promieniowanie grawitacyjne może być dokładnie mierzony dzięki dokładnemu zegarowi dostarczanemu przez szybko wirującą gwiazdę neutronową (pulsar radiowy). Obserwacje J.H. Taylora (w 1986 r.) pięknie potwierdziły przewidywania z ogólnej teorii względności.
Powstawanie i ewolucja rentgenowskich układów podwójnych o małej masie (LMXB)
Nasza Galaktyka zawiera około 100 rentgenowskich układów podwójnych o małej masie, w których gwiazda neutronowa (lub CZARNA DZIURA) otrzymuje masę od gwiazdy kontaktowej o małej masie. Okres orbitalny został zmierzony tylko dla mniejszości tych układów; większość okresów orbitalnych okazuje się być krótsza niż 20 h. Jednak z istnienia szerokich układów podwójnych składających się z pulsara radiowego z towarzyszącym mu białym karłem można oczekiwać istnienia układów LMXB, w których gwiazda neutronowa jest zasilana przez RLO z rozszerzającego się (sub)olbrzyma, prekursora białego karła, fazy, w której układ podwójny rozszerza się w skali czasu jądrowego (sub)olbrzyma. Niewiele z tych układów jest obserwowanych, ale Cyg X-2 prawdopodobnie należy do tej klasy. Podobnie jak w układach CV, obserwacyjnie wnioskowane szybkości transferu masy w zwartych układach LMXB wydają się wyższe niż te, które mogą być spowodowane powolną ekspansją jądrową gwiazdy kontaktowej o małej masie. Najwyraźniej transfer masy jest wzmacniany przez kontrakcję układu podwójnego spowodowaną utratą momentu pędu, podobnie jak w układach CV. Wydaje się, że istnieje rozwidlenie na zwarte i szerokie układy LMXB: układy krótkookresowe, w których dominują straty momentu pędu spowodowane hamowaniem magnetycznym i promieniowaniem grawitacyjnym, ewoluują do coraz mniejszych rozmiarów, podczas gdy układy z okresami przekraczającymi krytyczny okres początkowy (rzędu 1 dnia), po którym te straty momentu pędu stają się nieskuteczne, ewoluują w czasie ekspansji jądrowej (sub)olbrzymiej gwiazdy kontaktowej i stają się bardzo szerokimi układami. Główną różnicą między zwartymi układami LMXB a układami CV jest to, że akrecja na gwiazdę neutronową w układach LMXB uwalnia znacznie więcej energii, która może być częściowo przechwycona przez (w ten sposób rozgrzaną) gwiazdę kontaktową. Akreująca materia może obracać gwiazdę neutronową do okresów spinu milisekund. Zasugerowano, że akreowana energia obrotowa może ostatecznie odparować gwiazdę kontaktową o małej masie w zwartych LMXB. Wyjaśniałoby to pozorny brak przerwy w okresie (orbitalnym) między około 3 a 2 h w LMXB, którą można zaobserwować w populacji CV. Pomysł polega na tym, że po zakończeniu hamowania magnetycznego (kiedy gwiazda kontaktowa staje się w pełni konwekcyjna) transfer masy zostaje przerwany, tak że gwiazda neutronowa zostaje nagle odsłonięta i staje się szybko wirującym pulsarem radiowym, którego wysokoenergetyczna emisja może odparować towarzysza, zanim wypełni on swój płat Roche′a. To odparowanie wyjaśniałoby również obserwowane istnienie szybko wirujących pulsarów radiowych o pojedynczej milisekundie. Z faktu, że nasza Galaktyka zawiera podobną liczbę HMXB (tylko o 50% mniej niż liczba LMXB), podczas gdy czas życia a HMXB musi być o rzędy wielkości krótszy niż czas życia LMXB, możemy wywnioskować, że powstanie LMXB jest znacznie rzadszym zdarzeniem niż narodziny HMXB. Dlatego nie dziwi fakt, że powstawanie LMXB jest znacznie mniej proste niż HMXB. Jednym ze scenariuszy powstawania, które zostały zasugerowane, jest kolaps wywołany akrecją (AIC) masywnego białego karła, w którym biały karzeł jest wypychany ponad masę graniczną Chandrasekhara i kolapsuje, stając się gwiazdą neutronową. Proces ten wymaga precyzyjnego dostrojenia z szybkościami transferu masy w wąskim zakresie do rzadkiego rodzaju masywnego białego karła (składającego się z O-Ne-Mg). Takie białe karły mogą powstawać tylko w układach podwójnych o ograniczonym zakresie mas pierwotnych i okresów orbitalnych. Transfer masy do bardziej powszechnych białych karłów węglowo-tlenowych o średniej masie prowadzi w większości przypadków do wybuchowego spalania węgla, w wyniku którego zdegenerowana gwiazda zostaje całkowicie zniszczona w eksplozji SN typu Ia. Niektóre LMXB mają towarzyszy w postaci czarnych dziur , a te nie mogą być wytwarzane przez AIC, więc kanały formowania inne niż AIC muszą być aktywne w tworzeniu LMXB. W szczególnym środowisku o wysokiej gęstości gwiazd gromad kulistych LMXB mogą powstawać, gdy gwiazda ciągu głównego o małej masie zostanie przechwycona przez przechodzącą gwiazdę zwartą, ale nie może to wyjaśnić występowania LMXB w pozostałej części Galaktyki. Ewolucja spiralna po eksplozji supernowej masywnej gwiazdy helowej może wyjaśnić istnienie składników gwiazdy neutronowej lub czarnej dziury w zwartych LMXB, ale tylko w dość ekstremalnych warunkach układy po spirali mogą ewoluować w LMXB.
Chmury w atmosferach planetarnych
Czym są chmury? Odpowiedź na to pytanie jest zarówno oczywista, jak i subtelna. W atmosferze ziemskiej chmury są znane jako ogromne zbiory małych kropel wody lub kryształków lodu zawieszonych w powietrzu. W atmosferach Wenus, Marsa, Jowisza, Saturna, księżyca Saturna Tytana, Urana, Neptuna i prawdopodobnie Plutona składają się z kilku innych substancji, w tym kwasu siarkowego, amoniaku, siarkowodoru, wodorosiarczku amonu, metanu i złożonych cząsteczek organicznych. Badanie chmur dotyka wielu aspektów nauki o atmosferze. Chemia chmur jest związana z chemią otaczającej atmosfery. Chmury mogą być zarówno źródłem, jak i pochłaniaczem kondensujących się cząsteczek, ponieważ nawilżają lub osuszają powietrze. Lokalne chłodzenie lub ogrzewanie oraz lokalne różnice w zawartości wilgoci spowodowane tworzeniem się chmur zmieniają wyporność paczek powietrza, co napędza lokalną dynamikę (systemy frontowe, burze i huragany to kilka znanych przykładów). Chmury wpływają na globalny klimat, odbijając lub pochłaniając promieniowanie słoneczne, a jednocześnie zatrzymując promieniowanie cieplne. Los życia na Ziemi za kilka stuleci może zależeć od ich niepewnej roli w łagodzeniu efektów cieplarnianych zwiększonej emisji dwutlenku węgla ze spalania biomasy i paliw kopalnych. W tym artykule zbadano, co wiemy o chmurach w atmosferach planet.
Zachmurzone atmosfery planetarne
Największy satelita Saturna Tytan i wszystkie planety z wyjątkiem Merkurego mają zachmurzone atmosfery. Można je podzielić na trzy główne grupy. Woda jest głównym składnikiem chmur w stosunkowo cienkich atmosferach Ziemi i Marsa. Wenus i Tytan mają grube warstwy chmur i mgiełki, na które silnie wpływają reakcje chemiczne inicjowane przez światło słoneczne w wysokiej atmosferze. Olbrzymy Jowisz, Saturn, Uran i Neptun mają redukujące atmosfery zdominowane przez wodór, który łączy się ze śladowymi ilościami azotu, siarki i węgla, tworząc chmury amoniaku (NH3), wodorosiarczku amonu (NH4SH), siarkowodoru (H2S) i (w przypadku Urana i Neptuna) metanu (CH4). Wywnioskowano, że chmury metanu są obecne w atmosferze Plutona, chociaż interpretacja danych jest niejednoznaczna.
Ziemia
Wiemy najwięcej o naturze chmur w ATMOSFERZE ZIEMI, dlatego pouczające jest rozpoczęcie przeglądu chmur planetarnych od przeglądu chmur ziemskich. Woda jest zdecydowanie głównym składnikiem chmur ziemskich, ale często występują w nich również inne składniki (głównie siarka i azot). Woda może występować w postaci pary, kropli cieczy lub zamrożonych kryształków lodu. Ilość wody w tych różnych formach zależy od złożonej historii każdej paczki powietrza, gdy przemieszcza się ona nad lądem lub wodą. Chmury przybierają charakterystyczne formy, które są kontrolowane przez procesy dynamiczne odpowiedzialne za ich powstawanie. Patrząc na zdjęcia chmur zrobione z kosmosu, można uzyskać poczucie reżimu dynamicznego. Wizualna kategoryzacja typów chmur to nauka sięgająca wielu setek lat wstecz, a duża część terminologii jest łacińska. Współcześni meteorolodzy grupują chmury na trzy główne grupy w zależności od wysokości (niska, średnia i wysoka), z podkategoriami w obrębie każdej grupy. Na najniższej wysokości 2 km znajdują się cumulus, cumulonimbus, stratus, stratocumulus i nimbostratus. W środkowej warstwie (2-8 km) znajdują się altostratus i altocumulus. Na najwyższym poziomie troposfery znajdują się cirrus, cirrostratus i cirrocumulus. Na jeszcze wyższych wysokościach w stratosferze i przy bardzo niskich stężeniach (z wyjątkiem bezpośrednio po wybuchu wulkanu) znajdują się małe krople kwasu siarkowego na wielu szerokościach geograficznych i cząsteczki lodu, które tworzą polarne chmury srebrzyste (cienkie chmury widoczne o świcie i zmierzchu polarnym). Chmury cumulus są stosunkowo małe (kilka km średnicy), oderwane, puszyste, których szczyty i boki wydają się jaskrawo białe w bezpośrednim świetle słonecznym. W tej formie byłyby niemożliwe do zobaczenia z kosmosu, chyba że obserwowane pobliskim aparatem o wysokiej rozdzielczości przestrzennej. Można je zobaczyć jako pojedyncze chmury, w polach wielu, i mogą rozwinąć się w duże wieże kilku zgrupowanych razem. W miarę jak wilgoć staje się bardziej dostępna z parowania gruntu, chmury te mogą rosnąć i łączyć się, tworząc cumulonimbusy, które są ciężkie i gęste, o wznoszącej się strukturze. Mogą to być miejsca opadów i piorunów. Widziane z góry często mają płaski wierzchołek z ogonem rozciągającym się w dół wiatru. Morfologia ogona przypomina kowadło kowalskie, a słowo "kowadło" jest często stosowane do tych cech. Chmury są klasyfikowane jako chmury niskie, ponieważ ich podstawa znajduje się na najniższym poziomie, ale w całości chmura rozciąga się przez wszystkie trzy poziomy, a kowadło zapewnia źródło wody w dół rzeki na najwyższym poziomie. Chmury Stratus tworzą dość płaską, jednolitą warstwę, ciemnoszary koc, gdy są widziane z dołu. Często wytwarzają mżawkę lub śnieg. Chmury Stratocumulus wyglądają bardzo podobnie do stratusów, z wyjątkiem tego, że wykazują szczegóły (plamy, poszarpane krawędzie) i są miejscami mniej gęste, co pozwala na przenikanie większej ilości światła słonecznego i pokazuje jaśniejszy odcień szarości. Widziane z góry wydają się grudkowate i czasami ujawniają okresowe struktury wałów (ulice chmur), które mogą rozciągać się na wiele kilometrów. Ruch wewnątrz tych chmur może czasami wytwarzać struktury typu cumulus. Duże (∿1000 km) ławice chmur stratus i stratocumulus można zobaczyć na fotografiach satelitarnych. Chmury Nimbostratus mogą być niezwykle głębokie, z wierzchołkiem prawie na szczycie troposfery i zwykle wytwarzają opady. Chmury Altostratus różnią się od chmur stratus głównie położeniem ich podstawy, która znajduje się wyżej w troposferze. Czasami można zobaczyć kolorową koronę wokół Słońca. Jest to konsekwencja sposobu, w jaki kryształki lodu rozpraszają światło. Altocumulus mają również swoją podstawę wyżej w atmosferze w porównaniu do cumulus. Te chmury są zwykle cienkie i mogą przybierać wiele form od cienkich i płaskich do oddzielnych kęp do morfologii w kształcie zamku. Chmury w wysokiej troposferze składają się niemal wyłącznie z cząsteczek lodu. Analogicznie do niższych chmur, chmury, które są ograniczone do najwyższych warstw (cirrus, cirrostratus i cirrocumulus) mogą wahać się od szerokich płaskich arkuszy do grudkowatych, odrębnych elementów. Istnieje wiele podkategorii cirrusów, które je charakteryzują, na wiele sposobów te chmury mogą się pojawiać (gładkie, splątane, z haczykami, w komórkach, ziarniste lub faliste, przypominające struktury szkieletowe itp.). Całe to bogactwo morfologiczne ma swoje korzenie w równie bogatym dynamicznym polu wiatru i złożonej interakcji między dostawą pary lub kryształów a mikrofizycznymi procesami chmur (nukleacja, kondensacja, wzrost, parowanie, agregacja, opady). Duża część cirrusów zawdzięcza swoje pochodzenie wodzie dostarczanej przez wciąganie powietrza na dużych wysokościach z kowadeł cumulonimbusów i wierzchołków chmur nimbostratus. Halo atmosferyczne i korony są często widoczne w cienkich chmurach pierzastych, w wyniku rozproszenia światła słonecznego przez duże kryształki lodu wodnego. Jak rozumiemy złożoność różnych typów chmur i co mówią nam one o procesach? Jest to obszar aktywnych badań, ale już wiele wiadomo. Istnienie chmury wskazuje na proces, w którym paczka powietrza zawierająca parę wodną (np. z parowania nad oceanem lub nad wilgotną powierzchnią lądu) została przetransportowana do miejsca, w którym temperatura jest niższa - na tyle niska, że ciśnienie pary wodnej w powietrzu jest wyższe niż ciśnienie pary kondensacyjnej w temperaturze powietrza. Na najniższej wysokości około 12 km (troposfera) temperatura spada wraz z wysokością, więc paczka wilgotnego powietrza, która unosi się z ziemi, ostatecznie osiągnie poziom, w którym temperatura jest na tyle niska, aby umożliwić kondensację i tworzenie się chmur. Nisko położone chmury mają tak dużo wilgoci, że nie muszą wznosić się bardzo wysoko, aby temperatura osiągnęła temperaturę kondensacji. Innym sposobem na schłodzenie powietrza i wspomaganie tworzenia się chmur jest mieszanie ciepłego, wilgotnego powietrza z chłodnym, suchszym powietrzem, gdy przemieszcza się polarny front zimna. Trzecim sposobem jest unoszenie powietrza, gdy przepływa ono nad górą. Chmura tworzy się nad lub w pobliżu góry, gdy przepływające nad nią powietrze ochładza się, gdy osiąga większą wysokość. Chmury utworzone w ten sposób nazywane są chmurami orograficznymi, ponieważ pozostają nieruchome obok cechy topograficznej, gdy powietrze przepływa obok. Ten sam proces zachodzi w atmosferze Marsa w pobliżu szczytów wysokich wulkanów i w atmosferze Neptuna nad dużym wirem (Wielka Ciemna Plama). Tworzenie się chmury kłębiastej jest inicjowane przez naturalną konwekcję, gdy światło słoneczne ogrzewa wilgotny grunt. Gdy ciepła, wilgotna, wyporna paczka gazu unosi się, osiąga poziom kondensacji, w którym temperatura spada poniżej temperatury kondensacji, a chmura kłębiasta tworzy się u jej podstawy. Pomocą w konwekcji w atmosferze ziemskiej jest różnica gęstości wynikająca zarówno z różnicy temperatur (ciepła paczka jest mniej gęsta), jak i różnicy składu (wilgotna paczka jest mniej gęsta niż suchy gaz w atmosferze Ziemi). W atmosferach planet olbrzymów wilgotna paczka jest gęstsza niż suchy gaz, co raczej hamuje niż wspomaga wilgotną konwekcję. Trzecim czynnikiem, który wzmacnia wilgotną konwekcję, jest dodatkowe ciepło uwalniane jako utajone ciepło kondensacji, gdy para wodna skrapla się w chmurze. W sytuacji spoczynku, w której chmury cumulus lub stratus tworzą się i rozpraszają w równym tempie, istnieje równowaga między dopływem wilgotnego powietrza z ziemi a parowaniem i opadami w chmurze. Jeśli z ziemi pochodzi duża ilość wilgoci i jeśli początkowy ruch konwekcyjny jest dość silny, niestabilność może wzrosnąć, a wyporność przenoszona przez wilgotne paczki konwekcyjne zwiększa się do tego stopnia, że bardzo duże ilości wilgoci są wstrzykiwane na bardzo dużych wysokościach (wieże i kowadła cumulonimbusów). Chmury Stratus powstają w wyniku wolniejszego reżimu dynamicznego, w którym powietrze jest bardziej stabilne, a stały dopływ wilgoci jest stały i obfity, co chroni chmurę przed opadami i parowaniem. Kosmiczne widoki chmur na wszystkich planetach są zdominowane przez cechy wielkoskalowe. W dużej skali w atmosferze Ziemi powszechnie widoczne są trzy typy cech chmur. Każda z nich ma łatwo rozpoznawalną morfologię i ruch, które są zakorzenione w dynamicznym reżimie wymuszającym powstawanie chmur. Mezoskalowe systemy konwekcyjne składają się z pól chmur cumulonimbus, których kowadła łączą się w pojedynczą tarczę chmur o rozciągłości poziomej znacznie większej niż poszczególne kowadła. Mezoskalowe systemy konwekcyjne mogą być długie (∿100 km) i wąskie (kilka km) z rozległymi opadami występującymi na dużą skalę. Konwekcja cumulus jest napędzana przez małoskalowe (100 km lub mniej) komórki konwekcyjne. Małoskalowe komórki mogą łączyć się, tworząc znacznie większe mezoskalowe systemy konwekcyjne widoczne na zdjęciach satelitarnych. Szczególne znaczenie dla dynamiki ziemskiej atmosfery ma zorganizowana głęboka konwekcja w pobliżu równika. Uśrednione w czasie mapy zachmurzenia ujawniają pas w pobliżu równika, który przesuwa się na szerokości geograficznej wraz z porami roku. To jest Inter Tropical Convergence Zone (ITCZ). Jej istnienie jest spowodowane zbieżnością mas powietrza na niskiej wysokości, napędzaną przez cyrkulację Hadleya na dużą skalę na obu półkulach. Obfita para wodna w pobliżu powierzchni jest dostępna do transportu ogromnej ilości ciepła utajonego. Wilgotna konwekcja w ITCZ jest silna i odpowiada za dużą ilość ciepła i wilgoci przenoszonej do górnej atmosfery w ITCZ. Huragany atlantyckie i tajfuny pacyficzne to cyklony tropikalne, które stanowią inną powszechnie obserwowaną strukturę chmur na dużą skalę. Tworzą się nad oceanami i czerpią energię z wilgotnego, ciepłego powietrza oceanów tropikalnych. Cyklony obracają się w kierunku przeciwnym do ruchu wskazówek zegara na półkuli północnej i trwają około 10 dni. Huragany i tajfuny mają przepływ powrotny w wąskiej kolumnie w rdzeniu, która jest wolna od chmur. Pozostają pewne kontrowersje dotyczące tego, jakie specjalne warunki są wymagane, aby przekształcić powszechnie występujące cyklony tropikalne w intensywne systemy, które występują stosunkowo rzadko. Wspólnym mianownikiem różnych modeli jest bardzo skuteczne sprzężenie wilgotnej konwekcji w skali cumulus z polem wiatru na dużą skalę za pośrednictwem niestabilności zwanej warunkową niestabilnością drugiego rodzaju, r CISK. Zgodnie z większością modeli temperatura powierzchni oceanu musi wynosić co najmniej 26°C, co zgadza się z obserwacją i prowadzi do wniosku, że te intensywne burze będą częstsze i/lub intensywniejsze, jeśli powierzchnia morza ociepli się w przyszłości z powodu globalnego ocieplenia. Trzecią powszechnie obserwowaną strukturą chmur na dużą skalę jest cyklon pozatropikalny, który powoduje rozległe opady na średnich szerokościach geograficznych. Są one znane jako fronty pogodowe przed zimnymi regionami niskiego ciśnienia. Chmury, które tworzą się na tych frontach, robią to poprzez konwekcję pochyłą (w przeciwieństwie do konwekcji cumulus opisanej powyżej). Konwekcja pochyła występuje, gdy jeden korpus powietrza nadciąga nad inny, wymuszając unoszenie się wilgotnego powietrza w górę. Chmury wszystkich typów są powiązane z tymi cechami na dużą skalę, a także z dwoma innymi wymienionymi powyżej. Dzięki temu krótkiemu wprowadzeniu do ziemskich chmur możemy teraz zbadać chmury na innych planetach. Najlepszym miejscem do rozpoczęcia jest atmosfera Marsa, która zawiera chmury lodu wodnego i wykazuje wiele cech dynamicznych znanych z ziemskiej meteorologii
Mars
Nasza wiedza na temat atmosfery Marsa opiera się na obrazach i widmach uzyskanych na przestrzeni wielu lat z naziemnych obserwatoriów, a także z Kosmicznego Teleskopu Hubble′a, kilku radzieckich i amerykańskich satelitów przelotowych lub orbitujących oraz lądowników, w szczególności Mariners 4, 6, 7 i 9, Mars 2, 3, 4 i 5, Viking 1 i 2, Phobos 1 i 2 oraz Mars Global Surveyor, a kolejne są w drodze lub planowane. Na początku 1999 roku trzy statki (VIKING Landers 1 i 2 oraz MARS PATHFINDER) wylądowały na powierzchni i przesłały informacje in situ na temat składu atmosfery, temperatury, ciśnienia oraz nieprzezroczystości chmur i pyłu. W ciągu następnych dekad zaplanowano wiele kolejnych lądowników. Atmosfera Marsa składa się niemal wyłącznie z dwutlenku węgla (CO2) ze śladowymi ilościami wody, argonu i kilku innych składników. Średnie ciśnienie powierzchniowe wynosi 8 mb (w porównaniu do ciśnienia około 1 b na poziomie morza na Ziemi). Temperatura powierzchni waha się od około 140 K do 250 K w zależności od szerokości geograficznej i pory roku. Dwutlenek węgla skrapla się, tworząc rozległą warstwę szronu na powierzchni Marsa na wysokich szerokościach geograficznych, gdy temperatura powierzchni spada nieznacznie poniżej 150 K. Czasami temperatura w polarnej atmosferze kilka kilometrów nad powierzchnią spada na tyle nisko, że tworzy się mgła lodowa CO2, ale prawie wszystkie jasne białe chmury widoczne na Marsie składają się z lodu wodnego. Lód wodny skrapla się również na wysokich szerokościach geograficznych zimą, a na niższych szerokościach geograficznych również w chłodne noce. Czapy lodowe na biegunach i gleba Marsa służą jako zbiorniki wody, które pochłaniają lub uwalniają wodę w cyklach dobowych i sezonowych, a także w znacznie dłuższych cyklach związanych z powolnymi zmianami orbity i nachylenia Marsa. Kanały odpływowe na powierzchni są obecnie suche, ale wskazują na znacznie wilgotniejszy Mars w odległej przeszłości. Obecna ilość wody w atmosferze wynosi średnio tylko około 10 mikrometrów wytrącalnych, co jest zbyt małą ilością, aby mieć znaczenie jako źródło wyporności poprzez uwalnianie ciepła utajonego. Tak więc na Marsie nie widać żadnego z ziemskich typów chmur (cumulonimbus lub stratonimbus na małą skalę, huragany i mezoskalowe układy konwekcyjne), które żywią się utajonym wydzielaniem ciepła i obfitym zapasem wody. Najbardziej owocnym podejściem do zrozumienia chmur wodnych na Marsie jest zauważenie ich podobieństwa do chmur pierzastych w wysokiej, zimnej atmosferze ziemskiej, z dodatkiem efektów topografii działających w atmosferze Marsa. Chmury fal Lee są często widoczne na Marsie poniżej wysokich gór wulkanicznych i w pobliżu kraterów na niższych wysokościach. Często można zobaczyć chmury fal Lee z wieloma liniowymi falami rozciągającymi się na ponad 100 km poniżej. Chmury tworzą się najczęściej wczesnym rankiem i późnym popołudniem, gdy temperatury są niskie. Występują obficie w północnym lecie w regionie Tharsis, wysokim płaskowyżu, na którym znajduje się kilka najwyższych wulkanów marsjańskich. W nocy powierzchnia może skutecznie promieniować w przestrzeń kosmiczną i gwałtownie się ochładzać, co prowadzi do powstawania nisko położonej mgły przyziemnej, która rozprasza się wkrótce po wschodzie słońca. Chociaż nie jest klasyfikowany jako chmura, pył w atmosferze Marsa odgrywa ważną rolę w dynamice atmosfery i tworzeniu się chmur. Atmosfera Marsa zwykle zawiera wystarczająco dużo pyłu, aby być znaczącym pochłaniaczem energii słonecznej, ogrzewając atmosferę w ciągu dnia i promując chłodzenie radiacyjne w nocy. Silne kontrasty termiczne na krawędzi polarnego osadu szronu, w połączeniu z niską gęstością atmosfery Marsa, mogą prowadzić do silnych wiatrów powierzchniowych, które zbierają pył, czasami przechodząc w globalną burzę pyłową, która może pokryć planetę, przesłaniając nawet najwyższe wulkany. Po kilku miesiącach większość pyłu osadza się, a atmosfera stopniowo powraca do chłodniejszego stanu bardziej sprzyjającego tworzeniu się chmur lodu wodnego.
Wenus
Wenus i Ziemia mają podobne rozmiary i masę, ale ich atmosfery i struktury chmur różnią się wyraźnie . Atmosfera Wenus składa się głównie z CO2. Jest masywna (90 barów na powierzchni) i gorąca (740 K) w pobliżu powierzchni. Ze względu na dużą masę płynów, powolny obrót i efekt cieplarniany występuje niewielki poziomy kontrast termiczny (maksymalnie kilka K od równika do bieguna), a w konsekwencji reżim dynamiczny jest zupełnie inny niż na Ziemi lub Marsie. Wenus widziana przez teleskop wydaje się jasna i prawie pozbawiona cech charakterystycznych ze względu na wszechobecną grubą warstwę chmur. Subtelne kontrasty można dostrzec w długościach fal fioletowych i bliskiego ultrafioletu. Materiał odpowiedzialny za kontrast nie został zidentyfikowany z pewnością, ale sugerowanymi kandydatami są pierwiastkowa siarka i związek FeCl3. Dwutlenek siarki (SO2) został wykryty na szczytach chmur, a widoczne chmury składają się z kropli ciekłego kwasu siarkowego (H2SO4). W zakresie bliskiej podczerwieni istnieje kilka przedziałów widmowych (okien), w których nieprzezroczystość gazu jest stosunkowo niska, co pozwala na przenikanie przez chmury światła podczerwonego emitowanego przez gorącą powierzchnię. Jednak nawet przy tych długościach fal występuje znaczna nieprzezroczystość chmur, więc kontrasty widoczne w bliskiej podczerwieni mówią nam głównie o nierównomierności dolnych warstw chmur, które są bardziej turbulentne niż górna warstwa, którą widzimy przy widzialnych długościach fal. Wiele statków kosmicznych ze Stanów Zjednoczonych i byłego Związku Radzieckiego odwiedziło Wenus. Kilka sond zeszło do atmosfery i zmierzyło ciśnienie, temperaturę, skład gazu, wewnętrzne pole promieniowania oraz gęstość i rozmiary cząstek chmur. Chmury rozciągają się na bardzo dużym zakresie pionowym. Istnieją trzy główne warstwy chmur na wysokościach od około 45 do 70 km. Cienkie warstwy mgły rozciągają się powyżej i poniżej tych granic. Kilka eksperymentów wykazało, że główny obszar chmur składa się z trzech warstw. Górna warstwa jest skoncentrowana na wysokości od 59 do 66 km. Środkowa warstwa leży na wysokości 49-57 km, a dolna warstwa jest najgęstsza w regionie 2 km tuż poniżej granicy 49 km, przynajmniej według pomiarów danych licznika cząstek na dużej sondzie Pioneer Venus. Późniejsze zdjęcia bliskiej podczerwieni wykonane z Ziemi i Galileo (ze spektrometru mapującego bliską podczerwień - NIMS) wykazały, że ta warstwa jest bardzo zmienna w przestrzeni i czasie . Skład cząstek chmury jest zdominowany przez kwas siarkowy, ale niektóre dowody sugerują, że dodatkowy składnik może być odpowiedzialny za największe cząstki w dolnej warstwie chmur. W górnej chmurze i mgle światło słoneczne rozbija cząsteczki SO2, które łączą się z wodą, tworząc kwas siarkowy o stężeniu około 85% na górze, wzrastającym na głębszych poziomach. W środkowych i dolnych chmurach nie ma wystarczającej ilości światła ultrafioletowego, aby napędzać fotochemię, a procesy termochemiczne stają się ważne w ustalaniu równowagi chemicznej. Na najgłębszych poziomach atmosfera i powierzchnia oddziałują na siebie, a powierzchnia działa jako źródło i pochłaniacz siarki i innych składników. Spektrometr cząstek na dużej sondzie Pioneer Venus zidentyfikował trzy rozmiary cząstek. Cząstki trybu 2 mają promień bliski 1 mikrona i dominują w górnych i środkowych chmurach. Cząstki trybu 1 są mniejsze (średni promień 0,4 mikrona) i odpowiadają za kilka dziesiątych głębokości optycznej w górnej chmurze, podczas gdy cząstki trybu 3 są większe (kilka mikronów lub więcej) i zapewniają większość masy w dolnej chmurze. Reżim dynamiczny, w którym tworzą się te chmury, jest w większości stabilny w dwóch górnych warstwach (wysokości powyżej 49 km). Te chmury są analogiczne do chmur warstwowych w atmosferze ziemskiej. Przytłumione kontrasty widoczne w najwyższej chmurze poruszają się z prędkością wiatru (około 100 m s-1) na widocznych szczytach chmur (około 70 km wysokości), podczas gdy kontrasty widoczne w regionach okna bliskiej podczerwieni poruszają się wolniej (50 ms-1, zgodnie z prędkościami wiatru mierzonymi przez sondy śledzące wejście). Oszacowania liczby dużych cząstek w dolnym pokładzie chmur wykonane przez różne sondy wejściowe różniły się w zależności od dużych czynników. Ta obserwacja potwierdza ideę, że kontrasty widoczne w zakresie fal bliskiej podczerwieni wskazują na bardzo zmienne stężenia dużych (o promieniu kilku mikronów lub większych) cząstek w dolnym pokładzie chmur. Dolny obłok jest obszarem dynamicznej niestabilności w atmosferze Wenus. Mechanizm odpowiedzialny za napędzanie cyrkulacji Wenus pozostaje niejasny, chociaż wydaje się prawdopodobne, że interakcje między falami a średnim przepływem, zainicjowane przez absorpcję światła słonecznego w obszarze chmur, odgrywają kluczową rolę.
Tytan
Podobnie jak Wenus, atmosfera TITANA jest masywna, z gęstą warstwą mgły i powolnym obrotem i może być napędzana tym samym mechanizmem. Ale chemia atmosfer Tytana i Wenus nie mogłaby być bardziej różna. Atmosfera Tytana składa się głównie z azotu z kilkoma procentami metanu i innych węglowodorów i nitryli (cząsteczek z H, C i N). Atmosfera Tytana jest zimna (około 94 K w pobliżu powierzchni i 71 K przy minimalnej temperaturze w pobliżu 40 km wysokości). W tych temperaturach metan może się skraplać w pobliżu minimalnej temperatury, ale niektóre pomiary w podczerwieni z eksperymentu Voyager IRIS sugerują, że chmura metanu może nie być obecna. Jeśli tak jest, metan byłby przesycony w pobliżu minimalnej temperatury. Przesycenie nie występuje w atmosferze ziemskiej (w odniesieniu do wody), ale można je osiągnąć w laboratorium w kontrolowanych warunkach. Trudno będzie rozwiązać ten problem, dopóki sonda Huygens nie zejdzie do atmosfery Tytana w 2004 roku. Fotoliza metanu w wyższych warstwach atmosfery prowadzi do
powstawania etanu i innych węglowodorów oraz cząsteczek nitrylu. Przetwarzanie tych cząsteczek poprzez długotrwałe narażenie na światło słoneczne i bombardowanie cząstkami naładowanymi z kosmosu ostatecznie powoduje powstanie mgły polimerowej, która pokrywa satelitę i blokuje powierzchnię przed wzrokiem w zakresie widzialnym. Mgła ta jest bardzo ciemna w zakresie ultrafioletowym i staje się jasna, z niewielką absorpcją w zakresie czerwonym. Składa się z agregatów małych cząstek, których średni promień wynosi około 0,066 mikrona. Modele chemiczne przewidują szereg warstw mgły i chmur głębiej w atmosferze, składających się z bardziej lotnych węglowodorów. Metan jest najbardziej lotny i może kondensować się poniżej minimalnej temperatury (zakres wysokości 10-40 km). Nieco wyżej w atmosferze etan może tworzyć chmurę kondensacyjną. Oczekuje się, że mniej lotne węglowodory i nitryle utworzą warstwy kondensatu na większych wysokościach, w tym C2H2, C3H4,
C3H8, C4H2, HCN, C2N2, HC3 N, C4N2 i wiele cięższych węglowodorów. Możliwe są również cząsteczki dwutlenku węgla i lodu wodnego. Z nich tylko cząsteczki HC3N i C4N2 zostały wykryte spektroskopowo. Wykrycie wielu z nich jest utrudnione przez zaciemniającą mgłę fotochemiczną Tytana na większych wysokościach. Widmowy podpis lodu C4N2 (dicyjanoacetylenu) został zaobserwowany przez spektrometr podczerwieni Voyager tylko w polarnej mgle Tytana. Analiza tych obserwacji ujawnia, że (1) średni promień cząstek lodu wynosi około 5 μm, a (2) stosunek kondensatu do ułamka molowego pary, jak wynika z danych, jest około 100 razy większy niż oczekiwano na podstawie równowagi stacjonarnej składników, co odpowiada tworzeniu się pary na dużych wysokościach z produkcji fotochemicznej oraz wyczerpywaniu się pary i kondensatu na małych wysokościach z powodu kondensacji i sedymentacji cząstek. Duży stosunek nierównowagi jest prawdopodobnie wynikiem sezonowej zmienności fotochemicznego niszczenia pary na dużych wysokościach i dużych szerokościach geograficznych, działającej w połączeniu ze znacznym opóźnieniem czasowym termicznym głębiej w atmosferze z powodu długich stałych czasowych termicznych. Na Tytanie nie ma prawie żadnego kontrastu w zakresie widzialnych długości fal, poza kontrastem odbicia półkuli północ/południe, który odwraca się w ciągu kilku lat, gdy Tytan reaguje na sezonowe zmiany nasłonecznienia. Istnieje odpowiadająca temu półkulista różnica w wielkości cząstek w górnej mgiełce, która z kolei jest związana z ruchem wznoszącym się i opadającym w skali półkuli, który reaguje na zmiany sezonowe. Aerozole atmosferyczne w znacznym stopniu przyczyniają się do bilansu cieplnego w stratosferze poprzez silne pochłanianie światła słonecznego, a zatem są ważne dla bilansu energetycznego i cyrkulacji
Olbrzymie planety
Wszystkie olbrzymie planety Jowisz, Saturn, Uran i Neptun mają głębokie atmosfery składające się głównie z wodoru i helu ze śladowymi ilościami cząsteczek tworzących chmury: wody, amoniaku (NH3), wodorosiarczku amonu (NH4SH), siarkowodoru (H2S) i metanu (CH4). Wszystkie z nich, z wyjątkiem metanu, mogą skraplać się w atmosferach Jowisza i Saturna. Atmosfery Urana i Neptuna osiągają wystarczająco niskie temperatury w pobliżu temperatury minimalnej przy ciśnieniu 0,1 b, aby skroplić metan. Chmury kondensatu tworzą się w warstwach, przy czym najbardziej lotne tworzą się na większych wysokościach, gdzie temperatury są niższe. Nasze pomysły dotyczące składu opierają się na połączeniu obserwacji z ziemi i statków kosmicznych wraz z modelami reakcji chemicznych w temperaturze i składzie atmosfery. Jak dotąd wszystkie nasze pomiary, z wyjątkiem tych z sondy Galileo, która weszła w atmosferę Jowisza , zostały wykonane zdalnie za
pomocą instrumentów z Ziemi lub ze statku kosmicznego. Sonda Galileo pobrała próbki z części atmosfery Jowisza, która jest uważana za zubożoną w kondensowalne cząsteczki, podobnie jak pustynny region na Ziemi, więc pomiary sondy nie mówią nam o globalnych właściwościach chmur i składnikach tworzących chmury. Jako punkt wyjścia do zrozumienia pionowego położenia i składu chmur polegamy na modelach równowagi termochemicznej, które tworzą prognozy na podstawie zmierzonej lub wnioskowanej obfitości chemicznej w głębokiej atmosferze, ciśnienia i temperatury mierzonych przez różne instrumenty oraz wiedzy na temat termodynamiki chemicznej dostępnych cząsteczek. To ćwiczenie może nam powiedzieć, na jakich wysokościach spodziewać się chmur i jaki powinien być ich skład, ale nie jest ono wystarczające do przewidywania gęstości cząstek chmur w danym miejscu, ponieważ inne procesy,
takie jak dynamika atmosfery i mikrofizyka cząstek chmur, określają te ilości. Obserwuje się lub przewiduje się, że wspomniane powyżej cząsteczki tworzące chmury będą występować w liczbie dwa lub większej niż w przypadku mieszanki materiału atmosfery słonecznej przy tej samej temperaturze i ciśnieniu. Zwiększenie obfitości "słonecznej" wzrasta od Jowisza do Saturna, Urana i Neptuna, odzwierciedlając fakt, że większe planety były w stanie zatrzymać więcej lekkich pierwiastków wodoru i helu podczas ich formowania. Zwiększenie ilości dostępnych skroplonych cząsteczek spowoduje powstawanie chmur na głębszym poziomie, gdzie temperatury są wyższe. JOWISZ i SATURN tworzą jedną parę o podobnych typach chmur, podczas gdy URAN i NEPTUN, które są chłodniejsze, tworzą drugą. Przewiduje się, że chmura roztworu wody i amoniaku utworzy się przy poziomach ciśnienia zaczynających się w pobliżu 8 b w atmosferze Jowisza i 15 b w atmosferze Saturna. Na większych wysokościach (niższe ciśnienie i temperatura) znajdują się chmury
wodorosiarczku amonu i lodu amoniaku. Najwyższa chmura w obu przypadkach to lód amoniaku. Widmowy podpis lodu amoniaku tajemniczo nie został zaobserwowany aż do niedawna w widmach bliskiej podczerwieni z Europejskiego Obserwatorium Kosmicznego w Podczerwieni (ISO) i instrumentu Galileo NIMS. Widmowych podpisów lodu w innych chmurach nie zaobserwowano. Jeden z eksperymentów sondy Galileo wykrył cząstki w pobliżu poziomu 1,6 b w atmosferze Jowisza, których skład może składać się z wodorosiarczku amonu lub wody. Nie zaobserwował chmury wodnej przy poziomach ciśnienia, które przewidują modele równowagi termochemicznej, prawdopodobnie dlatego, że woda w badanym regionie jest uszczuplona z powodu opadania suchego powietrza z zimnej górnej troposfery. Nie wiadomo, jak rozległa może być głęboka chmura wodna na którejkolwiek z planet olbrzymów. Uran i Neptun są wystarczająco zimne, aby skroplić metan, który tworzy górną chmurę w tych atmosferach. Kolejna głębsza chmura, przy ciśnieniu kilku barów, to prawdopodobnie
lód H2S, ale może również zawierać trochę amoniaku. Na głębszych poziomach (ciśnienie od 10 do kilkuset barów) znajdują się chmury NH4SH i wody. Widoczność chmur różni się znacznie między planetami olbrzymami. Atmosfera Jowisza jest wypełniona białożółtymi chmurami i ciemniejszymi żółtobrązowymi chmurami z kilkoma obszarami, które są bardziej czerwone (WIELKA CZERWONA PLAMA) lub szare (obszary gorących punktów, w których można zobaczyć wznoszące się promieniowanie podczerwone o długości fali 5 mikronów). Wielka Czerwona Plama Jowisza to duży (około 3 razy większy od Ziemi) owal obracający się w kierunku antycyklonicznym (przeciwnie do ziemskich systemów burzowych). Jest obserwowany od ponad wieku i prawdopodobnie zawdzięcza swoją stabilność ścinaniu strumieni strefowych wschód-zachód, w których jest osadzony. Wszystkie wymienione powyżej lody są białe w widzialnych długościach fal. Gdyby były to jedyne składniki chmur, Jowisz wyglądałby jak pozbawiona cech biała kula. Kolory i kontrasty wynikają z
materiału barwiącego, którego pochodzenie i skład są niepewne. Materiały kandydujące obejmują związki wodoru połączone wiązaniami z siarką, azotem i węglem (węglowodory) powstałe w wyniku fotolizy w górnej troposferze lub bombardowania wysokoenergetycznymi cząstkami naładowanymi wytrącającymi się z magnetosfery. Ten ostatni proces jest prawie na pewno odpowiedzialny za powstawanie polarnych mgieł stratosferycznych w stratosferach Jowisza i Saturna. Kontrasty chmur są stonowane w przypadku Saturna i prawie nieobecne w przypadku Urana. Te planety, podobnie jak Neptun, mają głębokie struktury chmur, które zmniejszają kontrast i blokują promieniowanie cieplne wznoszące. Kontrasty są zdominowane przez struktury strumieniowe, chociaż nie ma jednoznacznej korespondencji między odbiciem chmur a prędkością i kierunkiem wiatru. Saturn wykazuje sezonowe wahania wysokości chmur. Wynikają one z nagrzewania górnej atmosfery przez słońce, co wpływa na stabilność statyczną i wysokość chmur. Te efekty mogą występować
również na Uranie i Neptunie, ale zmiany sezonowe na tych planetach zachodzą w skalach czasowych odległych od naszych możliwości ich obserwacji. Pojedyncze owale i plamy tworzą się w atmosferze Saturna. Można je najłatwiej zobaczyć na obrazach o wzmocnionym kontraście. Sonda kosmiczna VOYAGER obserwowała Urana w czasie, gdy Słońce oświetlało tylko jedną półkulę. Tylko kilka cech chmur o niskim kontraście zostało zauważonych na tle niemal jednolitej grubej pokrywy chmur. Niedawno kamera bliskiej podczerwieni na Teleskopie Kosmicznym Hubble′a sfotografowała szereg chmur na przeciwległej półkuli. Podczas bliskiego przelotu sondy Voyager obok Neptuna w 1989 roku zaobserwowano szereg typów chmur. Zaobserwowano kilka dużych owali. Największy z nich nazwano Wielką Ciemną Plamą. Podobnie jak w przypadku Jowisza, za kontrast i kolor chmur odpowiada pewien składnik kolorystyczny o niepewnym pochodzeniu i składzie. Te owale poruszają się i oscylują w długości geograficznej. Współczynnik kształtu i nachylenie długiej i krótkiej osi owali również oscylują. Oscylacje te można zrozumieć za pomocą modeli, które uwzględniają wirowość plamy, jej głębokość w atmosferze i ścinanie wiatru, w którym jest osadzona. W atmosferze Neptuna zaobserwowano inne rodzaje chmur, które przypominają chmury pierzaste i chmury fal zawietrznych widoczne wysoko w atmosferach ziemskiej i marsjańskiej. Są prążkowane, szybko ewoluują z czasem (zbyt szybko, aby można je było wykorzystać jako wskaźniki wiatru), a niektóre z nich tworzą skupiska, które są przywiązane do większych owali i nakładają się na nie. Biały Towarzysz Wielkiej Ciemnej Plamy jest tego najlepszym przykładem. Był widoczny nawet na zdjęciach naziemnych w jednym z pasm absorpcji metanu wrażliwych na wysokie chmury. Te chmury prawdopodobnie składają się z lodu metanowego, a leżąca pod nimi gruba warstwa chmur to lód H2S.
Mikrofizyka chmur
Mikrofizyka chmur to badanie procesów, które rządzą powstawaniem i ewolucją cząstek chmur w skali mikroskopowej. Zajmuje się takimi pytaniami jak: "Jakie warunki są wymagane do powstania chmur? Jak szybko rosną cząstki? Co kontroluje rozkład wielkości cząstek?" Badanie mikrofizycznych procesów chmur wykracza poza mikroskop. Szerszym celem jest zrozumienie podstawowych procesów, które rządzą strukturą i dynamiką chmur na dużą skalę. Znaczną ilość pracy zainwestowano w odpowiedź na te pytania dla chmur ziemskich, dla których można wykonać pomiary in situ i połączyć je z badaniami laboratoryjnymi i teoretycznymi. Podejmowano pewne próby zrozumienia mikrofizyki chmur na innych planetach, chociaż ograniczenia obserwacyjne są znacznie słabsze. Cząsteczki kondensatu mogą powstawać albo przez bezpośrednią kondensację z przesyconej pary, albo przez kondensację na wcześniej istniejącej obcej cząstce (na przykład pyłu lub aerozolu siarczanowego). Są one nazywane odpowiednio nukleacją jednorodną i niejednorodną. Jednorodna nukleacja rozpoczyna się, gdy cząsteczki w fazie gazowej łączą się, tworząc mały klaster, który może służyć jako jądro zarodkowe. Cząsteczki klastra mogą odparować lub więcej cząsteczek z pary może się skroplić, w zależności od tego, który wynik jest preferowany przez termodynamikę. Swobodna energia Gibbsa jest wielkością termodynamiczną, która kontroluje wzrost lub parowanie cząstek. Swobodna energia Gibbsa zależy od dwóch terminów, powierzchni cząstki razy napięcie powierzchniowe plus objętość cząstki razy KT razy logarytm naturalny ciśnienia pary podzielony przez ciśnienie pary nasyconej lub
W powyższym równaniu ΔG jest zmianą swobodnej energii Gibbsa związaną z tworzeniem cząstki o promieniu a, σ jest napięciem powierzchniowym cieczy, nl jest gęstością liczbową cząsteczek w cieczy, K jest stałą Boltzmanna, e jest ciśnieniem pary, a el jest ciśnieniem pary nasyconej w temperaturze T . Wykres ΔG jako funkcji promienia a ujawnia, że swobodna energia Gibbsa dla formowania cząstek jest zawsze dodatnia dla ciśnienia pary mniejszego lub równego ciśnieniu pary nasyconej. Jest to niekorzystne termodynamicznie i każda cząstka, która może początkowo istnieć, wyparuje. Gdy ciśnienie pary jest wyższe niż ciśnienie pary nasyconej, swobodna energia Gibbsa staje się ujemna przy pewnym promieniu cząstki. Istnieje promień krytyczny, ac, gdzie kondensacja na powierzchni cząstki zmniejsza swobodną energię Gibbsa, a cząstka będzie rosła przez kondensację. W normalnych okolicznościach w atmosferze ziemskiej jest niezwykle trudno wyhodować cząstkę do promienia krytycznego, ponieważ stosunek ciśnienia pary do ciśnienia pary nasyconej nigdy nie jest bardzo wysoki. Znacznie częstsza inicjacja procesu wzrostu zależy od istnienia jąder kondensacji chmur (CCN), które mogą składać się z małych cząstek pyłu lub siarczanu na Ziemi. Może występować szeroka gama składów cząstek CCN, ale tylko niewielka ich część sprzyja wzrostowi. Cząsteczki, których struktura powierzchni jest podobna do struktury wody lub lodu (takie jak kryształy jodku srebra używane do zasiewania chmur) tworzą dobre CCN. Inną klasą cząstek, które tworzą jeszcze lepsze CCN, są higroskopijne siarczany i azotany. Nadmiar małych CCN prowadzi do nadmiaru małych kropelek. Odwrotnie, w środowisku z niewielką ilością CCN powstanie niewiele kropelek wody, ale te, które to zrobią, wykorzystają dostępną parę do wzrostu do stosunkowo dużych rozmiarów. Obrazy powierzchni oceanu w niektórych warunkach ukazują ślady statków jako smugi małych cząsteczek chmur, których powstawanie zostało zainicjowane przez nadmiar CCN w pióropuszach spalin statków. Sama kondensacja nie wystarcza, aby cząsteczki w chmurach rosły do punktu opadów w ciągu kilku godzin. Inny mechanizm, wzrost przez zderzenie i łączenie się kropel (koalescencja) lub przywieranie cząsteczek lodu (koagulacja), powoduje znacznie szybszy wzrost, gdy cząsteczki stają się wystarczająco duże (promień około 20 μm), że prędkości sedymentacji stają się ważne. Największe cząsteczki osadzają się szybciej niż mniejsze i zderzają się z innymi cząsteczkami podczas opadania przez chmurę. To zachowanie prowadzi do procesu, który może szybko zwiększać wielkość cząsteczek (do około 2 mm). Nawet większe cząsteczki mogą tworzyć się w prądach wstępujących lub paczkach, które krążą między prądami wstępującymi i zstępującymi. Te pomysły wprowadzają współdziałanie między mikrofizyką chmur a wiatrami pionowymi i poziomymi. Innym sprzężeniem jest sprzężenie między promieniowaniem a chmurami. Na szczycie warstwy chmur chmura stygnie, emitując promieniowanie cieplne w przestrzeń. To schłodzenie z kolei zasila wzór cyrkulacji z opadającym chłodnym powietrzem zastępowanym przez wznoszące się cieplejsze powietrze z dołu i z wnętrza chmury. Tak więc trzy główne procesy fizyczne (mikrofizyka chmur, dynamika atmosfery i promieniowanie) są sprzężone, a to sprzężenie musi być uwzględnione w modelach formowania się/ewolucji chmur. Chmury pierzaste tworzą się w pobliżu szczytu troposfery, gdzie temperatury są niskie (około 40°C niższe niż temperatura zamarzania wody). Chmury są zasilane parą z wierzchołków dużych układów konwekcyjnych przenoszonych poziomo przez ścinanie wiatru. Mogą istnieć zarówno ciecz, jak i lód, przy czym ciecz jest przechłodzona o ponad 30°C. Kryształki lodu mogą rosnąć do stosunkowo dużych rozmiarów (rzędu 100 μm) w miarę opadania. Kryształy lodu tworzące się w różnych temperaturach wytwarzają szeroką gamę nawyków krystalicznych, ale dominującymi formami są heksagonalne. Typowe kąty krystaliczne wynoszą 120? i 90°. Prowadzą one do cech halo, najczęściej występujących przy kącie rozpraszania 22°. Płaskie płyty mają tendencję do orientowania się w jednym kierunku podczas opadania ze względu na ich profil aerodynamiczny. Orientacja cząstek prowadzi do pewnych typów halo
Mikrofizyczne modele Wenus, Marsa, Tytana i planet olbrzymów
Wenus
Nasza wiedza na temat struktury chmur Wenus jest znaczna, dzięki obszernym pomiarom z wielu instrumentów na kilku sondach, które opadły przez atmosferę, a także zdalnych statków kosmicznych i instrumentów naziemnych. Modele mikrofizyki chmur muszą uwzględniać sprzężony skład chemiczny cząstek i gazu (oba zmieniają się wraz z wysokością), procesy fotochemiczne na szczycie atmosfery, profil temperatury atmosfery i transport pionowy spowodowany ruchami wirowymi i sedymentacją cząstek. Modele mikrofizyczne próbują odtworzyć obserwowaną chemię cząstek (roztwór kwasu siarkowego/wody, którego stężenie zmienia się wraz z wysokością, co określa temperatura) oraz rozkład wielkości i gęstość liczbową cząstek, które również zmieniają się wraz z wysokością. Pamiętając, że w atmosferze Wenus istnieją trzy główne warstwy chmur, najwyższa jest rządzona przez procesy fotochemiczne, które działają na dwutlenek siarki i wodę, tworząc chmurę kwasu siarkowego. Górna chmura jest bliska stanu stacjonarnego z niewielką zmiennością czasową. Wzrost cząstek odpowiada utracie przez sedymentację. Wzrost cząstek jest regulowany przez dostępny siarczan wytwarzany przez fotochemię. Dwutlenek siarki jest dostarczany przez transport pionowy spod chmur. W górnej chmurze obserwuje się dwumodalny rozkład wielkości, przy czym jeden mod ma promień modu 0,3 μm, a drugi promień modu 1 μm. Dolne i środkowe chmury powstają przez kondensację z istniejącej pary, a nie przez fotochemię, która napędza powstawanie cząstek w górnej chmurze. Dwa składniki pary (H2SO4 i H2O) są obecne w różnych ilościach. Małe cząstki są obecne poniżej podstawy dolnej chmury i mogą służyć jako jądra kondensacji. Symulacje modelu pokazują, że dwoma najważniejszymi parametrami modelu są transport pionowy, scharakteryzowany przez profil dyfuzji wirowej, który jest funkcją wysokości (osiąga szczyt na wysokości 54 km w modelu) i mechanizm nukleacji. Uważa się, że mechanizm nukleacji jest połączeniem heterogenicznej nukleacji na nierozpuszczalnych rdzeniach i mechanizmu aktywacji na rozpuszczalnych (higroskopijnych) rdzeniach. Model numeryczny uwzględnia równowagę ciśnień pary H2SO4 i H2O jako funkcję temperatury, dostarczanie pary poprzez dyfuzję wirową, szybkość utraty spowodowaną sedymentacją i ciągłość masy cząstek w miarę wzrostu cząstek. Model odtwarza zaobserwowany trójmodalny rozkład wielkości cząstek. Najmniejsze cząstki (mniejsze niż 0,6 μm) to nierozpuszczalne jądra. Największe cząstki (zwykle o promieniu 3-4 μm) to te, które tworzą jądra w pobliżu szczytu chmury. Podczas opadania rosną przez zderzenia i kondensację, stając się większe na niższych wysokościach.
Mars
Cząsteczki wody kondensują się na jądrach pyłu w atmosferze Marsa, tworząc chmury lodu wodnego. Obfitość wody nie jest wysoka, więc kondensacja lodu wymaga zarówno niskich temperatur, jak i dostępności jąder kondensacji pyłu. W bardzo niskich temperaturach dwutlenek węgla może kondensować się na cząsteczkach lodu wodnego. Zdjęcia z kosmosu oraz z lądowników Viking i Mars Pathfinder pokazały, że tworzenie się chmur lodowych na Marsie jest bardzo zmienne. Gdy Mars jest najdalej od Słońca, temperatury są niższe, a chmury lodowe są bardziej rozległe i częstsze. Jednak nawet w ciągu kilku tygodni misji Mars Pathfinder tworzenie się chmur w pobliżu miejsca lądowania było bardzo zmienne. Istnieje kilka głównych różnic między tworzeniem się chmur lodowych na Marsie i na Ziemi. Obfitość wody w atmosferze Marsa jest znacznie mniejsza niż na Ziemi. W rezultacie jest tak mało cząsteczek, że proces koagulacji można zignorować, pozostawiając nukleację, kondensację i sedymentację jako czynniki, które determinują tworzenie się chmur i rozkład wielkości cząstek. Najmniejsze cząsteczki mają taki sam rozmiar jak jądra kondensacji. Zdolność cząstek pyłu marsjańskiego do służenia jako miejsca nukleacji jest wysoce niepewna, ponieważ niewiele wiadomo o mineralogii, która ma silny wpływ na nukleację. Mogą być obecne minerały ilaste, które zazwyczaj są wydajnymi nukleatorami. Inne rodzaje minerałów są nieefektywne. Jednym ze sposobów uwzględnienia niepewności w modelowaniu tego procesu jest uczynienie parametru kontaktu parametrem modelu mikrofizycznego. Energia związana z tworzeniem się cząstek lodu jest proporcjonalna do współczynnika (2 + m)(1? m)2, gdzie m jest parametrem kontaktu. Wartości m bliskie 1 (np. dla jodku srebra) zmniejszają energię tworzenia, co prowadzi do szybkiej nukleacji. Typowe cząstki gleby lądowej mają m bliskie 0,4. Modele mikrofizyczne, które wykorzystują profil temperatury określony przez instrumenty Mars Pathfinder, znajdują tworzenie się chmur lodowych w dwóch warstwach. Najwyższa znajduje się w zakresie wysokości 30-50 km. Druga warstwa tworzy się przy minimalnej temperaturze w pobliżu 10 km wysokości. Konkurencja między wzrostem przez nukleację i kondensację oraz strata przez sedymentację definiują rozkład wielkości. Cząstki w górnej warstwie mają średni promień w pobliżu 1,5 ?m, podczas gdy te w dolnej warstwie mają średni promień w pobliżu 2,5 μm.
Tytan
Podobnie jak w przypadku Ziemi, Wenus i planet olbrzymów, chmury lub mgła w stratosferze powstają w wyniku procesów fotochemicznych, podczas gdy te w troposferze powstają w wyniku kondensacji. Na najgłębszym poziomie powinny znajdować się chmury metanowe. Inne chmury kondensatu, prawdopodobnie o różnym składzie, mogą powstawać na poziomach pośrednich. Tworzenie się chmur metanowych w pobliżu minimalnej temperatury (poniżej 40 km wysokości) jest wysoce niepewne. Widma w podczerwieni z sondy Voyager zostały zinterpretowane przez niektórych jako sugerujące, że metan jest wysoce przesycony w pobliżu minimalnej temperatury. Nie może to mieć miejsca w obecności znacznej chmury, a zatem oznaczałoby to, że kondensacja występuje rzadko, tworząc duże cząsteczki lodu (lub cieczy w najniższych kilku km), które szybko opadają na powierzchnię (deszcz bez chmur). Ten scenariusz został zaproponowany przed interpretacją wysokiego globalnego przesycenia metanem. Tytan i Ziemia mogą się znacznie różnić pod względem liczby
dostępnych jąder kondensacji, które mogą zainicjować tworzenie się cząstek. Na Ziemi jest wiele CCN wymieszanych z powierzchnią. Na Tytanie jedyny dostępny CCN może pochodzić z powolnej sedymentacji nadległej mgły fotochemicznej i innych kondensatów. Uważa się, że gęstość liczbowa z tego źródła jest dość niska w porównaniu do tej na Ziemi. Niska gęstość CCN prowadziłaby do mniejszej liczby cząstek, ale te, które się tworzą, mogą rosnąć przez kondensację do dużych rozmiarów (promienie większe niż 50 μm), ponieważ ich powstawanie w niewielkim stopniu przyczynia się do wyczerpania dostępnej pary. Zarówno modele mikrofizyczne, jak i ostatnie naziemne widma bliskiej podczerwieni sugerują nierównomierne i zmienne chmury dużego lodu metanowego lub cząstek cieczy, które tworzą się na wysokości około 15 km. Stratosferyczna mgła fotochemiczna Tytana składa się ze złożonych węglowodorów i nitryli. Punktem wyjścia dla tego procesu jest fotoliza metanu i azotu wysoko w atmosferze (powyżej 300 km wysokości).
Chociaż proces jest powolny, w czasie geologicznym powinno zostać przetworzone wystarczająco dużo metanu, aby wytworzyć 100-metrowej grubości powierzchniowe złoża ciekłego etanu i stałego materiału organicznego, pod warunkiem, że dostępny jest powierzchniowy zbiornik metanu, który uzupełni to, co zostało zniszczone przez miliardy lat. Cząsteczki mgły są niewątpliwie złożonymi związkami organicznymi i nitrylami, chociaż nie wiadomo wystarczająco dużo, aby być bardziej konkretnym co do składu. Mikrofizyczne modele stratosferycznej mgły Tytana grupują procesy chemiczne prowadzące do powstawania kondensowalnych związków organicznych w jeden regulowany parametr, szybkość masowej produkcji cząsteczek tworzących aerozol na szczycie warstwy mgły. Zakłada się, że nukleacja jest inicjowana przez tworzenie małych skupisk cząsteczek, które rosną poprzez zderzenia. Modele obejmują ładowanie cząstek przez UV i zdarzenia związane z promieniowaniem kosmicznym. Ładunek jest parametrem swobodnym (liczba elektronów na
jednostkę promienia cząstki) i służy do hamowania wzrostu poprzez koagulację. Tradycyjne modele mikrofizyczne zakładały, że cząstki pozostają kuliste podczas wzrostu. Byłoby to oczekiwane, gdyby cząstki były cieczą. Nowsze modele uwzględniają wyniki laboratoryjne i przewidywania teoretyczne, które sprzyjają cząstkom stałym. Gdy cząstki stałe zderzają się, przyklejają się do siebie, tworząc agregaty. Gdy agregaty zderzają się ze sobą, tworzą większe agregaty o naturze fraktalnej. Agregaty klaster-klaster mają wymiar fraktalny bliski 2 (w przeciwieństwie do sfer, które mają wymiar fraktalny 3). W pobliżu szczytu warstwy mgły (∿400 km) proces wzrostu zachodzi za pośrednictwem cząsteczek, które przyklejają się do pojedynczych cząstek. Poszczególne cząstki rosną do pewnego limitu rozmiaru określonego przez ciśnienie. Zarówno teoria, jak i obserwacja wskazują, że poszczególne cząstki lub monomery mają promienie bliskie 0,066 μm. Wzajemne zderzenia między monomerami powodują powstawanie klastrów i agregatów
klaster-klaster, gdy cząstki się osadzają. Idea agregatu klaster może wyjaśnić połączenie silnej polaryzacji liniowej w świetle rozproszonym w pobliżu kąta rozpraszania 90? i silnego rozpraszania światła w kierunku do przodu.
Olbrzymie planety
Mikrofizyczne badania chmur kondensatu w troposferach olbrzymich planet opierają się na znanych zasadach opisujących wzrost poprzez kondensację, koagulację i koalescencję oraz utratę poprzez parowanie i sedymentację. Jednak te modele są niezwykle prymitywne, ponieważ liczba i skład potencjalnych jąder kondensacji chmur są nieznane. Ponadto powstawanie chmur zależy w dużym stopniu od dynamiki atmosfery, która nie jest brana pod uwagę. Nie ma żadnych pomiarów in situ, z wyjątkiem sondy Galileo, która znalazła niewiele cząstek na swojej ścieżce opadania przez zubożony w substancje lotne fragment atmosfery Jowisza. Niektóre modele mikrofizyczne przewidują, że chmury metanu na Uranie i Neptunie są 10-100 razy masywniejsze niż jakiekolwiek chmury na Ziemi. Jednak obserwacje wykazują bardzo małą masę chmury metanu. Brakuje dowodów obserwacyjnych na istnienie chmury wodnej, chociaż przeszkadzają wyższe chmury. Chmura amoniaku w górnej części troposfery na Jowiszu i Saturnie jest przewidywana na podstawie modeli mikrofizycznych jako słabo opadowa chmura podobna do ziemskich pierzastych chmur, a obserwacje są zgodne z tą ideą. Sprzężone fotochemiczne/mikrofizyczne modele chmur są w stanie uwzględnić głębokość optyczną i rozkład wielkości cząstek mgły węglowodorowej w stratosferach Urana i Neptuna, pod warunkiem, że szybkość produkcji masowej i ładunek cząstek są regulowanymi parametrami. Modele uwzględniają rozmiary cząstek (wszystkie submikronowe) i profile pionowe uzyskane z danych z sondy Voyager. Dyfuzja wirowa transportuje metan do górnej atmosfery, gdzie procesy fotochemiczne prowadzą do powstawania cząstek lodu diacetylenu, acetylenu i etanu, które kondensują się odpowiednio w pobliżu 0,1 mb, 2,5 mb i 14 mb. Gdy cząstki opadają do ciśnień większych niż 600 mb, odparowują wraz ze wzrostem temperatury. Polimery organiczne mogą również powstawać, prawdopodobnie poprzez fotochemię stanu stałego w oryginalnej cząstce lodu podczas okresu osiadania. Proces ten może odpowiadać za słabą absorpcję widoczną w odbitym świetle słonecznym
Przynależność do gromady
Nasza Galaktyka Drogi Mlecznej zawiera liczne układy gwiazdowe, których członkowie mają wspólne pochodzenie i są ze sobą powiązani grawitacyjnie. Galaktyczne GROMADY KULISTE i GALAKTYCZNE GROMADY OTWARTE są najważniejszymi przedstawicielami takich układów. Mniej widoczne są asocjacje gwiazd o niskiej gęstości i niezwiązane grawitacyjnie. Istnieje ścisłe powiązanie między gromadami otwartymi, asocjacjami i dyskiem galaktycznym, które jest łatwo widoczne na rozgwieżdżonym niebie. Jednak dysk galaktyczny jest bardzo bogaty w gwiazdy, tak że gromady otwarte i asocjacje, wyświetlane na tym tle, zaczynają się z nim mieszać. To mieszanie, lub innymi słowy zanieczyszczenie gromady przez gwiazdy dysku galaktycznego, staje się poważne przy słabszych wielkościach gwiazdowych. Radzenie sobie z zanieczyszczeniem gromady jest w zasadzie częścią problemu określania przynależności do gromady. Z drugiej strony galaktyczne gromady kuliste są tak bogate w gwiazdy, że przypadkowa gwiazda tła rzadko jest przyjmowana jako członek gromady. Może tak nie być, jeśli gromada kulista jest słabo zaludniona i/lub znajduje się w pobliżu centrum Galaktyki, gdzie gęstość gwiazd tła osiąga maksimum. Dlaczego musimy identyfikować członków gromady tak pewnie, jak to możliwe? Obserwacja GROMAD GWIAZD jest ważna dla porównania teorii EWOLUCJI GWIAZD i TWORZENIA SIĘ GWIAZD z obserwacjami. W rzeczywistości teoria ewolucji gwiazd dla gwiazd młodszych niż kilka miliardów lat opiera się niemal wyłącznie na obserwacjach otwartych gromad gwiazd i Słońca. Jeśli obserwacje gromady gwiazd są zanieczyszczone przez gwiazdy tła, nieuchronnie wpłynie to na DIAGRAM HERTZSPRUNGA-RUSSELLA (HR) gromady, a wyprowadzone średnie właściwości gromady mogą być błędne. Z kolei teoria formowania się gwiazd wymaga znajomości początkowej funkcji masy gwiazd (IMF), którą w zasadzie można wywnioskować z obserwacji gromad gwiazd. Ponownie, zanieczyszczenie wraz z kompletnością członkostwa w klastrze są kluczowymi kwestiami w próbie wyprowadzenia IMF. Warunkiem wstępnym do gruntownego badania dowolnego konkretnego klastra gwiazd i asocjacji jest ustalenie członkostwa, które samo w sobie jest cenne. Ustalenie członkostwa przedstawia paradoksalną sytuację. Z jednej strony koncepcja jest łatwa do zrozumienia, ale z drugiej strony praktyczna implementacja zajęła pokolenia astronomów i z pewnością zajmie w przyszłości. Ten paradoks jest czasami pomijany nawet przez pracowników w tej dziedzinie i nie jest odpowiednio uznawany przez innych wykorzystujących wyniki badań klastrów. Poniższa dyskusja ma przelotny związek z grupą metod statystycznych znanych jako techniki klastrowania, które są często stosowane w analizie rozkładów galaktyk. W przypadku gromad gwiazd podstawowym założeniem jest to, że ich istnienie jest zwykle dobrze ustalone, podczas gdy indywidualne prawdopodobieństwa członkostwa mogą nie być znane.
Prawdopodobieństwo przynależności
Ponieważ gromady gwiazd są rzutowane na pole gwiazdowe Galaktyki, zawsze mamy do czynienia z mieszanką dwóch populacji: gwiazd gromady (c) i gwiazd pola (f). Nie ma łatwo dostępnego kryterium, które dałoby nam jasne rozróżnienie między tymi dwiema populacjami. Dlatego możemy jedynie oszacować prawdopodobieństwo, p, przynależności gwiazdy do gromady, które można zdefiniować następująco:
gdzie Fc i Ff to pewne funkcje rozkładu (często nazywane funkcjami gęstości prawdopodobieństwa, pdf) odpowiednio dla gromady i pola. Funkcje te z kolei zależą od pewnych wielkości fizycznych i ich błędów charakteryzujących gwiazdy gromady i pola. Zasadniczo każde kryterium przynależności oparte na zjawiskach fizycznych lub innych jest przydatne, o ile pozwala na oddzielenie populacji gromady i pola w pewnym stopniu. Prawdziwa gwiazda gromady prawdopodobnie przejdzie wszystkie "filtry" ustawione przez różne podejścia, jeśli założenia są poprawne i bezstronne, podczas gdy oczekuje się, że gwiazda pola zawiedzie przynajmniej na jednym z nich. Zwykle gromady gwiazd odkrywano jako lokalne, rzutowane wzmocnienia gęstości gwiazd na niebie. Jako pierwszy krok można narysować wyimaginowany okrąg na niebie wokół takiego wzmocnienia i oświadczyć, że każda gwiazda w okręgu jest członkiem gromady. Niestety, przy słabszych wielkościach gwiazdowych podejście to prowadzi do słabych wyników. Jako
przykład rozważmy przypadek stosunkowo bliskiej gromady otwartej Messier 39. Uzbrojeni w wiedzę a priori o prawdziwych członkach gromady, możliwe jest oszacowanie średniego prawdopodobieństwa, że każda gwiazda jest członkiem gromady o różnych pozornych wielkościach gwiazdowych w promieniu równym 15 minut łuku wokół środka gromady. W tabeli 1 prawdopodobieństwo przynależności do gromady wynoszące 75% oznacza, że 3/4 tych gwiazd jest członkami gromady, podczas gdy 1/4 to gwiazdy pola. Ponieważ jest to prawdopodobieństwo, nie możemy powiedzieć, które konkretne gwiazdy są członkami gromady. Oczywiście, im niższe prawdopodobieństwo, tym mniejsze szanse na znalezienie gwiazdy gromady w próbce.
Jak widać z tabeli , do V ∿11 mag liczba gwiazd gromady jest wystarczająco duża, aby pozwolić nam zignorować obecność gwiazd pola. Jednak przy słabszych wielkościach gwiazd członkowie gromady praktycznie znikają w morzu gwiazd pola. Jest to bardzo powszechny obraz w badaniach gromad otwartych. Na szczęście istnieje kilka cech, które różnią się dla gwiazd w gromadach i tych w polu galaktycznym. Na przykład, ze względu na ich wspólne pochodzenie i pole grawitacyjne, gwiazdy gromady znajdują się w ograniczonej objętości, rzadko przekraczającej 20 pc średnicy. W diagramie HR lub diagramie wielkości barwnej gwiazdy gromady znajdują się głównie w wąskim pasie wzdłuż ciągu głównego, z wyjątkiem bardzo młodych gromad otwartych, w których mniej masywne gwiazdy są rozproszone znacznie powyżej tak zwanego ciągu głównego zerowego wieku. Z drugiej strony, rozkład gwiazd pola galaktycznego na diagramie wielkości barwnej tworzy jedynie szeroki i rozproszony obłok. Ta różnica w wyglądzie diagramów wielkości barwnej jest jedną z często stosowanych metod wyznaczania gwiazd gromady z pola. Chociaż nigdy nie zajmuje się ona obliczaniem prawdopodobieństw przynależności, w istocie zwiększa prawdopodobieństwo przynależności en masse. Jednak schodząc do słabszych wielkości, zawsze istnieje krytyczny obszar diagramu wielkości barwnej, w którym gwiazdy pola zanieczyszczają diagram nie do poznania. Ironicznie, w chwili obecnej ten region zajmowany przez najsłabsze członki gromad gwiazd, takie jak białe i brązowe karły, znajduje się w centrum uwagi wielu astronomów z bardzo dobrych powodów. Obiekty te mogą zapewnić niezależną skalę wieku absolutnego i mogą ujawnić pewne sekrety formowania się planet. Najwyraźniej istnieje potrzeba wyprowadzenia rzeczywistych prawdopodobieństw przynależności do gromady, a nie tylko szacunków. Ruch dowolnej gwiazdy można podzielić na dwie mierzalne wielkości - prędkość styczną na niebie, czyli tak zwany ruch własny, oraz prędkość radialną wzdłuż linii wzroku. Te dwie prędkości są szeroko stosowane przy obliczaniu prawdopodobieństw przynależności i z pewnością wymagają dokładniejszego przyjrzenia się. W przypadku typowej gromady otwartej rozrzut ruchów gwiazd polowych jest w przybliżeniu do stu razy większy niż dyspersja prędkości ruchu wewnętrznego wokół środka masy gromady. Zasadniczo ta dysproporcja jest kluczem do określenia przynależności do gromady za pomocą ruchów gwiazd. Oczywiście każda gromada ma swój własny ruch systemowy w Drodze Mlecznej. Określenie przynależności jest znacznie łatwiejsze, jeżeli ruch ten znacząco różni się od średniego ruchu gwiazd polowych.
Ruch własny jako narzędzie do przynależności
Chociaż istnienie RUCHU WŁASNEGO jest znane od czasu jego odkrycia przez Edmonda Halleya w 1718 r., niełatwo jest zmierzyć ruch własny gwiazdy. Po pierwsze, ruchy własne są bardzo małe. Typową jednostką pomiaru ruchu własnego jest milisekunda łuku na rok (mas yr?1), a bardzo niewiele gwiazd ma ruchy przekraczające 1000 mas yr-1. W świecie gromad, członkowie gromady Hiady posiadają największy ruch własny, około 100 mas yr-1. Po drugie, standardowa naziemna technika określania ruchu własnego wymaga skoordynowanego, długoterminowego wysiłku obserwacyjnego. Tradycyjnie pozycje gwiazd mierzy się na dwóch lub więcej zestawach płyt fotograficznych wykonanych w różnych epokach obejmujących co najmniej kilka dekad. Następnie wszystkie zmierzone współrzędne są redukowane do wspólnego układu współrzędnych w ustalonej epoce, umożliwiając liniowy zależny od czasu wyraz współrzędnych dla każdej gwiazdy (znany również jako ruch własny) oprócz konwencjonalnych globalnych wyrazów wielomianowych. Niezawodność ruchu własnego jest charakteryzowana przez stosunek ruchu własnego do jego błędu standardowego. Zasada jest taka, że im dłuższy okres czasu, tym dokładniejszy ruch własny. Relatywnie łatwo jest uzyskać ruchy własne na poziomie dokładności 1 mas yr-1, chociaż dokładności sub-mas yr-1 nadal stanowią wyzwanie. Co więcej, dla większości gromad otwartych praktycznie nie ma dostępnego materiału wczesnych płyt, a jeśli już jest, płyty często nie zawierają wystarczająco słabych gwiazd. Znaczenie ruchu własnego w określaniu przynależności do gromady było rozumiane dawno temu, ale dokładne wykorzystanie ruchu własnego rozpoczęło się dopiero wraz z wprowadzeniem fotografii do obserwacji astronomicznych w ostatnich dekadach XIX wieku. Od tego czasu około 100 z 1200 znanych gromad otwartych ma przynajmniej jedno określenie ruchu własnego przy użyciu metody fotograficznej, w przeciwieństwie do około 500 gromad, dla których wykonano obserwacje fotometryczne. Szczególne miejsce w badaniach nad przynależnością do gromad zajmuje niedawna, bardzo udana misja HIPPARCOS i planowane przyszłe misje astrometrii kosmicznej, takie jak SIM, FAME i GAIA. Hipparcos wywarł znaczący wpływ na pobliską gromadę otwartą i przynależność do asocjacji oraz spis. Ze względu na oczekiwane dokładności położenia na niespotykanym dotąd poziomie mikrosekund łuku, przyszłe misje kosmiczne, FAME i GAIA, będą w stanie dostarczyć doskonałych informacji o przynależności dla praktycznie wszystkich zarejestrowanych gromad otwartych. Oczekuje się, że te przyszłe misje zrewolucjonizują badania Drogi Mlecznej, w tym gromad gwiazd. Jak powiedziano wcześniej, określenie przynależności przy użyciu ruchu własnego wykorzystuje fakt zupełnie różnych rozproszeń prędkości gwiazd gromady i gwiazd polowych. W praktyce jednak każde określenie ruchu własnego ma pewien błąd. Innymi słowy, prawdziwy ruch własny jest zawsze nieco rozmyty z powodu błędów pomiarowych i innych. Jeśli błędy te są porównywalne z rozproszeniem gwiazd polowych (zwykle około 5-10 mas yr-1), a ruch systemowy gromady nie różni się znacząco od średniego ruchu gwiazd polowych, wówczas segregacja członków gromady jest niemożliwa. Rozważmy ponownie gromadę otwartą Messier 39, która ma dość dużą próbkę gwiazd o ruchach własnych z dokładnościami nieznacznie powyżej 1 mas yr-1. Narzędziem roboczym do analizy ruchu własnego jest tak zwany diagram wektorowo-punktowy (VPD). Na tym diagramie z osiami zwykle zorientowanymi wzdłuż rektascensji i deklinacji, każda kropka jest końcem wektora ruchu własnego. Można zauważyć dwie populacje kropek: dużą koncentrację wokół (0,0) i mniejszą wokół (?6, ?16) mas yr
Rysunek przedstawia diagram kolor-wielkość dla wszystkich gwiazd w regionie Messier 39 (rysunek (a)). Górny ciąg główny gromady jest ledwo widoczny; Jednakże, dzięki pomocy ruchu własnego praktycznie wszystkie gwiazdy pola zniknęły (rysunek b)), a ciąg główny jest pięknie zarysowany. Z drugiej strony, ruch własny nie jest absolutnym kryterium przy decydowaniu o przynależności pojedynczej gwiazdy o szczególnym znaczeniu. Nawet wysokie prawdopodobieństwo przynależności, z samej natury prawdopodobieństw, pozostawia szansę dla gwiazdy pola. Dlatego, jeśli to możliwe, należy użyć innego kryterium, takiego jak prędkość radialna.
Prędkości radialne
Określenia PRĘDKOŚCI RADIALNEJ wykonuje się poprzez pomiar przesunięcia Dopplera w widmach gwiazd, tj. przesunięcia linii widmowych, Δλ, względem ich długości fali w spoczynku, ?0, jak określono na podstawie pomiarów laboratoryjnych. W klasycznym ujęciu przesunięcie to jest proporcjonalne do prędkości wzdłuż linii wzroku
gdzie c jest prędkością światła. Prędkości radialne gwiazd gromad otwartych, mierzone z układu słonecznego, rzadko przekraczają 10-20 km s-1, stąd wymagana dokładność prędkości radialnych do ± 1 km s-1 lub lepsza wymaga określenia przesunięcia długości fali z dokładnością do kilku części na milion, co stanowi wyzwanie nawet dla współczesnej spektroskopii. Najczęściej stosowaną techniką pomiaru prędkości radialnej jest korelacja krzyżowa obserwowanego widma z wysokiej jakości szablonem (optycznym lub syntetycznym) widma odniesienia. W ten sposób można to zrobić bezpośrednio, podczas obserwacji, jak w spektrometrze CORAVEL, lub numerycznie, używając spektrogramów CCD wykonanych dla jednej gwiazdy na raz, jak w projektach francusko-szwajcarskich ELODIE i CORALIE oraz cyfrowych prędkościomierzy opracowanych w Harvard-Smithsonian Center for Astrophysics, USA, lub dla wielu gwiazd jednocześnie. Najdokładniejsze prędkości radialne uzyskano, umieszczając komórkę absorpcyjną (HF lub jodową) przed spektrografem, ale ta technika wymaga wysokiego poziomu strumienia światła i jest głównie stosowana w polowaniu na planety pozasłoneczne wokół jasnych gwiazd. Widma gwiazd późnego typu (F-G-K) zawierają dużą liczbę linii absorpcyjnych metali o małej szerokości, co sprawia, że stosowanie technik korelacji krzyżowej jest stosunkowo łatwe. Wyjaśnia to, dlaczego zdecydowana większość gwiazd gromady mających precyzyjne prędkości radialne jest późnego typu widmowego. Ze względu na niedobór cech widmowych połączony z ich silną zależnością od warunków fizycznych w ATMOSFERACH GWIAZDOWYCH i często dużymi prędkościami obrotowymi gorących gwiazd, znacznie trudniej jest zmierzyć prędkości radialne wczesnych gwiazd typu O, B i A, które zazwyczaj są najjaśniejsze w gromadach otwartych. Ostatnie postępy w modelowaniu atmosfer gwiazdowych i dostrajaniu tych modeli do rzeczywistych parametrów fizycznych gwiazdy obiecują wkrótce zamknąć tę lukę. Rysunek 3 przedstawia rozkład prędkości radialnych w gromadzie otwartej NGC 188. W pewnym sensie przypomina diagram wektorowo-punktowy, choć tylko w jednej współrzędnej. W zasadzie możliwe jest modelowanie rozkładów gwiazd gromady i pola, ale istnieją dwie przeszkody. Po pierwsze, pomiary prędkości radialnej są niedostępne dla teleskopu, a zatem próbki gwiazd są zawsze zoptymalizowane tak, aby obejmowały maksymalną liczbę potencjalnych członków gromady. Innymi słowy, taki wybór jest w dużym stopniu stronniczy w kierunku członków gromady. Powoduje to poważne niedoreprezentowanie gwiazd polowych i w konsekwencji podważa podstawy statystyczne do obliczania prawdopodobieństwa przynależności. Po drugie, około połowa lub nawet więcej członków gromady może być układami podwójnymi (niektóre są nawet układami potrójnymi). Ruch orbitalny wywoła zależne od czasu przesunięcie względem średniego ruchu układu podwójnego. Aby wykryć takie przesunięcie ruchu, obserwacje muszą obejmować znaczną część okresu orbitalnego. Jeśli przesunięcie nie zostanie wykryte, gwiazda może zostać błędnie sklasyfikowana jako gwiazda polowa. Chociaż może się to wydawać irytujące dla określenia przynależności do gromady, większość badaczy preferuje układy podwójne, ponieważ dostarczają one tak podstawowych danych astronomicznych, jak masy, promienie i jasności, i mają głęboki wpływ na historię formowania się gwiazd i dynamiczną ewolucję układów gwiezdnych (patrz także GWIAZDY PODWÓJNE W GROMADACH KULISTYCH). Z tych powodów ustalenie przynależności do gromady na podstawie prędkości radialnych jest jak dotąd ograniczone do prostego podziału gwiazd na członków gromady i nie-członków, w zależności od tego, czy ich prędkości radialne mieszczą się w oknie 3σ wokół średniej prędkości radialnej gromady. Niemniej jednak nawet tak prymitywne członkostwo w połączeniu z członkostwem na podstawie ruchów własnych dość skutecznie odsiewa gwiazdy polowe. Do tej pory około 200 gromad otwartych ma jakieś pomiary prędkości radialnej, głównie dla gwiazd gałęzi olbrzymów. Tylko kilkanaście z nich, głównie pobliskich gromad, ma pomiary dla gwiazd ciągu głównego, ale szybko się to poprawia dzięki nowym postępom w projektowaniu spektrografów wieloobiektowych i dostępności dużych teleskopów.
Członkostwo w asocjacjach
Członkostwo w asocjacjach gwiazdowych stanowi prawdziwe wyzwanie dla każdego, kto próbuje je określić. Najczęściej występują tzw. ASSOCJACJE OB. Asocjacje te to grawitacyjnie niezwiązane układy gwiazd, rozpoznawalne po pewnym nadmiarze gęstości gwiazd typu widmowego O i B na tle nieba i małej dyspersji prędkości wewnętrznej. Ta ostatnia nie przekracza kilku km s-1, w związku z czym asocjację można wykryć za pomocą wspólnej kinematyki jej członków, choć w sposób mniej spójny niż w przypadku gromad gwiazd. Ponieważ asocjacje obejmują dziesiątki do setek stopni kwadratowych na niebie przy ekstremalnie niskiej gęstości (kilka gwiazd na stopień kwadratowy), przed misją Hipparcos informacje o członkostwie były ograniczone do jasnych gwiazd i nawet one nie były wiarygodne. Pomiary Hipparcos idealnie nadają się do określania członkostwa w pobliskich asocjacjach OB w odległości ≈650 pc. Duży zasięg przestrzenny asocjacji skłania badaczy do stosowania tzw. techniki ruchomych klastrów. Wszystkie gwiazdy asocjacyjne poruszają się tak, że oddalająca się asocjacja zbliża się do miejsca na niebie znanego jako punkt pokrycia. W przypadku asocjacji jest to tylko częściowo prawdą, ponieważ ruchy gwiazd są lekko rozbieżne. Najwyraźniej dyspersja prędkości prostopadła do kierunku ruchu asocjacji jest po prostu kombinacją wewnętrznej dyspersji prędkości splecionej z błędami obserwacyjnymi. Rozkład tej dyspersji prędkości jest używany do obliczania prawdopodobieństw przynależności dla asocjacji. Dzięki pojawieniu się paralaks Hipparcosa i ruchów własnych możliwe jest wyprowadzenie eliptycznego cylindra prawdopodobieństwa przynależności w trójwymiarowej przestrzeni prędkości, co stanowi tzw. metodę "spaghetti" wprowadzoną przez holenderskich astronomów. Teraz znany jest znacznie lepszy spis zawartości gwiazd w asocjacjach gwiezdnych z dokładnością do 1 kpc od Słońca.
Gromady kuliste
Głównym celem astrometrii gromad kulistych jest określenie absolutnych ruchów własnych, które pozwalają obliczyć orbity. Wiedza o orbitach jest kluczowa dla zrozumienia zawartości i właściwości przypuszczalnie dość heterogenicznego układu gromad kulistych, z których niektóre zostały prawdopodobnie uchwycone podczas zdarzeń łączenia się galaktyk. Do identyfikacji potencjalnych gwiazd pola rzutujących na gromadę wymagane są bardzo precyzyjne względne ruchy własne. W ten sposób materiał płytki refraktora Yerkesa wytworzył czyste próbki gwiazd gromad w kilkunastu gromadach kulistych. Ponieważ gromady kuliste są dość odległymi obiektami, na starych płytach fotograficznych widoczne są tylko górne części diagramu kolor-jasność gromady. Oczekuje się, że archiwalne klatki CCD Teleskopu Kosmicznego Hubble′a (HST) będą przydatne w przeprowadzaniu głębokich badań przynależności w gromadach kulistych. Dokładność położenia na klatkach HST CCD jest wystarczająco wysoka, aby osiągnąć poziom dokładności sub-mas yr-1 dla ruchów własnych w ciągu kilku lat, co jest niemożliwe w przypadku obserwacji naziemnych.
Gromady osadzone
To klasa bardzo młodych gromad otwartych otoczonych grubymi obłokami gazu molekularnego i pyłu, prawdopodobnie pozostałościami po formowaniu się gwiazd. Zazwyczaj te obłoki blokują większość światła gwiazd. Jednak w długościach fal bliskiej podczerwieni obłoki stają się dość przezroczyste. Dzięki pojawieniu się panoramicznych detektorów bliskiej podczerwieni możliwe jest próbkowanie pobliskich (d < 1 kpc) osadzonych gromad do i znacznie poniżej granicy spalania wodoru. Takie gromady są idealnymi miejscami do badania początkowej funkcji masy gwiazd (IMF), ponieważ ewolucja gwiazd i efekty dynamiczne minimalnie zmieniły zawartość i masę osadzonych gromad. Z drugiej strony, nawet w podczerwieni wygaszanie w kierunku członków gromady może być nierównomierne, co w połączeniu z emisją spowodowaną obecnością dysków okołogwiazdowych i innych pozostałości formowania się gwiazd sprawia, że określenie masy jest dość trudne. W przypadku garstki dobrze zbadanych osadzonych gromad, przynależność do gromady nadal nie jest dostępna z kilku powodów. Po pierwsze, gęstość gwiazd w tych gromadach jest znacznie wyższa niż w otaczającym polu, co pozwala na zastosowanie prostego statystycznego odejmowania gwiazd polowych. Po drugie, przedział czasowy między pierwszymi i drugimi ramkami matrycy obrazowej epoki jest obecnie zbyt krótki, aby wyprowadzić wiarygodne ruchy własne. Ponadto całe pole ASTRONOMII PODCZERWIENI szybko ewoluuje, a przyszłe instrumenty najprawdopodobniej zapewnią nowe sposoby znajdowania przynależności do gromady. Alternatywna metoda przynależności Słaby koniec sekwencji gromad na diagramie HR jest niezmiennie zanieczyszczony gwiazdami polowymi z powodu kilku pogarszających się okoliczności. Po pierwsze, funkcja jasności gromady (w istocie liczba gwiazd na jednostkę wielkości gwiazdowej) w okolicach jasności Słońca i słabszych staje się płaska, głównie z powodu efektu dynamicznego "odparowywania" gwiazd gromady. Z drugiej strony, funkcja jasności gwiazdy pola stale rośnie. W tej sytuacji obserwowany stosunek gwiazd gromady do gwiazd pola gwałtownie spada, podobnie jak prawdopodobieństwo przynależności. Po drugie, przy słabych wielkościach przynależność jest wyraźnie niewystarczająca z powodu płytkiej granicznej wielkości starej płyty i niedopuszczalnie niskich poziomów strumienia światła dla pomiarów prędkości radialnej. Okazuje się, że większość młodych gwiazd typu widmowego A i późniejszych ma znaczną aktywność koronalną, widoczną w promieniach rentgenowskich. Satelita rentgenowski ROSAT, działający w latach 1990-1998, był głównym instrumentem do mapowania "miękkiego" (0,1-2,4 KeV) nieba rentgenowskiego. Szybko zdano sobie sprawę, że prawie wszystkie pobliskie gromady w wieku Plejad i młodsze powinny być widoczne na rentgenowskim "niebie" ROSAT, a te pozytywne identyfikacje mogą być wykorzystane jako cenne kryterium przynależności. Korzystając z danych ROSAT, prawie tuzin otwartych gromad ma swoje listy członkostwa znacznie powiększone na słabym końcu. Chociaż nie jest do końca jasne, czy wszystkie słabsze gwiazdy gromady mają taką aktywność rentgenowską, jest to mimo wszystko potężna alternatywna technika określania przynależności, uzupełniająca klasyczne metody kinematyczne. Być może jej potencjał nieco maleje w obszarach pobliskich asocjacji OB, gdzie frakcja gwiazd jasnego pola rentgenowskiego jest wyższa.
Przyszłość
Pomimo ogromnego wysiłku włożonego w określenie przynależności do gromady gwiazd i asocjacji, wciąż jest wiele do zrobienia. Nie jest znany żaden gromad, w przypadku którego rozpoznaliśmy wszystkich członków gromady. Aby jeszcze bardziej skomplikować sprawę, obserwacje Hipparcos ujawniły szereg gwiazd gromady poza promieniem pływowym najbliższych gromad otwartych. Promień pływowy to odległość, po przekroczeniu której gromada traci swoje gwiazdy z powodu galaktycznych sił pływowych grawitacyjnych. Oznacza to, że należy wykorzystać badania ruchu własnego całego nieba i paralaksy, takie jak planowana misja GAIA, aby uzyskać decydujące i kompletne członkostwo w gromadzie lub asocjacji. Paralaksa dostarczy dotychczas brakującą współrzędną pozycyjną - odległość. Przynależność do gromady można rygorystycznie wyprowadzić tylko przy użyciu pełnego zestawu trzech współrzędnych pozycyjnych i trzech składowych prędkości, które w porównaniu z energią potencjalną gromady ostatecznie określają, czy gwiazda prawdopodobnie będzie związana z gromadą. Natychmiastowa dokładność pozycyjna planowanych misji astrometrycznych jest tak wysoka, że osiągnięcie najlepszej dokładności ruchu własnego Ziemi zajęłoby zaledwie kilka miesięcy, w przeciwieństwie do kilku dekad, które były potrzebne wcześniej.
Procesy bezkolizyjne w plazmach astrofizycznych
Plazmy, zwane również czwartym stanem materii, aby odróżnić je od ciał stałych, cieczy i elektrycznie obojętnych gazów, są zjonizowanymi gazami. Oznacza to, że ich energia cieplna przekracza pierwszy potencjał jonizacji, tak że znaczna część ich atomów (lub cząsteczek) jest zjonizowana, chociaż nawet przy niższych energiach cieplnych znaczna jonizacja w gazie może być również wytwarzana przez inne procesy, na przykład przez promieniowanie zewnętrzne. Oznacza to również, że plazmy składają się z wolnych naładowanych cząstek, na ogół dodatnio naładowanych jonów i ujemnie naładowanych elektronów. Wyjątkami od tej ogólnej zasady są "plazmy grawitacyjne", które są rozcieńczonymi gazami obojętnymi wystawionymi na działanie pola grawitacyjnego lub zachowującymi się pod wpływem własnej grawitacji i wykazującymi podobieństwo do zwykłych plazm. Inne wyjątki to plazmy zbudowane z elektronów i pozytonów, dodatnio i ujemnie naładowanych jonów, pyłowe plazmy, w których ziarna pyłu mogą przenosić dowolną ilość i dowolny znak ładunku, elektrosłabe plazmy, w których oddziaływanie jest pośredniczone przez masywne bozony W i Z zamiast fotonów i wreszcie chromodynamiczne plazmy, które składają się z asymptotycznie swobodnych kwarków i gluonów. Wszystkie takie "plazmy" można znaleźć w przestrzeni kosmicznej w różnych miejscach i w różnych kosmologicznych czasach, w zależności od dostępnych oddziaływań lub energii cieplnych. Na przykład, krótko po Wielkim Wybuchu, około 10-10 s, plazma znajdowała się w stanie elektrosłabym. Przy temperaturze przejścia poniżej 100 GeV w jednostkach energii w tym czasie bozony W, Z stały się fotonami. Podobnie, przed około 10-4 s temperatura kosmologiczna była wystarczająco wysoka, aby umożliwić chromodynamiczny stan plazmy, czasami nazywany zupą kwarkowo-gluonową. Gdy temperatura spadła poniżej energii wiązania jąder, jądra zamarzły. W temperaturach znacznie poniżej 0,5 MeV po kilku sekundach plazma stała się zwykłą plazmą. To jest stan, z którym mamy tu do czynienia. Zwykła plazma była powszechna we wszechświecie od tamtego czasu aż do dziś. Jednak do około 300 000 lat po Wielkim Wybuchu cała zwykła materia we wszechświecie znajdowała się w stanie plazmy. Po odłączeniu materii od światła mniej więcej w tym czasie stan plazmy nadal występuje w wielu, choć tylko w zlokalizowanych regionach, i nie ma już pochodzenia kosmologicznego. Dlatego dzisiaj twierdzenie, że prawie cała materia we wszechświecie byłaby w stanie plazmy, należy traktować ostrożnie. Duża jej część jest w stanie plazmy, w szczególności większość gorącej materii, ale zdecydowanie nie cała. Jest to tym bardziej prawdziwe, że nie mamy jeszcze pojęcia, z czego tak naprawdę składa się prawdopodobnie największa ilość grawitującej materii we wszechświecie, tajemnicza ciemna materia. Quasineutralność i ekranowanie Ponieważ jonizacja wytwarza równe ładunki o przeciwnych znakach, rzeczywiste plazmy są quasineutralne. Oznacza to, że patrząc z zewnątrz, plazma niesie zerowy ładunek całkowity (elektryczny). Osadzenie plazmy w zewnętrznym polu elektrycznym lub oddzielenie jednego ze składników ładunku zmienia plazmę w plazmę nieobojętną o zupełnie innym zachowaniu. Patrząc od wewnątrz, plazma wcale nie jest elektrycznie obojętna. Wynika to z dużej ruchliwości nośników ładunku, z których jest zbudowana. Każda cząstka, elektron lub jon, znajduje się w szybkim ruchu cieplnym. Reprezentuje mikroskopijny element gęstości ładunku, mikroskopijny element prądu i ze względu na swój ruch mikroskopijny element promieniującej anteny. Jest zatem źródłem pola elektromagnetycznego. Z tego powodu plazma podlega nie tylko ruchomym ładunkom, ale także silnie fluktuującym polom elektromagnetycznym we wszystkich skalach czasowych i przestrzennych. Te pola elektromagnetyczne działają na każdy z ładunków w plazmie, nadając plazmie jej charakterystyczne właściwości, które odróżniają ją od innych stanów materii. Quasineutralność jest ważną właściwością. Oznacza to, że objętość plazmy, średnio, niesie równą liczbę przeciwnych ładunków. Jednak ze względu na ich różne masy, jony i elektrony są zwykle w zasadniczo różnych stanach ruchu, przy czym jony są prawie nieruchome, a elektrony poruszają się bardzo szybko. Oznacza to, że średnio wiele elektronów przechodzi blisko jonu, tym samym osłaniając pole elektryczne jonu od reszty plazmy. Z równania Poissona dla gęstości ładunku wynika zatem, że pole elektryczne ładunku jonu +e, z ładunkiem elementarnym e, który niesie, nie jest odczuwalne poza odległością λD = ve/ωpe = (ε0kBTe/n0e2)1/2 od jonu. Potencjał elektryczny Φ(r) jonu jako funkcja odległości radialnej r od jonu w otaczającej chmurze elektronowej przyjmuje zależność Φ(r) = (e/4πε0r) exp(-r/λD). Zależność 1/r jest zwykłym prawem Coulomba, podczas gdy wykładnik opisuje ekranowanie. Ta odległość ekranowania λD jest tak zwaną długością Debye′a. Można ją zapisać jako stosunek prędkości termicznej elektronu ve = (2kBTe/me)1/2 i częstotliwości plazmy elektronowej ωpe = (n0e2/ε0me)1/2 i w ten sposób zależy od temperatury elektronów Te i średniej gęstości plazmy n0 (kB,me, ε0 to odpowiednio stała Boltzmanna, masa elektronu i stała dielektryczna wolnej przestrzeni).
Klasyfikacja
Plazmy można klasyfikować według ich gęstości liczbowej. Im gęstsza plazma, tym większe prawdopodobieństwo, że cząstki zderzą się ze sobą. Procesy plazmowe w warunkach częstych zderzeń nazywane są kolizyjnymi. Gdy zderzenia są rzadkie lub praktycznie nie występują, nazywane są bezkolizyjnymi. Czasami tę terminologię stosuje się do samej plazmy, ale należy pamiętać, że oznacza to, że procesy zachodzące są albo wolniejsze, albo szybsze niż typowy czas między zderzeniami binarnymi w plazmie. W tym duchu stopień kolizyjności jest definiowany w odniesieniu do danej skali czasu. Dlatego nie jest to ścisła definicja. Ze względu na dostępne długie skale czasowe, wiele plazm astrofizycznych można uznać za kolizyjne. Jednak dla dużej klasy wystarczająco rozcieńczonych plazm, nawet w astrofizyce, skale czasowe są wystarczająco krótkie, aby te plazmy można było zakwalifikować jako plazmy bezkolizyjne. Bezkolizyjne procesy plazmowe zachodzą w wiatrach gwiazdowych i ośrodku międzygwiazdowym, w plazmach obłoków molekularnych, atmosferach gwiazd, różnych magnetosferach namagnesowanych gwiazd, plazmach strumieniowych i w niektórych obszarach dysków akrecyjnych. Ponadto większość procesów prowadzących do fal uderzeniowych w astrofizyce, które są widoczne w emisji optycznej lub rentgenowskiej, należy do klasy procesów bezkolizyjnych lub w skrócie do plazm bezkolizyjnych. Uważa się również, że środowisko czarnych dziur zawiera w dużej mierze plazmy, które są wolne od kolizji dla procesów tam zachodzących. Ścisła definicja procesu bezkolizyjnego w plazmie jest następująca. Biorąc pod uwagę skalę czasową ? rozpatrywanego procesu i typową częstotliwość vc = 1/τc zderzeń binarnych między cząstkami tworzącymi plazmę, tj. odwrotność czasu ?c między dwoma takimi zderzeniami, plazmę nazywamy bezkolizyjną, gdy ?vc > 1. Aby określić stopień kolizyjności plazmy, należy zatem znać zarówno częstotliwość zderzeń Spitzera-Coulomba ?c, jak i typową skalę czasową procesu.
Skale czasu relaksacji
Narzuć niejednorodność lub, w przeciwnym razie, jakiekolwiek odchylenie od równowagi termicznej na plazmę. Ze względu na wysoce dynamiczny stan plazmy takie odchylenia będą łatwo się relaksować, próbując pozbyć się nadmiaru energii i dążąc do powrotu do warunków równowagi. Równowagi są określane przez szczegółowy bilans sił. W plazmie, w szczególności w plazmie bezkolizyjnej, taki bilans sił nie jest trywialnie osiągany. Zgodnie z mechaniką statystyczną, w równowadze termodynamicznej funkcja rozkładu powinna mieć kanoniczną formę rozkładu energii Boltzmanna. W przestrzeni prędkości rozkład ten przyjmuje formę funkcji rozkładu w kształcie dzwonu Maxwella. Każde odchylenie od tego rozkładu będzie miało tendencję do rozmazywania się w pewnym czasie relaksacji, aż rozkład powróci do rozkładu Boltzmanna. Charakterystyczne czasy relaksacji różnych możliwych procesów relaksacji można obliczyć z równania Fokkera-Plancka, które opisuje ewolucję funkcji rozkładu nierównowagowego w kierunku równowagi termicznej. Najważniejszym czasem relaksacji jest czas zbliżania się do funkcji rozkładu równowagi Maxwella. Istnieje typowa relacja między czasami zbliżania się elektronów i jonów do takiej równowagi, którą można zapisać jako
Pokazuje to, że elektrony same w sobie, ze względu na ich wysoką ruchliwość, relaksują się po czasie τee, który jest szybszy o pierwiastek stosunku masy elektronów do jonów niż czas, którego jony potrzebują, aby się zrelaksować do stanu równowagi. Podobnie, jony relaksują się szybciej o ten sam stosunek, niż cała plazma, złożona z jonów i elektronów, potrzebuje, aby osiągnąć jedną wspólną temperaturę dla jonów i elektronów. Z tego powodu elektrony często można opisać za pomocą izotropowych rozkładów Maxwella, podczas gdy elektrony i jony mogą mieć zasadniczo różne temperatury. Ta wymiana energii między różnymi składnikami plazmy zależy od liczby zderzeń, których doświadczają cząstki. Ze względu na stosunkowo długi zasięg oddziaływania Coulomba w wysoce rozrzedzonych i gorących plazmach, takich jak plazmy astrofizyczne, oraz ze względu na ogólnie długie astronomiczne skale czasowe, plazmy astrofizyczne w dużych skalach przestrzennych i czasowych mogą czasami nie być naprawdę bezkolizyjne. Częstotliwość zderzeń jest zdefiniowana jako vc = σcn0〈v〉 , gdzie σc jest przekrojem czynnym na zderzenia, a v jest średnią prędkością cząstek. Problemem jest znalezienie wyrażenia na σc. W rozcieńczonej plazmie, w której wszystkie cząstki oddziałują tylko za pośrednictwem sił Coulomba, reżimu stosowanego do plazm astrofizycznych, przekrój czynny na zderzenia jest odwrotnie proporcjonalny do czwartej potęgi prędkości termicznej cząstek. Stąd częstotliwość zderzeń staje się vc ∝ n0/T3/2. Tak więc liczba zderzeń na sekundę szybko maleje wraz ze wzrostem temperatury T (zwykle temperatury elektronów, która w wielu przypadkach jest wyższą z dwóch, temperatur elektronów Te i jonów Ti) i ze spadkiem gęstości. To gorące, rozcieńczone plazmy mają tendencję do bycia bezkolizyjnymi. Stąd zarówno czas relaksacji kolizyjnej τc = v-1c, jak i średnia droga swobodna cząstek, λmfp = 〈v〉 /vc = (n0σc)-1 zwiększają się, gdy T3/2 wraz z temperaturą.
Podobnie do powyższego czasu kolizji można zdefiniować czas relaksacji dla wymiany energii τ,sub>W
gdzie ED ≈ ? 4 × 10sup>-10ZneT-1e jest polem elektrycznym Dreicera, innym podstawowym parametrem plazmy. W przypadku małych pól elektrycznych żadne cząstki nie uciekną, ale im większe staje się pole elektryczne, tym więcej cząstek ucieknie z kolizyjnego ograniczenia i opuści pozycję, aby utworzyć wiązki lub rozszerzone ogony na funkcji rozkładu.
Opis plazmy
Plazma bez kolizji musi być traktowana w ramach pełnej teorii kinetycznej. Oznacza to, że należy rozwiązać łączony układ równań Vlasova-Maxwella zarówno dla elektronów, jak i jonów. Ten układ równań jest niezwykle skomplikowany. Równanie Vlasova jest bezkolizyjnym równaniem Boltzmanna dla jednej cząstki, które, biorąc pod uwagę hamiltonian H(p, x, t) i definiując funkcję rozkładu prawdopodobieństwa jednej cząstki f (p, x, t), jest
gdzie nawiasy klamrowe są nawiasami Poissona, a p = mγrv jest pędem cząstki, γr relatywistycznym współczynnikiem γ, v prędkością cząstki i x położeniem. Jawna wersja tego równania zaniedbująca grawitację staje się
gdzie ∇v ≡ ∂/∂v jest gradientem w przestrzeni prędkości. Pola elektryczne i magnetyczne pojawiające się w równaniu są powiązane z funkcją dystrybucji f poprzez wyrażenia
dla gęstości ładunku elektrycznego ?q i prądu j. Wchodzą one do równań elektrodynamicznych (Maxwella)
Rozwiązania tego niezwykle skomplikowanego zestawu równań można znaleźć tylko w najprostszych przypadkach. Jednak gdy jedna z fizycznych skal czasowych jest znacznie dłuższa niż czasy relaksacji, zderzenia są wystarczająco częste, aby umożliwić opis płynu. W takim opisie zmienne płynu (gęstość n, prędkość objętościowa u, tensor ciśnienia P itd.) są definiowane jako momenty wznoszące
W takich warunkach plazmę można poddać obróbce w ramach podejścia MAGNETOHYDRODYNAMIC (MHD), które jest ściśle ważne tylko w stanie silnie kolizyjnym. Bezkolizyjne MHD jest, ściśle mówiąc, sprzecznością samą w sobie, gdy jest stosowane do plazmy, mimo że znalazło szerokie zastosowanie i doprowadziło do wielu przydatnych wyników. Opis płynny może również wynikać z bezkolizyjnych plazm, gdy działa pewien proces porządkowania, który zmusza cząstki do zachowywania się jak płyn. Wirowanie wokół silnego pola magnetycznego może mieć taki efekt. Prowadzi to następnie, w pewnych warunkach, do tak zwanej anizotropowej MHD Chewa-Goldbergera-Low. Ponadto, bezkolizyjne plazmy bardzo często generują wewnętrzne korelacje, oddziaływania turbulentne i inne efekty, które zmuszają cząstki plazmy do wywierania kolektywnego zachowania. W takich przypadkach zwykłe zderzenia binarne są zastępowane przez tak zwane zderzenia "anomalne", które mogą również umożliwiać opis płynny. Zderzenia anomalne są konsekwencją turbulencji fali plazmowej.
Uogólnione prawo Ohma
Ze względu na ogromne różnice mas między elektronami i jonami me/mi = 1/1836, czasami wygodnie jest brać pod uwagę tylko dynamikę jonów. Dotyczy to rozważania procesów, które zmieniają się w znacznie dłuższej skali czasu τ = ω-1 niż czas oscylacji plazmy elektronowej ω-1pe lub ω << ωpe. W tym przypadku dynamika elektronów częściowo oddziela się od dynamiki jonów. Równanie pędu elektronów można następnie wykorzystać jako równanie definicji pola elektrycznego. Przekształcając je w celu wyrażenia E poprzez wielkości elektronów otrzymujemy
które jest rozszerzoną formą prawa Ohma. Tutaj u jest prędkością objętościową, a P tensorem ciśnienia. Wprowadzając gęstość prądu j = e(ui- ue), równanie przyjmuje zwykłą formę
Tutaj u jest dobrym przybliżeniem prędkości środka masy, η = vc/ε0ω2pe rezystywności, a drugi człon po prawej stronie jest członem Halla. W plazmie bezkolizyjnej pierwszy człon znika, a prawo Ohma jest w całości rządzone przez człon Halla, gradient ciśnienia elektronów i bezwładność elektronów w dwóch ostatnich członach, podczas gdy lewa strona równania opisuje właściwość zamrożenia szeroko stosowaną w MHD. Człony po prawej stronie prawa Ohma modyfikują ten warunek w dużym stopniu w rzeczywistej plazmie bezkolizyjnej. Człon Halla wprowadza efekty niekoplanarności, heliczności i anizotropii, podczas gdy gradienty ciśnienia, a w szczególności człony bezwładności, mogą naruszać stan zamrożenia.
Właściwości plazmy bezkolizyjnej
Zaniedbanie zderzeń w plazmie oznacza, że plazma jest idealnie przewodząca. Nie należy jednak mylić tego z plazmą nadprzewodzącą. Wręcz przeciwnie, idealne plazmy mogą zawierać pola magnetyczne, a tych pól nie można wyrzucić z plazmy, ponieważ są one zamrożone w plazmie. Aby wyciągnąć pole magnetyczne, stan zamrożenia musi zostać przerwany przynajmniej lokalnie przez generowanie anomalnych rezystywności, które niszczą niekolizyjność.
Koncepcja zamrożenia
Właściwość zamrożenia wynika z uniwersalnej ważności prawa Faradaya ∇ × E = -∂B/∂t nawet dla plazmy oraz z (uproszczonego) prawa Ohma E + u × B = ηj. To ostatnie daje proporcjonalność między polem elektrycznym E a gęstością prądu j. Współczynnik to rezystywność η = me?c/n0e2, która sama wzrasta wraz z częstotliwością zderzeń. Lewa strona prawa Ohma jest prostą konsekwencją transformacji Lorentza w ruchomych ośrodkach. Wzięte razem te dwa równania prowadzą do podstawowego równania indukcji dla przewodzącego i ruchomego ośrodka, takiego jak plazma:
Równanie to pokazuje, że dla η → ∞ pole magnetyczne w plazmie poruszającej się z prędkością v jest równe zeru, co oznacza, że w poruszającym się układzie odniesienia pole magnetyczne nie zmienia się w czasie i stąd, jak argumentowano powyżej, jest zamrożone w plazmie.
Gyration
Fizycznie oznacza to, że w ruchomym układzie odniesienia same cząstki plazmy są związane z liniami pola magnetycznego, wirując wokół nich po okręgach o promieniu rB = v⊥/Ω ( i okresie gyration &atu;B = 2π/Ω. Częstotliwość gyration jest podana przez ( Ω = eB/m i jest proporcjonalna do pola magnetycznego. Gyration jest po prostu narzucany ładunkom przez siłę Lorentza FL = ±ev×B. Lokalnie jest prostopadła do pola magnetycznego B i prędkości cząstki v. Nie wykonuje pracy na cząstkach. Dlatego też oszczędza energię cząstki i po prostu zamienia składową prędkości cząstki prostopadłą do pola magnetycznego na orbitę kołową wokół B.
Przełamanie stanu zamrożenia
Aby zabrać cząstki plazmy z pola magnetycznego w plazmie bezkolizyjnej, potrzebne są zatem procesy anomalne. Generują one anomalne współczynniki transportu. Przypuszczalnie we wszystkich bezkolizyjnych plazmach astrofizycznych takie procesy zachodzą. W przeciwnym razie właściwość zamrożenia może zostać również przerwana przez niezwykle strome gradienty gęstości, temperatury, składu lub pola magnetycznego w plazmie. Ich skala długości musi być rzędu promienia gyro cząstek zaangażowanych. W porównaniu ze wszystkimi skalami astrofizycznymi są one ogromnie małe. Gradienty w tych skalach są zatem nie tylko nieobserwowalne, ale prawdopodobnie również nierealne. Głównym mechanizmem prowadzącym do anomalii transportu w bezkolizyjnej plazmie jest turbulencja. Turbulencja jest generowana poprzez wzbudzanie fal plazmowych. Wzbudzanie fal przebiega poprzez niestabilności. Istnieje ogromna liczba możliwych niestabilności w bezkolizyjnych plazmach w zależności od natury dostępnych źródeł energii swobodnej, tj. słabych niejednorodności, wiązek, strumieni, ścinania w polu i prędkości, prądów elektrycznych, sił zewnętrznych wywieranych na plazmę itd. Każda z niestabilności wzbudza ograniczony zakres częstotliwości ? i wektorów falowych k, które są wzajemnie powiązane relacją dyspersji ω = ω(k).
Fale plazmowe
Ze względu na skończoną i stosunkowo wysoką temperaturę plazma jest ośrodkiem termicznie aktywnym. Oznacza to, że prędkości cząstek tworzących plazmę obejmują szeroki zakres w przestrzeni prędkości, przy czym każda z cząstek jest w stanie absorbować lub zużywać energię w interakcji z fluktuacją pola elektrycznego. Zasadniczo cząstka poruszająca się z prędkością niższą niż prędkość fazowa takich fluktuacji będzie popychana przez falę i pochłonie energię fluktuacji. Prowadzi to do tłumienia fali. Z drugiej strony cząstka poruszająca się szybciej niż fala będzie popychać falę i zwiększać energię fluktuacji. Z uwagi na tę naturę jasne jest, że w plazmie może rozprzestrzeniać się tylko ograniczona liczba modów falowych. Są to mody, które są bardzo słabo absorbowane przez cząstki plazmy. Relacje dyspersyjne dla dozwolonych fal można znaleźć z rozwiązania wartości własnych układu podstawowych równań zlinearyzowanych wokół równowagi. Oczywiste jest, że zawsze będzie słabe tłumienie bezkolizyjne (lub Landaua), ponieważ niektóre cząstki będą zawsze wolne względem fali i będą pochłaniać energię fali. Jednak w wielu przypadkach tłumienie to jest tak słabe, że można je pominąć. Mówiąc o takich modach falowych lub fluktuacjach, nie oznacza to, że wszystkie fale są z natury elektromagnetyczne, jak w zwykłej elektrodynamice. Właściwość plazmy polegająca na byciu aktywnym ośrodkiem oznacza, że w ciele plazmy lub na jej powierzchni mogą ewoluować zupełnie nowe mody falowe. Te mody są nieznane w wolnej przestrzeni, a większość z nich nie może opuścić plazmy, ale jest ograniczona do plazmy. Duża różnorodność takich możliwych modów sięga od fal dźwiękowych i czysto elektrostatycznych fluktuacji na skalach elektronów i jonów do wszelkiego rodzaju fluktuacji elektromagnetycznych, czysto magnetycznych fluktuacji o długich długościach fal i mieszanych fal magnetoakustycznych. Prawie absolutna niewidzialność większości fal plazmowych oglądanych z odległej pozycji, co jest powszechne w astrofizyce, stwarza ogromną trudność dla astrofizyki w wyciąganiu wniosków na temat samej natury oddziaływań w bezkolizyjnej plazmie astrofizycznej. Wszelkie informacje muszą koniecznie opierać się na efektach wtórnych prowadzących do obserwacji promieniowania, które można wykryć na Ziemi. Ponieważ żadne obserwacje in situ żadnego obiektu astrofizycznego nigdy nie będą możliwe, prawdziwe procesy będą na zawsze dla nas ukryte. Dlatego też niezwykle istotne jest wyciągnięcie informacji na temat efektów, jakie bezkolizyjne procesy plazmowe mogą mieć na promieniowanie emitowane przez takie obiekty. Niestety, obecnie bardzo niewiele wiadomo na temat takich efektów.
Promieniowanie
Najbardziej pożądanym efektem jest bezpośrednia emisja promieniowania w pewnym paśmie fal, z którego można wyciągnąć wnioski na temat mechanizmu emisji, a zatem stanu bezkolizyjnej plazmy u źródła. Tutaj nie interesują nas zwykłe emisje synchrotronowe ani emisje bremsstrahlung (swobodne-swobodne). Pierwsza z nich jest emitowana przez naładowane cząstki o dużej energii, które wirują w konfiguracji pola magnetycznego. Pozwala nam to na mapowanie odległych pól magnetycznych pod względem kierunku i wielkości. Druga, będąc emitowana z bardzo gorących, słabo kolizyjnych plazm, pozwala na określenie wysokiej temperatury i gęstości w miejscu emitującego źródła. Ważne procesy zachodzące w bezkolizyjnych plazmach są bez wyjątku oparte na założeniu niestabilności, generowania fal plazmowych i interakcji tych fal między sobą lub ze składnikami cząstek. Istnieje tylko bardzo niewiele przypadków, w których te interakcje bezpośrednio prowadzą do emisji promieniowania. Takie przypadki ograniczają się głównie do dwóch procesów: wzmocnienia maserowego promieniowania w silnie namagnesowanych, bardzo rozrzedzonych plazmach zawierających słabo relatywistyczny składnik uwięzionych cząstek, tzw. mechanizm masera cyklotronowego elektronów oraz promieniowanie z szybkich wiązek elektronów przechodzących przez gęstą, gorącą, ale w innym przypadku stosunkowo słabo namagnesowaną plazmę. Emisja masera cyklotronowego jest ograniczona do plazm podgęstych spełniających warunek ωpe/ωce < 1, który jest spełniony tylko w silnych polach magnetycznych. Ponieważ pola magnetyczne na dużą skalę są zwykle słabe w astrofizyce, warunek ten ogranicza ją do sąsiedztwa silnie namagnesowanych obiektów. Przykłady takich procesów można znaleźć w przestrzeni międzyplanetarnej w nietermicznych emisjach radiowych ze Słońca i planet. W astrofizyce oczekuje się, że podobne procesy będą zachodzić w bardzo silnie namagnesowanych magnetosferach pulsarów, koronach namagnesowanych gwiazd, a prawdopodobnie także w strumieniach radiowych lub rentgenowskich wyrzucanych z masywnych obiektów. Bezkolizyjne procesy plazmowe odgrywają kluczową rolę również w wielu innych efektach, takich jak przyspieszanie małych grup naładowanych cząstek w wiązki energetyczne i ewentualnie strumienie plazmy, powstawanie bezkolizyjnych fal uderzeniowych, proces ponownego łączenia magnetycznego i generowanie transportu anomalnego. Aby opisać te zjawiska, następuje krótka dyskusja na temat mechanizmów niestabilności plazmy i turbulencji.
Niestabilność i turbulencja plazmy
W szczególnych przypadkach, gdy funkcja rozkładu cząstek odbiega od rozkładu Maxwella-Boltzmanna, plazma ulega niestabilności. Ponieważ plazma jest termicznie aktywna, zawiera kąpiel spontanicznie wzbudzonego szumu termicznego o wszystkich długościach fal. W danej temperaturze T poziom fluktuacji nigdy nie spada poniżej tego poziomu termicznego, który jest podany przez prawo Stefana-Boltzmanna. Zmniejszenie poziomu fluktuacji wymaga zatem chłodzenia plazmy za pomocą adiabatycznego rozszerzania lub strat radiacyjnych w przypadkach, gdy plazma jest optycznie cienka do promieniowania lub od swojej powierzchni, jak w przypadku termicznego promieniowania hamowania.
Liniowy wzrost fali
Niestabilność wybiera określony zakres długości fal i częstotliwości z szumu termicznego i pozwala mu rosnąć w czasie i przestrzeni. Dla jednego trybu wektora falowego k0 poza tym zakresem gęstość energii poziomu szumu termicznego wynosi w0 ≡ ?ε0|E0|2 + 1/2|B0|2/μ0. Ponieważ liniowy tryb falowy [E(t, x),B(t, x)] ∝ exp(-iωt + ik0 ⋅ x), gęstość energii w trybie rośnie wraz z czasem, ponieważ
gdzie, dla niestabilności, szybkość wzrostu γ(k0) jest dodatnią urojoną częścią częstotliwości fali. Głównym celem teorii liniowej plazmy jest obliczenie γ(k0). Sama szybkość wzrostu jest funkcją częstotliwości fali, liczby falowej i właściwości źródła energii swobodnej. Wykładniczy wzrost fali podany przez szybkość wzrostu ma szereg ważnych efektów. Po pierwsze, łatwo wyczerpuje energię źródła energii swobodnej i przekształca ją w energię elektromagnetyczną, chyba że źródło jest ciągle ponownie ustanawiane. Po drugie, energia fali dla wzrostu wykładniczego łatwo osiąga poziom porównywalny z lokalnym poziomem energii kinetycznej n0kBT samej plazmy. Gdy to nastąpi, liniowość zostaje naruszona, chyba że energia fali jest transportowana przez jakiś proces, taki jak propagacja fali lub konwekcja w skali czasu szybszej niż wzrost fali. Następnie plazma wchodzi w stan nieliniowy. Przykładem niestabilności elektromagnetycznej występującej przy bezkolizyjnych wstrząsach jest niestabilność wiązki jonowo-jonowej. Kiedy dwa składniki jonowe mają prędkość dryfu vd większą od pewnego progu, odpowiadająca jej swobodna energia może prowadzić do wzrostu niestabilności. Załóżmy dla uproszczenia, że dwa składniki jonowe, w przypadku szoku, plazma w górnym biegu reprezentująca rdzeń i jony wsteczne reprezentujące wiązkę, są dryfującymi maxwellianami. Istnieją trzy niestabilności elektromagnetyczne, które mogą wynikać z takiej konfiguracji: rezonansowa prawoskrętna, nierezonansowa i rezonansowa lewoskrętna niestabilność jonowo-jonowa. Przy niskich gęstościach i niskich prędkościach dryfu niestabilność rezonansowa prawoskrętna jonowo-jonowa jest rosnącym trybem najniższego progu. Fale rozprzestrzeniają się w kierunku wiązki. W granicy zerowej prędkości dryfu ten tryb jest prawoskrętnym kołowo spolaryzowanym dodatnim trybem helikalizacji na gałęzi magnetosonic whistler. W przypadku dużych prędkości wiązki i wysokich gęstości wiązki możliwa jest nierezonansowa niestabilność. Gdy wiązka ma dużą temperaturę, możliwa jest niestabilność lewostronna, gdy fale są rezonansowe z tymi jonami wiązki, których prędkość (w układzie rdzenia) jest przeciwna do prędkości wiązki.
Efekty nieliniowe
W stanie nieliniowym fale o dużej amplitudzie zaczynają zanikać w pasma boczne, poszerzając w ten sposób widmo. Mogą oddziaływać z innymi falami, przekształcając energię w odległe części przestrzeni k. Mogą wywierać ciśnienie promieniowania na plazmę, powodując modulację ich właściwości propagacyjnych. Wprowadza to do plazmy zmarszczki. Fale mogą zostać uwięzione, odbite i zmodulowane pod względem długości fali. Mogą również oddziaływać ze składową cząstkową. Cząstki o niskiej energii w ramie falowej mogą zostać uwięzione w studniach potencjału fali i przetransportowane, w ten sposób przyspieszane przez falę, aż zostaną wstrzyknięte z fali do plazmy jako wiązki. Cząstki mogą zostać odbite od fali i przyspieszone do umiarkowanych i wysokich energii w pewnego rodzaju procesie Fermiego. Niektóre z tych procesów modyfikują właściwości plazmy bezkolizyjnej w taki sposób, że powodują anomalne zderzenia. Plazma zawierająca wysoki poziom turbulencji opisanej powyżej przedstawia dużą liczbę przeszkód dla cząstki testowej, która próbuje przejść przez plazmę. Cząstki będą rozpraszane na falach, zostaną uwięzione, uwolnione po pewnym czasie, pobudzone lub spowolnione. Wszystkie te procesy modyfikują orbitę swobodnych cząstek i prowadzą do rozproszenia cząstki w energii, ścieżce i kącie nachylenia. W bardziej makroskopowym opisie proces ten można opisać jako transport anomalny. Wszystkie aktywne plazmy bezkolizyjne wykazują zatem anomalne właściwości transportowe. W każdym pojedynczym przypadku jest jednak niezwykle trudno określić rodzaj anomalnego transportu, który jest realizowany w plazmie w określonych warunkach. W rzeczywistości cały problem anomalnego transportu pozostaje do rozwiązania. Można zatem śmiało powiedzieć, że nie wiemy, jakie są naprawdę właściwości transportowe bezkolizyjnych plazm astrofizycznych. Tylko w kilku prostych granicach, w szczególności quasiliniowej, wyprowadzono dotychczas takie bezkolizyjne "anomalne" współczynniki transportu. Należy dodać, że w długich skalach czasowych i dużych skalach przestrzennych, z którymi spotyka się w zastosowaniach astrofizycznych, każdy proces plazmowy zawsze osiągnie quasi-stacjonarny i wysoce nasycony nieliniowy stan w pełni rozwiniętej turbulencji. Ponieważ jest to naturalny fakt, należy być bardzo ostrożnym przy stosowaniu liniowej teorii plazmy w astrofizyce. Ponieważ w pełni nieliniowa teoria turbulencji plazmy nie istnieje, znacznie zaciemnia to astrofizyczne zastosowanie fizyki plazmy.
Transport anomalny
Współczynniki transportu (rezystywność, przewodnictwo cieplne itp.) wchodzące do opisu płynów plazmy muszą zostać obliczone w ramach w pełni rozwiniętej teorii turbulencji. W ramach przybliżenia pierwszego i najniższego poziomu jest to zazwyczaj robione dla wybranych przypadków w ramach teorii quasiliniowej. Filozofia tej teorii jest prosta.
Podejście Fokkera-Plancka
Rozważmy niestabilność, która wzbudza liniowo rosnące fale o częstotliwości ω(k) w pewnym paśmie fal o szerokości ω,k. Szybkość wzrostu wynosi γ (ω,k). Gdy fale te osiągną znaczną amplitudę, ich obecności nie można zaniedbać bardziej energetycznie w porównaniu z innymi źródłami energii, a w szczególności z energią swobodną napędzającą niestabilność. W takim przypadku fale zaczynają reagować na plazmę i energię swobodną. Najprostszym efektem jest wygaszenie niestabilności przez fale prowadzące do nasycenia na poziomie określonym przez równanie ze znikającą szybkością wzrostu. Sama szybkość wzrostu γ[f(v, t)] zależy funkcjonalnie od zmodyfikowanej funkcji rozkładu f (v, t), która z kolei ewoluuje zgodnie z równaniem Fokkera-Plancka. Zapisując to jako
∂tf = ∂v ⋅ D(W, γ, v) ⋅ ∂vf
i znając jawną formę współczynnika dyfuzji przestrzeni prędkości D(W, γ, v), wyrażenia dla W, γ, D wraz z równaniem ewolucji dla W(t) i równaniem Fokkera-Plancka tworzą zamknięty układ, z którego można wyznaczyć f(t →∞) i W(t → ∞). Gdy znana jest końcowa gęstość energii falowej W(∞), określa ona anomalną częstotliwość zderzeń. Można to zauważyć z faktu, że klasyczna częstotliwość zderzeń Coulomba
można wyrazić w kategoriach energii falowej W0 w fluktuacjach cieplnych. Zastąpienie W0 przez W(∞) daje oszacowanie (z α jako współczynnikiem liczbowym)
van = αωpe ⋅ W(∞?)/ nkBT
dla zderzeń anomalnych.
Przypadek niemagnetyczny
W plazmach niemagnetycznych (lub w plazmach jednowymiarowych z kierunkiem prądu równoległym do pola magnetycznego B) dominującą niestabilnością prądu jest turbulencja fali akustycznej jonów. W tym przypadku znajduje się wzór Sagdeeva
Tutaj ωpi = (me/mi )1/2ωpe jest częstotliwością plazmy jonowej, cia = (kBTe/mi )1/2 jest prędkością fali akustycznej jonowej, a vd = |j/en| jest prędkością dryfu prądu. Wzór ten pokazuje, że anomalna częstotliwość zderzeń może być duża w gęstych plazmach o wysokiej częstotliwości plazmy przenoszących silne prądy i zawierających gorące elektrony.
Przypadek namagnesowany
W namagnesowanych plazmach różne inne tryby falowe mogą przyczyniać się do generowania anomalnych kolizji i transportu. W podejściu quasiliniowym najważniejsze są te niestabilności, które są spowodowane makroskopowymi gradientami gęstości, pola magnetycznego i temperatury, co prowadzi do tak zwanych niestabilności dryfu. Ich typowa częstotliwość oscylacji jest pośredniczona przez łączony ruch jonów i elektronów, rezonans niższej hybrydy ωlh ≈ (ωceωci)1/2 = ωce(me/mi )1/2, a anomalna częstotliwość kolizji staje się
Tutaj L∇ jest odpowiednią skalą gradientu, a rci jest promieniem żyroskopowym jonu termicznego. Te częstotliwości zderzeń mogą stać się bardzo duże, rzędu samego ωlh. Mogą powodować znaczną dyfuzję plazmy zbliżoną do dyfuzji Bohma DB = kBTe/16eB. Mikroskopijna turbulencja plazmy jest zatem w stanie znacząco zmienić właściwości transportowe plazmy bezkolizyjnej. Teoria quasiliniowa może w wielu przypadkach zostać zastąpiona przez inne silnie nieliniowe efekty, takie jak pułapkowanie cząstek w polach fal o dużej amplitudzie, modulacja plazmy przez "ciśnienie promieniowania" fal o dużej amplitudzie, oddziaływania koherentne i nieliniowe oddziaływania fala-cząstka, które nie są uwzględnione w powyższej teorii. Ponadto w relatywistycznej plazmie chłodzenie elektronów przez promieniowanie może modyfikować warunki i indukować niestabilności o wysokiej temperaturze jonów. Prowadzi to do turbulencji elektromagnetycznej o niskiej częstotliwości, która powoduje wiry plazmy i efekty mieszania.
Rekoneksja
MAGNETYCZNE REKOMENDACJE są jednymi z najważniejszych zastosowań transportu anomalnego. Rekoneksja opisuje łączenie się dwóch przeciwnie skierowanych pól magnetycznych przez warstwę prądu, co oddziela je w silnie przewodzącej plazmie. Problem ten ma duże znaczenie dla astrofizycznej fizyki plazmy. Rekoneksja ma dwa skutki: zmienia topologię pola magnetycznego i prowadzi do przyspieszenia plazmy masowej. W próżni rekoneksja nie sprawia żadnych trudności, ponieważ strumień magnetyczny może się przegrupować w dowolny sposób. Jednak w idealnie przewodzącej plazmie bezkolizyjnej łączenie się dwóch przeciwnie skierowanych konfiguracji pól magnetycznych zbliżających się do siebie jest hamowane przez stan zamrożenia. Gdy plazma jest kolizyjna, łączenie jest możliwe w pewnym wąskim obszarze, tak zwanym obszarze dyfuzji, przez dyfuzyjny (ostatni prawy) człon w równaniu. Początkowo antyrównoległe pola dyfundują przez obszar dyfuzji i przegrupowują się w konfigurację typu X. Dwie wcześniej niepołączone linie pola nagle się łączą. Co jednak o wiele ważniejsze, plazmy po obu stronach warstwy prądu, które przed połączeniem nie mogły się mieszać po ponownym połączeniu, znajdują się na tej samej linii pola i będą się mieszać wzdłuż pola nawet poza obszarem dyfuzji. Ponadto silne wygięcie nowo połączonych linii pola w warstwie prądu powoduje naprężenia magnetyczne, które mają tendencję do relaksacji i przyspieszania plazmy masowej do prędkości przepływu rzędu prędkości Alfv éna, va = B/(μ0nmi)1/2. W tak zwanym modelu ponownego połączenia Petscheka dwie stojące fale wolnego trybu rozciągają się od obszaru dyfuzji i definiują klinowaty przepływ o dużej prędkości region. Większość przyspieszenia faktycznie występuje w tych powolnych wstrząsach. Model Petscheka opiera się na obrazie płynu (MHD). W bezkolizyjnej plazmie nie jest jasne, czy takie powolne wstrząsy faktycznie powstają podczas procesu rekoneksji. W małym obszarze dyfuzji rozproszenie Joule′a powoduje lokalne nagrzewanie plazmy, a pole elektryczne generowane w procesie rekoneksji dodatkowo przyspiesza grupy cząstek do wysokich energii. W bezkolizyjnej plazmie odchylenie od nieidealności może wspierać rekoneksję w obszarze dyfuzji. Taką nieidealność mogą zapewnić anomalne rezystywności oparte na anomalnych częstotliwościach zderzeń. Wymaga to silnych prądów i/lub gradientów plazmy, dopóki niestabilności prądu nie przekroczą progu. Jednak bezkolizyjna rekoneksja może również przebiegać bez anomalnej rezystywności. W obszarze blisko linii X jony można uznać za niemagnetyczne. Stan zamrożenia elektronów można przełamać dzięki bezwładności elektronów i/lub dzięki braku żyrotropii funkcji rozkładu cząstek elektronów w otoczeniu linii X.
Bezkolizyjne wstrząsy
Innym ważnym obszarem zastosowania teorii plazmy bezkolizyjnej jest rozpraszanie w bezkolizyjnych wstrząsach. Składa się on z wstrząsu końcowego wiatru słonecznego wynikającego z oddziaływania między wysoce naddźwiękowym strumieniem wiatru słonecznego a ośrodkiem międzygwiazdowym. Ponadto, na zewnątrz, ale przed heliopauzą, powstaje łukowy wstrząs, który powstaje w wyniku jego ruchu przez obłok międzygwiazdowy.
Wstrząsy podkrytyczne i nadkrytyczne
W tym przypadku anomalne procesy transportu mają mniejsze znaczenie. W plazmie kolizyjnej szerokość przejścia wstrząsu jest rzędu średniej swobodnej drogi kolizyjnej. Jest ona o wiele rzędów wielkości za duża w plazmie bezkolizyjnej, gdzie przejście wstrząsu wynosi zwykle kilka długości bezwładności jonu, c/&pi. Fizyka bezkolizyjnych wstrząsów zależy zasadniczo od trzech parametrów, liczby Macha magnetosonic M = u/(v2A + c2ia)1/2, kąta θBn między polem magnetycznym w górę strumienia a normalną do wstrząsu oraz składu chemicznego plazmy. Zgodnie z liczbą Macha rozróżnia się wstrząsy podkrytyczne (M < Mc) i nadkrytyczne (M > Mc). Krytyczna liczba Macha Mc = ud/cia,d jest definiowana jako stosunek prędkości w dół strumienia do zwykłej prędkości dźwięku w dół strumienia (indeks d). W odniesieniu do θBn rozróżnia się wstrząsy quasi-prostopadłe ( θBn > 45°) i quasi-równoległe ( θBn < 45°). Dla wstrząsów prostopadłych krytyczna liczba Macha wynosi Mc = 2,76. Maleje ona wraz ze wzrostem kąta θBn. Skład chemiczny może prowadzić do osłabienia profilu wstrząsu. W przypadku wstrząsów podkrytycznych anomalne rozpraszanie kolizyjne na froncie wstrząsu spowodowane przez mikroniestabilności tam generowane jest mniej więcej wystarczające do wymaganego wzrostu entropii, ogrzewania i generowania turbulentnego nieporządku za wstrząsem, co prowadzi do rozpraszania nadmiaru energii w górę rzeki zmagazynowanej w przepływie. W przypadku wstrząsów nadkrytycznych dostarczanie energii przepływu do wstrząsu z góry rzeki jest zbyt szybkie. Niestabilności na froncie wstrząsu nie mają wystarczająco dużo czasu, aby rozwinąć się do poziomu wystarczająco wysokiego dla skutecznego rozpraszania. W tym przypadku front wstrząsu działa jak lustro i zaczyna odbijać coraz więcej jonów i elektronów z powrotem w górę rzeki do przepływu w strumieniu. W tym przypadku staje się istotne rozróżnienie wstrząsów quasi-prostopadłych i quasi-równoległych. Jest to ważne, ponieważ w plazmie bezkolizyjnej cząstki są związane z polem magnetycznym i mogą poruszać się tylko wzdłuż pola magnetycznego. Oznacza to, że w wstrząsach quasi-prostopadłych odbite cząstki pozostają na froncie wstrząsu lub są konwekcyjne z powrotem do regionu w dół rzeki. Szerokość górnego biegu regionu zawierającego odbite cząstki jest rzędu średniego promienia gyro odbitych cząstek.
Kwasi-prostopadłe wstrząsy
Odbite lustrzanie i następnie wirujące cząstki powodują sygnaturę przypominającą stopę w każdym zapisie in situ B. Podczas tego wirowania lustrzanie odbite jony są przyspieszane w polu elektrycznym v × B do około dwukrotności prędkości głównej w górnym biegu. Ponieważ jony te pozostają związane z polem magnetycznym, stają się konwekcyjne z polem magnetycznym do dolnego biegu. Region bezpośrednio za rampą wstrząsu zawiera transmitowany rozkład plus przyspieszone i transmitowane lustrzanie odbite jony. Transmitowane lustrzanie odbite jony wirują w pęczkach wokół linii pola magnetycznego. Takie rozkłady są niestabilne w odniesieniu do generowania fal plazmowych. Wzbudzają fale, które w dolnym biegu prowadzą do rozproszenia i nagrzewania plazmy. W przypadku wstrząsów o dużej liczbie Macha, jak również wstrząsów pozostałości supernowych, oddziaływanie lustrzano odbitych jonów z elektronami tła dodatkowo wzbudza fale akustyczne jonów, co może powodować szybkie, anomalne nagrzewanie się elektronów w fazie wstrząsu.
Wstrząsy quasi-równoległe
W przypadku wstrząsu quasi-równoległego sytuacja jest diametralnie inna. Tutaj odbite cząstki mogą poruszać się daleko w górę strumienia wzdłuż pola magnetycznego do strumienia napływającego. Ponieważ w tym samym czasie pole jest konwekcyjne w dół strumienia w kierunku wstrząsu, jest to prawdą dla cząstek mających prędkości wzdłuż B wyższe niż prędkość przepływu. Takie szybkie cząstki tworzą przeciwprądową wiązkę w przepływie i wzbudzają niestabilności wiązka-wiązka w inaczej niezakłóconym supermagnetosonicowym przepływie nadkrytycznym. Te niestabilności ewoluują w turbulencje o dużej amplitudzie, które są stale konwekcyjne w kierunku wstrząsu. Obszar wypełniony tymi turbulencjami nazywa się wstrząsem wstępnym. Ponieważ wstrząs wstępny jest turbulentny, energia jest tutaj rozpraszana, a przepływ jest nieznacznie zwalniany. Tak więc wstrząs wstępny skutecznie oznacza znacznie poszerzone przejście wstrząsu. Gdy fale w górę o niskiej częstotliwości są konwekcyjne z przepływem do szoku, oddziałują one z energetycznymi cząstkami w górę i stają się strome w pulsacje o dużej amplitudzie. Sam wstrząs można postrzegać jako mozaikę takich pulsacji o dużej amplitudzie, które się kumulują i określają stan plazmy w dół. W przypadku bardziej równoległych wstrząsów oddziaływanie plazmy w górę z gorącą plazmą w dół w obszarze nakładania się na rampie szoku również powoduje niestabilność wiązki jonowo-jonowej. Fale generowane przez tę tak zwaną niestabilność interfejsu są ograniczone do obszaru w dół od przejścia szoku, gdzie przyczyniają się do rozpraszania i nagrzewania. Długość fali fal interfejsu wzrasta wraz ze wzrostem liczby Macha szoku. W zakresie od niskiej do średniej liczby Macha fale interfejsu mają małe długości fal i są tłumione w niewielkiej odległości w dół. Przy wyższych liczbach Macha wstrząsów fale interfejsu mają duże długości fal i określają turbulencje w dół. W przypadku wstrząsów równoległych stan w dół jest zatem określany przez turbulencje w górę. Wstrząsy quasiparalelne są zatem wysoce niestacjonarne i oscylacyjne, a główną dyssypację zapewnia interakcja wstrząsu z falami w górę rzeki zamiast mikroturbulencji w samej rampie wstrząsu. Pokazuje to, że w plazmach bezkolizyjnych mechanizm powstawania wstrząsu jest bardzo różny od mechanizmu powstawania płynów kolizyjnych.
Przyspieszenie cząstek
Ważnym obszarem w bezkolizyjnej astrofizyce plazmy jest mechanizm przyspieszania cząstek do wysokich energii. Bezkolizyjne wstrząsy są jednymi z głównych czynników przyspieszających jony, a także elektrony do wysokich energii, gdy tylko jest wystarczająco dużo czasu. Cząstki odbite od wstrząsu i od ośrodków rozpraszania za wstrząsem w turbulentnym obszarze ściśniętym, gdy wracają przez wstrząs do turbulentnego obszaru w górę rzeki mają duże szanse na doświadczenie wielokrotnego rozpraszania i przyspieszania przez przyspieszenie Fermiego pierwszego rzędu. Przyspieszenie Fermiego drugiego rzędu lub stochastyczne w szerokopasmowej turbulencji w dół rzeki od bezkolizyjnych wstrząsów przyczyni się do przyspieszenia. Ponadto jony mogą być uwięzione w prostopadłych wstrząsach. Siły uwięzienia są zapewniane przez potencjał elektrostatyczny wstrząsu i siłę Lorentza wywieraną na cząstkę przez pola magnetyczne i elektryczne w ruchu w obszarze w górę rzeki. Przy każdym odbiciu od wstrząsu cząstki wirują równolegle do pola elektrycznego w ruchu, zbierając energię i surfując wzdłuż powierzchni wstrząsu. Wszystkie te mechanizmy są nadal badane, ale istnieją dowody na to, że wstrząsy odgrywają niezwykle ważną rolę w przyspieszaniu promieni kosmicznych i innych cząstek do bardzo wysokich energii. Oprócz przyspieszania w wstrząsach można się spodziewać, że cząstki są również przyspieszane w obszarze rekoneksji. Pomimo wstrząsów, plazmy bezkolizyjne są zdolne do generowania dużych różnic potencjałów wzdłuż pola magnetycznego. Są one znane jako warstwy podwójne lub wstrząsy elektrostatyczne. W większości przypadków potencjał nie będzie składał się z ciągłego spadku, ale będzie składał się z niezliczonych małych mikro- lub mezoskalowych spadków potencjału ograniczonych do kawitonów, samotnych struktur falowych lub dziur przestrzeni fazowej generowanych w nieliniowej interakcji fala-cząstka. Plazma dzieli się na kilka składników, które albo podtrzymują te struktury, albo niszczą je poprzez tłumienie czasu przejścia, co prowadzi do przyspieszenia.
Uwagi końcowe
Nie ma dostępnych informacji in situ na temat plazmy astrofizycznej. Dlatego trzeba odwołać się do pośrednich metod i analogii z dostępną plazmą. Takie plazmy występują tylko w przestrzeni bliskiej Ziemi. Właściwie większość pomysłów i modeli dotyczących zachowania plazmy astrofizycznej została zapożyczona z fizyki kosmicznej i przeskalowana do skali astrofizycznej. Pomiary i modele opracowane do opisu plazmy kosmicznej często służą jako paradygmaty dla plazmy astrofizycznej. Modele te obejmują przepływy wiatru gwiazdowego, magnetosfery pulsarów, magnetosfery namagnesowanych gwiazd i innych planet, w tym planet pozasłonecznych, magnetosfery w pobliżu czarnych dziur, interakcję wiatrów gwiazdowych z otaczającą MATERIĄ MIĘDZYGWIAZDOWĄ, ekspansję POZOSTAŁOŚCI SUPERNOWYCH, całą domenę rekoneksji, bezkolizyjnych wstrząsów, strumieni plazmy i niektórych mechanizmów promieniowania nietermicznego. Jednakże duże skale przestrzenne i długie skale czasowe w astrofizyce i obserwacjach astrofizycznych nie pozwalają na rozdzielenie stanu bezkolizyjnego plazmy. Na przykład w wietrze słonecznym średnia droga swobodna kolizyjna jest rzędu kilku AU. Patrząc z zewnątrz, heliosfera , region, na który wpływa wiatr słoneczny, będzie zatem uważana za zdominowaną przez kolizje w skalach czasowych dłuższych niż typowy czas propagacji ze Słońca do Jowisza. W każdej mniejszej i krótszej skali jest to błędne, ponieważ procesy bezkolizyjne rządzą tutaj wiatrem słonecznym. Podobne argumenty dotyczą wiatrów gwiazdowych, obłoków molekularnych, magnetosfer pulsarów i gorącego gazu w gromadach galaktyk. Należy zatem zdawać sobie sprawę z samego faktu braku obserwacji na małą skalę. Procesy bezkolizyjne generują anomalne współczynniki transportu. Pomaga to w wyprowadzeniu bardziej makroskopowego opisu. Jednak w ten sposób ukryte są procesy na małą skalę, które są naprawdę bezkolizyjne. Oznacza to, że trudno, jeśli nie niemożliwe, będzie wywnioskować cokolwiek na temat rzeczywistej struktury, na przykład bezkolizyjnych astrofizycznych fal uderzeniowych. Podobnie procesy promieniowania nietermicznego i przyspieszania oraz kinetyczne zachowanie gazu w skupiskach galaktyk są dostępne tylko poprzez wykorzystanie analogii z dostępnymi bezkolizyjnymi plazmami w bliskim otoczeniu Ziemi i heliosfery. Z teoretycznego punktu widzenia bezkolizyjne procesy plazmowe wymagają rozwiązania bezkolizyjnego równania Boltzmanna (równania Własowa) połączonego z pełnym zestawem równań Maxwella. Jest to trudne zadanie; często łatwiej jest przeprowadzić symulacje cząstek w komórce takich procesów, w których makrojony i elektrony są śledzone w czasie w samospójnie obliczonych polach magnetycznych i elektrycznych. Jeśli badane są tylko procesy o niskiej częstotliwości, elektrony są często aproksymowane jako ciecz, a tylko jony są traktowane jako cząstki (metoda symulacji hybrydowej).
Gromada Coma
Coma, wraz z Virgo, jest jedną z najlepiej zbadanych GROMAD GALAKTYK. Gromada znajduje się przy rektascensji 12h59m48,7s, deklinacji +27°58′50″ (J2000) i leży prawie na północnym biegunie Galaktyki, (l, b) = (58° , +88°). W głównym katalogu gromad galaktyk Abella, jej oznaczenie to Abell 1656. Średnie przesunięcie ku czerwieni gromady wynosi około 6900 km s-1, co daje jej odległość 69h-1 Mpc (gdzie H0 = 100h km s-1 Mpc-1). Coma jest jedną z najbogatszych pobliskich gromad, mającą 650 potwierdzonych galaktyk członkowskich i, wliczając karły, prawdopodobnie łącznie 2000 galaktyk. Ma dwie centralne, dominujące galaktyki i dlatego jest klasyfikowana jako gromada binarna. Coma od dawna jest uważana za archetypową bogatą gromadę. Wydaje się regularna i mniej więcej kulista, z silnym centralnym skupieniem. Sferyczna symetria i ogólna regularność oznaczały, że była uważana za dobry (choć rzadki) przykład
gromady, która osiągnęła równowagę dynamiczną i dlatego była podatna na prostą analizę teoretyczną. Prace prowadzone przez ostatnie dwie dekady stopniowo ujawniły jednak, że Coma jest daleka od rozluźnienia, z wieloma podstrukturami. Złożoność układu dynamicznego ujawnia wskazówki dotyczące procesu formowania się gromady. Całkowitą masę Coma oszacowano na podstawie obserwacji jej grawitacyjnych efektów na galaktyki i gorący gaz rentgenowski w gromadzie. Zakładając, że gromada znajduje się w równowadze dynamicznej, całkowita masa jest znacznie większa niż obserwowana masa w galaktykach i gazie rentgenowskim. Wynik ten, uzyskany po raz pierwszy przez ZWICKY′EGO w 1933 r., pozostaje jednym z najsilniejszych dowodów na to, że wszechświat składa się głównie z jakiejś formy niewidocznej CIEMNEJ MATERII.
Historia
William Herschel jako pierwszy zauważył koncentrację mgławic w gwiazdozbiorze COMA BERENICES w 1785 roku. Pierwszy katalog 108 mgławic w Coma został podany przez Wolfa w 1902 roku i rozszerzony przez Curtisa do ponad 300 obiektów w 1918 roku. Prędkości recesji kilku członków gromady zostały zmierzone przez Hubble′a i Humasona w 1931 roku. Miejsce gromady Coma jako kamienia probierczego pozagalaktycznej astronomii i kosmologii zostało ustalone, gdy Zwicky wyprowadził szacunek masy gromady w 1933 roku i stwierdził, że wynosi ona co najmniej 2 × 1014h-1M⊙ , co było znacznie więcej, niż można by wyjaśnić widoczną materią. Był to pierwszy dowód sugerujący, że we wszechświecie istnieje jakaś forma ciemnej materii.
Galaktyki gromady
Bogactwo
Gromada Coma ma 276 galaktyk jaśniejszych niż B = 18 w odległości 0,75h-1 Mpc (0,67°) od środka gromady i około 900 galaktyk jaśniejszych niż B = 20 do 1,5h-1 Mpc (1,33°). Moduł odległości dla Coma wynosi 34,2?5 log h, więc B = 20 odpowiada MB = ?14,2; około połowa galaktyk należących do Lokalnej Grupy to galaktyki karłowate o wielkościach bezwzględnych słabszych od tej, więc całkowita liczba galaktyk w Coma wynosi około 2000.
Funkcja jasności
Liczba galaktyk jako funkcja jasności została określona w Coma w zakresie długości fal optycznych, podczerwonych, ultrafioletowych i radiowych. Funkcja jasności optycznej i bliskiej podczerwieni (LF) nie jest zbyt dobrze dopasowana do standardowej formy funkcjonalnej Schechtera i wydaje się mieć trzy główne reżimy: liczba galaktyk na jednostkę jasności szybko wzrasta między najjaśniejszym członkiem gromady przy B = 12,6 i B ≈ 16 (L ≈ 3 × 109h-1L⊙ ), a następnie stabilizuje się do B≈ 18 (L≈ 0,5 × 109h-1L⊙α, dla galaktyk karłowatych o słabszych wielkościach. LF zmienia się w zależności od położenia w gromadzie. W regionach centralnych LF ma w rzeczywistości szczyt około B ≈ 16,5 i spadek przy B ≈ 17,5, zanim gwałtownie wzrośnie. Może to być spowodowane segregacją masy (jasności), gdy gromada zbliża się do ekwipartycji energii w centrum, lub ze względu na zwiększone scalanie w rdzeniu gromady lub ze względu na różne historie ewolucyjne galaktyk centralnych. Stromość prawa potęgowego dla galaktyk karłowatych zależy również od położenia w gromadzie, przechodząc od α ≈ ?1,3 w rdzeniu do α ≈ ?1,8 na obwodzie.
Morfologie
Jak w większości gromad, galaktyki w jądrze Coma są głównie eliptyczne i soczewkowate, podczas gdy obrzeża mają większy udział spirali. W przypadku 200 najjaśniejszych galaktyk w gromadzie mieszanka wynosi w przybliżeniu E:S0:Sp = 30%:55%:15%. Zróżnicowanie mieszanki morfologicznej znajduje odzwierciedlenie w kolorach galaktyk, przy czym czerwone galaktyki dominują w centrum, a niebieskie na obrzeżach. W regionie pomiędzy podgromadą NGC4839 a gromadą główną występuje nadmiar galaktyk wczesnego typu, które wykazują dowody niedawnego formowania się gwiazd, co mogło zostać wywołane przez interakcję z polem pływowym gromady lub ośrodkiem wewnątrzgromadowym (ICM), gdy obiekty te wpadły do Coma. Bardziej ogólnie, galaktyki E i S0 w gromadzie są silnie skoncentrowane wzdłuż osi północny wschód-południowy zachód, podczas gdy galaktyki spiralne wykazują bardziej rozproszony i izotropowy rozkład.
Galaktyki dominujące
W gromadzie Coma znajdują się trzy galaktyki dominujące (D lub cD). Dwie z nich (NGC4874 i NGC4889) leżą w jądrze gromady i powodują, że jest ona klasyfikowana jako gromada podwójna (klasa Bautza-Morgana II). NGC4874 (B = 12,8) to galaktyka cD z rozszerzonym halo i jasnością absolutną 5,8 × 1010h-1L⊙, która znajduje się blisko szczytu rozkładu galaktyk i gazu rentgenowskiego. NGC4889, 0,12° na wschód od NGC4874, jest jeszcze jaśniejsza (B = 12,6, 6,9×1010h-1L⊙), chociaż nie ma rozszerzonych halo. Szacuje się, że zarówno NGC4874, jak i NGC4889 mają masy (w zakresie 80h-1 kpc) wynoszące 1,4×1013h-1M⊙. NGC4874 jest silnym źródłem radiowym, ale NGC4889 nie. Trzecią dominującą galaktyką jest NGC4839 (B = 13,5), która leży daleko poza rdzeniem gromady, 0,67° na południowy zachód od NGC4874. Jest to kolejna galaktyka cD o jasności 3,0 × 1010h-1L⊙.
Jest to również źródło radiowe typu głowa-ogon, którego ogon skierowany jest na zewnątrz od środka gromady. Każda z trzech dominujących galaktyk jest wiodącym członkiem podgromady w Warkoczu.
Dynamika
REDSHIFTS zostały zmierzone dla 650 członków gromady. Rozkład prędkości w linii widzenia wewnątrz gromady można rozdzielić na dwa rozkłady maxwellowskie (gaussowskie). Jednym z nich jest główna część gromady, ze średnią prędkością 6900 km s-1 i jednowymiarową dyspersją prędkości 1100 km s-1. Drugim jest grupa galaktyk wokół NGC4839, ze średnią prędkością 7300 km s-1 i dyspersją 300 km s-1. Galaktyki E i S0, które dominują w głównej gromadzie, mają rozkład prędkości maxwellowski, co wskazuje, że są mniej więcej w równowadze dynamicznej. Jednak galaktyki spiralne w gromadzie mają szerszy i bardziej płaski rozkład prędkości, co sugeruje, że swobodnie spadają na gromadę.
Ośrodek wewnątrzgromadowy
Coma od dawna jest znany jako silne źródło emisji promieniowania rentgenowskiego. Całkowita jasność promieniowania rentgenowskiego gromady wynosi około 2,5 × 1044h-2erg s-1. Emisja promieniowania rentgenowskiego pochodzi z ICM, gorącej (8 keV ≈ 9×107 K) plazmy o masie co najmniej tak dużej, jak masa galaktyk. Gromada wydaje się dość regularna, poza oczywistym drugim szczytem w emisji promieniowania rentgenowskiego skupionym na NGC4839, która ma jasność 1043h-2erg s
Struktura
Szczegółowa analiza rozmieszczenia i dynamiki galaktyk oraz gazu rentgenowskiego pokazuje, że w Warkoczu Komora znajdują się co najmniej cztery podgromady. Podgromady NGC4874 i NGC4889 znajdują się w końcowej fazie łączenia się w rdzeniu gromady, podczas gdy podgromada NGC4839 albo wchodzi do Warkocza Komora po raz pierwszy z kierunku pobliskiego gromady Abell 1367, albo powraca z tego kierunku, mając już za sobą pierwsze przejście przez rdzeń gromady. Fakt, że NGC4839 ma radiowy "ogon" skierowany na zewnątrz od głównej gromady, wskazuje, że podgromada jest skierowana do wewnątrz i porusza się przez dość gęsty ICM. Inna podgromada została zidentyfikowana wokół NGC4911 i istnieją pewne dowody na inne, niższego poziomu struktury. Istnieje znaczący związek między strukturami w skalach od 10h-1 kpc do 100h-1 Mpc. Główne osie dominujących galaktyk oraz rozkład galaktyk gromady E i S0 oraz gazu rentgenowskiego są mniej więcej wyrównane ze strukturą włóknistą (tzw. "WIELKI MURU") biegnącą przez Comę na południowy zachód do Abell 1367 przy cz = 6500 km s-1 i na północny wschód do Abell 2197/2199 przy cz = 9100 km s-1. Wniosek jest taki, że gromada została zbudowana głównie z materiału, zarówno podgromad, jak i pojedynczych galaktyk, które opadły wzdłuż tego włókna.
Masa i zawartość materii
Ignorując podstrukturę i traktując Comę jako układ kulisty, w którym zarówno galaktyki, jak i gaz rentgenowski znajdują się w równowadze hydrostatycznej, całkowita masa gromady szacowana jest na (3,1 ± 0,5) × 1014h-1M⊙ wewnątrz 1h-1 Mpc i (6,5 ± 2,5) × 1014h -1M⊙ wewnątrz 3h-1Mpc. Nawet w ograniczonym kontekście tych założeń jest to szeroki zakres. W przypadku określania masy gromady przy użyciu dynamiki galaktyk wynika to częściowo z nieznanej anizotropii orbit galaktyk (czy przy danym promieniu galaktyki znajdują się głównie na orbitach izotropowych, radialnych czy kołowych); w przypadku określania opartego na obserwacjach rentgenowskich niepewność leży w nieznanym rozkładzie temperatur. Istnieje również nieznany rozkład ciemnej materii, która dominuje w całkowitej masie gromady. Wszystkie obecne obserwacje są zgodne z modelem, w którym "światło śledzi masę" (tj. ciemna materia ma taki sam rozkład jak widzialna materia), galaktyki znajdują się na izotropowych orbitach, a gromada ma jednolitą temperaturę. Są one jednak również zgodne z modelami, które znacznie odbiegają od tego najprostszego przypadku. Najlepiej dopasowane modele sugerują, że ICM i galaktyki mają nieco bardziej rozciągnięte rozkłady niż ciemna materia. Podstawowe założenie wszystkich tych modeli, a mianowicie, że Coma znajduje się w równowadze hydrostatycznej, jest wyraźnie naruszone na pewnym poziomie. Zakres, w jakim obserwowana podstruktura unieważnia wnioski modeli równowagowych, nie jest jeszcze jasny, chociaż wczesne wskazówki wskazują, że szacunki masy są dość dokładne. Oszacowanie Zwicky′ego z 1933 r. dotyczące stosunku masy do światła (M/L) w paśmie V w gromadzie Coma wynosiło około 100 hM⊙ /L⊙; dzisiejsze szacunki masy odpowiadają wartościom w zakresie 300-400 hM⊙/L⊙. Przekracza to M/L dla pojedynczych galaktyk o czynnik 10 lub więcej, co oznacza, że w ciemnej materii jest około 10 razy więcej masy niż w galaktykach. Jednakże, M/L gromady jest znacznie poniżej M/L wszechświata o gęstości krytycznej (Ω=1), dla którego M/L ≈1600hM⊙ /L⊙. Stosunek jasnej masy barionowej (tj. masy w galaktykach i gazie rentgenowskim) do całkowitej masy gromady wynosi około 0,15 wewnątrz 1h-1 Mpc i 0,2-0,4 wewnątrz 3h-1 Mpc. Jest to znacznie więcej niż frakcja barionowa ΩBh2 = 0,012 ± 0,002 przewidywana przez nukleosyntezę Wielkiego Wybuchu dla wszechświata Ω = 1 (nawet dla h = 0,5). Jeśli przyjąć, że stosunek masy do światła i frakcja barionowa w Warkoczu wskazują na istnienie wszechświata o &Omegal-niskim poziomie promieniowania.
Kometa Hale′a-Boppa (C/1995 O1)
Kometa C/1995 O1 (Hale-Bopp) została odkryta jednocześnie przez dwóch amerykańskich astronomów amatorów Alana Hale′a i Thomasa Boppa 23 lipca 1995 r. W tym czasie znajdowała się w odległości 7,1 AU od Słońca i miała już całkowitą jasność wizualną 10, co jest ponad 100 razy jaśniejsze niż KOMETA HALLEYA w tej samej odległości. Przeszła przez peryhelium 1 kwietnia 1997 r. w odległości 0,91 AU od Słońca. Orbita komety Hale′a-Boppa jest nachylona pod kątem 89? względem ekliptyki. Jej okres orbitalny wynosił około 4200 lat przed wejściem do wewnętrznego układu słonecznego i zmienił się na 2400 lat po zaburzeniu grawitacyjnym przez Jowisza. Jest to zatem kometa długookresowa, prawdopodobnie pochodząca z OORT CLOUD. Gdy tylko odkryto kometę Hale′a-Boppa i wyznaczono jej orbitę, było jasne, że będzie ona bardzo jasnym obiektem w peryhelium, jedną z najjaśniejszych kiedykolwiek zarejestrowanych komet. Rzeczywiście, osiągnęła całkowitą jasność wizualną -1 w pobliżu peryhelium. Przy sprzyjających warunkach obserwacji była obiektem widocznym gołym okiem na półkuli północnej przez ponad 2 miesiące. W tym momencie produkcja gazu osiągnęła 1031 cząsteczek wody s-1 (około 300 t s-1, 10 razy więcej niż kometa Halleya). Można ją zatem zaliczyć do "Wielkich komet" naszej epoki.
Kampania obserwacji komety Hale′a-Boppa
Wczesne odkrycie komety Hale′a-Boppa dało mnóstwo czasu na zorganizowanie ogólnoświatowych obserwacji za pomocą głównych instrumentów. Komety Hyakutake i Hale′a-Boppa były pierwszymi kometami o wyjątkowej jasności (przewyższającej pojawienie się komety West w 1976 r. i komety P/Halley w 1986 r.), które zaobserwowano za pomocą potężnych środków astronomii pod koniec XX wieku: wszechstronnych możliwości obrazowania CCD, nowych spektroskopowych urządzeń naziemnych w zakresie podczerwieni, milimetrów i submilimetrów oraz obserwatoriów kosmicznych, takich jak Infrared Space Observatory (ISO), Hubble Space Telescope (HST) i satelitów rentgenowskich. Nic więc dziwnego, że pojawiło się mnóstwo nowych wyników. Wzory pyłu komy, obrót jądra i rozmiar W wewnętrznej komie zaobserwowano złożony wzór strumieni pyłu (do siedmiu). Strumienie te wykazywały albo spirale, albo wzór promieniowy, w zależności od geometrii obserwacji w danym momencie. Blisko peryhelium wzór rozszerzających się powłok był widoczny nawet
dla obserwatorów z przyrządami o skromnych rozmiarach. Zjawisko to śledzi nierównomierną aktywność powierzchni jądra: "obszary aktywne" są okresowo narażone na ogrzewanie słoneczne, gdy jądro komety obraca się. Obserwacja ewolucji czasowej wzoru strumienia (lub powłoki) pozwoliła na dokładne określenie okresu 11,4 h obrotu jądra i ocenę jego osi. Średnicę jądra wynoszącą 40-80 km określono na podstawie obserwacji za pomocą Kosmicznego Teleskopu Hubble′a, Podczerwonego Obserwatorium Kosmicznego i naziemnej radiometrii przy długościach fal milimetrowych. Jest to największe JĄDRO KOMETY spośród tych, których wielkość udało się oszacować (kometa P/Halley miała wydłużone jądro o wymiarach "zaledwie" 8 km × 8 km × 16 km).
Ogon sodowy
Jednym z najważniejszych wydarzeń obserwacji komety Hale-Bopp było wykrycie trzeciego rodzaju OGONA KOMETARYCZNEGO (oprócz ogonów pyłowych i jonowych): cienkiego, prostego ogona ujawnionego przez żółte linie D atomowego sodu przy 589 nm, który pojawia się pod kątem od drugiego prostego ogona jonowego i różni się od szerokiego, zakrzywionego ogona pyłowego. Emisję linii sodowych zaobserwowano już w wielu kometach, a w kilku z nich sugerowano wskazówki dotyczące ogona sodowego, ale po raz pierwszy obecność ogona sodowego była tak widoczna. Linie D sodu są emitowane przez fluorescencję: fotony ze Słońca są pochłaniane i ponownie emitowane izotropowo; następuje przeniesienie pędu, przyspieszając atomy sodu od Słońca z prędkościami, które mogą przekraczać 80 km s-1. Pochodzenie kometarnego sodu jest słabo poznane. Rozkład macierzystej cząsteczki w fazie gazowej wydaje się wykluczony. Sód jest raczej uwalniany z cząstek pyłu kometarnego.
Ewolucja z odległością heliocentryczną
Wczesne wykrycie komety pozwoliło obserwatorom na zbadanie ewolucji tej wyjątkowej komety na bardzo dużym obszarze odległości heliocentrycznych i zaobserwowanie "włączenia" sublimacji różnych cząsteczek z lodu jądra, gdy kometa zbliżała się do Słońca. Zaraz po odkryciu, w odległości 7 AU, zidentyfikowano już tlenek węgla (w zakresie fal radiowych) i rodnik CN (w widmie widzialnym). Woda (śledzona przez rodnik OH obserwowany w bliskim ultrafiolecie lub w zakresie fal radiowych) pojawiła się w odległości zaledwie 4,8 AU. Aktywność komety, która jest napędzana przez sublimację lodu wodnego w krótkich odległościach heliocentrycznych, jest regulowana przez sublimację bardziej lotnych związków, zwłaszcza tlenku węgla, w dużych odległościach. Gdy kometa zbliżyła się do Słońca, kolejno obserwowano pojawienie się metanolu (CH3OH), cyjanowodoru (HCN), siarkowodoru (H2S), formaldehydu (H2CO) i cyjanku metylu (CH3CN). Ten sam wzór obserwowano w odwrotnej kolejności, gdy różne cząsteczki "wyłączały się", gdy kometa oddalała się od Słońca. W 2001 roku, w odległości około 14 AU od Słońca, kometa Hale′a-Boppa była nadal obserwowana jako aktywna. Obrazy uzyskane za pomocą teleskopu MPG/ESO o średnicy 2,2 m w La Silla nadal pokazują widoczną, zakrzywioną strukturę przypominającą dżet w komie, którą zaobserwowano wcześniej, przy czym całkowity rozmiar komy wynosił około 2 milionów km. Tlenek węgla jest nadal silnie odgazowywany, co widać w obserwacjach radiospektroskopowych za pomocą radioteleskopu SEST o średnicy 15 m, również w La Silla.
Nowe cząsteczki
Rozległe badanie spektroskopowe komety Hale-Bopp na wszystkich długościach fal, przy użyciu najnowocześniejszych instrumentów, doprowadziło do wykrycia wielu nowych gatunków cząsteczek. Kometa Hale-Bopp jest zatem obecnie kometą, której skład chemiczny jest najlepiej znany. Lista cząsteczek kometarnych nie jest jednak zamknięta, ponieważ zaobserwowano wiele niezidentyfikowanych cech widmowych. Skład substancji lotnych w komecie Hale-Bopp jest uderzająco podobny do składu chemicznego lodów międzygwiazdowych (jak niedawno zaobserwowano za pomocą ISO) oraz do składu obserwowanego w międzygwiazdowych gorących rdzeniach molekularnych i dwubiegunowych wypływach wokół protogwiazd.
Obserwacje radiowe
Oprócz znanych już cząsteczek macierzystych komety (H2O, CO, CO2, CH3OH, H2CO, HCN, H2S) i tych dopiero co odkrytych w komecie Hyakutake (NH3, HNCO, CH3CN, HNC, OCS), kilka cząsteczek zostało zidentyfikowanych metodą radiospektroskopii: stosunkowo złożone cząsteczki organiczne kwas mrówkowy (HCOOH), aldehyd octowy (CH3CHO), mrówczan metylu (HCOOCH3) i formamid (NH2CHO), nitryl HC3N, tioformaldehyd (H2CS), wszystkie o zawartości rzędu 10-4 w stosunku do wody. Tlenki siarki SO i SO2 zostały zaobserwowane w zawartości około 0,3%, co czyni je ważnym repozytorium siarki. Odkryto rodnik NS, którego pochodzenie (z jądra lodu lub z nieznanej cząsteczki macierzystej) nadal pozostaje zagadką. Kilka jonów zaobserwowano również po raz pierwszy metodą radiospektroskopii: CO+, HCO+, H3O+. Deuterowaną wodę (HDO) zaobserwowano z jednego z jej submilimetrowych przejść, ze stosunkiem D/H wynoszącym 3 × 10-4, jak w kometach 1P/Halley i Hyakutake. Deuterowaną odmianę DCN cyjanku wodoru zaobserwowano również ze stosunkiem D/H wynoszącym 2,5 × 10-3. Jak omówiono w COMET HYAKUTAKE, wartości te są pośrednie między kosmicznym stosunkiem D/H a stosunkami obserwowanymi w cząsteczkach międzygwiazdowych i stanowią kluczowy test dla teorii formowania się Układu Słonecznego.
Obserwacje w podczerwieni
Naziemne obserwacje spektroskopowe w podczerwieni za pomocą kriogenicznego spektrometru Echelle (CSHELL) na teleskopie podczerwieni NASA (IRTF) w zakresie 2,8-4,8 μm pozwoliły na obserwację CO, CH4, C2H2, C2H6, OCS, NH3, kilku rodników przez ich podstawowe pasma drgań oraz wody przez pasma "gorące", na które nie wpływa absorpcja telluryczna. Pojawienie się komety Hale-Bopp zbiegło się również z działaniem Infrared Space Observatory, które po raz pierwszy mogło zabezpieczyć widmo komet w zakresie podczerwieni od 2,5 do 190 μm. Cząsteczkę wody, którą tak trudno zaobserwować z ziemi ze względu na absorpcję tellurową, można było zaobserwować w wielu szczegółach poprzez jej podstawowe pasma drgań przy długościach fal 2,7 i 6,5 μm oraz jej linie rotacyjne w dalekiej podczerwieni (180 μm). Dwutlenek węgla (CO2) zaobserwowano poprzez jego pasmo drgań przy 4,25 μm: była to druga kometa, w której tę cząsteczkę (której nie można badać z ziemi ze względu na silną absorpcję tellurową) zaobserwowano bezpośrednio, po P/Halley, gdzie zaobserwowano ją in situ za pomocą spektrometru podczerwieni na pokładzie sondy VEGA. Jej obfitość wynosiła około 20% w stosunku do wody (w odległości 2,9 AU od Słońca, gdy wykonywano obserwację ISO), co czyni ją głównym lotnym kometą
Rozproszone źródła cząsteczek
Przed obserwacjami komety Hale′a-Boppa wiadomo było już, że niektóre "macierzyste" cząsteczki nie pochodzą z sublimacji lodu jądra, ale z wciąż słabo znanego "rozproszonego źródła" w komie. Zostało to wykazane dla CO i H2CO, np. przez obserwacje in situ komety P/Halleya przez sondę kosmiczną Giotto. Spektroskopowe obserwacje komety Hale′a-Boppa w podczerwieni przy użyciu długiej szczeliny wykazały, że CO powstawało w połowie ze źródła rozproszonego, a w połowie z jądra, gdy kometa znajdowała się w odległości mniejszej niż 2 AU od Słońca. Znaleziono również rozproszone źródło OCS. Interferometr Institut de Radioastronomie Millimétrique (IRAM) na Plateau de Bure (Francja) oraz Berkeley Illinois Maryland Array (BIMA) i Owens Valley Radio Observatory (OVRO), oba w Kalifornii, mogły zmapować na falach radiowych milimetrowych emisję radiową niektórych cząsteczek, wykorzystując technikę z powodzeniem zastosowaną wcześniej w przypadku komety Hyakutake. Pozwoliło to na zbadanie rozkładu przestrzennego niektórych gatunków, takich jak CO, H
Charakterystyka pyłu kometarnego
Już wiadomo było, że pył kometarny zawiera krzemiany z obserwacji naziemnych ich charakterystycznego pasma około 10 μm i że część z nich może być krystaliczna w niektórych kometach. Zapis pełnego widma w podczerwieni komety Hale-Bopp przez ISO natychmiast ujawnił szereg dodatkowych cech widmowych przy 16, 19,5, 23,5, 27,5 i 33,5 μm, które zostały zidentyfikowane jako bogaty w magnez oliwin (forsteryt Mg2SiO4), specjalny rodzaj krzemianu . Bardziej ilościowa analiza naziemnych i ISO widm komety Hale-Bopp wykazała, że jej pył składał się zasadniczo z forsterytu, piroksenów (innej klasy krzemianów, takich jak MgSiO3), amorficznych krzemianów i materiału bez cech widmowych, który mógł być ziarnami pokrytymi powłoką organiczną, wcześniej zaobserwowanymi przez sondy kosmiczne, które badały kometę Halleya. Widmo komety Hale-Bopp w tej domenie widmowej jest bardzo podobne do widma dysków pyłowych wokół niektórych młodych lub nawet rozwiniętych gwiazd, takich jak HD 100546, gwiazda pośrednia między obiektami β Pictoris lub Vegalike a gwiazdami Herbig Ae-Be, które również zostały zaobserwowane przez ISO. Zatem pył zawarty w takich dyskach wydaje się być podobny do pyłu kometarnego. Natomiast pył międzygwiazdowy wykazuje tylko krzemiany, które są w fazie amorficznej. Przekształcenie krzemianów z fazy amorficznej w krystaliczną, według naszej wiedzy, może nastąpić jedynie poprzez proces wyżarzania w stosunkowo wysokiej temperaturze (>1000 K). Nadal musimy zrozumieć, w jaki sposób komety takie jak Hale-Bopp mogły włączyć pozornie nieprzetworzone międzygwiazdowe substancje lotne z jednej strony i rozwinięte, krystaliczne krzemiany z drugiej strony.
Kometa Halleya (1P/Halley)
Kometa Halleya jest prawdopodobnie najsłynniejszą kometą, jaka kiedykolwiek została odnotowana. Powodem jest to, że jest to jedyna jasna kometa, łatwo widoczna gołym okiem, która powraca tak często, mianowicie z częstotliwością, która nigdy nie różni się zbytnio od 76 lat. Ponieważ taka częstotliwość jest mniej więcej porównywalna z długością życia człowieka, dziadkowie opowiadają o niej wnukom, a tradycja ustna ugruntowała jej sławę.
Przelot komety Halleya w 1682 roku
Do czasu przelotu komety Halleya w 1682 roku, żadnego z poprzednich przelotów nie zidentyfikowano jako pochodzącego od tego samego obiektu. W tym czasie nie znano żadnej komety okresowej, a kształt trajektorii komet był nieznany. W szczególności Johannes Kepler założył, że są to linie proste. Jednak kilka lat przed przelotem komety Halleya, Sir Isaac Newton po raz pierwszy ustalił, że parabola pasuje do obserwowanej trajektorii Wielkiej Komety z 1680 roku znacznie lepiej niż linia prosta. Parabola została zasugerowana jako jedno z możliwych rozwiązań podanych przez jego nową teorię powszechnego ciążenia. W 1703 roku przyjaciel Isaaca Newtona, EDMOND HALLEY, podjął się obliczenia orbit parabolicznych dla tych 24 historycznych komet, dla których dostępne były wystarczająco dokładne dane. Spośród 24 parabol, trzy z nich nie tylko miały ten sam rozmiar, ale także nałożyły się na siebie w przestrzeni. Daty ich przejścia były oddzielone 75 i 76 latami. Doszedł do wniosku, że trzy parabole były w rzeczywistości krańcem niezwykle wydłużonej elipsy. Trzy anonimowe komety były zatem trzema przejściami tej samej komety powracającej okresowo. Halley, słusznie dumny ze swoich wyników, napisał (po łacinie): Jeśli zgodnie z naszymi przewidywaniami kometa ta powróci w 1758 roku, uczciwa potomność rozpozna, że jej powrót został po raz pierwszy przewidziany przez Anglika.
Powrót w 1759 roku
Kometę odnalazł w Boże Narodzenie 1758 roku niemiecki amator; minęła peryhelium w marcu 1759 roku. Ponieważ powrót przewidziany przez Halleya został zweryfikowany, dotychczas anonimowa kometa została nazwana po raz pierwszy kometą Halleya. Jej przejście w 1758 roku odegrało kluczową rolę w Europie kontynentalnej, przekonując ludzi, że prawo powszechnego ciążenia Newtona jest poprawne. Powodem jest to, że Alexis Clairaut, wykorzystując istnienie zaburzeń planetarnych do skorygowania orbity komety po raz pierwszy, przewidział przejście przez peryhelium w 1759 roku z dokładnością jednego miesiąca.
Powrót w 1835 roku
Podczas powrotu komety Halleya w 1835 roku, ulepszenia instrumentów optycznych ujawniły po raz pierwszy istnienie zjawisk fizycznych zachodzących w głowie komety. W szczególności rysunki Friedricha Bessela pokazują strumienie, promienie i wachlarze, które wydają się być wyrzucane w kierunku Słońca, zanim zostaną odrzucone od Słońca. Bessel zinterpretował swoje rysunki za pomocą swojego klasycznego już "modelu fontanny", sugerującego już parujące gazy odciągające pył w kierunku Słońca od jądra. Wyglądało to na potwierdzenie idei Laplace′a, napisanych w 1803 roku, na temat istnienia stałego zamrożonego jądra.
Powrót w 1910 r.
Fotografia i spektroskopia po raz pierwszy przyniosły bardzo dużą ilość danych. W 1931 r. Bobrovnikoff opublikował ważną monografię przelotu z 1910 r., w której wykorzystał 709 fotografii i kilkadziesiąt spektrogramów. Rodniki i jony, które zostały zidentyfikowane w głowach i ogonach dawnych komet, pochodziły tylko z trzech pierwiastków: węgla, azotu i tlenu. Przelot komety Halleya w 1910 r. dodał wodór do tej listy (pasmo Fortrat CH w pobliżu 4300 ?). Bobrovnikoff założył, że cztery zidentyfikowane pierwiastki (H, C, N, O) pochodziły z trzech "macierzystych" cząsteczek odparowujących z jądra, a mianowicie dwutlenku węgla CO2, amoniaku NH3 i wody H2O. Fragmentacja i jonizacja tych trzech cząsteczek były w stanie wyjaśnić wszystkie obserwowane widma: CN, C2, C3, CH, OH, NH, NH2 i jony CH+, OH+, N2+, CO+ i CO2>sup>+ (w tym późniejsze identyfikacje). Dane te stanowią podstawę, na której Fred Whipple zbudował swój lodowy model konglomeratu JĄDRA KOMETY w 1950 r. Potrzeba większej liczby cząsteczek macierzystych stała się oczywista dopiero później, ponieważ brak zderzeń molekularnych w większości komet nie był wcześniej obserwowany.
Powrót w 1986 r.: obfitość atomów
Dzięki misjom kosmicznym przejście komety Halleya w 1986 r. przyniosło bogactwo nowych danych, koordynowanych przez International Halley Watch i zachowanych na dyskach kompaktowych w Comet Halley Archives. Średnie stosunki liczby atomów lekkich pierwiastków znalezionych w lotnej frakcji komety Halleya wyniosły:
Stwierdzono, że stosunek masy pyłu do gazu wynosi M = 0,8±0,2 dla komety Halleya. Stwierdzono, że jej obfitość pierwiastków jest quasi-słoneczna dla 17 zmierzonych pierwiastków, z wyjątkiem wodoru, który został zubożony o czynnik około 500 w komecie w stosunku do Słońca. Występowała również mniejsza rozbieżność dla Si, dwukrotnie bardziej obfitego, i Fe, o połowę mniej obfitego w komecie niż w Słońcu, tak że stosunek Fe/Si jest czterokrotnie mniejszy w komecie Halleya niż w Słońcu. Ten anomalny stosunek przypomina ten sam typ anomalii w chondrytach węglistych, gdzie stosunek Fe/Si waha się od 25% do 75% słonecznego. Uważa się, że KOMETY i CHONDRYTY mają podobne pochodzenie, chociaż nieco inną historię termiczną (chondryty były bardziej nagrzewane niż komety). Skład planet skalistych sugeruje również, że w wewnętrznym układzie słonecznym występuje zmienny niedobór żelaza w stosunku do Słońca.
Powrót z 1986 r.: dane molekularne
Wszystkie gatunki chemiczne zidentyfikowane w poprzednich kometach, plus kilka innych, zostały zidentyfikowane w komecie Halleya podczas jej przejścia w 1986 r. Średni skład chemiczny pyłu w komecie Halleya został również ustalony w procentach masowych. Pył zawiera 33% substancji organicznych i 67% nieorganicznych. Frakcja organiczna składa się w połowie z nienasyconych węglowodorów i w połowie z bardziej złożonych cząsteczek zawierających również tlen, azot i siarkę. Frakcja nieorganiczna składa się w trzech czwartych z krzemianów, a resztę stanowią FeS, grafit i siarka; obie frakcje zawierają również wodę związaną, prawdopodobnie wodę hydratacyjną. Lotna frakcja komety Halleya zawierała (w liczbie atomów) około 78,5% H2O, 4,5% HCO-OH, 4,2% H2CO, 3,5% CO2, 1,0% CO; 2,5% N2, 1,0% HCN, 0,8% NH3, 0,8/ N2H4, 0,4% C4H4N2; 1,5% C2H2, 0,5% CH4,
0,2% C3H2; 0,1% H2S, 0,05% CS2 i 0,05% S2. Skład poszczególnych ziaren pyłu z komety Halleya wykazał duże rozproszenie obfitości pierwiastków od ziarna do ziarna, chociaż wydaje się możliwe sklasyfikowanie ich do czterech odrębnych rodzin:
Grupa A (bogata w węgiel) oznacza 54% C, 12% O, 10% metali (37 ziaren).
Grupa B (bogata w tlen) oznacza 54% O, 10% C, 15% metali (18 ziaren).
Grupa C (bogata w Mg-Si) oznacza 81% metali (ale 5% Fe), 2% C, 2% O (10 ziaren).
Grupa D (bogata w żelazo) oznacza 33% Fe, ale 9% Mg, 5% Si, 8% C, 4% O (11 ziaren).
Te submikroskopowe ziarna wydają się reprezentować ziarna pyłu międzygwiazdowego z czterech różnych źródeł, pochodzące początkowo z różnych środowisk gwiezdnych i które nigdy nie zostały poddane obróbce termicznej przed osadzeniem się razem w środkowej płaszczyźnie mgławicy protosłonecznej, przed akrecją w komety.
Halo parujących ziaren
Istnienie rozszerzonego halo parujących lodowych cząstek zostało wykryte wokół jądra komety Halleya, w szczególności poprzez produkcję CO, prawdopodobnie pochodzącego z fotodysocjacji przez światło słoneczne cząsteczek kwasu mrówkowego HCO-OH i formaldehydu H2CO, które zostały wykryte w organicznych ziarnach nazwanych przez astronomów CHON. Inne lodowe halo ziaren zostały wykryte wcześniej w innych kometach.
Stosunek izotopowy
Przed przejściem komety Halleya w 1986 r. jedynym stosunkiem izotopowym mierzonym w kometach był stosunek 12C/13C mierzony z widm rodnika C2. Widma były trudne do zmierzenia ze względu na mieszanie się pasma C2 z NH2. Przypuszczano, że przybliżone stosunki od 70 do 140 są zgodne ze stosunkiem ziemskim 89, a nie ze stosunkiem międzygwiazdowym 43±4. Jednak analiza linii widmowych 13CN w komecie Halleya wykazała stosunek izotopowy węgla w rodniku CN wynoszący 65±9. Ten stosunek izotopowy zależy od rozważanej cząsteczki, ponieważ pochodzi z różnych efektów frakcjonowania. Stosunek międzygwiazdowy również waha się od 40 do 90 w różnych cząsteczkach. Fakt, że niektóre ziarna pyłu w komecie Halleya miały różne stosunki izotopowe węgla, można interpretować jako wynik różnego pochodzenia tych ziaren w przestrzeni międzygwiazdowej, co potwierdza interpretację ich dużego rozproszenia w obfitościach pierwiastków, o której wspomniano wcześniej. Stosunek izotopów D/H został również zmierzony w komecie Halleya; pierwsze pomiary miały duże paski błędów, ale ostatnio zostały znacznie poprawione. Deuter daje obecnie 320 części na milion (ppm) w wodzie komety Halleya, co jest około dwa razy więcej niż stężenie deuteru w naszych oceanach (około 156 ppm). To duże wzbogacenie deuterem zostało potwierdzone w dwóch ostatnich jasnych kometach (Hyakutake i Hale-Bopp). w porównaniu z deuterem w atmosferze Jowisza, co stanowi uczciwą ocenę jego zawartości w pierwotnym gazie mgławicowym, wzbogacenie deuterem w cząsteczkach wody komety Halleya, jak również w dwóch innych jasnych kometach, wynosi czynnik 16, podczas gdy wzbogacenie w wodzie naszych oceanów wynosi czynnik 8.
Orbita komety Halleya
Obecna orbita komety Halleya jest ekstremalnie wydłużoną orbitą o mimośrodzie e = 0,967. Przy 76-letnim okresie, jej odległość peryhelium wynosząca 0,587 jednostek astronomicznych (AU) ustala jej aphelium na prawie 35 AU. Jej nachylenie do ekliptyki wynosi 17,8°, ale ponieważ orbituje w kierunku wstecznym, jej nachylenie zwykle określa się jako 162,2°. Ponad 30 poprzednich przejść zostało obliczonych wstecz z niezwykłą dokładnością, co pozwoliło na jednoznaczne odnalezienie 30 przejść w dokumentach historycznych. Jej okres wahał się nieregularnie od 79,6 lat (od 451 do 530 r. n.e.) do 74,4 lat (od 1835 do 1910 r.). Zmiany w jej okresie wynikają z różnych pozycji planet olbrzymów, których przyciąganie nieznacznie zmienia jej orbitę. Natomiast jej orientacja w przestrzeni prawie się nie zmienia.
Los komety Halleya
Wszystkie obserwowane komety żyją krótko, ponieważ wielokrotnie wpadają do wewnętrznego układu słonecznego, gdzie rozpadają się w cieple słonecznym; okresowe komety zwykle znikają po dwustu lub trzystu przejściach. Kometa Halleya nie jest wyjątkiem. Jej zamarznięte jądro odparowuje gazy, które unoszą pył; powoduje to te przejściowe zjawiska, z których komety są tak dobrze znane. Ich głowy i ogony, stale gubione w przestrzeni, są najlepszym dowodem ich rozpadu. Taki rozpad często kończy się rozszczepieniem jądra. Ostatecznie wszystkie komety stają się niewidzialne. Mniejsze fragmenty mogą pozostać na zawsze na swoich orbitach lub mogą rozpaść się na coraz drobniejszy pył, jeśli nie uderzą w którąś z planet. Ponieważ nadal widzimy komety miliardy lat po powstaniu Układu Słonecznego, musi istnieć stałe źródło nowych komet.
Źródła dziewiczych komet
Rzeczywiście, znaleziono dwa rezerwuary dziewiczych komet, w których pozostała duża liczba komet od początku istnienia Układu Słonecznego. Jednym z nich jest PAS KUIPERA, pierścień milionów komet na quasi-kołowych orbitach poza orbitą Neptuna; drugim jest OBŁOK OORT, gigantyczna kula skupiona na Słońcu, której średnica jest tysiąc razy większa od rozmiaru układu planetarnego; zawiera miliardy komet. Te dwa zbiorniki utrzymują komety w ich pierwotnym stanie w głębokim zimnie kosmosu. Pas Kuipera jest nieco zaburzony przez rezonanse z orbitą Neptuna; powoduje to KRÓTKOKRESOWE KOMETY (okresy od 3 do 30 lat), podczas gdy pływy galaktyczne i czasami działanie pobliskiej gwiazdy zaburzają Obłok Oorta i powodują DŁUGOOKRESOWE KOMETY (okresy ponad 200 lat). Kometa Halleya jest przypadkiem szczególnym: wraz z kilkoma innymi kometami jej okres leży w przerwie między kometami krótko- i długookresowymi; z tego powodu prawdopodobnie powinna być nazywana kometą "średniookresową". W związku z tym jej pochodzenie nie jest do końca pewne.
Pochodzenie komety Halleya
Sam fakt, że kometa Halleya znajduje się na orbicie wstecznej sprawia, że bardziej prawdopodobne jest, że została przechwycona z Obłoku Oorta. Powodem jest to, że wszystkie komety Pasa Kuipera obracają się w kierunku progradowym, podobnie jak wszystkie planety. Bliskie spotkanie z planetą, które drastycznie zmieniłoby swój kierunek, jest wysoce nieprawdopodobnym wydarzeniem. Jeśli kometa Halleya pochodziła z Obłoku Oorta kilka tysięcy lat temu, to miała wspólne pochodzenie ze wszystkimi innymi kometami z tego obłoku. Obłok Oorta powstał podczas akrecji planet olbrzymów. Wzrost tych bardzo masywnych obiektów wyrzucił dużą część lodowych PLANETOZYMALI, które powstały w ich strefach, do Obłoku Oorta. Uran i Neptun były najbardziej skuteczne; Jowisz i Saturn stały się zbyt masywne i rozwinęły pole grawitacyjne, które wyrzuciło większość lodowych ciał zbyt daleko w przestrzeń, aby mogły być utrzymane przez grawitację Słońca wewnątrz Obłoku Oorta. Tak więc ostateczne pochodzenie komety Halleya leży prawdopodobnie wśród lodowych planetozymali, które akreowały w strefach Urana i Neptuna. Liczne anomalie izotopowe wspomniane wcześniej w ziarnach pyłu komety Halleya potwierdzają, że ziarna międzygwiazdowe, które akreowały w taki lodowy planetozymal, nigdy wcześniej nie były podgrzewane; gdyby powstał w strefie Jowisza, wyższa temperatura PROTOPLANETARNEGO DYSKU (blisko 220 K) wywołałaby neutralne reakcje wymiany izotopowej z wodorem mgławicowym, co również zmniejszyłoby wzbogacenie jego wody deuterem z 16 do 6. Ponieważ tak nie było, wydaje się to najlepszym dowodem na ostateczne pochodzenie komety Halleya. Jego wzbogacenie deuterem odpowiada niezmodyfikowanym warunkom międzygwiazdowym. W zewnętrznym układzie słonecznym było zbyt zimno, aby reakcje wymiany izotopów neutralnych mogły działać.
Jądro komety Halleya
Choć bardzo małe, jądro komety jest jedyną stałą cechą komety. Głowa i ogon to zjawiska przejściowe, które pojawiają się tylko w pobliżu Słońca. Są to pozostałości rozpadu jądra na pył i gaz. Wiadomo było pośrednio, że jądra komet są obiektami o wielkości od kilku do kilkudziesięciu kilometrów, ale jądro komety Halleya jest pierwszym jądrem, które zostało sfotografowane z bliska. Zrobiono to w 1986 roku podczas przelotu statku kosmicznego GIOTTO (Europejska Agencja Kosmiczna). Zdjęcia ujawniły, że ma ono dość nieregularny kształt; 90% jego powierzchni pokrywa czarna skorupa, która prawdopodobnie składa się z ziaren krzemianu sklejonych czarnym materiałem organicznym wyglądającym jak sadza i wyraźnie zawierającym dużą ilość węgla. Utrata lodu wodnego i bardziej lotnych lodów w skorupie nie sięga zbyt głęboko; skorupa jest przebita wieloma otworami, które działają jak wybuchające kratery lub fontanny, z których odparowuje wewnętrzny śnieg. To, co teraz widzimy, jest wyraźnie wynikiem wielu przejść blisko Słońca, gdzie powierzchnia jądra została wystarczająco ogrzana, aby stracić swoje substancje lotne i zespawać swoje ziarna. Jednak przewodzenie ciepła przez skorupę pozwala pobliskim warstwom substancji lotnych na odparowanie podczas każdego przejścia do peryhelium, a ich ciśnienie musi stać się wystarczająco duże, aby utrzymać otwarte wiele "fontann", które zasilają komę i ogony, dopóki kometa nie ostygnie wystarczająco, oddalając się od ciepła słonecznego. Jądro komety Halleya jest wydłużonym ciałem o wymiarach około 8 na 15 km, które wydaje się być wynikiem dwóch mniej więcej kulistych lodowych planetozymali, które się ze sobą zlepiły. Przejście komety Halleya w 1986 r. odegrało ważną rolę w wyjaśnieniu wielu cech i właściwości komet, w tym ich pochodzenia. Obecnie wydaje się, że jest dość dobrze ugruntowane, że jądra komet powstały z lodowych ziaren międzygwiazdowych, które najpierw osiadły w środkowej płaszczyźnie mgławicy protosolarnej. Nadal istniejące komety są mniej lub bardziej dziewiczymi pozostałościami materiału, który nie został użyty do stworzenia planet.
Kometa Hyakutake (C/1996 B2)
Kometa C/1996 B2 (Hyakutake) została odkryta 30 stycznia 1996 roku przez japońskiego astronoma amatora Yuji Hyakutake. (Nie należy jej mylić z inną "kometą Hyakutake" odkrytą przez tę samą osobę 5 tygodni wcześniej, C/1995 Y1, która była znacznie mniej spektakularna). Wkrótce odkryto, że kometa Hyakutake miała zbliżyć się do Ziemi 25 marca 1996 roku, w odległości zaledwie 0,102 AU (15 300 000 km). Przeszła przez peryhelium 1 maja 1996 roku w odległości 0,230 AU od Słońca. To ciało niebieskie jest kometą długookresową (około 9000 lat) z płaszczyzną orbity nachyloną pod kątem 125? nad ekliptyką; przypuszczalnie pochodzi z OORT CLOUD.
Bliskie podejścia komet do Ziemi
Wiadomo, że kilka KOMET przeszło wyjątkowo blisko Ziemi. Spośród tych o dobrze znanych orbitach, najbliższe podejście miała kometa D/1770 L1 (Lexell) w 1770 r.: zaledwie 0,015 AU (tj. 2 400 000 km, siedem razy więcej niż odległość Księżyc-Ziemia). W XX wieku komety 7P/Pons-Winnecke minęły w odległości 0,039 AU w 1927 r., 73P/Schwassmann-Wachmann 3 w odległości 0,062 AU w 1930 r., C/1983 H1 (IRAS-Araki-Alcock) w odległości 0,031 AU i C/1983 J1 (Sugano-Saigusa-Fujikawa) w odległości 0,063 AU w 1983 r. Bliskie przejście komety Hyakutake w odległości 0,102 AU jest zatem rzadkie, ale nie wyjątkowe. Kometa ta jednak była stosunkowo wysoce produktywna, wyrzucając około 2 × 1029 cząsteczek wody s-1 (około 5 t s-1), gdy znajdowała się w odległości około 1 AU od Słońca: to nie mniej niż 1/5 produkcji KOMETY HALLEYA w tej samej odległości. To sprawiło, że kometa stała się bardzo jasnym obiektem pod koniec marca 1996 r., osiągając zerową całkowitą wielkość gwiazdową, gdy była najjaśniejsza. Była widocznym gołym okiem obiektem przez kilka dni z ogonem rozciągającym się do 90°.
Kampania obserwacji komety Hyakutake
Kampania obserwacji, w której wykorzystano większość dużych instrumentów astronomicznych, musiała zostać zorganizowana w krótkim czasie. Zebrano wiele nowych wyników dotyczących nauki o kometach, tuż przed równie udanymi obserwacjami komety C/1995 O1 (Hale-Bopp).
Jądro, rozmiar i obrót
Echo radarowe komety można było uzyskać za pomocą 70-metrowej anteny Goldstone w Kalifornii. Ponieważ sygnał radarowy jest proporcjonalny do Δ-4 (Δ jest odległością obserwatora od celu), można było zaobserwować tylko komety znajdujące się w bliskiej odległości, a do tej pory tylko garstka z nich mogła zostać wykryta za pomocą technik radarowych: 2P/Encke, 26P/Grigg-Skjellerup, C/1983 H1 (IRAS-Araki-Alcock) i 1P/Halley. Na podstawie tych obserwacji ustalono, że JĄDRO KOMETY komety Hyakutake ma średnicę 2-3 km. W porównaniu z wysokim poziomem aktywności komety, ten niewielki rozmiar wskazuje, że większość powierzchni jest pokryta odsłoniętym, sublimującym lodem. Pomimo niewielkiej odległości od obserwatorów, jądro było zbyt małe, aby można je było rozróżnić za pomocą środków optycznych. Okres rotacji jądra komety określono na około 6,3 godziny na podstawie obrazowania w pobliżu jądra i krzywej blasku komety. Kilka jąder wtórnych zaobserwowano na zdjęciach wykonanych tuż po bliskim zbliżeniu komety do Ziemi. Każdy fragment był otoczony własną komą. Cofały się w kierunku antysłonecznym z prędkością około 12 m s-1 i stopniowo znikały. Oczywiste jest, że nie były one spowodowane poważnym rozpadem jądra, takim jak te, które miały miejsce w przypadku komet C/1975 V1 (West) lub D/Shoemaker-Levy 9, ale raczej fragmentami zewnętrznej skorupy jądra oderwanymi przez aktywność kometarną. Prawdopodobnie takie zjawisko jest powszechne wśród aktywnych komet, ale można je zaobserwować tylko w przypadku bliskiego przelotu.
Nowe cząsteczki
Przed obserwacjami komety Hyakutake zidentyfikowano w niej tylko kilka cząsteczek macierzystych: H2O, CO, CO2, CH3OH, H2CO, HCN, H2S. Obserwacje spektroskopowe, głównie w zakresie radiowym i podczerwonym, pozwoliły na identyfikację wielu innych gatunków. Amoniak (NH3), podejrzewany o bycie prekursorem rodników NH i NH2, został zaobserwowany przez jego linie centymetrowe z obfitością w stosunku do wody wynoszącą około 0,7%. To czyni tę cząsteczkę głównym składowiskiem kometarnego azotu. Inne związki azotu zostały zaobserwowane jako drugorzędne gatunki przez ich milimetrowe linie radiowe: kwas izocyjanowy (HNCO), cyjanek metylu (CH3CN) i izocyjanian wodoru (HNC, izomer cyjanku wodoru HCN niestabilny w warunkach laboratoriów naziemnych). Za pomocą spektroskopii radiowej wykryto również cząsteczkę siarkowaną, siarczek karbonylu (OCS). Deuterowaną wodę (HDO) zaobserwowano przez jej linię radiową przy 465 GHz. Odpowiedni stosunek [D]/[H] wynosi 3 × 10-4, wartość zbliżona do tej obserwowanej przez spektrometry masowe Giotto podczas przelotu obok komety Halleya. Wartość ta pokazuje wzbogacenie około 10 razy większe od "kosmicznej" obfitości deuteru w pierwotnej mgławicy słonecznej ([D]/[H] = 2,5 × 10-5), gdzie deuter był zawarty głównie w cząsteczce HD. Nie jest jednak tak duże, jak obserwowane w niektórych cząsteczkach międzygwiazdowych ([D]/[H] = kilka 10-3). Wzbogacenie deuterem może być naturalnym wynikiem reakcji chemicznych w niskiej temperaturze, takich jak te zachodzące w ośrodku międzygwiazdowym. Wzbogacenie obserwowane w kometach sugeruje, że deuter nie został ponownie zrównoważony w wodzie kometarnej i że materiał kometarny zachował, przynajmniej częściowo, sygnaturę materii międzygwiazdowej. Pojawienie się komety Hyakutake dało również okazję do przeprowadzenia pierwszych udanych obserwacji interferometrycznych komety w milimetrowych długościach fal, wkrótce ocenionych przez dalsze obserwacje KOMETY HALE-BOPP. Obserwacje w podczerwieni wykorzystywały nową generację spektrometrów o wysokiej rozdzielczości i czułości, takich jak Cryogenic Echelle Spectrometer (CSHELL) w NASA Infrared Telescope Facility (IRTF). CO i HCN zostały zaobserwowane po raz pierwszy w podczerwieni i ujawniono kilka węglowodorów. Metan (CH4), podejrzewany od dawna o bycie cząsteczką macierzystą odpowiedzialną za obecność rodnika CH, ale nigdy jeszcze nie zidentyfikowany, został zaobserwowany w ilości około 1% w stosunku do wody. Etan (C2H6) został również zaobserwowany w prawie takiej samej ilości, a także acetylen (C2H2), który jest nienasyconym węglowodorem. Obecność zarówno nasyconych, jak i nienasyconych węglowodorów pokazuje, że cząsteczki komet nie są wynikiem chemii równowagowej. W podczerwieni wykryto również siarczek karbonylu (OCS). Obserwacje w ultrafiolecie za pomocą Teleskopu Kosmicznego Hubble′a ujawniły cząsteczkę S2, widzianą po raz drugi w komecie, pierwszą z nich była C/1983 H1 (IRAS-Araki-Alcock) podczas jej bardzo bliskiego zbliżenia do Ziemi. Oczywiste jest, że tę cząsteczkę, która ma bardzo krótki czas życia, można wykryć jedynie za pomocą obserwacji bliskich komet o wysokiej rozdzielczości przestrzennej. W jaki sposób ta cząsteczka mogłaby zostać włączona do materii kometarnej lub stworzona przez chemiczną obróbkę lodów kometarnych lub wewnątrz wewnętrznej komy, nie jest jeszcze jasne.
Obserwacje rentgenowskie
Całkowicie nieoczekiwanym rezultatem było wykrycie emisji rentgenowskiej z komety Hyakutake. Jest to wynik wykorzystania trzech satelitarnych obserwatoriów rentgenowskich, początkowo poświęconych obserwacji wysokoenergetycznych emisji ze Słońca lub źródeł galaktycznych i pozagalaktycznych: Röntgen X-ray Satellite (ROSAT), który dokonał pierwszego wykrycia komety, Rossi X-ray Timing Explorer (XTE) i satelity Extreme Ultraviolet Explorer .Odkrycie to zostało wkrótce potwierdzone w przypadku komety Hale-Bopp, a emisję kilku innych komet można było również odzyskać z danych archiwalnych satelitów rentgenowskich. Zjawisko to nie jest zatem rzadkie i można je było zaobserwować nawet w przypadku niektórych słabych komet. Otwiera ono zupełnie nowe perspektywy dla obserwacji komet, a jego interpretacja stanowi nowe wyzwanie dla fizyki komet. Wysokoenergetyczne promieniowanie, takie jak promienie rentgenowskie, nie może być emitowane przez kometę, która jest bezwładnym, zimnym ciałem. Emisja ta pochodzi raczej z interakcji materii kometarnej z wysokoenergetycznym promieniowaniem słonecznym lub cząsteczkami słonecznymi. Dokładna natura tej interakcji została niedawno wyjaśniona przez ponowne zbadanie danych EUVE dotyczących komety Hyakutake i niezależnych obserwacji komety C/1999 S4 (LINEAR) przez Obserwatorium Rentgenowskie Chandra, które pokazują linie emisyjne silnie wzbudzonych jonów. Przeniesienie ładunku z ciężkich jonów w wietrze słonecznym do atomów neutralnych w atmosferze komety wzbudza atomy komet do wysokich poziomów elektronowych, a ich deekscytacja skutkuje emisją promieni rentgenowskich. Wyklucza to inne proponowane mechanizmy, takie jak rozpraszanie emisji promieni rentgenowskich przez bardzo małe (attogramowe) ziarna komet.
Kometa Ikeya-Seki (C/1965 S1)
Spośród małych ciał Układu Słonecznego kometa Ikeya-Seki - Wielka Kometa 1965 roku - jest wyjątkowym obiektem z więcej niż jednego powodu. Należy do wyjątkowej klasy komet, grupy Kreutza sungrazing, zespołu tak nazwanego, ponieważ jej członkowie mają niezwykle małe odległości najbliższego podejścia, ocierając się tym samym o Słońce w peryhelium. Ikeya-Seki jest jednym z najjaśniejszych członków rodziny, z pewnością najjaśniejszym i najlepiej obserwowanym w naszej epoce. W bliskiej odległości od Słońca część ogniotrwałego składnika materiału komety ("pyłu") odparowuje z powodu bardzo intensywnego ciepła, dzięki czemu ciężkie, metaliczne pierwiastki, których nie widać z większych odległości, uwalniają się i można je wykryć. Liczne emisje spowodowane takimi pierwiastkami zostały rzeczywiście sfotografowane i zidentyfikowane szczegółowo po raz pierwszy w widmach optycznych komety Ikeya-Seki. Podobnie, to właśnie na tej komecie wykonano pierwsze obserwacje wielopasmowe w podczerwieni i wykorzystano je do uzyskania dalszych informacji na temat pyłu kometarnego. Ikeya-Seki zostanie również zapamiętana jako jedna z najbardziej spektakularnych komet tego stulecia, z jedną na początku (Wielka Kometa Dzienna ze stycznia 1910 r.) i drugą pod koniec (Hale-Bopp, Wielka Kometa z 1997 r.); te dwie ostatnie komety nie były muskającymi słońce kometami Kreutza, ale były dość jasne, szczególnie KOMETA HALE-BOPP.
Odkrycie: oznaczenia
Kometa Ikeya-Seki została odkryta 18 września 1965 roku, niezależnie przez dwóch japońskich astronomów amatorów, Kaoru Ikeya i Tsutomu Seki. Nosi więc imiona dwóch bardzo pracowitych i skutecznych "łowców komet", którzy systematycznie i cierpliwie badają niebo każdej bezchmurnej nocy w poszukiwaniu nowych, rozmytych, ruchomych obiektów. Do nazwy dodano oznaczenie roku. Tak więc kometa ta jest znana w literaturze jako Ikeya-Seki (1965f) lub (1965 VIII). Zgodnie z nowym systemem przyjętym niedawno jest ona również oznaczana jako C/1965 S1 (Ikeya-Seki). Należy zauważyć, że nasza słynna kometa nie powinna być mylona z inną kometą Ikeya-Seki odkrytą około dwa lata później, 1967n=1968 I=C/1967 Y1.
Orbita: znak pochodzenia
Zaledwie kilka dni po odkryciu zdano sobie sprawę, że kometa przejdzie bardzo blisko Słońca, a gdy nieco później zabezpieczono wystarczającą liczbę obserwacji, aby określić wiarygodną trajektorię, elementy orbity nie pozostawiły wątpliwości: w rzeczywistości nadchodził nowy członek rodziny sungrazerów. Był to właściwie ósmy członek, który był wówczas dość dobrze znany. Wszystkie te obiekty zbliżają się do wewnętrznego układu słonecznego z niemal dokładnie tego samego kierunku w przestrzeni i podążają niemal identycznymi ścieżkami, przy czym główną różnicą jest okres rewolucji (500-1100 lat, dla tych, które są znane), a zatem czas ich pojawienia się. Pomysł, że niektóre komety tworzą grupę lub rodzinę, oznacza, że uważa się, że istnieje fizyczny lub genetyczny związek między tymi pojedynczymi obiektami. Ta koncepcja zastosowana do szeregu komet o bardzo podobnych orbitach i niezwykle małych odległościach peryhelium sięga końca XIX wieku. KIRKWOOD, a po nim Kreutz, który jako pierwszy szczegółowo badał orbity komet muskających słońce, twierdził, że komety te powstały w wyniku rozpadu starożytnej, gigantycznej komety macierzystej. Rodzina komet muskających słońce była omawiana szerzej w XX wieku, szczególnie przez Marsdena i Öpika, po przejściu komety Ikeya-Seki. Niedawno Bailey i jego współpracownicy zaproponowali, że długoterminowe świeckie zaburzenia grawitacyjne w Układzie Słonecznym powodują stopniowe zmiany w elementach orbitalnych niektórych komet, co prowadzi do trajektorii muskających słońce; sugerują, że takie transformacje w fazę muskającą słońce nie są rzadkie w dynamicznej ewolucji komet długookresowych. Wspomnijmy tu pokrótce o szczególnym powiązaniu rodzicielskim między dwoma członkami rodziny: elementy orbitalne komety Ikeya-Seki są tak bardzo podobne do elementów Wielkiej Komety Wrześniowej z 1882 r. (1882 II lub C/1882 R1), na przykład ich odległości peryhelium różnią się tylko o 0,000 04 AU (1 AU, jedna jednostka astronomiczna, to średnia odległość Ziemi od Słońca), mniej niż 1% promienia słonecznego, że te komety prawdopodobnie narodziły się razem, gdy ich bezpośredni rodzic rozdzielił się w peryhelium (może to być Wielka Kometa z 1106 r., jak wskazuje Marsden). Tak więc 1882 II i 1965 VIII są siostrami bliźniaczkami - nie są jednak identycznymi bliźniaczkami, ponieważ pierwsza była zauważalnie większa i jaśniejsza od drugiej. Orbita samego Ikeya-Seki jest pokazana schematycznie na rysunku 1. Jest to niezwykle wydłużona elipsa, która przeprowadza kometę prosto przez koronę słoneczną w peryhelium: znajduje się ona wówczas w odległości od powierzchni Słońca wynoszącej zaledwie dwie trzecie promienia słonecznego, czyli nieco mniej niż 500 000 km, podczas gdy na drugim końcu orbity (w aphelium) jest oddalona o około 30 miliardów kilometrów. Kometa muskająca Słońce zazwyczaj składa nam błyskawiczną wizytę i stanowi uderzający przykład drugiego prawa Keplera, zgodnie z którym linia między Słońcem a orbitującym ciałem (wektor promienia) przebiega przez równe obszary w równych odstępach czasu (patrz PRAWA KEPLERA). Tak więc Ikeya-Seki wykonała pół obrotu wokół Słońca w mniej niż cztery godziny (jej prędkość w peryhelium wynosiła 480 km s-1), podczas gdy wykonanie pełnego obrotu zajmuje jej około 900 lat! Z jasności komety w chwili odkrycia i wkrótce potem przewidywano i szeroko ogłaszano, że Ikeya-Seki będzie imponującym widokiem, gdy znajdzie się blisko Słońca. Spektakularny był rzeczywiście, osiągając astronomiczną wielkość około -10 do -11 w najjaśniejszym momencie (tj. porównywalną jasnością do Księżyca, gdzieś pomiędzy kwadrą a pełnią Księżyca lub kilkaset razy jaśniejszy niż Wenus w momencie największej jasności) i ukazując wspaniały ogon (czasami o długości 30°) przez kilka tygodni wokół peryhelium . Niestety jednak kształt i orientacja orbity obiektu sungrazer sprawiają, że jego obserwacja jest dość trudna. Tak więc, ze względu na niewielką odległość kątową komety Ikeya-Seki od Słońca i jej położenie na niebie, zawsze na południe od równika niebieskiego, wspaniały pokaz, jaki dała, był zarezerwowany zasadniczo dla astronomów amatorów i profesjonalistów w uprzywilejowanych miejscach o bardzo czystym niebie, na niezbyt dużych szerokościach geograficznych. Była dobrze obserwowana w Japonii, Australii i Nowej Zelandii, Afryce Południowej, południowej Europie, Ameryce Południowej, Meksyku i południowo-zachodniej części Stanów Zjednoczonych. Podobnie jak wiele innych muskających słońce komet, Ikeya-Seki zniknęła dość szybko; była obserwowana przez mniej niż cztery miesiące po peryhelium.
Cechy fizyczne: rozmiar, struktura
Fragmentacja jest częstym zjawiskiem wśród obiektów muskających słońce. Na przykład zaobserwowano, że kometa 1882 II rozpadła się na ponad pięć części w pobliżu peryhelium; podobnie, kilka raportów wskazywało, że co najmniej trzy podjądra (jedno znacznie jaśniejsze od pozostałych) pojawiły się tuż po najbliższym zbliżeniu się Ikeya-Seki do Słońca. Obiekty muskające słońce powstają, jak sądzimy, w wieloetapowym procesie, który zaczyna się od rozpadu przodka, wiele stuleci lub tysiącleci wcześniej, a następnie rozbicia kolejnych potomków, gdy wracają w okolice Słońca. Najprawdopodobniej powoduje to bardzo dużą liczbę małych obiektów muskających słońce, co potwierdza obecne odkrycie coraz większej liczby takich "karłowatych" obiektów muskających słońce (jak ujął to J. E. Bortle) za pomocą koronografów na pokładzie Solar and Heliospheric Observatory (SOHO). Pytanie, które nasuwa się, gdy kometa muskająca słońce jest widziana przed peryhelium, brzmi: czy przetrwa? Krótko mówiąc, odpowiedź brzmi, że większe osobniki się rozpadną (nawet jeśli zostaną złamane), a pigmeje nie. Rozmiar i wewnętrzna wytrzymałość to czynniki decydujące o uniknięciu rozpadu lub całkowitego rozproszenia. Gdy przelatują tak blisko pieca słonecznego, komety te są poddawane bardzo intensywnym naprężeniom cieplnym, a mniej lub bardziej istotna część ich masy zostanie odparowana. Poza tym doświadczają innego fizycznego wpływu Słońca, efektu pływowego. Ponieważ centralne przyciąganie grawitacyjne jest odwrotnie proporcjonalne do kwadratu odległości, działanie Słońca jest silniejsze na części ciała przechodzącego najbliżej niego niż na części najbardziej odległe. Ta różnica może być znacząca, jeśli ciało stałe jest większe niż pewna granica krytyczna i dodatkowo nie jest wystarczająco silnie ustrukturyzowane, nie będzie w stanie oprzeć się różnicowej sile grawitacyjnej i rozszczepi się lub rozpadnie: nazywa się to rozerwaniem pływowym. Na podstawie argumentów dynamicznych, ewolucyjnych i statystycznych oraz wykorzystując dane obserwacyjne dotyczące najbardziej znanych komet muskających słońce, w szczególności Ikeya-Seki, kilku astronomów było w stanie wyciągnąć wnioski dotyczące pochodzenia i stabilności orbitalnej tej klasy komet, a także niektórych ich właściwości fizycznych. Rozważmy na przykład prędkości różnicowe uzyskane przez fragmenty komety muskającej słońce po przejściu przez peryhelium. Jeśli, jak zrobił to Öpik, przypiszemy te różnice różnicom w radialnym opóźnieniu lub "efektowi rakiety" wytwarzanym na podjądrach o różnych rozmiarach, gdy wyrzucają gazy w ogólnym kierunku słonecznym, możemy oszacować wymiary tych różnych fragmentów. Stosując tę metodę do Ikeya-Seki i wykorzystując obserwowane kolejne separacje dwóch głównych towarzyszy, można ustalić, że jaśniejszy z nich miał średnicę od 5 do 10 km, a słabszy był około dwa razy mniejszy. Wymiary te są zgodne z dolną granicą uzyskaną przez Sekaninę dla średnicy jądra macierzystego (3-5 km) na podstawie innego założenia, a mianowicie, że względne ruchy podjąder są przypisywane prędkości separacji nadanej przy rozpadzie (jest to utożsamiane z równikową prędkością obrotową komety macierzystej, obrót jest również możliwą przyczyną przyczyniającą się do rozerwania). Przy założonej gęstości 1 g cm-3 masa komety Ikeya-Seki mogła być rzędu 1014 kg (około pięć razy mniej niż masa KOMETY HALLEYA). Masa siostry bliźniaczki 1882 II była prawdopodobnie 100 razy większa, masa "gigantycznego" przodka sungrazerów była jeszcze o około dwa rzędy wielkości większa, tj. masa powiedzmy 1018 kg. Tę ogromną liczbę należy umieścić w perspektywie astronomicznej: stanowi ona zaledwie około jedną dziesięciomilionową masy Ziemi! Ponieważ siła spójności i rozmiar są ściśle powiązane w rozpadzie pływowym, wiedza o tym drugim (w danej odległości od ciała centralnego) może być wykorzystana do wyprowadzenia pewnych informacji dotyczących tego pierwszego. Mimo że wywnioskowane wartości są przybliżone, są one raczej pouczające. Za pomocą uproszczonego modelu (nieobrotowego, jednorodnego, kulistego jądra), zastosowanego do danych dostępnych dla Ikeya-Seki i niektórych innych członków jego rodziny, Öpik wykazał, że siły spójności, które Ponieważ siła spójności i rozmiar są ściśle powiązane w rozpadzie pływowym, wiedza o tym drugim (w danej odległości od ciała centralnego) może być wykorzystana do wyprowadzenia pewnych informacji dotyczących tego pierwszego. Mimo że wywnioskowane wartości są przybliżone, są one raczej pouczające. Za pomocą uproszczonego modelu (nieobrotowego, jednorodnego, kulistego jądra), zastosowanego do danych dostępnych dla Ikea-Seki i niektórych innych członków tej rodziny, Öpik wykazał, że siły spójności, które utrzymują te ciała razem, są znacznie słabsze niż siły spójności wszelkich znanych materiałów (takich jak skały ziemskie lub rodzice meteorytów), z wyjątkiem meteorycznych "kul pyłu" (luźno związanych zespołów ziaren pyłu obserwowanych jako meteoryty, gdy wchodzą w naszą atmosferę), które charakteryzują się wytrzymałością na zgniatanie rzędu 104 dyn cm-2, około cztery (odpowiednio pięć) rzędów wielkości niższą niż wytrzymałość na rozciąganie (odpowiednio na ściskanie) skał. Odkrycia te są zasadniczo zgodne z modelem komet WHIPPLE′A, który opisuje jądro jako luźny, porowaty agregat materii lodowej i mineralnej. Niska wytrzymałość kohezyjna jest również zgodna z faktem, że fragmentacja komet jest często obserwowana nawet w dużej odległości od masywnego ciała, takiego jak Słońce lub Jowisz, a zatem przy braku jakiegokolwiek działania pływowego. Na koniec warto przypomnieć, że chociaż dość kruche, jądra komet są jednak wystarczająco odporne, aby przetrwać muskające podejście do Słońca, przy czym większe z nich są w każdym przypadku obserwowane w formie kilku trwałych komponentów po ich doświadczeniu rozszczepienia.
Wskazówki dotyczące natury i składu pyłu kometarnego
Pomimo wielkich trudności związanych z obserwacją obiektu znajdującego się zaledwie kilka stopni od Słońca na niebie, poświęcono znaczne wysiłki na uzyskanie danych na temat komety Ikeya-Seki w okolicach peryhelium, w szczególności danych spektroskopowych. Silna zachęta wynikała z faktu, że ten obiekt muskający słońce oferował bardzo rzadką - jak dotąd wyjątkową - okazję do uzyskania bezpośrednich dowodów na skład pyłu kometarnego za pomocą zdalnych obserwacji. Nasza bardzo ograniczona wiedza na temat względnej obfitości ciężkich pierwiastków w kometach pochodzi w zasadzie z badania meteoroidów pochodzenia kometarnego lub z pomiarów in situ (do tej pory możliwe tylko w przypadku komety Halleya). W ten sposób całkiem sporo widm Ikeya-Seki zostało zabezpieczonych 20 i 21 października 1965 r. w kilku obserwatoriach (Ratcliffe, Republika Południowej Afryki; Sacramento Peak, Nowy Meksyk; Lick, Kalifornia; Kitt Peak, Arizona; Haute-Provence, Francja). Parowanie (a raczej sublimacja) nielotnych substancji, które stanowią pył kometarny, wymaga stosunkowo wysokich temperatur, powyżej około 1000 K, osiąganych tylko wtedy, gdy kometa znajduje się wystarczająco blisko Słońca. Huebner badał sublimację składników ogniotrwałych pod wpływem promieniowania słonecznego i określił szybkość parowania i czas życia cząstek pyłu jako funkcję ich wielkości, ciepła utajonego ich materiałów składowych i odległości heliocentrycznej (r). Jest oczywiste, że pierwiastki metaliczne, które są chemicznie związane w materiale "skalnym", w postaci krzemianów lub tlenków, mogą zostać uwolnione tylko wtedy, gdy r jest mniejsze niż 0,1-0,2 AU. Kilka fragmentów tych niezwykłych widm komety Ikeya-Seki zilustrowano na rycinach 4 i 5. Zaobserwowano liczne linie emisyjne, głównie z powodu neutralnych atomów grupy żelaza, V, Cr, Mn, Fe, Co, Ni i Cu, ale także K, Ca i Ca+, oprócz Na, który pojawia się po raz pierwszy w pobliżu 1 AU od Słońca. Potwierdziło to w szczególności obecność kilku linii żelaza i niklu, o których donieśli Copeland i Lohse po ich obserwacjach komety 1882 II za pomocą wizualnego spektroskopu. Ta identyfikacja została w międzyczasie zakwestionowana na podstawie bezpodstawnej krytyki ignorującej szczególne warunki fizyczne panujące w atmosferze komety, ośrodku o niskiej gęstości bardzo dalekim od równowagi termodynamicznej, powszechnie występującej w eksperymentach laboratoryjnych. Obserwowane emisje atomowe powstają, podobnie jak emisje molekularne widziane dalej od Słońca, poprzez rezonans-fluorescencję (absorpcję promieniowania słonecznego przez atomy lub cząsteczki, a następnie emisję różnych możliwych przejść pochodzących z wyższych stanów energetycznych wzbudzonych w ten sposób). Analizując szereg widm Ikeya-Seki, Arpigny wykorzystał zmierzone natężenia linii do oszacowania względnych obfitości różnych atomów. Godnym uwagi wynikiem było to, że niektóre pierwiastki, zwłaszcza Al, Si, Ca i Ti, okazały się być zauważalnie niedoborowe w odniesieniu do Fe i w porównaniu z obfitością w Układzie Słonecznym. Mg był przypadkiem marginalnym. Ponieważ te pierwiastki są atomami składowymi kondensatów wysokotemperaturowych (np. korund, perowskit, melilit, rdzeń), możliwą interpretacją niedociągnięć jest to, że temperatura w komie Ikeya-Seki nie była wystarczająco wysoka, gdy analizowane widma zostały pobrane (około 14 promieni słonecznych lub 0,065 AU od Słońca), aby takie oporne materiały uległy rozkładowi w jakimkolwiek znaczącym stopniu. Nie przeprowadzono żadnych rzeczywistych pomiarów temperatury pyłu, Td, w tej odległości heliocentrycznej ani bliżej peryhelium, ale pośrednie dowody sugerują, że Td prawdopodobnie mieściło się w zakresie 1000-1500 K w pobliżu 0,065 AU. Można zauważyć, że bogate w Mg oliwiny i pirokseny, ostatnio uważane za ważne składniki krzemianowe ziaren pyłu kometarnego, również zawierają niektóre z niedoborowych pierwiastków. Niestety, nie udało się uzyskać bardziej szczegółowych wartości ilościowych, gdyż dostępne dane były niewystarczające. Mimo to można było bezpiecznie wyciągnąć wniosek, że skład pierwiastkowy pyłu w komecie był podobny do składu Słońca i meteorytów chondrytowych. Z drugiej strony, przestrzenne rozszerzenie emisji Na D na duże odległości od środka komety , pomimo bardzo krótkiego czasu życia sodu w obliczu jonizacji (rzędu 50 s przy r = 0,04 AU lub 8,6 promienia słonecznego) wskazuje, jak wskazali Spinrad i Miner oraz Huebner, że atomy Na muszą być osadzone w związku (lub związkach) o wysokim utajonym cieple parowania i w związku z tym być wytwarzane w rozproszonym źródle, a nie bezpośrednio z jądra. Z badania pola prędkości sodu wywnioskowano również, że ziarna pyłu prekursorowego musiały być dość duże, o promieniu ponad 20 μm. Jednocześnie wydaje się, że kometarny sód widziany w pobliżu 0,5-1 AU koniecznie pochodzi z cząstek o innej naturze, zawierających mniej opornych substancji bogatych w Na. Oprócz tych obserwacji spektroskopowych, pierwsze obserwacje komety w podczerwieni zostały przeprowadzone na Ikeya-Seki przez Becklina i Westphala, którzy wykryli emisję cieplną z ziaren pyłu i śledzili jej ewolucję jako funkcję r, od 0,2 do 0,5 AU zarówno przed, jak i po peryhelium. Na podstawie rozkładu energii przy 1,6, 2,0, 3,4 i 10 μm autorzy ci odkryli, że temperatura ziaren była wyższa niż temperatura, którą osiągnęłoby szare lub czarne ciało w równowadze z promieniowaniem słonecznym w odległości heliocentrycznej komety; wywnioskowali również pewne informacje na temat zależności długości fali emisyjności materiału ziarna, która okazała się znacznie niższa w podczerwieni niż w świetle widzialnym. Odkrycia te zostały potwierdzone w wielu późniejszych kometach. Obecnie ustalono, że cząstki odpowiedzialne za emisję cieplną to bardzo małe (rozmiaru submikronowego do mikronowego) ziarna wykonane z krzemianów zmieszanych z materiałami pochłaniającymi (prawdopodobnie węglowymi). Te maleńkie cząstki Y skutecznie pochłaniają silne widzialne promieniowanie słoneczne, ale nie mogą łatwo promieniować w podczerwieni; są więc przegrzane. Pomiary polaryzacji zostały wykonane w ogonie komety, ujawniając nagłą zmianę stopnia polaryzacji, odwrócenie od +20% do ?40%, co zostało zinterpretowane jako spowodowane segregacją według wielkości ziaren wzdłuż ogona, ziarna były prawdopodobnie złożone z lekko absorbujących krzemianów. Podejmowano próby obserwacji komety Ikeya-Seki w ultrafiolecie z rakiet, a także w długościach fal radiowych, ale niestety z różnych powodów się to nie udało.
Wniosek
Zaczęliśmy od stwierdzenia, że kometa Ikeya-Seki była wyjątkowym obiektem, co jest prawdą pod pewnymi ważnymi względami, ale jednocześnie mamy powody, aby sądzić, że wykazuje ona wyraźne podobieństwo do innych komet niemuskających Słońca. Oprócz obecności bardzo małych, gorących ziaren pyłu, o których właśnie wspomniano i które można znaleźć w wielu kometach, zauważamy również, że poza r = 0,4 AU, jego widmo wykazywało zwykłe pasma emisji cząsteczkowej spowodowane CN, C3, CH, C2 itd. Stąd niektóre z jego właściwości fizycznych i chemicznych można uznać za typowe dla komet w ogóle. Aby poznać te wspólne cechy znacznie bardziej szczegółowo, zwłaszcza w odniesieniu do obfitości ciężkich pierwiastków i składu chemicznego pyłu, oczekujemy pojawienia się kolejnego jasnego członka grupy muskającej słońce Kreutza. Będziemy wtedy jeszcze lepiej przygotowani, dzięki dzisiejszym wysoce wydajnym instrumentom, do badania muskającego słońce obiektu, w szczególności za pomocą wielodługościowych, dobrze skalibrowanych pomiarów, obserwując gościa w zakresie ultrafioletowym, optycznym, podczerwonym i radiowym, gdy znajduje się blisko Słońca i z daleka. W fazie bliskiej peryhelium niezwykle ważne będzie zaplanowanie dość ścisłych sekwencji czasowych i przygotowanie się na badanie rozkładu przestrzennego różnych emisji: wszystkie te obserwacje trzeba będzie przeprowadzić w przeciągu kilku godzin!
Promienie kosmiczne: propagacja w heliosferze
Promienie kosmiczne składają się głównie z jąder atomowych pozbawionych elektronów, z niewielką domieszką, rzędu 1%, elektronów i pozytonów. Ich energie wahają się od kilku MeV do ponad 1020 eV, ale tylko promienie kosmiczne o energiach poniżej kilku 10 GeV są znacząco dotknięte procesami heliosferycznymi. Ponieważ wszystkie promienie kosmiczne niosą ładunek elektryczny, propagacja promieni kosmicznych w heliosferze jest kontrolowana przez ich interakcję z międzyplanetarnym polem magnetycznym. Gdyby nie było pola magnetycznego, promienie kosmiczne przechodziłyby przez układ słoneczny bez przeszkód. Procesy, które wpływają na propagację promieni kosmicznych przez pole to (1) wirowanie wokół linii sił pola magnetycznego, (2) rozpraszanie z powodu nieregularności pola, (3) ruchy dryftowe narzucone przez gradienty na dużą skalę i krzywiznę pola oraz (4) adiabatyczne zwalnianie, które powstaje w wyniku ich sprzężenia przez pole z ekspansją promieniowo wypływającego WIATRU SŁONECZNEGO. Ruch wirowy pozwala cząstkom
na łatwą propagację wzdłuż linii pola, która odpowiada tak zwanemu środkowi przewodniemu ruchu cząstki, ale zapobiega znacznemu przepływowi prostopadłemu do pola. Rozpraszanie spowalnia ruch wzdłuż pól, ale może również powodować transport prostopadły do pola poprzez zmianę środka przewodniego cząstki z jednej linii pola na sąsiednią. Dryfty są określane przez globalną geometrię pola międzyplanetarnego i zapewniają zorganizowane, w przeciwieństwie do dyfuzyjnych, przepływy poprzeczne. Adiabatyczne spowolnienie zmienia energię cząstek w wietrze słonecznym i jest głównym źródłem strumienia cząstek obserwowanych przy energiach poniżej kilkuset MeV/nukleon w wewnętrznej heliosferze. Ponieważ cząstki o tych niskich energiach w ośrodku międzygwiazdowym są wykluczane z wewnętrznej heliosfery przez wiatr słoneczny i międzyplanetarne pole magnetyczne, niskoenergetyczne promienie kosmiczne obserwowane w pobliżu Ziemi weszły do heliosfery przy wyższych energiach i zostały spowolnione do obserwowanych energii. Promień
kosmiczny może stracić kilkaset MeV na adiabatyczne spowolnienie podczas propagacji z granicy heliosfery na orbitę Ziemi, przy szerokim rozkładzie strat energii zależnym od rzeczywistej ścieżki obranej przez poszczególne cząstki. Kompleksowy opis obecnego stanu teorii i obserwacji propagacji promieni kosmicznych w heliosferze można znaleźć w książce "Cosmic Rays in the Heliosphere". Ten krótki artykuł może jedynie podsumować najważniejsze punkty. Międzyplanetarne pole magnetyczne, które kontroluje propagację, ma swój początek w Słońcu i jest przenoszone na zewnątrz przez przewodzącą elektryczność plazmę wiatru słonecznego. Ponieważ źródłem heliosferycznego pola magnetycznego jest pole słoneczne, ogólna struktura magnetyczna heliosfery jest determinowana przez strukturę magnetyczną Słońca. Struktura ta nie jest statyczna, ale ulega drastycznym zmianom w trakcie 11-letniego cyklu aktywności słonecznej. Zmiany te silnie wpływają na propagację promieni kosmicznych. W minimum słonecznym ogólne pole słoneczne
jest głównie polem dipola z niewielkim nachyleniem, rzędu 10° lub podobnym, od osi obrotu Słońca. Jak omówiono w artykule na temat pola magnetycznego wiatru słonecznego, linie pola z otwartych polarnych dziur koronalnych rozszerzają się w pobliżu Słońca i są rozciągane przez wiatr słoneczny, aby wypełnić każdą półkulę heliosfery. Tak więc międzyplanetarne pola magnetyczne w północnej i południowej półkuli heliosfery mają przeciwną biegunowość magnetyczną. Przeciwne bieguny są rozdzielone cienką, prawie równikową warstwą prądu. W wyniku obrotu Słońca pod wpływem promieniowo rozszerzającego się wiatru słonecznego, poszczególne linie pola wyznaczają spirale Archimedesa w przestrzeni międzyplanetarnej. Wiatr słoneczny ma typowe prędkości ∿400 km/s-1 w pobliżu równika i 800 km/s-1 na dużych szerokościach geograficznych. Szybkość obrotu Słońca około 13,8° dzień-1 w pobliżu równika i prędkość wiatru słonecznego Vsw określają kąt Φ spirali do kierunku
promieniowego poprzez zależność
Φ=tan-1(r cosθΩ/Vsw
gdzie r jest promieniem, a θ szerokością geograficzną. W pobliżu ekliptyki kąt ten wynosi około 45° na orbicie Ziemi i wzrasta do ∿80° w pobliżu orbity Jowisza. Ponieważ heliosfera najprawdopodobniej ma promień rzędu 100 AU, pole jest zasadniczo styczne przez większość heliosfery. Gdyby promienie kosmiczne podążały za polem, ich długość ścieżki od szoku końcowego wiatru słonecznego w odległości około 100 AU do Ziemi w odległości 1 AU mogłaby wynosić nawet ∿5000 AU. W rzeczywistości promienie kosmiczne ulegają rozpraszaniu z powodu nieregularności pola podczas propagacji, a skutki rozpraszania i ciągłej konwekcji pola na zewnątrz przez wiatr słoneczny powodują znaczną redukcję intensywności promieni kosmicznych w wewnętrznej heliosferze w porównaniu z pobliską przestrzenią międzygwiazdową. Ta redukcja intensywności nazywana jest modulacją słoneczną i jest skuteczna przez cały czas, nawet w minimum słonecznym. W trakcie CYKLU SŁONECZNEGO, efektywne nachylenie pola dipola słonecznego wzrasta wraz ze wzrostem aktywności słonecznej, a duże lokalne pola związane z aktywnymi regionami zaczynają wnosić znaczący wkład do ogólnego pola, w efekcie zwiększając znaczenie multipoli wyższego rzędu w polu. W maksimum słonecznym składnik dipolowy nie jest już dominującym składnikiem, a pole przy Słońcu i, co za tym idzie, w przestrzeni międzyplanetarnej, staje się bardzo skomplikowane. Ponadto, zwiększona aktywność słoneczna powoduje zwiększone generowanie przejściowych zaburzeń, takich jak WYRZUT MASY KORONALNEJ SŁONECZNEJ, w wietrze słonecznym, które dodatkowo zniekształcają pole magnetyczne. W odpowiedzi na ten wzrost złożoności pola, intensywność promieniowania kosmicznego w całej heliosferze jest wyraźnie zmniejszona w stosunku do poziomów minimum słonecznego. W miarę jak aktywność maleje po maksimum słonecznym, pole zaczyna się upraszczać i, gdy minimum słoneczne zbliża się do nowego składnika dipola, ze znakiem przeciwnym do znaku poprzedniego minimum słonecznego, staje się dominujący. Tak więc pole słoneczne, a wraz z nim pole heliosferyczne, odwracają znak co 11 lat. W przypadku promieni kosmicznych wynikiem tej ewolucji jest obserwowana 11-letnia zmiana intensywności promieni kosmicznych, znana jako modulacja cyklu słonecznego. Jako przykład, rysunek 1 pokazuje efekty tej modulacji mierzonej na Ziemi i na PIONEER 10 do odległości przekraczających 60 AU od Słońca podczas dwóch cykli aktywności słonecznej. Rozprzestrzenianie się zmian modulacji na zewnątrz, reprezentujące konwekcję zmienionej struktury magnetycznej przez wiatr słoneczny, jest wyraźnie widoczne, szczególnie w przypadku krótkiego minimum słonecznego w 1987 r., kiedy modulacja na Ziemi zaczęła wzrastać, nawet gdy nadal spadała na Pioneer 10. Ponieważ średnia prędkość wiatru słonecznego w pobliżu ekliptyki wynosi około 400 km s-1, czyli 0,23 AU dzień-1, zmiany obserwowane w odległości 1 AU mogą nie być obserwowane przez wiele miesięcy później w zewnętrznej heliosferze. Wzrost wynika z radialnego gradientu intensywności promieniowania kosmicznego, odzwierciedlając fakt, że promienie kosmiczne w zewnętrznej heliosferze podlegają mniejszej modulacji niż te w wewnętrznej heliosferze. Wielkość gradientu wynosi kilka procent na AU, w zależności od energii cząstek i gatunku, i jest największa w wewnętrznej heliosferze. Największe zaobserwowane gradienty, aż do 15-20% AU-1 w wewnętrznej heliosferze, dotyczą niskoenergetycznych anomalnych składników, które są przyspieszane w szoku końcowym wiatru słonecznego. Badanie modulacji cyklu słonecznego dostarcza nam niektórych z naszych najlepszych informacji dotyczących propagacji promieni kosmicznych w heliosferze. Również widoczne jest stopniowo zwiększający się strumień mierzony w Pioneer 10 w porównaniu z tym w IMP-8. Ten wzrost wynika z radialnego gradientu intensywności promieniowania kosmicznego, odzwierciedlając fakt, że promienie kosmiczne w zewnętrznej heliosferze podlegają mniejszej modulacji niż te w wewnętrznej heliosferze. Wielkość gradientu wynosi kilka procent na AU, w zależności od energii cząstek i gatunku, i jest największa w wewnętrznej heliosferze. Największe zaobserwowane gradienty, aż do 15-20% AU-1 w wewnętrznej heliosferze, dotyczą składowych normalnych o niskiej energii, które są przyspieszane w szoku końcowym wiatru słonecznego. Badanie modulacji cyklu słonecznego dostarcza niektórych z naszych najlepszych informacji dotyczących propagacji promieni kosmicznych w heliosferze. Inne informacje, które mają kluczowe znaczenie dla określenia natury transportu naładowanych cząstek w heliosferze, pochodzą z badania zdarzeń z energetycznymi cząstkami słonecznymi, tak zwanych słonecznych promieni kosmicznych. Ten aspekt został dokładnie przeanalizowany przez Kunowa (1990). Podczas początku zdarzenia cząstek słonecznych, pierwsze przybywające cząstki zazwyczaj przybywają w bardzo anizotropowym przepływie wzdłuż kierunku pola magnetycznego. Profil czasowy przybywających cząstek dostarcza informacji dotyczących właściwości rozpraszania międzyplanetarnego pola magnetycznego. Rysunek 2 przedstawia profil czasowo-intensywny dla jednego z największych zdarzeń cząstek energetycznych słonecznych, jakie kiedykolwiek zarejestrowano, które zostało zaobserwowane przez naziemne detektory promieniowania atmosferycznego wywołanego przez promienie kosmiczne w lutym 1956 r.
Zdarzenie to ma cechy typowe dla wielu zdarzeń cząstek słonecznych. Szybki początek oznacza, że cząstki wstrzyknięte w wybuchu do Słońca przybywają z niewielkim rozproszeniem między Słońcem a Ziemią, co sugeruje średnią swobodną ścieżkę między rozproszeniami rzędu 1AU. Wolniejszy wykładniczy rozpad oznacza istnienie znacznego rozproszenia poza orbitą Ziemi, co działa w celu ograniczenia cząstek w heliosferze i opóźnienia ich ucieczki do ośrodka międzygwiazdowego. Obserwacje odtworzone tutaj w rzeczywistości dostarczyły pierwszego dowodu na istnienie heliosfery. Przy wysokich energiach, takich jak pokazano na rysunku, skala czasowa typowego zdarzenia wynosi godziny. Przy niższych energiach rzędu kilku MeV, które można obserwować tylko z kosmosu, skala czasowa zdarzenia od początku do powrotu do normalnych, spokojnych natężeń czasu może wynosić wiele dni, a nawet tygodni w przypadku dużych zdarzeń. Rozpraszanie promieni kosmicznych przez międzyplanetarne pole magnetyczne jest wynikiem oddziaływania między naładowanymi cząstkami spiralnie poruszającymi się wzdłuż linii pola i nieregularnościami w polu. Jeśli nieregularności są reprezentowane przez widmo fal przez transformatę Fouriera, najsilniejsze rozpraszanie jest wytwarzane przez fale, których długość fali jest rezonansowa ze spiralnym ruchem cząstek, gdy poruszają się wzdłuż pola. Tak więc efekt rozpraszania zależy od energii i kąta pochylenia (kąta wektora prędkości względem pola magnetycznego) cząstek oraz od średniej siły pola. Efektem rozpraszania jest modyfikacja kąta pochylenia i/lub przesunięcie środka prowadzącego ruchu obrotowego cząstki prostopadle do pola, średnio o około jeden promień żyroskopu. Istnieje obszerna literatura dotycząca prób wyprowadzenia właściwości rozpraszania cząstek pola z obserwacji widma nieregularności w polu. Niestety, wysiłki te nadal nie zakończyły się pełnym sukcesem. Podczas modelowania efektów rozpraszania na modulację promieni kosmicznych i propagację energetycznych cząstek słonecznych, zwykle opisuje się rozpraszanie poprzez wprowadzenie współczynnika dyfuzji, ?, który można rozbić na składowe κ|| równoległe do pola i κ⊥ prostopadłe do pola. W szczególności modele obliczeniowe do modulacji promieni kosmicznych zazwyczaj wykorzystują współczynnik dyfuzji radialnej.
jako parametr, gdzie Φ jest kątem spiralnym pola międzyplanetarnego względem promienia wektora od Słońca. Przez większą część heliosfery cos2Φ jest w przybliżeniu równe zeru, tak że wartości współczynnika dyfuzji odzwierciedlają przede wszystkim dyfuzję w średnim polu. Typowe formy współczynnika dyfuzji to κ = AβPα(B0/B), gdzie β jest prędkością cząstki jako ułamkiem prędkości światła, P jest sztywnością magnetyczną cząstki lub pędem na jednostkę ładunku, A jest stałą, a B jest natężeniem pola magnetycznego odniesionym do pola odniesienia B0. Wartość wykładnika α mieści się w zakresie 0-1, a wartości κτ znalezione w celu dopasowania obserwacji wynoszą zazwyczaj kilka razy 1022 cm2 s-1 na orbicie Ziemi dla protonów o energiach około 1 GeV. Wartości rosną wraz z promieniem w wyniku spadku B, który, gdy pole staje się prawie styczne, maleje jako 1/r. Wywnioskowane wartości κrr stanowią szczególne wyzwanie dla teorii propagacji, ponieważ trudno było osiągnąć wystarczająco szybki transport przez kierunek średniego pola, aby dopasować się do obserwacji. W przypadku propagacji przez pole spowodowanej jedynie rozpraszaniem, przybliżona górna granica współczynnika dyfuzji prostopadłej wynika z założenia translacji o jeden promień gyro w okresie jednego gyracji wokół pola. Dla cząstek ∿1 GeV w pobliżu orbity Ziemi granica ta wynosi około 1020 cm2 s-1, czyli mniej niż 1% rozmiaru współczynnika dyfuzji wywnioskowanego z obserwacji. Bezpośrednie obserwacje wyraźnie wymagają również znacznie bardziej wydajnego transportu. Jako przykład obserwacji, które wymagają szybkiego transportu szerokości geograficznej, rysunek
pokazuje trwałość na szerokościach heliosferycznych ∿70°-80° zmian intensywności promieniowania kosmicznego z 26-dniowym okresem obrotu Słońca, które zostały wywołane przez interakcje strumieni wiatru słonecznego w pobliżu równika. Jak pokazano na rysunku, szybki wiatr słoneczny wyprzedzający wolny wiatr wytwarza obszar skompresowanego pola, co daje obniżony współczynnik dyfuzji, który lokalnie zwiększa siłę modulacji promieni kosmicznych. Ponadto, wstrząsy, które przyspieszają cząstki do energii kilku MeV, mogą tworzyć się na krawędziach wiodących i spływowych obszaru interakcji. Ponieważ strumienie są zakorzenione w Słońcu, cała struktura obraca się wraz ze Słońcem, co dało początek nazwie współobrotowych obszarów interakcji (CIR). W pobliżu minimum słonecznego CIR-y ograniczają się głównie do heliosferycznej strefy równikowej, gdzie szybki wiatr na wysokich szerokościach geograficznych i powolny wiatr równikowy mogą oddziaływać na siebie. Obserwacja zmian intensywności promieniowania kosmicznego spowodowanych przez CIR-y na wysokich szerokościach geograficznych wymaga, aby transport przez pole miał miejsce w czasie krótkim w porównaniu z 26-dniowym okresem obrotu Słońca. W przeciwnym razie zmiany zostałyby wymazane. Wymaga to współczynników dyfuzji przez pole rzędu 10-20% wielkości współczynników dyfuzji równoległych do pola lub więcej niż czynnik 10 większy niż ten, który można wyjaśnić teorią rozpraszania. Przy niższych energiach kilku MeV, powtarzające się wzrosty przypisywane cząstkom przyspieszanym w szokach CIR były również obserwowane na wysokich szerokościach geograficznych, co jeszcze bardziej utrudnia teorię transportu. Transport przez średnie pole może być znacznie wzmocniony przez systematyczne ruchy linii pola względem kierunku średniego pola. Zidentyfikowano dwa mechanizmy, które mogą znacząco przyczyniać się do propagacji energetycznych cząstek przez pole. Pierwszy, rozpoznany po raz pierwszy przez Jokipii i Parkera (1969), polega na tym, że pole magnetyczne Słońca jest ciągnięte po powierzchni Słońca przez wielkoskalowe ruchy konwekcyjne, które tworzą sieć supergranulacji. Ponieważ pole międzyplanetarne jest zakorzenione w polu słonecznym, ruchy poprzeczne narzucone przez tę konwekcyjną turbulencję są przenoszone do ośrodka międzyplanetarnego. W rezultacie linie pola międzyplanetarnego same w sobie podlegają losowemu spacerowi zarówno pod względem długości, jak i szerokości geograficznej. To splatanie się linii pola międzyplanetarnego zapewnia następnie skuteczny sposób zwiększania efektu rozpraszania w transporcie cząstek przez pole średnie, ponieważ pojedyncze rozproszenie może przenieść środek prowadzący cząstki na linię pola, która szybko odbiega od linii pola pierwotnego. Bardziej uporządkowany ruch linii pola został zasugerowany przez Fiska (1996), który rozważał implikacje dla linii pola obserwacji, że (a) oś magnetyczna Słońca jest nachylona do osi obrotu i, w koronie, wydaje się obracać sztywno z równikową prędkością obrotu Słońca i (b) fotosfera, w której zakorzenione są poszczególne linie pola, wykazuje różnicową rotację, obracając się znacznie wolniej na szerokościach biegunowych niż na równiku. Rezultatem jest znaczące mieszanie się linii pola na szerokości geograficznej, zapewniające bezpośrednie połączenia magnetyczne między równikowymi i biegunowymi regionami heliosfery w promieniowym zakresie rzędu 15 AU. Mieszanie wzdłużne byłoby również oczekiwane, ale model został zaproponowany i został najdokładniej zbadany jako sposób wyjaśnienia szybkiego transportu cząstek na szerokości geograficznej, który wydaje się być wymagany przez obserwacje Ulyssesa. Mimo wielu lat pracy, nadal nie udało się uzyskać przekonującego zrozumienia transportu dyfuzyjnego między polami. W szczególności bardzo trudno jest przeprowadzić testy eksperymentalne w celu wyizolowania efektów losowego spaceru linii pola lub mieszania napędzanego przez rotację różnicową. Pewne jest tylko to, że cząstki, choć kierowane przez linie pola, wykazują zaskakującą zdolność do dyfuzji również w kierunku prostopadłym do średniego pola. Bardziej systematyczny ruch w polu jest wytwarzany przez gradient i dryft krzywizny w heliosferycznym polu magnetycznym. Spiralna natura średniego pola międzyplanetarnego zapewnia krzywiznę w skali globalnej, a postępujące osłabienie pola, gdy wiatr słoneczny przenosi je na zewnątrz przez heliosferę, zapewnia globalny gradient w polu. Zatem, dzięki podstawowej fizyce ruchu cząstek naładowanych w polu niejednorodnym, generowany jest globalnie zorganizowany dryf promieni kosmicznych przez heliosferę. Sens dryfu jest taki, że gdy biegun północny Słońca jest dodatnim biegunem magnetycznym, dodatnio naładowane promienie kosmiczne (nukleony) dryfują z obszarów polarnych heliosfery w kierunku równika, a następnie szybko na zewnątrz wzdłuż równikowej warstwy prądowej. Elektrony z drugiej strony dryfują do wewnątrz wzdłuż warstwy prądowej i w kierunku biegunów powyżej i poniżej warstwy prądowej. 11 lat później, gdy bieguny magnetyczne Słońca mają odwrotną biegunowość, wzory dryfu również ulegają odwróceniu. Prędkości dryfu mogą być znaczne. W przypadku cząstek o sztywności magnetycznej P, ładunku q i prędkości β, prędkość dryfu jest podana przez
gdzie B jest wektorowym polem międzyplanetarnym. Dla protonów o masie 0,1 GeV w pobliżu orbity Ziemi w idealnym polu spiralnym Parkera prędkość ta wynosi około 300 km s-1, co jest porównywalne z prędkością wiatru słonecznego. Przy wyższych energiach idealna prędkość dryfu może znacznie przekraczać prędkość wiatru słonecznego w większości heliosfery. Jednak prędkości te są skierowane, a nie dyfuzyjne. Tak więc, ponieważ w okresie pokazanym na rysunku 3 prędkości dryfu protonów były skierowane od biegunów w stronę równika, trudno byłoby powoływać się na dryfy, aby wyjaśnić obserwację zmian intensywności na dużych szerokościach geograficznych wywieranych przez CIR na małych szerokościach geograficznych. Wpływ dryfów jest znacznie zmniejszony w rzeczywistym polu heliosfery przez nieregularności w polu narzucone zarówno przez Słońce, jak i przez ewolucję struktur w wietrze słonecznym. CIR-y, wyrzuty masy koronalnej, przepływy ścinające w wietrze słonecznym, fale i turbulencje w przepływie wiatru słonecznego i wiele innych nierównomierności zniekształcają pola i przerywają przepływ dryfu. Na niskich szerokościach geograficznych zmienne nachylenie równika heliomagnetycznego przekłada się na falistość heliosferycznej równikowej warstwy prądu, gdy Słońce obraca się, a pole jest przenoszone na zewnątrz. Ta falistość, która zmienia się w trakcie cyklu słonecznego, zwiększa długość ścieżki dryfu wzdłuż warstwy, a także prawdopodobieństwo utraty cząstek z obszaru warstwy prądu. Na wysokich szerokościach geograficznych, gdzie z równania (1) można by oczekiwać prawie radialnych pól, gdy cos θ zbliża się do 0, wpływ małych poprzecznych fluktuacji narzuconych przez ruchy konwekcyjne na Słońcu niszczy spójność pola niezbędną do pełnego efektu dryfu. Jak zauważyli Jokipii i Kota (1989), fluktuacje wytwarzają poprzeczne składowe w polu, które zmieniają się wraz z promieniem o 1/r, podczas gdy składowe radialne zmieniają się o 1/r2. Tak więc poza kilkoma AU od Słońca dominują poprzeczne składowe, a pole jest zasadniczo styczne. W rezultacie promieniom kosmicznym równie trudno jest przeniknąć do obszarów polarnych heliosfery, jak i do obszarów równikowych. Potwierdziły to obserwacje z misji Ulysses, które pokazują zarówno poprzeczne fluktuacje w polu, jak i zmianę intensywności promieni kosmicznych o mniej niż czynnik 2 od równika do bieguna w pobliżu minimum słonecznego. Niemniej jednak wpływ dryftów, choć ograniczony, został wykazany przez obserwację zmian w modulacji zależnych od znaku ładunku cząstki, na które wszystkie główne procesy modulacji, z wyjątkiem dryftów, są niewrażliwe, oraz przez potwierdzenie wielu przewidywań modeli dryftu, które są trudne do zrozumienia w przypadku braku dryftów, takich jak naprzemienne szerokie i wąskie kształty profili intensywności promieniowania kosmicznego przy kolejnych minimach słonecznych, odzwierciedlające zmianę ścieżek dryftu przez heliosferę narzuconą przez odwrócenie pola dipola słonecznego. Obecny stan zrozumienia propagacji cząstek naładowanych w heliosferze jest mieszany. Ważne procesy zostały scharakteryzowane w kategoriach ogólnych, a modele zostały opracowane, które przy użyciu szeregu regulowanych lub zdefiniowanych obserwacyjnie parametrów, dają rozsądne i spójne opisy obserwowanych zjawisk. Jednak szczegółowe fizyczne zrozumienie cech propagacji pozostaje w toku.
Standardowy Model Kosmologii
KOSMOLOGIA we współczesnym rozumieniu ilościowego badania wielkoskalowych właściwości wszechświata jest zaskakująco nowym zjawiskiem. Pierwsza galaktyka PRĘDKOŚĆ RADIALNA (przesunięcie ku fioletowi, jak się okazało) została zmierzona dopiero w 1912 roku przez Sliphera. Dopiero w 1924 roku Hubble był w stanie udowodnić, że "mgławice" były rzeczywiście dużymi układami gwiazd w ogromnych odległościach, w którym to czasie stało się jasne, że prawie wszystkie galaktyki miały linie widmowe przesunięte do dłuższych długości fal. Późniejsze obserwacje coraz bardziej potwierdzały liniową zależność Hubble′a (1929) między odległością d a prędkością recesji wywnioskowaną, jeśli przesunięcie ku czerwieni zinterpretowano jako przesunięcie Dopplera:
v= Hd
Teoretyczne podstawy opisu wszechświata za pomocą OGÓLNEJ TEORII WZGLĘDNOŚCI były już gotowe w połowie lat dwudziestych XX wieku, więc nie minęło dużo czasu, zanim podstawowy fakt obserwacyjny rozszerzającego się wszechświata mógł zostać poddany stosunkowo standardowej interpretacji. Główne niepewności obserwacyjne i teoretyczne w tej interpretacji dotyczą zawartości materii i energii we wszechświecie. Różne możliwości tej zawartości generują bardzo różne MODELE KOSMOLOGICZNE. Celem tego artykułu jest nakreślenie kluczowych pojęć i praktycznych wzorów ważnych dla zrozumienia tych modeli oraz pokazanie, jak stosować je do obserwacji astronomicznych.
Izotropowa czasoprzestrzeń
Nowoczesna kosmologia obserwacyjna wykazała, że rzeczywisty wszechświat jest wysoce symetryczny w swoich właściwościach na dużą skalę, ale w każdym razie sensowne byłoby rozpoczęcie od rozważenia najprostszego możliwego rozkładu masy: takiego, którego właściwości są jednorodne (równomierna gęstość) i izotropowe (takie same we wszystkich kierunkach). Następnym krokiem jest rozwiązanie równań pola grawitacyjnego w celu znalezienia odpowiadającej metryki. Wiele cech metryki można wywnioskować z samej symetrii - i rzeczywiście będą miały zastosowanie nawet jeśli równania Einsteina zostaną zastąpione czymś bardziej skomplikowanym. Te ogólne argumenty zostały przedstawione niezależnie przez H.P. Robertsona i A.G. Walkera w 1936 roku. Rozważmy zbiór "fundamentalnych obserwatorów" w różnych lokalizacjach, z których wszyscy są w spoczynku względem materii w ich pobliżu. Możemy sobie wyobrazić, że każda z nich znajduje się w innej galaktyce, a zatem oddala się od siebie wraz z ogólną ekspansją (chociaż rzeczywiste galaktyki mają dodatkowo losowe prędkości rzędu 100 km s-1, a zatem nie są ściśle fundamentalnymi obserwatorami). Globalna współrzędna czasu t jest dostarczana przez czas mierzony zegarami tych obserwatorów - tj. t jest właściwym czasem mierzonym przez obserwatora w spoczynku względem lokalnego rozkładu materii. Współrzędna jest przydatna globalnie, a nie lokalnie, ponieważ zegary można zsynchronizować poprzez wymianę sygnałów świetlnych między obserwatorami, którzy zgadzają się ustawić swoje zegary na czas standardowy, gdy na przykład uniwersalna jednorodna gęstość osiągnie pewną daną wartość. Korzystając z tej współrzędnej czasu plus izotropii, mamy już wystarczająco dużo informacji, aby wywnioskować, że metryka musi przyjąć następującą formę:
Tutaj zastosowaliśmy zasadę równoważności, aby stwierdzić, że właściwy przedział czasu dτ między dwoma odległymi zdarzeniami wyglądałby lokalnie jak szczególna teoria względności dla fundamentalnego obserwatora na miejscu: dla nich c2 dτ2 = c2 dt2 - dx2 - dy2 - dz2. Ponieważ używamy tej samej współrzędnej czasu co oni, nasza jedyna trudność dotyczy przestrzennej części metryki: powiązania ich dx itd. ze współrzędnymi przestrzennymi, których środkiem jest my. Odległości zostały rozłożone na iloczyn zależnego od czasu współczynnika skali R(t) i niezależnej od czasu współporuszającej się współrzędnej r. Oczywiste jest, że ta metryka dobrze uwzględnia ideę równomiernie rozszerzającego się modelu bez środka. W przypadku małych separacji, gdzie przestrzeń jest euklidesowa, mamy proste skalowanie separacji wektorowych: x(t) :R(t) x(t0). To samo prawo obowiązuje niezależnie od wybranego przez nas początku: x1(t) - x2(t) :R(t) [x1(t0) - x2(t0)], więc każdy obserwator wywnioskuje v = H r Ze względu na symetrię sferyczną część przestrzenną metryki można rozłożyć na część radialną i poprzeczną (w biegunach sferycznych kąt na niebie między dwoma zdarzeniami wynosi dΨ2 = dθ2 + sin2θ dΦ2). Funkcje f i g są dowolne; możemy jednak wybrać naszą współrzędną radialną tak, aby f = 1 lub g = r2, aby wszystko wyglądało jak najbardziej jak przestrzeń euklidesowa. Ponadto pozostała funkcja jest określana przez argumenty symetrii. Rozważmy najpierw prosty przypadek metryki na powierzchni kuli. Nadmuchanie balonu jest powszechną popularną analogią dla rozszerzającego się wszechświata i posłuży jako dwuwymiarowy przykład przestrzeni o stałej krzywiźnie. Jeżeli kąt biegunowy w biegunach sferycznych nazwiemy r zamiast bardziej powszechnego ?, to element długości d? na powierzchni kuli o promieniu R jest
dσ2 = R2(dr2 + sin2rdΦ2
Można to przekształcić na metrykę dla przestrzeni 2-wymiarowej o stałej ujemnej krzywiźnie, stosując metodę rozważenia urojonego promienia krzywizny, R→iR. Jeżeli jednocześnie pozwolimy r→ir, otrzymamy
dσ2 = R2(dr2 + sinh2rdΦ2
Te dwie formy można połączyć, definiując nową współrzędną radialną, która sprawi, że poprzeczna część metryki będzie wyglądać jak euklidesowa:
gdzie k = +1 dla dodatniej krzywizny i k = -1 dla ujemnej krzywizny. Jest to w rzeczywistości ogólna postać przestrzennej części metryki Robertsona-Walkera. Aby udowodnić to w 3D, rozważmy 3-sferę osadzoną w czterowymiarowej przestrzeni euklidesowej, która jest zdefiniowana za pomocą relacji współrzędnych x2 + y2 + z2 + w2 = R2. Teraz zdefiniuj odpowiednik sferycznych biegunów i zapisz w = R cos α, z = R sin α cos β, γ = R sin α sin β cos γ, x = R sin α sin β sin γ, gdzie α, β i γ to trzy dowolne kąty. Różniczkowanie względem kątów daje czterowymiarowy wektor (dx, dy, dz, dw) i jest to proste ćwiczenie, aby pokazać, że kwadratowa długość tego wektora
która jest metryką Robertsona-Walkera dla przypadku dodatniej krzywizny przestrzennej. Ta metryka k = +1 opisuje zamknięty wszechświat, w którym podróżnik, który wyrusza wzdłuż trajektorii ustalonych β i γ, ostatecznie powróci do punktu początkowego (gdy α = 2π). Pod tym względem dodatnio zakrzywiony wszechświat 3D jest identyczny z przypadkiem powierzchni kuli: jest skończony, ale nieograniczony. Natomiast metryka k = -1 opisuje otwarty wszechświat o nieskończonym zasięgu; jak poprzednio, zmiana na ujemną krzywiznę przestrzenną zastępuje sin α sinh α, a α można uczynić tak dużym, jak chcemy, bez powrotu do punktu początkowego. Model k = 0 opisuje płaski wszechświat, który jest również nieskończony w zasięgu. Można to postrzegać jako granicę każdego z przypadków k = ±1, w których skala krzywizny R dąży do nieskończoności. Metrykę Robertsona-Walkera można zapisać na wiele różnych sposobów. Najbardziej zwarte formy to te, w których współporuszające się współrzędne są bezwymiarowe. Pod względem funkcji
metrykę można zapisać jako
Najbardziej powszechną alternatywą jest użycie innej definicji współporuszającej się odległości, Sk(r)→r, tak aby metryka przybrała postać
Oczywiście powinny istnieć dwa różne symbole dla różnych współporuszających się promieni, ale każdy z nich jest często nazywany r w literaturze. Wreszcie, powszechną alternatywną formą współczynnika skali jest taka, w której jego wartość bieżąca jest ustawiona na t)\equiv
a(t) ≡ R(t) / R0
Przesunięcie ku czerwieni
Jak ta dyskusja odnosi się do PRAWA HUBBLE′A: v = Hr? Współrzędne współporuszające się są niezależne od czasu, więc właściwe rozdzielenie dwóch fundamentalnych obserwatorów to po prostu R(t) dr, a różniczkowanie daje prawo Hubble′a, v = H(R dr), z
Przy małych odstępach prędkość recesji powoduje przesunięcie Dopplera
Definiuje to REDSHIFT z w kategoriach przesunięcia linii widmowych. Jaki jest odpowiednik tej relacji na większych odległościach? Ponieważ fotony poruszają się po zerowych geodezyjnych o zerowym czasie właściwym, widzimy bezpośrednio z metryki, że
Współporuszająca się odległość jest stała, podczas gdy dziedzina całkowania w czasie rozciąga się od temit do tobs; są to czasy emisji i odbioru fotonu. Fotony emitowane w późniejszych momentach będą odbierane w późniejszych momentach, ale te zmiany wtemit i tobs nie mogą zmienić całki, ponieważ r jest wielkością współporuszającą się. Wymaga to warunku dtemit / dtobs = R(temit) / R(tobs), co oznacza, że zdarzenia w odległych galaktykach rozszerzają się w czasie w zależności od tego, jak bardzo wszechświat rozszerzył się od czasu wyemitowania fotonów, które teraz widzimy. Oczywiste jest (pomyśl o zdarzeniach oddzielonych jednym okresem), że to rozszerzenie dotyczy również częstotliwości, dlatego otrzymujemy
W odniesieniu do znormalizowanego współczynnika skali a(t) a(t) = (1 + z)-1. Długości fal fotonów rozciągają się zatem wraz z wszechświatem, co jest intuicyjnie rozsądne.
Znaczenie przesunięcia ku czerwieni
W przypadku małych przesunięć ku czerwieni interpretacja przesunięcia ku czerwieni jako przesunięcia Dopplera (z = v/c) jest całkiem jasna. Nie jest jednak tak jasne, co zrobić, gdy przesunięcie ku czerwieni stanie się duże. Częstym, ale niepoprawnym podejściem jest użycie specjalnego wzoru Dopplera relatywistycznego i zapisanie
To jest błędne w ogólności, ale zbyt często się zdarza, że najnowszy KWAZAR o dużym przesunięciu ku czerwieni odczytuje się jako "oddalający się z prędkością 95% prędkości światła". Powodem, dla którego przesunięcia ku czerwieni nie można interpretować w ten sposób, jest to, że gęstość masy różna od zera musi powodować przesunięcia ku czerwieni grawitacyjne. Chociaż przesunięcia ku czerwieni nie można uważać za globalne przesunięcie Dopplera, to jednak lepiej jest postrzegać ten efekt jako akumulację nieskończenie małych przesunięć Dopplera spowodowanych przez fotony przechodzące między fundamentalnymi obserwatorami oddalonymi od siebie o niewielką odległość:
(gdzie δ… jest radialnym przyrostem właściwej odległości). To wyrażenie można zweryfikować, zastępując standardowe wyrażenia dla H(z) i d…/dz. Fajne w tym sposobie patrzenia na wynik jest to, że podkreśla on, że to pęd jest przesunięty ku czerwieni; długości fal cząstek de Broglie′a skalują się zatem wraz z ekspansją, co jest wynikiem niezależnym od tego, czy ich masa spoczynkowa jest różna od zera. Niezdolność dostrzeżenia, że ekspansja jest lokalnie tylko kinematyczna, leży również u podstaw być może najgorszego nieporozumienia dotyczącego TEORII WIELKIEGO WYBUCHU. Wiele półpopularnych opisów kosmologii zawiera stwierdzenia, że "sama przestrzeń puchnie", powodując rozdzielanie się galaktyk. W rzeczywistości obiekty rozdzielają się teraz tylko dlatego, że zrobiły to w przeszłości; para bezmasowych obiektów ustawiona w stanie spoczynku względem siebie w jednolitym modelu nie będzie wykazywać tendencji do rozdzielania się (w rzeczywistości siła grawitacyjna masy leżącej między nimi spowoduje względne przyspieszenie do wewnątrz). W powszechnym, podstawowym przedstawieniu rozszerzania się za pomocą nadmuchania balonu, galaktyki powinny być reprezentowane przez naklejone monety, a nie rysunki tuszem (które będą fałszywie rozszerzać się wraz z wszechświatem).
Dynamika ekspansji
Równanie ruchu dla współczynnika skali można uzyskać w sposób quasi-newtonowski. Rozważmy sferę wokół dowolnego punktu i niech promień będzie R(trr), gdzie r jest dowolny. Ruch punktu na krawędzi sfery będzie, w grawitacji newtonowskiej, pod wpływem tylko masy wewnętrznej. Możemy zatem najwyraźniej natychmiast zapisać równanie różniczkowe (równanie Friedmanna), które wyraża zasadę zachowania energii: (Rr)2/2-GM/Rr = constant. W rzeczywistości równanie to naprawdę wymaga ogólnej teorii względności: grawitacja z powłok masowych na dużych odległościach nie jest newtonowska, ponieważ przestrzeń jest zakrzywiona, więc nie możemy zastosować zwykłego argumentu o ich zerowym wpływie. Niemniej jednak wynik, że pole grawitacyjne wewnątrz jednolitej powłoki jest równe zero, obowiązuje w ogólnej teorii względności i jest znany jako twierdzenie Birkhoffa. Ogólna teoria względności staje się jeszcze ważniejsza, podając stałą całkowania w równaniu Friedmanna:
Należy zauważyć, że równanie to obejmuje wszystkie wkłady do ρ, tj. te pochodzące z materii, promieniowania i próżni; jest ono niezależne od równania stanu. Czasami wygodnie jest pracować z pochodną czasową równania Friedmanna, z tego samego powodu, dla którego argumenty dotyczące przyspieszenia w dynamice są czasami bardziej przejrzyste niż argumenty dotyczące energii. Różniczkowanie względem czasu wymaga znajomości ρ ., ale można to wyeliminować za pomocą zasady zachowania energii:
d(ρc2R3) = -ρ d(R3). Następnie otrzymujemy
Zarówno to równanie, jak i równanie Friedmanna w rzeczywistości powstają jako niezależne równania z różnych składników równań Einsteina dla metryki Robertsona-Walkera. Równanie Friedmanna zostało tak nazwane, ponieważ FRIEDMANN jako pierwszy w 1922 r. zauważył, że równania Einsteina dopuszczają rozwiązania kosmologiczne zawierające wyłącznie materię (chociaż to Lemaître w 1927 r. zarówno uzyskał rozwiązanie, jak i docenił, że prowadzi ono do liniowej relacji odległość-przesunięcie ku czerwieni). Termin model Friedmanna jest zatem często używany do wskazania kosmologii zawierającej wyłącznie materię, mimo że jego równanie obejmuje wkłady ze wszystkich równań stanu. Częstym skrótem dla relatywistycznych modeli kosmologicznych, które są opisywane przez metrykę Robertsona-Walkera i które podlegają równaniu Friedmanna, jest mówienie o modelach FRW.
Parametry gęstości itp.
Zgodnie z równaniem Friedmanna, "płaski" wszechświat z k = 0 powstaje dla określonej gęstości krytycznej. W związku z tym jesteśmy skłonni zdefiniować parametr gęstości jako stosunek gęstości do gęstości krytycznej:
Ponieważ ρ i H zmieniają się w czasie, definiuje to zależny od epoki parametr gęstości. Bieżąca wartość parametru powinna być ściśle oznaczona przez Ω0. Ponieważ jest to tak powszechny symbol, normalne jest zachowanie przejrzystości formuł poprzez normalne pominięcie indeksu dolnego; parametr gęstości w innych epokach będzie oznaczany przez Ωz. Jeśli teraz zdefiniujemy również bezwymiarowy (bieżący) parametr Hubble′a jako
h ≡ H0 / 100 km s-1Mpc-1
wówczas gęstość prądu we wszechświecie można wyrazić jako
Potężny przybliżony model zawartości energii we wszechświecie polega na podzieleniu jej na materię bez ciśnienia (ρ :R-3), promieniowanie (ρ :R-4) i energię próżni (ρ niezależną od czasu - tj. istnieje niezerowa stała kosmologiczna). Pierwsze dwie relacje mówią po prostu, że gęstość liczbowa cząstek jest rozcieńczana przez ekspansję, a fotony również mają swoją energię zmniejszoną przez przesunięcie ku czerwieni; trzecia relacja dotyczy stałej kosmologicznej Einsteina. W kategoriach obserwowalnych oznacza to, że gęstość jest zapisywana jako (gdzie znormalizowany współczynnik skali wynosi a = R/R0).
Pod względem parametru opóźnienia
forma równania Friedmanna mówi, że
q = Ωm / 2 + Ωr = Ωv
Na koniec często konieczna jest znajomość wartości obecnej współczynnika skali, którą można odczytać bezpośrednio z równania Friedmanna:
Stała Hubble′a ustala zatem długość krzywizny, która staje się nieskończenie duża, gdy Ω zbliża się do jedności z obu kierunków. Tylko w granicy zerowej gęstości długość ta staje się równa innej powszechnej mierze rozmiaru wszechświata - długości Hubble′a, c/H0.
Rozwiązania równania Friedmanna
Równanie Friedmanna można rozwiązać najprościej w formie "parametrycznej", przekształcając je w zależności od czasu konforemnego d? = c dt/R (oznaczając pochodne względem η liczbami pierwszymi):
Ponieważ H02R02 = kc2/(Ω01), równanie Friedmanna przyjmuje postać
co jest proste do zintegrowania pod warunkiem, że Ωv = 0. Rozwiązanie równania Friedmanna dla R(t) w ten sposób jest ważne dla określenia globalnych wielkości, takich jak obecny wiek wszechświata, a jawne rozwiązania dla konkretnych przypadków są rozważane poniżej. Jednak z punktu widzenia obserwacji, a w szczególności relacji odległość-przesunięcie ku czerwieni, nie jest konieczne postępowanie bezpośrednią drogą określania R(t). Dla obserwatora ewolucja współczynnika skali jest najbardziej bezpośrednio charakteryzowana przez zmianę wraz z przesunięciem ku czerwieni parametru Hubble′a i parametru gęstości; ewolucja H(z) i Ω(z) jest dana bezpośrednio przez równanie Friedmanna w postaci H2 = 8πGρ/3-kc2/R2. Wstawienie zależności modelu ρ od a daje
To jest kluczowe równanie, które można wykorzystać do uzyskania relacji między przesunięciem ku czerwieni a odległością współporuszającą się. Radialne równanie ruchu fotonu to R dr = c dt = c dR/R.= c dR/RH. Przy R = R0/(1+z) daje to
Ta relacja jest prawdopodobnie najważniejszym równaniem w kosmologii, ponieważ pokazuje, jak powiązać odległość współporuszającą się z obserwowalnymi parametrami przesunięcia ku czerwieni, stałej Hubble′a i gęstości. Odległość współporuszająca się określa pozorną jasność odległych obiektów, a element objętości współporuszającej się określa liczbę obserwowanych obiektów. Te aspekty kosmologii obserwacyjnej omówiono bardziej szczegółowo poniżej. Na koniec, użycie wyrażenia dla H(z) z Ω(a)-1 =kc2/H2R2 daje zależność przesunięcia ku czerwieni parametru całkowitej gęstości:
To ostatnie równanie jest bardzo ważne. Mówi nam, że przy dużym przesunięciu ku czerwieni wszystkie wszechświaty modelowe, poza tymi z energią próżni, będą miały tendencję do wyglądania jak model Ω = 1. Nie jest to zaskakujące, biorąc pod uwagę formę równania Friedmanna: pod warunkiem, że ρR2 →∞, gdy R→0, człon krzywizny -kc2 stanie się nieistotny we wczesnych czasach. Jeśli Ω≠1, to w odległej przeszłości Ω(z) musiało różnić się od jedności o niewielką wartość: gęstość i tempo ekspansji musiały być dokładnie zrównoważone, aby wszechświat mógł się rozszerzać do chwili obecnej. To dostrojenie warunków początkowych nazywa się problemem płaskości i jest jedną z motywacji do zastosowań teorii kwantowej we wczesnym wszechświecie.
Wszechświat zdominowany przez materię
Z obserwowanej temperatury mikrofalowego promieniowania tła (2,73 K) i założenia trzech gatunków neutrin w nieco niższej temperaturze, wnioskujemy, że całkowity parametr gęstości relatywistycznej wynosi Ωrh2 ≈ 4,2-10-5, więc obecnie dobrym przybliżeniem powinno być zignorowanie promieniowania. Jednak różne zależności gęstości materii i promieniowania od przesunięcia ku czerwieni oznaczają, że założenie to zawodzi we wczesnych czasach: ρmr : (1 + z)-1. Jedną z krytycznych epok w kosmologii jest zatem punkt, w którym te wkłady były równe: równość przesunięcia ku czerwieni materii i promieniowania
Przy przesunięciach ku czerwieni wyższych niż to, dynamika uniwersalna była zdominowana przez zawartość cząstek relatywistycznych. Ciekawym zbiegiem okoliczności, epoka ta jest bliska innemu ważnemu wydarzeniu w historii kosmologicznej: rekombinacji. Gdy temperatura spadnie poniżej ≈ 104 K, zjonizowany materiał może utworzyć neutralny wodór. Astronomia obserwacyjna jest możliwa dopiero od tego momentu, ponieważ rozpraszanie Thomsona elektronów w zjonizowanym materiale zapobiega rozprzestrzenianiu się fotonów. W praktyce ogranicza to maksymalne przesunięcie ku czerwieni będące przedmiotem zainteresowania obserwacyjnego do około 1100; chyba że Ω jest bardzo niskie lub energia próżni jest ważna, model zdominowany przez materię jest zatem dobrym przybliżeniem rzeczywistości. Poprzez zachowanie materii możemy wprowadzić charakterystyczną masę M*, a z niej charakterystyczny promień R*:
gdzie w pierwszym kroku użyliśmy wyrażenia dla R0. Gdy obecna jest tylko materia, wersja równania Friedmanna w czasie konforemnym jest prosta do zintegrowania dla R(η), a integracja dt = dη/R daje t(η):
Ewolucję R(t) w tym rozwiązaniu przedstawiono na rysunku 1. Należy zwrócić szczególną uwagę na to, że zachowanie we wczesnych momentach jest zawsze takie samo: energia potencjalna i kinetyczna znacznie przekraczają całkowitą energię i zawsze mamy postać k = 0 R:t2/3.
Wszechświat zdominowany przez promieniowanie
Przy wystarczająco dużych przesunięciach ku czerwieni prawo R:t2/3 zawiedzie, ponieważ ciśnienie promieniowania stanie się ważne. Przy tych przesunięciach ku czerwieni doskonałym przybliżeniem jest zignorowanie efektów krzywizny przestrzennej, tak że równanie Friedmanna dla mieszanki materii i promieniowania jest
Można to zintegrować, aby uzyskać czas jako funkcję współczynnika skali:
co idzie do 2/3a3/2 dla modelu tylko materii i do a2/2 dla samego promieniowania. We wczesnych czasach współczynnik skali rośnie w miarę jak R: t1/2. Innym sposobem przedstawienia zależności modelu od czasu jest gęstość. Postępując zgodnie z powyższym, łatwo pokazać, że
Modele z energią próżni
Rozwiązanie równania Friedmanna staje się bardziej skomplikowane, jeśli dopuścimy znaczący wkład energii próżni - tj. stałą kosmologiczną różną od zera. Samo równanie Friedmanna jest niezależne od równania stanu i po prostu mówi H2R2 = kc2/(Ω-1), niezależnie od formy wkładów do Ω. Jeśli chodzi o samą stałą kosmologiczną, mamy
Powodem, dla którego stała kosmologiczna została po raz pierwszy wprowadzona przez Einsteina, nie było po prostu to, że nie było ogólnego powodu, aby oczekiwać, że pusta przestrzeń będzie miała gęstość zerową, ale to, że pozwala ona na skonstruowanie kosmologii nierozszerzającej się. Być może nie jest to tak oczywiste w przypadku niektórych form równania Friedmanna, ponieważ teraz H = 0 i Ω = ∞; jeśli rzucimy równanie w jego pierwotnej formie bez definiowania tych parametrów, wówczas zerowe rozszerzenie implikuje
ρ = 3kc2 / 8πGR2
Ponieważ Λ może mieć dowolny znak, wydaje się, że nie ogranicza to k. Jednak chcemy również uzyskać zerowe przyspieszenie dla tego modelu, a zatem potrzebujemy pochodnej czasowej równania Friedmanna: Dalszym warunkiem dla modelu statycznego jest zatem to, że
ρ = -3p
Ponieważ ρ = -p dla energii próżni, a jest to jedyne źródło ciśnienia, jeśli zignorujemy promieniowanie, mówi nam to, że ρ = 3ρvac, a zatem gęstość masy jest dwukrotnie większa od gęstości próżni. Całkowita gęstość jest zatem dodatnia, a k = 1; mamy zamknięty model. Zauważ, że to oznacza, że dodatnia energia próżni działa w sposób odpychający, równoważąc przyciąganie normalnej materii. Pokazuje to, że model statyczny nie może być stabilny: jeśli zaburzymy współczynnik skali o niewielką dodatnią wartość, odpychanie próżni pozostaje niezmienione, podczas gdy "normalne" przyciąganie grawitacyjne zostaje zmniejszone, tak że model będzie miał tendencję do dalszego rozszerzania się (lub kurczenia, jeśli początkowe zaburzenie było ujemne).
Przestrzeń de Sittera
Punkt końcowy zewnętrznego zaburzenia statycznego modelu Einsteina został po raz pierwszy zbadany przez DE SITTERA. Ten wszechświat jest całkowicie zdominowany przez energię próżni i jest wyraźnie granicą niestabilnej ekspansji, ponieważ gęstość materii przesuwa się ku czerwieni do zera, podczas gdy energia próżni pozostaje stała. Rozważmy ponownie równanie Friedmanna w jego ogólnej formie : ponieważ gęstość jest stała, a R będzie rosło bez ograniczeń, dwa człony po lewej stronie muszą ostatecznie stać się niemal dokładnie równe, a człon krzywizny po prawej stronie będzie pomijalny. Tak więc, nawet jeśli k≠0, wszechświat będzie miał gęstość różniącą się tylko nieskończenie mało od krytycznej, tak że możemy rozwiązać równanie, ustawiając k = 0, w którym to przypadku
Ciekawą interpretację tego zachowania promował na początku kosmologii Eddington: stała kosmologiczna jest tym, co spowodowało ekspansję. W modelach bez Λ ekspansja jest jedynie warunkiem początkowym: każdy, kto pyta, dlaczego wszechświat rozszerza się w danej epoce, otrzymuje niezadowalającą odpowiedź, że dzieje się tak, ponieważ rozszerzał się w jakimś wcześniejszym czasie. Bardziej satysfakcjonujące byłoby posiadanie jakiegoś mechanizmu, który wprawia ekspansję w ruch, a to właśnie zapewnia odpychanie próżni. Ta tendencja modeli z dodatnim ? do przechodzenia w fazę wykładniczą ekspansji (a co więcej, modelu z Ω = 1) jest dokładnie tym, co jest wykorzystywane w kosmologii inflacyjnej do generowania warunków początkowych dla Wielkiego Wybuchu.
Model stanu stacjonarnego
Zachowanie przestrzeni de Sittera przypomina pod pewnymi względami wszechświat stanu stacjonarnego, który był popularny w latach 60-tych ta TEORIA STANU STAŁEGO czerpała swoją motywację z problemów filozoficznych modeli Wielkiego Wybuchu - które zaczynają się w osobliwości przy t = 0 i dla których wcześniejsze czasy nie mają znaczenia. Zamiast tego Hoyle, Bondi i Gold zasugerowali doskonałą zasadę kosmologiczną, w której wszechświat jest jednorodny nie tylko w przestrzeni, ale także w czasie: poza lokalnymi fluktuacjami wszechświat wydaje się taki sam dla wszystkich obserwatorów w każdym czasie. Mówi nam to, że stała Hubble&prome;a jest naprawdę stała, a zatem model koniecznie ma ekspansję wykładniczą, R : exp (Ht), dokładnie tak jak w przypadku przestrzeni de Sittera. Rzeczywiście, przestrzeń de Sittera jest wszechświatem stanu stacjonarnego: zawiera stałą gęstość energii próżni i ma nieskończony wiek, pozbawiony jakiejkolwiek osobliwości Wielkiego Wybuchu. Jednak przestrzeń de Sittera jest raczej nieciekawym modelem, ponieważ nie zawiera materii. Wprowadzenie materii do wszechświata stanu stacjonarnego narusza zasadę zachowania energii, ponieważ materia nie ma równania stanu p = -ρc2, które pozwala, aby gęstość pozostała stała. To jest najbardziej radykalny aspekt modeli stanu stacjonarnego: wymagają one ciągłego tworzenia materii. Energia do osiągnięcia tego musi pochodzić skądś, a równania Einsteina są modyfikowane przez dodanie pewnego terminu "tworzenia" lub "pola C" do tensora energii-pędu:
T′μv = Tμv + Cμv T′μvv = 0
Efektem tego dodatkowego członu musi być anulowanie gęstości materii i ciśnienia, pozostawiając jedynie ogólną efektywną formę tensora próżni, która jest wymagana do wytworzenia przestrzeni de Sittera i wykładniczej ekspansji. To pole ad hoc i brak jakiejkolwiek fizycznej motywacji dla niego poza kosmologicznym problemem, który zostało zaprojektowane, aby rozwiązać, zawsze było najbardziej niezadowalającą cechą modelu stanu stacjonarnego i może wyjaśniać silne reakcje generowane przez teorię.
Modele odbijające się i krążące
Powracając do ogólnego przypadku modeli z mieszanką energii w próżni i normalnych składników, musimy rozróżnić trzy przypadki. W przypadku modeli, które zaczynają się od wielkiego wybuchu (w którym to przypadku promieniowanie całkowicie dominuje w najwcześniejszych czasach), wszechświat albo ponownie się zapadnie, albo rozszerzy na zawsze. Ten drugi wynik staje się bardziej prawdopodobny w przypadku niskich gęstości materii i promieniowania, ale wysokiej gęstości próżni. Możliwe są jednak również modele, w których nie ma Wielkiego Wybuchu: wszechświat zapadał się w odległej przeszłości, ale został spowolniony przez odpychanie dodatniego członu Λ i przeszedł "odbicie", aby osiągnąć obecny stan ekspansji. Obliczenie warunków dla tych różnych zdarzeń jest kwestią zintegrowania równania Friedmanna. W przypadku dodawania ? można to zrobić tylko numerycznie. Możemy jednak znaleźć warunki dla różnych zachowań opisanych powyżej analitycznie, przynajmniej jeśli uprościmy rzeczy, ignorując
promieniowanie. Równanie w postaci zależnego od czasu parametru Hubble′a wygląda następująco:
i interesują nas warunki, w których lhs znika, definiując punkt zwrotny w rozwinięciu. Ustawienie rhs na zero daje równanie sześcienne i możliwe jest podanie warunków, w których ma ono rozwiązanie, które są następujące.
(1) Po pierwsze, ujemne Λ zawsze implikuje ponowne zapadnięcie, co jest intuicyjnie rozsądne (albo masa powoduje ponowne zapadnięcie zanim Λ zacznie dominować, albo gęstość jest wystarczająco niska, że Λ zaczyna dominować, co nie może prowadzić do nieskończonej ekspansji, chyba że Λ jest dodatnie).
(2) Jeśli Λ jest dodatnie i Ωm < 1, model zawsze rozszerza się do nieskończoności.
(3) Jeśli Ωm > 1, ponowne zapadnięcie jest unikane tylko wtedy, gdy Ωv przekroczy wartość krytyczną.
(4) Jeśli Λ jest wystarczająco duże, punkt stacjonarny ekspansji znajduje się w a < 1 i mamy kosmologię odbicia. Ta krytyczna wartość to
gdzie funkcja f jest cosh jeśli Ωm < 0,5, w przeciwnym wypadku cos. Jeśli wszechświat leży dokładnie na linii krytycznej, odbicie następuje w nieskończenie wczesnych momentach i mamy rozwiązanie, które jest wynikiem zaburzenia statycznego modelu Einsteina. W rzeczywistości modele odbicia można wykluczyć dość mocno. Te same równania sześcienne, które definiują krytyczne warunki odbicia, dają również nierówność dla maksymalnego możliwego przesunięcia ku czerwieni (odbicia):
Rozsądny dolny limit dla Ωm wynoszący 0,1 wyklucza odbicie, gdy obiekty są widoczne przy z>2. Ponieważ gęstość promieniowania jest obecnie bardzo mała, głównym zadaniem kosmologii relatywistycznej jest ustalenie, gdzie na płaszczyźnie Ωmateria-Ωpróżnia leży prawdziwy wszechświat. Istnienie obiektów o dużym przesunięciu ku czerwieni wyklucza modele odbicia, więc nie można uniknąć idei gorącego wielkiego wybuchu. W tym momencie odtworzyliśmy jeden z wielkich wniosków kosmologii relatywistycznej: wszechświat ma skończony wiek i swój początek miał w osobliwości matematycznej, w której współczynnik skali osiągnął zero, co doprowadziło do rozbieżnej krzywizny czasoprzestrzeni. Ponieważ zerowy współczynnik skali oznacza również nieskończoną gęstość (i temperaturę), wywnioskowany obraz wczesnego wszechświata to obraz niewyobrażalnej przemocy. Termin wielki wybuch został ukuty przez FREDA HOYLE′A, aby opisać ten początek, chociaż miał on nieco krytyczny wydźwięk. Problem z osobliwością polega na tym, że oznacza ona załamanie się praw fizyki; nie możemy ekstrapolować rozwiązania dla R(t) do t<0, więc początek ekspansji staje się niewyjaśnionym warunkiem brzegowym. Dopiero po około 1980 r. pojawił się spójny zbiór idei na sposoby uniknięcia tej bariery w postaci kosmologii inflacyjnej.
Płaski wszechświat
Najważniejszym modelem w badaniach kosmologicznych jest ten, w którym k = 0 ⇒ Ωtotal = 1; gdy dominuje materia, jest on często nazywany modelem Einsteina-de Sittera. Paradoksalnie, znaczenie to wynika z faktu, że jest to stan niestabilny: jak widzieliśmy wcześniej, wszechświat będzie ewoluował od Ω = 1, przy niewielkim zaburzeniu. To, że wszechświat rozszerzył się o tak wiele e-fałdowań (czynników ekspansji e), a mimo to nadal miał Ωd1, oznacza, że był bardzo blisko bycia przestrzennie płaskim w dawnych czasach. Wielu badaczy przypuszczało zatem, że byłoby to sztuczne, gdyby ta płaskość była inna niż doskonała. Alternatywny model k = 0 o większym zainteresowaniu obserwacyjnym ma znaczącą stałą kosmologiczną, tak że Ωm + Ωv = 1 (promieniowanie jest pomijane dla uproszczenia). Może się to wydawać sztuczne, ale gdy k = 0 zostanie ustalone, nie może się zmienić: indywidualne wkłady do Ω muszą się dostosować, aby zachować równowagę. Zaletą tego modelu jest to, że jest to jedyny sposób na zachowanie teoretycznej atrakcyjności k = 0 przy jednoczesnej zmianie wieku wszechświata z relacji H0t0 = 2/3, która charakteryzuje model Einsteina-de Sittera. Ponieważ wiele dowodów obserwacyjnych wskazuje, że H0t0 ⋍ 1, model ten wzbudził w ostatnich latach duże zainteresowanie. W tym przypadku równanie Friedmanna jest
Relacja odległość-przesunięcie ku czerwieni
Ogólna relacja między współporuszającą się odległością a przesunięciem ku czerwieni została podana wcześniej jako
W przypadku modelu Friedmanna zdominowanego przez materię oznacza to, że odległość obiektu, z którego dzisiaj odbieramy fotony, wynosi
Całki tej formy często pojawiają się podczas manipulowania modelami Friedmanna; zazwyczaj można je rozwiązać przez podstawienie u2 = k(Ω-1)/Ω(1+z). To podstawienie daje wzór Mattiga, który jest jednym z najbardziej użytecznych równań w kosmologii, jeśli chodzi o obserwatorów:
Nie ma takiego zwartego wyrażenia, jeśli chcemy uwzględnić również energię próżni. Współporuszającą się odległość należy uzyskać przez numeryczną integrację podstawowego dr/dz, nawet w przypadku k = 0. Jednak dla wszystkich form wkładu do zawartości energetycznej wszechświata relacja odległości-przesunięcia ku czerwieni drugiego rzędu jest identyczna i zależy tylko od parametru deceleracji:
Rozmiary i gęstości strumienia obiektów przy umiarkowanym przesunięciu ku czerwieni określają zatem geometrię wszechświata tylko wtedy, gdy założymy równanie stanu, tak że q0 i Ω0 mogą być powiązane. Przy większych przesunięciach ku czerwieni ta degeneracja jest przerwana, a dokładne pomiary relacji odległość-przesunięcie ku czerwieni mogą w zasadzie niezależnie określić parametry Ωm, Ωv itd.
Ostatnie obserwacje
Satelita Far Ultraviolet Spectroscopic Explorer (FUSE) NASA dał astronomom wgląd w upiorną pajęczynę gazu helowego pozostałego po Wielkim Wybuchu, który leży u podstaw struktury wszechświata. Hel nie występuje w galaktykach ani gwiazdach, ale jest rozproszony cienko w przestrzeni. Obserwacje pomagają potwierdzić teoretyczne modele tego, w jaki sposób materia w rozszerzającym się wszechświecie skondensowała się w strukturę przypominającą sieć, przenikającą całą przestrzeń między galaktykami. Hel śledzi architekturę wszechświata aż do bardzo wczesnych czasów. Ta struktura powstała z małych niestabilności grawitacyjnych zasianych w chaosie tuż po Wielkim Wybuchu.
Nierozstrzygnięte kwestie
Jak opisano powyżej, podstawowe izotropowe modele kosmologii relatywistycznej zależą od czterech głównych parametrów: obecnego tempa ekspansji i obecnych wkładów do całkowitej gęstości materii nierelatywistycznej, materii ultrarelatywistycznej i próżni. Pojawienie się odległych obiektów zależy od tych liczb, więc w zasadzie możliwe jest określenie tych parametrów, a także zbadanie najsłabszej klasy niestandardowych kosmologii - w których mogą istnieć dodatkowe wkłady do gęstości, z bardziej egzotycznymi równaniami stanu. Wszystkie takie możliwości można zbadać empirycznie w ramach modeli FRW. Głębszym problemem jest pytanie, czy podstawowe założenie izotropii i jednorodności jest słuszne, a jeśli tak, to dlaczego tak powinno być. Badania struktury na dużą skalę i anizotropii w mikrofalowym promieniowaniu tła sugerują, że odchylenia od metryki Robertsona-Walkera są ograniczone do ułamkowych zaburzeń na poziomie około 10-5, więc podstawowa metryka wydaje się dobrym modelem zerowego rzędu. Jednak istnienie horyzontu cząsteczkowego, który jest mały w początkowych czasach, oznacza, że jest wielkim zaskoczeniem odkrycie, że wszechświat jest niemal jednorodny w regionach, które dopiero niedawno weszły w kontakt przyczynowy. Jest to jedna z wielu osobliwości w modelu standardowym, które domagają się wyjaśnienia: podobnie jak podstawowy fakt ekspansji i niemal idealna płaskość, są to zagadki warunków początkowych, które wymagają wyjaśnienia przez bardziej kompletną teorię, taką jak INFLACJA. Na koniec, istnieje wiele osobliwych cech, które odnoszą się do naszego statusu jako obserwatorów. Jeśli Ω = 1, żyjemy w pobliżu szczególnego czasu - w którym wkład do równania Friedmanna z krzywizny przestrzennej lub energii próżni jest porównywalny z wkładem materii nierelatywistycznej. Istnieje zbiór idei pod nagłówkiem "ZASADY ANTROPOICZNEJ", które próbują określić ilościowo efekty selekcji narzucone przez potrzebę inteligentnych obserwatorów. W niektórych przypadkach argumenty te są stosunkowo bezsporne: nie powinniśmy być zaskoczeni, że wszechświat jest obecnie mniej więcej tak stary, jak typowa gwiazda, ponieważ gwiazdy są potrzebne do tworzenia ciężkich jąder potrzebnych do interesującej chemii. To, czy takie rozumowanie wyjaśnia wszystkie cechy obserwowanego wszechświata, prawdopodobnie pozostanie kwestią sporną. Jednak na poziomie praktycznym standardowe izotropowe modele kosmologiczne zapewniają kontekst, w którym tę trudną debatę można przynajmniej przeprowadzić z pewnością.
Kosmologia: krótka historia
Kosmologia to gałąź astronomii, która zajmuje się badaniem wielkoskalowej struktury wszechświata. Obserwacyjnie wymaga danych o najbardziej odległych obiektach, podczas gdy teoretycznie wymaga możliwie największych ekstrapolacji podstawowych praw fizyki. Pomimo tych poważnych ograniczeń, kosmologia ostatnio wyłoniła się jako bardzo ważna gałąź nauki, w której można formułować i testować przewidywania. Kiedy rozpoczęła się współczesna kosmologia? Rzeczywiście, należy cofnąć się do Isaaca NEWTONA i jego korespondencji z Richardem Bentleyem od 10 grudnia 1692 r. do 17 stycznia 1693 r. Interesujące jest czytanie prób Newtona skonstruowania modelu jednorodnego i izotropowego, ale statycznego wszechświata oraz jego uświadomienie sobie, że jest on niestabilny. Późniejsze próby w ramach teorii Newtona, zanim na horyzoncie pojawiła się teoria względności, były podejmowane przez C. Neumanna i H. Seeliger w latach 1895-1896. W 1934 r. W. H. McCrea i E. A. Milne wykazali, w jaki sposób idee Newtona dotyczące grawitacji i dynamiki mogą być odpowiednio dostosowane do standardowych modeli teorii względności. Pojawienie się OGÓLNEJ TEORII WZGLĘDNOŚCI w 1915 r. oferowało możliwe rozwiązanie konfliktów, które zaczynały się pojawiać między prawami dynamiki i grawitacji Newtona a SZCZEGÓLNĄ TEORIĄ WZGLĘDNOŚCI. Ogólna teoria względności wiązała zjawisko grawitacji z geometrią przestrzeni i czasu. Zaledwie 2 lata po tym, jak zaproponował teorię, ALBERT EINSTEIN podjął śmiałą próbę zastosowania jej do skonstruowania modelu całego wszechświata. Podobnie jak Newton, Einstein również odkrył, że jego równania względności z 1915 r. nie dopuszczają modelu statycznego i wprowadził tzw. STAŁĄ KOSMOLOGICZNĄ, λ, która implikowała (w przybliżeniu Newtona) siłę odpychającą, która zmieniała się bezpośrednio wraz z odległością. Statyczny model, który się wyłonił, wymagał, aby wszechświat był zamknięty. Einstein uważał, że pojawienie się takiego modelu było demonstracją unikalnej i spójnej relacji między geometrią czasoprzestrzeni a zawartością materii we wszechświecie. Jednak artykuł W. DE SITTERA z tego samego roku wykazał, że model ten nie był unikalny. De Sitter znalazł model wszechświata, który był pusty, ale rozszerzał się. Chociaż w tamtym czasie uważano go za ezoteryczny, model ten odegrał kluczową rolę w kosmologii przy wielu późniejszych okazjach. W drugiej dekadzie tego stulecia nie było systematycznych badań galaktyk, chociaż do 1914 roku obserwatorzy mgławic rozproszonych, tacy jak V.M.Slipher, zgłaszali przesunięcia mgławicowe, głównie przesunięcia ku czerwieni, które wskazywały na radialny ruch recesyjny tych mgławic. Jednak pomimo tych odkryć, ogólna wiara w statyczny wszechświat była dość silna, a rozwiązanie de Sittera traktowano bardziej jako ciekawostkę. Rzeczywiście, w latach 1922-1924 A. Friedmann, a później w 1927 roku (niezależnie) Abbé Lema Ître uzyskali modele rozszerzającego się wszechświata, dla których stała kosmologiczna nie była wymagana, ale zostały one również zignorowane przez Einsteina i innych. Tymczasem zrozumienie wszechświata na froncie obserwacyjnym również rosło. W 1924 roku E. P. HUBBLE ustalił, poprzez wykorzystanie gwiazd zmiennych cefeid, że Mgławica Andromedy jest tak daleko, że musi być pozagalaktyczna. Rzeczywiście w ciągu kilku następnych lat zaczęto ustalać istnienie pozagalaktycznych mgławic jako galaktyk samych w sobie. Jednak to ogłoszenie przez Hubble′a w 1929 r. relacji prędkości do odległości tych mgławic zmieniło bieg wydarzeń na korzyść tych modeli. Po dokładnej analizie danych na temat przesunięć ku czerwieni mgławic, Hubble doszedł do tego, co dziś znane jest jako "PRAWO HUBBLE′A", a mianowicie, że prędkość radialna typowej galaktyki oddalonej od nas jest proporcjonalna do jej odległości od nas. Dokładniej rzecz biorąc, dane pokazują, że przesunięcie ku czerwieni galaktyki wzrasta wraz z jej osłabieniem. Jeśli przesunięcie ku czerwieni zinterpretujemy jako przesunięcie Dopplera, a osłabienie jako wynik odległości, wówczas prawo Hubble′a będzie obowiązywać. Chociaż mogą istnieć inne interpretacje danych, wszystkie modele kosmologiczne musiały uwzględniać ten podstawowy fakt dotyczący wszechświata. Rzeczywiście później zdano sobie sprawę, że w swojej pracy z 1927 r. LemaÎtre przewidział liniową relację prędkości i odległości tego rodzaju. Tak więc wkrótce po zaakceptowaniu prawa Hubble′a Einstein dostrzegł, że statyczny model jest nierealny i porzucił stałą kosmologiczną jako "największy błąd" w swoim życiu. Byli jednak inni, którzy myśleli inaczej i nawet dzisiaj ta stała nadal pojawia się w literaturze kosmologicznej. Czytelnik zainteresowany wiedzą, kto co zrobił i kiedy w tamtych wczesnych dniach, może chcieć zobaczyć historyczne sprawozdanie Northa (1965).
Modele Wielkiego Wybuchu
Założenie jednorodności i izotropii pozwala kosmologowi zdefiniować "czas kosmiczny". Przekroje przestrzenne w danym czasie kosmicznym powinny być jednorodne i izotropowe. H.P. Robertson w 1935 r. i A.G. Walker w 1936 r. niezależnie opracowali najbardziej ogólny element linii opisujący taką czasoprzestrzeń. Przyjmując dowolnego obserwatora jako lokalny początek sferycznych współrzędnych biegunowych (r, θ, Φ) i t dla czasu kosmicznego, element linii Robertsona-Walkera jest dany przez
Funkcja S(t) jest wspomnianym wcześniej współczynnikiem skali: jej wzrost w czasie oznacza ekspansję wszechświata. Stała k w powyższym równaniu jest parametrem określającym, czy przestrzeń t = constant ma dodatnią (k = +1), ujemną (k = ?1) czy zerową (k = 0) krzywiznę. Najprostszym modelem FRIEDMANNA jest model Einsteina-de Sittera wspólnie propagowany przez Einsteina i de Sittera (1932), który ma k = 0. W przypadku materii wolnej od ciśnienia (często nazywanej pyłem) model ten ma S ∝ t2/3. To, że cechy geometryczne modelu są powiązane z jego zawartością materii fizycznej, jest wykazane przez różne zachowanie tych modeli dla różnych gęstości materii ρ. Definiujemy zatem następujące wielkości:
jako STAŁĄ HUBBLE′A i gęstość krytyczną w epoce t. Ich wartości w obecnej epoce t0 będziemy oznaczać sufiksem zero. Parametr gęstości jest zdefiniowany przez
Ω = ρ/ ρc
Następnie dla rozwiązań Friedmanna mamy następujący wynik: wszechświat jest zamknięty dla Ω0 > 1 i otwarty w przeciwnym razie (k = 0,?1). W rzeczywistości przypadek k = 0 jest przypadkiem marginalnie otwartym, gdzie 0 = 1; jeśli gęstość przekracza ρc, wszechświat jest typu zamkniętego. Dlatego gęstość ρc nazywana jest gęstością domknięcia lub gęstością krytyczną. We wszystkich modelach współczynnik skali wynosił zero w pewnej epoce w przeszłości, powszechnie zwanej epoką Wielkiego Wybuchu. W tej epoce krzywizna czasoprzestrzeni była nieskończona, podobnie jak gęstość materii i promieniowania we wszechświecie. A co z przyszłym zachowaniem wszechświata? Tutaj odpowiedź zależy od geometrii przestrzeni. W modelach otwartych wszechświat rozszerza się w nieskończoność, a współczynnik skali dąży do nieskończoności. W modelach zamkniętych współczynnik skali osiąga wartość maksymalną, zanim zmniejszy się z powrotem do zera. W powyższym argumencie zakłada się, że materia we wszechświecie ma postać pyłu. Jest to rozsądne przybliżenie w chwili obecnej, gdy ciśnienia są małe, a gęstość materii znacznie przekracza gęstość promieniowania. Można jednak wykazać, że
tak, że w wystarczająco wczesnej epoce, gdy S było wystarczająco małe, człon promieniowania dominował nad członem materii. To oczywiście nie zmienia wcześniejszego wniosku o istnieniu epoki Wielkiego Wybuchu; w rzeczywistości teraz dochodzimy do wniosku, że wszechświat był nieskończenie gorący w tej epoce. W czasoprzestrzeniach Robertsona-Walkera przesunięcie ku czerwieni jest po prostu związane z czynnikiem skali. Obliczenia pokazują, że źródło z przesunięciem ku czerwieni z jest obserwowane w epoce, gdy czynnik skali wszechświata wynosił (1+z) ?1 razy jego obecną wartość. Obserwacje w obecnej epoce wskazują, że gęstość materii jest co najmniej ∿103 razy większa od gęstości promieniowania. Tak więc możemy oszacować, że wszechświat był zdominowany przez promieniowanie w epokach poprzedzających przesunięcie ku czerwieni ∿103. Mając świadomość, że podstawowe modele Friedmanna dają odpowiedni opis rozszerzającego się wszechświata, w ciągu ostatnich pięciu dekad nastąpiło wiele odkryć w kosmologii, które opierają się na tych modelach. Te osiągnięcia można ogólnie podzielić na badania (a) struktury na dużą skalę, poprzez obserwacje źródeł dyskretnych, (b) wczesnej historii wszechświata, poprzez obserwacje reliktów, (c) ewolucji wszechświata od cząstek do galaktyk, (d) podstawowych praw fizycznych działających w ekstremalnych warunkach kilka chwil po Wielkim Wybuchu i (e) alternatywnych kosmologii. Krótko przedstawimy kilka historycznych wyników.
Obserwacje dyskretnych źródeł
Relatywistyczny model kosmologiczny wykorzystuje zakrzywioną czasoprzestrzeń i jako taki istnieją efekty nieeuklidesowych geometrii, które w zasadzie mogą być obserwowalne. To było oczekiwanie, które skłoniło astronomów optycznych i radioastronomów lat 50. i 60. do wykorzystania swoich możliwości obserwacyjnych do granic możliwości. Obserwując rozkłady populacji dyskretnych źródeł (galaktyk, kwazarów, źródeł radiowych, źródeł rentgenowskich itp.) kosmolodzy mieli nadzieję znaleźć, który z różnych modeli teoretycznych jest najbliższy rzeczywistości. Testy obserwacyjne obejmowały (i) pomiar stałej Hubble′a, (ii) rozszerzenie prawa Hubble′a na galaktyki o dużych przesunięciach ku czerwieni, (iii) zliczenia galaktyk i źródeł radiowych na coraz większe odległości, (iv) zależność średnicy kątowej od przesunięcia ku czerwieni oraz (v) zależność jasności powierzchniowej galaktyki od jej przesunięcia ku czerwieni. Szczegóły tych testów kosmologicznych można znaleźć w niedawnych podręcznikach i artykułach przeglądowych, np. Sandage (1988) i Narlikar (1993). Jednak tendencja takich badań przesunęła się z określania geometrii wszechświata na określanie ewolucji dyskretnych źródeł. Oczekuje się, że badania te powiedzą nam o ewolucji środowiska fizycznego wszechświata, ale jak dotąd nie wyłonił się żaden jasny obraz pośród serii ćwiczeń dopasowywania parametrów. Kluczowym pomiarem, który nadal budzi kontrowersje, jest stała Hubble′a. Hubble pierwotnie uzyskał wartość 530 km s-1 Mpc-1, ale patrząc wstecz, odkrywamy, że w jego pomiarach było kilka błędów systematycznych. Przez długi czas, gdy wartość stałej stale spadała, trwały kontrowersje co do jej prawdziwej wartości, która, jak sądzono, mieściła się w przedziale od 50 do 100 km s-1 Mpc-1. Nawet dzisiaj istnieje kilka problemów z kalibracją. Jednak dopiero teraz zaczyna się wyraźniej rozumieć różne kwestie praktyczne, a różne podejścia zaczynają zbiegać się w kierunku wartości H0 wynoszącej pomiędzy 55 a 70 km s-1 Mpc-1.
Relikty wczesnego wszechświata
TEORIA WIELKIEGO WYBUCHU opiera się na fakcie, że w czasie t = 0 wszechświat powstał w pojedynczym zdarzeniu. Zatem nie jest możliwy żaden fizyczny opis pierwotnego zdarzenia, chociaż teorie fizyczne mogą badać późniejsze zachowanie wszechświata. Jedną z pierwszych prób zbliżenia się do epoki Wielkiego Wybuchu podjął pod koniec lat 40. XX wieku GEORGE GAMOW, który docenił fakt, że wczesny wszechświat był zdominowany przez promieniowanie, to znaczy, że jego zawartość składała się z fotonów i innych cząstek, które były w większości relatywistyczne pod względem energii. Zatem można było przybliżyć równanie stanu za pomocą ciśnienia p = 1/3ρ, przy czym zarówno p, jak i ρ były zależne od temperatury jako czwartej potęgi, tak jak w przypadku promieniowania w równowadze termicznej. Gamow i jego współpracownicy Ralph Alpher i Robert Herman opracowali fizykę wszechświata, gdy miał on około 1-200 s. (Artykuł z 1948 roku autorstwa Alphera, H. Bethego i Gamowa na ten temat doprowadził do nazwania go teorią "α-β-γ"!) Gamow miał nadzieję wykazać, że w wysokich temperaturach panujących w tej epoce cząstki takie jak neutrony i protony będą syntetyzowane w cięższe jądra, determinując w ten sposób skład chemiczny wszechświata. Ostatecznie praca ta odniosła częściowy sukces, ponieważ lekkie jądra, takie jak deuter, hel itp. mogły powstawać w pierwotnej zupie, ale nie cięższe, takie jak węgiel, tlen i metale. Później stało się jasne z ważnej pracy Burbidge′a, Burbidge′a, Fowlera i Hoyle′a z 1957 roku (nazywanej teorią B2FH), że te jądra powstają w gwiazdach. Niemniej jednak liczebności lekkich jąder obliczone zgodnie ze współczesną wersją pionierskiej próby Gamowa wykazują szeroką zgodność z obserwowanymi. Dalszą weryfikacją scenariusza wczesnego gorącego wszechświata było odkrycie w 1965 r. COSMIC MICROWAVE BACKGROUND przez Penziasa i Wilsona. Gamow, Alpher i Herman przewidzieli takie tło jako relikt wczesnej ery, chociaż odkrywcy nie byli świadomi tych wyników. W swojej pracy z 1948 r. Alpher i Herman przewidzieli reliktowe tło o szacowanej temperaturze 5 K. Obecne obliczenia Wielkiego Wybuchu nie mogą jednak oszacować temperatury tła: należy ją traktować jako parametr określony przez obserwacje. Należy wspomnieć, że na początku lat 60. R. H. Dicke i jego współpracownicy niezależnie doszli do prognozy Gamowa-Alphera-Hermana dotyczącej promieniowania reliktowego i ustawiali detektor dla tego promieniowania, gdy przewidzieli je Penzias i Wilson. Najbardziej spektakularnym osiągnięciem ostatnich lat był sukces satelity COBE w pomiarze widma (w 1990 r.) i anizotropii na małą skalę (w 1994 r.) mikrofalowego promieniowania tła. Tło wykazuje temperaturę ciała doskonale czarnego 2,7 K i jest wysoce jednorodne, z wahaniami temperatury ΔT/T ∿ 6 × 10-6. Obfitość lekkich jąder i mikrofalowe promieniowanie tła, jego widmo i anizotropia dostarczyły mocnego prima facie wsparcia dla scenariusza Wielkiego Wybuchu. Były też ograniczenia i wyzwania.
Ewolucja struktury we wszechświecie
Głównym wyzwaniem kosmologii było wykazanie, w jaki sposób w standardowym modelu Wielkiego Wybuchu pierwsze nukleony i leptony ewoluowały z bardziej pierwotnych cząstek, a z nich ostatecznie uformowały się struktury na dużą skalę we wszechświecie; wszystko to w sposób zgodny z fluktuacjami promieniowania odkrytymi przez COBE. Szczególnie interesująca w tej pracy jest rola fazy inflacyjnej, po raz pierwszy omówiona niezależnie przez A. Gutha, K. Sato i D. Kazanasa w latach 1980-1981. Podstawowy pomysł jest następujący. Wszechświat Wielkiego Wybuchu był nieskończenie gorący przy t = 0, ale jego temperatura spadała z czasem zgodnie z t-1/2. W tym procesie materia w nim zawarta przeszła przemianę fazową, a jej efektem było, przez bardzo krótki okres, nadmuchanie wszechświata w tempie wykładniczym, podobnie jak w przypadku starego wszechświata de Sittera. Zmiany w próżni czasoprzestrzennej generują siłę, która symuluje stałą kosmologiczną wprowadzoną po raz pierwszy przez Einsteina. To jest siła, która "napędza" wszechświat tak szybko, z wykładniczym wzrostem w skali czasu około 10-36 s. Większość teorii formowania się struktur opiera się na początkowych fluktuacjach, gdy ewoluują one poprzez INFLACJĘ i ich późniejszy wzrost. Ten ostatni odbywa się poprzez oddziaływanie grawitacyjne i klastrowanie. Tutaj należy wziąć pod uwagę oddziaływanie rosnących brył niejednorodności nie tylko z widoczną materią, ale także z CIEMNĄ MATERIĄ. W szczególności wyniki są wrażliwe na rodzaj ciemnej materii, "zimną" lub "gorącą" lub mieszankę obu. Ciemna materia to nazwa nadana materii, która normalnie nie jest widoczna w żadnym paśmie fal promieniowania elektromagnetycznego. To FRITZ ZWICKY w 1933 roku jako pierwszy wskazał na możliwe istnienie "brakującej masy" w gromadach galaktyk. Jednak społeczność astronomiczna potrzebowała prawie czterech dekad, aby go dogonić! W latach 70. badania ruchów chmur neutralnego wodoru wykazały, że poruszają się one z niemal stałą prędkością obrotową wokół typowej galaktyki spiralnej, nawet jeśli znajdują się w stopniowo większych odległościach poza widoczną masą galaktyki. Te płaskie krzywe rotacji wskazywały, że masa M(R) galaktyki do odległości R od jej środka wzrasta w przybliżeniu proporcjonalnie do R, nawet jeśli R znacznie przekracza widoczną granicę galaktyki. Podobnie oczekiwania Zwicky′ego dotyczące ukrytej masy w gromadach zostały potwierdzone przez odkrycia, że galaktyki w typowej gromadzie poruszają się z tak dużą prędkością, że jeśli zastosuje się twierdzenie wirialne dla zrelaksowanego klastra 2T + Φ = constant , gdzie T jest energią kinetyczną, a energią potencjalną grawitacyjną, to potrzeba dużo ukrytej masy, aby zrekompensować tę ostatnią. Z czego składa się ta ciemna materia i ile jej jest we wszechświecie? To ważne pytanie było gorąco dyskutowane, ale pozostaje bez odpowiedzi. Obecne budowanie modelu kosmologicznego musi uwzględniać różne ograniczenia, a w ramach koncepcji Wielkiego Wybuchu potrzeba wskrzeszenia stałej kosmologicznej jest silnie odczuwalna. Prawdą jest jednak, że ćwiczenie budowania modelu musi jeszcze ustalić dobrze akceptowany zestaw parametrów, w tym wartość tej stałej.
Alternatywne kosmologie
Od czasu do czasu proponowano alternatywy dla kosmologii Wielkiego Wybuchu, chociaż większość kosmologów zawsze wierzyła w słuszność tej drugiej. TEORIA STANU STAŁEGO zaproponowana w 1948 roku przez H. Bondiego, T. Golda i F. Hoyle′a ożywiła scenariusz kosmologiczny, oferując wyraźnie sprawdzalną alternatywę. Ta kosmologia miała geometrię czasoprzestrzeni opisaną przez model zaproponowany przez de Sittera w 1917 roku, chociaż fizyczne uzasadnienie było inne. Odkrycie mikrofalowego promieniowania tła w 1965 roku pozbawiło teorię dużej części jej wiarygodności. Inne ważne inicjatywy w tej dziedzinie to kosmologia Bransa-Dickego zaproponowana przez C. Bransa i R. H. Dicke′a w 1961 roku jako teoria mająca swoje korzenie w zasadzie Macha oraz kosmologia zaproponowana przez P. A. M. Diraca w 1973 roku, oparta na próbach wyjaśnienia bardzo dużych liczb bezwymiarowych, które pojawiają się w kosmologii i mikrofizyce. Ostatnio, w 1993 roku, teoria stanu stacjonarnego została przywrócona do życia w
zmodyfikowanej formie zwanej kosmologią stanu quasi-stacjonarnego (QSSC) przez F. Hoyle′a, G. Burbidge′a i J. V. Narlikara.
Wnioski
W miarę jak szczegóły obserwacyjne dotyczące wszechświata stają się coraz bardziej szczegółowe, kosmologia Wielkiego Wybuchu staje się coraz bardziej ograniczona. Na przykład, jedna długotrwała rozbieżność nie została jeszcze rozwiązana: wiek gwiazd w niektórych bardzo starych gromadach kulistych mieści się w zakresie 12-15 miliardów lat, co jest wartością większą niż przedział czasowy modelu standardowego! To kolejny powód, dla którego przywrócono termin λ, ponieważ jego uwzględnienie może zwiększyć wiek wszechświata. Ostatecznie to, jaka teoria kosmologiczna przetrwa, będzie zależało od tego, w jaki sposób zostaną spełnione wyzwania obserwacyjne. W przeciwieństwie do sytuacji na początku tego stulecia, kiedy prawie nie było żadnych parametrów kosmologicznych ograniczających teorię, teraz cierpimy z powodu zakłopotania bogactwem. Niech przetrwa najsilniejsza teoria.
Kratery
Kratery to miskowate wnęki, które powstały w wyniku eksplozji. Na ciałach planetarnych, nieliczne przykłady przeszłego lub obecnego wulkanizmu (Mars, Wenus, Io) nie są typu wybuchowego. Dlatego też, niemal wszystkie kratery na POWIERZCHNIACH PLANETARNYCH są wynikiem uderzenia METEORIDU z bardzo dużą prędkością (dziesiątki km s-1). PLANETARY EXPLORATION wykazało, że kratery uderzeniowe są wszechobecnymi cechami geologii stałych ciał Układu Słonecznego. W przypadku większości obiektów, wewnętrznie napędzana ewolucja (tektonika, wulkanizm) zatrzymuje się po kilku milionach do kilkuset milionach lat. Kratery uderzeniowe na wszystkich skalach były zatem głównym czynnikiem ewolucji powierzchni planetarnych. Najpierw zostanie narysowany portret rodzinny kraterów w całym Układzie Słonecznym, z ich uderzającymi podobieństwami i intrygującymi różnicami. Przedstawimy wczesne kontrowersje dotyczące kraterów księżycowych, jedynych takich cech planetarnych, które można zobaczyć gołym okiem, oraz dowody, na podstawie których kratery księżycowe, a także niemal wszystkie inne kratery w Układzie Słonecznym, są obecnie uznawane za cechy uderzeniowe, a nie kratery wulkaniczne. W dalszej części omówione zostanie pochodzenie ciał uderzających. Ewolucja tempa uderzeń w czasie jest ściśle związana z procesem formowania się Układu Słonecznego. Nasze zrozumienie procesów zderzeń w Układzie Słonecznym ostatnio znacznie się poprawiło wraz z pojawieniem się chaotycznych modeli dynamicznych. Następnie omówimy fizykę kraterów uderzeniowych. Formowanie się kraterów jest regulowane przez stosunkowo proste prawa skalowania w niezwykle szerokim zakresie mas uderzających. Ewolucja dużych kraterów jest silnie uzależniona od grawitacji. W wyższym zakresie rozmiarów relaksacja skorupy planetarnej modyfikuje kształt krateru. Zrozumienie tych procesów formowania się i ewolucji kraterów jest niezbędne przy próbie wyprowadzenia wieku powierzchni Układu Słonecznego z zapisu kraterów. Na koniec zostaną zbadane konsekwencje powstawania kraterów we wszystkich skalach na ewolucję powierzchni planety. Obejmują one od powstawania dużych basenów uderzeniowych o średnicy kilku tysięcy kilometrów do gruntownej modyfikacji mineralogii i tekstury gleb powierzchniowych (lub regolitów). Być może najbardziej dramatycznym wydarzeniem kraterowym ze wszystkich było gigantyczne uderzenie ciała wielkości Marsa w Ziemię, które obecnie uważa się za początek powstania Księżyca.
Kratery w Układzie Słonecznym
Najbardziej bezpośrednim dowodem na to, że obiekty o dużej prędkości uderzają w ciała planetarne, jest obserwacja spadającej gwiazdy, która świeci jasno ze względu na swoją bardzo wysoką temperaturę po wejściu w atmosferę. Typowa masa tych cząstek wynosi kilka miligramów. W XIX wieku METEORYTY o masie od kilkuset gramów do kilku ton zostały zidentyfikowane jako obiekty pozaziemskie. Inny ciąg dowodów można prześledzić wstecz do obserwacji przez GALILEO okrągłych formacji we wszystkich skalach na powierzchni Księżyca, kraterów księżycowych i basenów. Meteor Crater, w pobliżu Flagstaff w północnej Arizonie, jest najmłodszym i najlepiej zachowanym dużym kraterem uderzeniowym na Ziemi, o wielkości 2 km. Powstał w wyniku uderzenia meteorytu żelaznego o średnicy kilkudziesięciu metrów. Podobieństwo do kraterów powstałych w wyniku eksplozji jest uderzające, z kształtem misy i podniesioną krawędzią. W połowie XX wieku pochodzenie tych cech było kontrowersyjne, ponieważ przypisywano je albo aktywności wulkanicznej, albo procesom uderzeniowym. Sprawa została ostatecznie zakończona wraz z programem Apollo. W międzyczasie najlepiej zachowany krater uderzeniowy na Ziemi został odkryty w północnej Arizonie (oczywiście, był znany od wieków Navajo): METEOR CRATER, o średnicy 2 km i głębokości ponad 300 m, jest bardzo młodym obiektem powstałym 40 000 lat temu. Wykazuje uderzające podobieństwo do kraterów po bombach, z kształtem misy i lekko podniesioną krawędzią. Rzeczywiście, kratery uderzeniowe i powstałe w wyniku eksplozji są ze sobą ściśle powiązane. Wiele dowiedziano się o fizyce kraterów podczas prób nuklearnych przeprowadzanych w pobliżu powierzchni Ziemi w latach 50. i na początku lat 60. XX wieku. Nadzwyczajna przygoda eksploracji planet w ciągu ostatnich 40 lat pokazała wszechobecny charakter kraterów uderzeniowych w Układzie Słonecznym. Rzeczywiście, pierwsze wrażenie wywołane pierwszymi przelotami obok Marsa było takie, że był on, co nieco rozczarowujące, po prostu większą wersją Księżyca. Obserwacje te przypadkowo objęły starszą, południową półkulę planety, na której rzeczywiście dominują kratery uderzeniowe. Kiedy orbiter Mariner 9 w końcu uzyskał globalny zasięg, ujawnił ogromne wulkany i kaniony, które charakteryzują region Tharsis. Duże jamy na szczycie tych wulkanów powstały w wyniku zapadnięcia się, a nie eksplozji, i dlatego są kalderami, a nie kraterami. MISJE PIONEER i VOYAGER do układów planet zewnętrznych zaobserwowały ogromne cechy uderzeniowe, takie jak basen Valhalla na GANYMEDE. Na drugim końcu Układu Słonecznego MERKURY okazał się bliskim bliźniakiem naszego Księżyca, którego powierzchnia była usiana kraterami o różnych rozmiarach. Sfotografowano tylko 50% powierzchni Merkurego, więc nie można wykluczyć niespodzianek, gdy obserwuje się drugą półkulę. Niedawno bliskie obserwacje ASTEROID wykazały kratery o rozmiarach do 30% średnicy ciała. Bogactwo obserwacji z misji planetarnych pokazało również, że kilka ciał planetarnych wykazuje znacznie mniejsze zagęszczenie kraterów uderzeniowych. Dotyczy to Wenus, Io, Europy i lodowych satelitów, takich jak Enceladus (satelita Saturna) lub Miranda (satelita Urana). Przykład Ziemi sugeruje, że sytuacja ta powstaje, gdy procesy odnawiania powierzchni wymazują wszystkie kratery uderzeniowe z wyjątkiem najnowszych, tj. gdy powierzchnia ma mniej niż kilkaset milionów lat. Zapis kraterów jest zatem wyraźnie powiązany z wiekiem powierzchni, co prowadzi do dyskusji na temat pochodzenia uderzeń w Układzie Słonecznym.
Historia i charakterystyka uderzeń w Układzie Słonecznym
Wiele z tego, co wiemy o ewolucji kraterów w czasie, pochodzi z badań próbek księżycowych zebranych przez programy Apollo i Luna na początku lat 70. Radioizotopowy chronometr potasowo-argonowy jest resetowany przez wstrząsy, ponieważ produkt pochodny, argon, jest gazem szlachetnym, który jest wydalany pod wysokim ciśnieniem. Analizy te dostarczyły pierwszych bezwzględnych danych o wieku głównych uderzeń na Księżycu, takich jak to, które utworzyło BASENY IMBRIUM 3,8 miliarda lat temu. Wiek księżycowego morza, które dostarczyło czystych płyt do rejestrowania uderzeń od 4 do 3 miliardów lat temu, można było określić na podstawie wieku formowania się skał bazaltów księżycowych (chronometry uranowo-ołowiowe i rubidowo-strontowe). Od 1970 roku pojawienie się dynamiki chaotycznej znacznie poprawiło naszą wiedzę na temat ewolucji rojów protoplanetarnych podczas formowania się Układu Słonecznego. Te teorie dostarczyły również zadowalającego modelu transferu asteroid lub fragmentów asteroid do wewnętrznego układu słonecznego przez perturbacje planetarne. Na podstawie tych różnych źródeł informacji istnieje obecnie szeroki konsensus co do następującego scenariusza:
(a) Kondensacja mgławicy słonecznej doprowadziła do powstania bardzo dużej liczby małych ciał, planetozymali w wewnętrznym układzie słonecznym i kometymali w zewnętrznym układzie słonecznym.
(b) Zarodki planetarne najpierw rosły w wyniku bezpośrednich zderzeń, co spowodowało kilka milionów lat niezwykle intensywnego bombardowania.
(c) Gdy strefy bezpośredniego żerowania zostały oczyszczone, zaburzenia grawitacyjne wywołały dalsze zderzenia lub bliskie spotkania między ocalałymi obiektami. Pozostała pierwotna populacja małych ciał została następnie stopniowo oczyszczona przez zderzenia z planetami lub wyrzucenie w OBŁOKU OORTA. Ta faza, ogon akrecyjny, trwała ponad 500 milionów lat według wieku basenów księżycowych. Pozostawił trzy główne rezerwuary: obłok Oorta, odpowiadający kometom wyrzucanym na duże odległości przez planety olbrzymy, główny pas asteroid, gdzie akrecja planety została uniemożliwiona przez bliskość proto-Jowisza, oraz PAS KUIPERA kometomali, gdzie gęstość była zbyt niska, aby utworzyć planetę.
(d) W ciągu pozostałych 4 miliardów lat zderzenia w głównym pasie, zaburzenia planetarne i gwiezdne spowodowały stały strumień obiektów wtórnych, reprezentowanych obecnie przez planetoidy bliskie Ziemi (z głównego pasa), komety krótkookresowe (z pasa Kuipera) i komety długookresowe (z obłoku Oorta). Względny udział komet i asteroid w tempie uderzeń jest wysoce niepewny. Oczekuje się, że będzie on zależał od odległości do Słońca, przy czym komety będą stanowić do jednej trzeciej uderzeń w Ziemię i Księżyc. Na Księżycu ta stała częstotliwość uderzeń odpowiada powstaniu krateru o wielkości kilometra co 30 000 lat. Na Ziemi jest ona podwojona, ponieważ uderzające obiekty są skupiane przez silne pole grawitacyjne, ale to również sprawia, że kratery są mniejsze. Krater Meteorytowy o szerokości 2 km, powstały 40 000 lat temu, jest zatem dość typowy, biorąc pod uwagę dużą część powierzchni pokrytą oceanami.
Prędkości uderzenia zależą w dużym stopniu od odległości do Słońca i regionu źródłowego. Jako prostą zasadę, względna prędkość obiektu uderzającego z ciałem planetarnym stanowi znaczną część jego prędkości orbitalnej, przy czym komety długookresowe mają największą prędkość uderzenia. W przypadku układu Ziemia-Księżyc, z jego prędkością orbitalną 29,8 km s-1, typowa prędkość uderzenia wynosi 20 km s-1. W przypadku Merkurego (prędkość orbitalna 50 km s-1) prawdopodobnie będzie to ponad 30 km s-1. W głównym pasie, głównym regionie źródłowym, względne prędkości są mniejsze niż 10 km s?1 dla fragmentów asteroid i większe niż 10 kms -1 s-1 dla komet, które mają znacznie większy mimośród. Prędkość planetocentryczna satelitów (1 km s-1 dla Księżyca) staje się czynnikiem tylko dla wewnętrznych satelitów Jowisza (Io: 17 km s-1). Rozkład masy uderzających ciał nie jest modyfikowany przez zaburzenia grawitacyjne. Dlatego oczekuje się, że będzie bardzo podobny dla obiektów z tego samego regionu źródłowego w całym Układzie Słonecznym. Jako proste przybliżenie, strumień obiektów powyżej danej masy jest odwrotnie proporcjonalny do masy, ze stromszą zależnością przy małych masach i bardziej płaską zależnością przy dużych masach. Zależność wkładu kometarnego i asteroidalnego od odległości heliocentrycznej jest nadal niepewna.
Fizyka krateru uderzeniowego
Proces krateru uderzeniowego jest ściśle związany z powstawaniem kraterów w wyniku eksplozji. Zależność tę można wywnioskować z porównania prędkości uderzenia (5 do 30 km s-1) i najwyższej prędkości detonacji materiałów wybuchowych (7 km s-1). Dlatego też obiekt uderzający dostarcza energię na kilogram, która mieści się w zakresie energii rozpraszanej przez materiały wybuchowe o dużej mocy. Wszystkie uderzenia inne niż muśnięcie są niezwykle nieelastyczne, tworząc bańkę gazu o początkowej temperaturze kilku 10 000 K. Przy tych bardzo wysokich prędkościach to ekspansja tej bańki gazu powoduje powstanie krateru, ponownie bardzo podobnie do eksplozji chemicznej lub jądrowej. W miarę rozszerzania się fali uderzeniowej, włącza ona rosnącą masę materiału, co spowalnia jej prędkość. Początkowa prędkość ekspansji jest związana z prędkością uderzenia, a zatem jest wyższa niż prędkość dźwięku. Podczas tej fazy hipersonicznej fala uderzeniowa znajduje się na zewnętrznej krawędzi rozszerzającej się wnęki. Gdy ekspansja zwolni poniżej prędkości dźwięku, fala kompresji rozszerza się szybciej niż krawędź wnęki. Te fale P ostatecznie rozprzestrzeniają się daleko od uderzeń. Zdarzenia uderzeniowe są zatem źródłem aktywności sejsmicznej o niskiej magnitudzie. Przy danej prędkości uderzenia odległość, przy której konkretna energia na kilogram spada poniżej danej wartości, jest proporcjonalna do promienia obiektu uderzającego. Na przykład w odległości 10 promieni od uderzenia wnęka odpowiada 500-krotności objętości uderzenia, stąd średnia rozproszona energia wynosi 1/500 energii uderzenia, niezależnie od skali. Zakładając prosty ekwipartycjoner między energią kinetyczną i cieplną, rozszerzająca się i zwalniająca fala uderzeniowa definiuje cztery główne strefy:
(a) Bardzo blisko uderzenia, energia na kilogram jest wyższa niż energia parowania materiału. Masa utworzonego gazu jest podobna do masy impaktora przy prędkościach 20 km s-1.
(b) W dalszej odległości energia na kilogram jest wyższa niż energia topnienia. Masa cieczy jest zazwyczaj 10 do 20 razy większa od masy impaktora przy 20 km s-1.
(c) W odległości od uderzenia, która jest proporcjonalna do rozmiaru impaktora i zależy od konkretnej energii spójności materiału, fala uderzeniowa nie jest w stanie rozdrobnić materiału. Odległość ta definiuje promień RS przejściowej wnęki, tzw. "krateru wytrzymałościowego", w którym materiał zostaje oderwany od podłoża.
(d) Poza przejściową wnęką rozprzestrzeniająca się fala uderzeniowa może generować nieniszczące pęknięcia i skutki ciśnienia uderzeniowego.
Na każdym etapie ekspansji prędkość wyrzutu powinna być podobna do prędkości fali uderzeniowej. Najwolniejszy wyrzut, wychodzący z krawędzi przejściowej wnęki, powinien zatem wyjść z prędkością VS, która jest proporcjonalna do pierwiastka kwadratowego energii spójności materiału. To proste prawo skalowania prędkości wyrzutu zostało przetestowane eksperymentalnie dla materiałów tak różnych jak bazalt i piasek pumeksowy. Paraboliczna trajektoria wyrzutu jest następnie określana przez grawitację powierzchniową ciała, które uderzyło. W przypadku najwolniejszego wyrzutu przebyta odległość wynosi V2S/g, co definiuje promień grawitacyjny Rg. Jeśli promień wytrzymałości RS jest mniejszy niż Rg, większość wyrzutu kończy daleko od krateru. Jego ostateczna morfologia jest wtedy morfologią przejściowej wnęki. W przypadku takich "kraterów siły" obserwowany stosunek głębokości do średnicy wynosi około 0,4, co jest wartością bliską wartości 0,5, która odpowiadałaby naszemu uproszczonemu modelowi sferycznie rozszerzającej się fali uderzeniowej (różnica wynika ze zwiększonego rozerwania materiału w pobliżu swobodnej powierzchni). Ostateczny kształt większych kraterów jest zdominowany przez grawitację. Gdy RS jest większe niż Rg, wyrzuty są wciągane z powrotem do podniesionych krawędzi typowych dla dużych kraterów księżycowych i częściowo wypełniają wnękę uderzeniową. Większość energii jest teraz wydatkowana jako energia potencjalna grawitacyjna, tak że rozmiar kraterów grawitacyjnych nie zależy od spójności materiału. Przejście następuje w bardzo małej skali dla materiału niespójnego w silnym polu grawitacyjnym. Na przykład Rg wynosi tylko 1 m dla regolitu księżycowego. W przypadku skalistego podłoża lub ciał o niskiej grawitacji, takich jak asteroidy, przejście to ma skalę kilometrową. Ponieważ materiał opada z powrotem do przejściowej jamy, nie jest zaskakujące, że kratery grawitacyjne są znacznie płytsze niż kratery siłowe, a stosunek głębokości do średnicy wynosi zaledwie jeden do pięciu. Ponadto boczny transport luźnego materiału krawędzi ma tendencję do powrotu do krateru, tak że kratery grawitacyjne stopniowo zanikają z czasem życia proporcjonalnym do kwadratu ich rozmiaru. W przypadku największych kraterów (ponad 20 km średnicy na Księżycu) litosfera nie jest w stanie utrzymać pierwotnej topografii krateru wbrew siłom grawitacyjnym. Częściowe zapadnięcia prowadzą do powstawania złożonych kraterów, charakteryzujących się uskokami, zapadniętymi ścianami i tarasami. Przed tymi długotrwałymi procesami relaksacji odbicie w litosferze tworzy centralny szczyt. Jest to podobne do uderzenia kropli deszczu w kałużę, po czym mała kropla zostaje wystrzelona z powrotem. W skalach powyżej kilkuset kilometrów kratery uderzeniowe nazywane są basenami, wokół których rozprzestrzeniająca się fala uderzeniowa generuje koncentryczne pierścienie. Przekształcenia skorupy wyjaśniają stosunkowo niewielki pionowy zasięg bardzo dużych struktur uderzeniowych (do 10 km dla basenów księżycowych, jeszcze mniej dla basenów na lodowych satelitach). Północne regiony MARS-a stanowią bardzo specyficzny przypadek, ponieważ występują tam duże ilości lodu podpowierzchniowego na coraz większych głębokościach w kierunku południa. Upłynnione wyrzuty z kraterów o odpowiednim zakresie rozmiarów generują "kratery rozbryzgowe" charakteryzujące się ostrą zewnętrzną granicą płatowej osłony wyrzutów. W górnym zakresie rozmiarów, główne zdarzenia kraterowe mogą wystąpić w skali podobnej do rozmiaru samego ciała uderzonego. Propagacja fali uderzeniowej nie może być już rozpatrywana w nieskończonym przybliżeniu powierzchni płaskiej, ale musi być analizowana w trzech wymiarach, biorąc pod uwagę możliwe odbicia na powierzchni. Skupienie fali uderzeniowej może być odpowiedzialne za nieregularne tereny obserwowane w regionach przeciwległych do głównych uderzeń w kilka ciał Układu Słonecznego, takich jak Merkury. Symulacje eksperymentalne zostały przeprowadzone w skali mniejszej niż 10 cm, co wykazało, że maksymalny rozmiar krateru, powyżej którego następuje całkowita fragmentacja, wynosi około 40% rozmiaru ciała uderzonego. Zapis powstawania kraterów w Układzie Słonecznym jest niezwykłym dowodem na słuszność praw skalowania dla kraterów uderzeniowych: kratery podkrytyczne rzeczywiście zaobserwowano dla szerokiego zakresu ciał Układu Słonecznego, w szczególności Fobosa (25 km), największego z dwóch satelitów Marsa, z jego dużym kraterem Stickney (9 km średnicy), ale także asteroid, takich jak Ida i Mathilde, oraz lodowych satelitów, takich jak Mimas. W przypadku Fobosa liniowe rowki pochodzące ze Stickneya i rozprzestrzeniające się na całej powierzchni sugerują, że nastąpiło globalne pęknięcie, zatrzymując się tuż przed fragmentacją. Modele pokazują, że w głównym pasie asteroid wszystkie obiekty mniejsze niż około 200 km mają czas życia krótszy niż wiek Układu Słonecznego. Fragmentacja niekoniecznie oznacza zniszczenie: jeśli ciało jest duże i/lub słabe, jego energia grawitacyjna jest znacznie większa niż energia spójności. W takim przypadku fragmenty ponownie złożą się w "stosy gruzu" o równowagowym kształcie elipsoidalnym, jeśli ciało obraca się. Oczekuje się, że te obiekty będą stanowić znaczną część asteroid o średnich rozmiarach. Najbardziej dramatycznym wydarzeniem kraterowym w wewnętrznym układzie słonecznym było prawdopodobnie gigantyczne uderzenie ciała wielkości Marsa w Ziemię, które jest obecnie powszechnie uważane za odpowiedzialne za powstanie Księżyca. Proste proporcjonalne skalowanie między rozmiarem uderzającego ciała a rozmiarem krateru w zakresie siły jest bardzo dobrze uzasadnione eksperymentami. Zależność od prędkości uderzenia jest znacznie bardziej złożona. Analogia z kraterami eksplozji doprowadziła do hipotezy, że objętość krateru jest po prostu proporcjonalna do energii uderzenia, a zatem kwadratu prędkości uderzenia. Zakłada to prawidłowo, że powstawanie pęcherzyka gazu można uznać za źródło punktowe w porównaniu z rozmiarem krateru. To założenie "skalowania energii" wydawało się zgodne z ekstremalnie nieelastycznym charakterem procesu powstawania kraterów. Wyniki eksperymentów w słabo spoistym materiale sugerowały zależność od pędu, a nie energii, stąd objętość, która jest proporcjonalna do prędkości uderzenia. Wszystkie ostatnie wyniki mieszczą się w zakresie między tymi dwoma modelami. Zależna od modelu zmienność prędkości stanowi poważny problem przy próbie dostosowania dobrze skalibrowanej krzywej produkcji księżycowej do określenia bezwzględnych wskaźników produkcji kraterów na innych ciałach Układu Słonecznego: jak widzieliśmy, prędkości uderzenia mogą być znacznie wyższe (Merkury) lub niższe (asteroidy, lodowe satelity) niż na Księżycu. Po utworzeniu na powierzchni ciała Układu Słonecznego kratery nie są wieczne. Procesy geologiczne i erozja mogą wymazać zapis kraterowania. Na Ziemi większość powierzchni odnawia się w skali milionów lat. Na Marsie istnieje uderzająca różnica w zakresie zapisu kraterowania między starą półkulą południową a półkulą północną, która pozostawała geologicznie aktywna przez ponad 3 miliardy lat. Nawet na nieaktywnych ciałach pozbawionych atmosfery, takich jak Księżyc lub Merkury, zachodzą dwa główne procesy zewnętrzne: zacieranie uderzeniowe i erozja uderzeniowa. Zacieranie występuje, gdy powstanie nowego krateru niszczy cały lub część wcześniej istniejącego krateru. Czas życia przed zatarciem wydłuża się w przypadku dużych kraterów, które przetrwają wszystkie uderzenia lokalne oprócz największych. Proces ten dominował podczas ogona akrecyjnego, gdy strumień uderzeń był bardzo duży. Erozja uderzeniowa jest wynikiem postępującej modyfikacji kształtu krateru przez małe uderzenia, których jest bardzo dużo (zwykle 1000 razy więcej dla rozmiaru, który jest 10 razy mniejszy od pierwotnego obiektu uderzającego). Procesy erozji są silnie zależne od grawitacji: w środowiskach o niskiej grawitacji, takich jak małe satelity lub asteroidy, wyrzuty z małych uderzeń zostaną usunięte z okolic krateru, co prowadzi do prostego procesu erozji "piaskowania". W znaczącym polu grawitacyjnym takie wyrzuty przemieszczają się preferencyjnie w dół zbocza, z szybkością proporcjonalną do kąta nachylenia i odwrotnie proporcjonalną do grawitacji. Wzniesienia (krawędź) i obniżenia (dno krateru) mają tendencję do relaksacji w kierunku poziomym, podobnie jak rozpraszanie impulsu cieplnego, dlatego czas życia jest proporcjonalny do kwadratu średnicy krateru. Te stare kratery o stonowanej topografii są widoczne w pobliżu terminatora, gdzie nasycają powierzchnię.
Kratery jako chronometr powierzchni ciał Układu Słonecznego
Ponieważ małe kratery mają krótsze czasy życia, rozkład częstości występowania kraterów na powierzchni przedstawia dwie domeny: obszar nasycenia, przy małych rozmiarach, gdzie kratery są w stanie ustalonym, oraz obszar produkcji, charakteryzujący się bardziej stromą zależnością od rozmiaru, odpowiadający dużym kraterom, które generalnie przetrwały od momentu powstania. Tylko ten ostatni jest interesujący przy próbie wykorzystania zapisu powstawania kraterów do określenia wieku powierzchni. Rozkład wielkości w obszarze produkcji jest mniej więcej podobny dla powierzchni w całym Układzie Słonecznym, od Merkurego do satelitów Jowisza . Uważa się, że jest to konsekwencja rozproszenia uderzeń w Układzie Słonecznym przez zaburzenia grawitacyjne, które nie modyfikują rozkładu masy populacji. Nie ma kontrowersji, jeśli trzymamy się względnych wieków: na danym ciele obszar z niewielką liczbą dużych kraterów jest młodszy niż inny obszar o większej gęstości takich cech. Jeśli wiek jest mniejszy niż 4 miliardy lat, w domenie stanu stacjonarnego wtórnych ciał uderzających, oczekuje się, że będzie proporcjonalny do gęstości dużych kraterów. Ponadto, gwałtowny wzrost strumienia oznacza, że różnice wieku rzędu kilku 100 milionów lat mogą skutkować bardzo różną gęstością kraterów. Ponieważ ogólna szybkość jest inna dla każdego regionu Układu Słonecznego, określenie bezwzględnego wieku na podstawie zapisu kraterów jest w dużej mierze zależne od modelu. Na przykład wiek wyprowadzony dla starych terenów Marsa może różnić się o ponad miliard lat, a podobne kontrowersje narastają w przypadku EUROPA, satelity Jowisza. Jego wysoce kulista powierzchnia mogłaby zostać odnowiona w krótkich skalach czasowych, zgodnie z poglądami zwolenników globalnego oceanu znajdującego się kilka 10 km pod powierzchnią. Księżyc stanowi jak dotąd wyjątkową sytuację: próbki pobrane przez misje APOLLO i LUNA dostarczają bezwzględnego wieku dla dziewięciu regionów, dwóch na wyżynach i siedmiu na morzu, które obejmują ponad 1,2 miliarda lat. Tak więc próbki księżycowe zapewniają kalibrację dla wieku kraterów z dokładnością do kilku 10 milionów lat. Kontrowersje dotyczące wieku powierzchni innych planet zostaną rozwiązane, gdy tylko będzie dostępnych kilka próbek. Powrót próbki z Marsa może nastąpić w ciągu następnych 10 lat. Nawet pojedyncze określenie wieku absolutnego mocno ograniczy wiek wszystkich jednostek powierzchniowych na planecie poprzez kalibrację krzywej produkcji kraterów. Alternatywnie można rozważyć określenie wieku radioizotopowego in situ, ale nadal stanowi to ogromne wyzwanie.
Efekty kraterów uderzeniowych na dużą skalę
Kraterowanie uderzeniowe jest głównym procesem ewolucji powierzchni ciał Układu Słonecznego. Jego rolę można omówić jako funkcję wieku powierzchni. Niewiele ciał zachowało wysoki poziom aktywności wewnętrznej do tej pory. Oprócz naszej Ziemi, tylko WENUS i Mars miały znaczące epizody magmowe w ciągu ostatnich dwóch miliardów lat. Ogrzewanie pływowe nadal napędza rozległe procesy wewnętrzne dla dwóch najbardziej wewnętrznych satelitów Galileusza, IO i Europy. Podobne procesy miały miejsce na DIONE i ENCELADUSIE, dwóch satelitach Saturna, a także na MIRANDZIE, satelicie Urana. Na Ganimedesie zmiany fazowe lodu odgrywają główną rolę, a powierzchnia jąder komet jest ablacji przez sublimację substancji lotnych. Erozja może być głównym czynnikiem dla stałych ciał planetarnych z atmosferą (Ziemia, Mars, Wenus i TYTAN). W przypadku powierzchni młodszych niż kilkaset milionów lat, kraterowanie jest rzadkim, katastrofalnym zdarzeniem, które odgrywa niewielką rolę w lokalnej topografii. Na drugim końcu skali,
powierzchnie asteroid, małych lodowych satelitów, CALLISTO i wyżyn Merkurego i Księżyca mają ponad 4 miliardy lat. Były świadkami okresu wysokiego strumienia akrecyjnego ogona. Ich znakiem rozpoznawczym jest nasycenie kraterami o wszystkich rozmiarach. Te bardzo wysokie strumienie popękały skorupę na przestrzeni kilkudziesięciu kilometrów. Ta pęknięta warstwa nazywana jest megaregolitem. W przypadku asteroid średniej wielkości, megaregolit może rozciągać się do środka, co skutkuje strukturą stosu gruzu. Pęknięcia wywołane przez największe baseny rozciągają się do podstawy skorupy planetarnej. Kilkaset milionów lat później, ciepło z rozpadu długowiecznych radionuklidów wyzwala epizody magmowe w płaszczu. Lawa unosi się na powierzchnię w regionach pęknięć i zalewa przede wszystkim duże baseny. Proces ten jest przyczyną powstawania morza na Księżycu i Merkurym. Ostatnie postępy w astronomii planetarnej (Kosmiczny Teleskop Hubble′a, optyka adaptacyjna) umożliwiły identyfikację takich regionów bazaltowych na VESTA. Ten sam cykl wystąpił zatem na zróżnicowanych asteroidach, ale w znacznie krótszej skali czasowej, biorąc pod uwagę znacznie mniejszy rozmiar tych ciał. Źródło ciepła jest nadal przedmiotem debaty. Na Ziemi tektonika płyt całkowicie zatarła ślady wczesnych dużych uderzeń. Osłabienie skorupy ziemskiej na dużą skalę z powodu uderzeń mogło jednak odegrać rolę we wczesnych stadiach tektoniki płyt. Mars stanowi interesujący przypadek pośredni: półkula południowa jest podobna do księżycowej, z dwoma dużymi basenami Hellas i Argyre, podczas gdy półkula północna (z rozszerzeniem na południe nad regionem Tharsis) jest zdominowana przez procesy tektoniczne i wulkaniczne. W ciągu ostatnich 4 miliardów lat częstotliwość uderzeń była znacznie niższa, a skala efektów kraterowania odpowiednio mniejsza. Tu i ówdzie kilka dużych uderzeń nadal tworzyło duże kratery (Kopernik i Tycho to największe kratery tego typu na Księżycu). Stały deszcz małych uderzeń spowodował powstanie warstw gruzu o grubości od kilku do kilkudziesięciu metrów, REGOLITH. Regality są wszechobecnymi cechami powierzchni ciał bezatmosferycznych w całym Układzie Słonecznym. Techniki teledetekcji, które badają najwyższe warstwy, nie dają bezpośrednich informacji o podłożu skalnym, ale o leżącej nad nim warstwie pyłu i fragmentów skalnych. Na szczęście w takiej sytuacji transport boczny może być wywołany tylko przez uderzenia, stąd ma bardzo nieefektywne zachowanie losowego spaceru. Skala mieszania bocznego wynosi kilkaset metrów na dużych ciałach, takich jak Merkury, Księżyc lub duże lodowe satelity. Jest ona odwrotnie proporcjonalna do grawitacji, co wyjaśnia względną jednorodność powierzchni małych planetoid obserwowanych przez Galileusza (Gasprę i Idę) oraz Neara (Mathilde).
Efekty kraterów uderzeniowych na małą skalę
Zdumiewające podobieństwo kraterów uderzeniowych sięga rozmiarów mikroskopijnych. Niewielkie uderzenie w pojedynczą skałę lub ziarno na powierzchni planety tworzy mikrokrater , który podlega tym samym regułom skalowania, co kratery o sile makroskopowej w podłożu skalnym. Powyżej średnicy w zakresie 40% rozmiaru skały lub ziarna następuje fragmentacja. W rezultacie rozmiar cząstek regolitu powoli zmniejsza się od grubego świeżego EJECTA do bardzo drobnego pyłu (zwykle o rozmiarze 50 μm). Proces ten powinien być dość podobny na ciałach skalistych i lodowych, ponieważ lód ma zachowanie mechaniczne podobne do skały w bardzo niskich temperaturach zewnętrznego układu słonecznego. Na ciałach skalistych dwa procesy związane z uderzeniem mają tendencję do zwiększania rozmiaru cząstek. Powłoka z rozprysków cieczy lub osadów parowych odgrywa stosunkowo niewielką rolę. Frakcja płynna z uderzeń o wielkości centymetra może zespawać ziarna, tworząc szkliste aglutynaty lub krzepnąć w locie, tworząc szklane kuleczki. Udział szklanych cząstek wzrasta w funkcji czasu ekspozycji próbki na przestrzeń, który jest zdefiniowany przez lokalną historię kraterów wielkości metra. Badanie próbek księżycowych pokazuje, że na Księżycu po kilku dziesięciu milionach lat w najwyższym centymetrze osiągany jest stan ustalony w ewolucji rozkładu wielkości: aglutynacja dokładnie kompensuje fragmentację, podczas gdy udział szklanych cząstek nadal wzrasta, osiągając ponad 50% w najbardziej odsłoniętych glebach księżycowych. Ta ewolucja próbki gleby z grubej, krystalicznej świeżej EJECTA do drobnoziarnistej, bogatej w szkło gleby nazywana jest dojrzałością. Obejmuje ona również ekspozycję na cząstki wiatru słonecznego i promienie kosmiczne. Jej najbardziej dramatycznym efektem jest obniżenie albedo o ponad 30%, ponieważ szklane cząstki są ciemniejsze niż oryginalne ziarna krystaliczne. Świeże wyrzuty tworzą jasne promienie rozciągające się promieniście od młodszych dużych kraterów. Wraz ze wzrostem dojrzałości promienie te stopniowo zanikają w tle. Dojrzałość to równowaga między kraterowaniem na dużą skalę, które kontroluje szybkość, z jaką świeży materiał jest wynoszony na powierzchnię, a uderzeniami o wielkości poniżej centymetra, które kontrolują szybkość formowania się szklistych cząstek. Trudno jest ekstrapolować dobrze znaną sytuację księżycową na inne ciała skaliste. Jednak na Merkurym prędkości uderzeń są zwykle dwa razy większe, generując więcej materiału płynnego, a regolit powinien być bardziej dojrzały niż na Księżycu. Sytuacja na ciałach lodowych jest trudniejsza do oceny. Można oczekiwać, że kropelki wody w stanie ciekłym powstające podczas uderzeń będą odgrywać podobną rolę w spawaniu ziaren lodu w "lodowe aglutynaty" i krzepnięciu w locie, tworząc lodowe kuleczki, ale ewolucja czasowa lodowych regolitów jest nadal wysoce spekulatywna
Cygnus X-1
Cygnus X-1 jest jednym z najsilniejszych źródeł promieniowania rentgenowskiego. Jest to pierwszy obiekt niebieski, dla którego mieliśmy dość przekonujące dowody, że jest CZARNĄ DZIURĄ. Jego właściwości rentgenowskie obejmują ultramiękkie widmo, w porównaniu do masywnych rentgenowskich układów podwójnych zawierających gwiazdę neutronową, szybkie (∿ 1 s) migotanie i wysokie/niskie stany strumienia o różnych charakterystykach widmowych. W 1971 r. ŹRÓDŁO RADIOWE pojawiło się w momencie przejścia między dwoma stanami strumienia. Źródło to pokrywa się z superolbrzymem O9.7Iab HDE226868. Odkryto, że ta gwiazda jest jednoliniową spektroskopową gwiazdą podwójną i elipsoidalną zmienną o okresie orbitalnym 5,6 dnia. Późniejsze obserwacje rentgenowskie wykazały, że strumień promieniowania rentgenowskiego zmienia się wraz z okresem orbitalnym i innym okresem znalezionym na krzywej blasku, potwierdzając tym samym, że Cygnus X-1 jest masywnym UKŁADEM PODWÓJNYM PROMIENIOWANIA RENTGENOWSKIEGO. Prędkości radialne linii emisyjnych H i He II w widmach optycznych pokazują, że masa przepływa z HDE226868 w kierunku Cygnus X-1. Profile linii emisyjnych sugerują, że masa jest przenoszona przez skupiony wiatr gwiazdowy. Ponieważ Cygnus X-1 nie jest układem podwójnym zaćmieniowym, nie możemy precyzyjnie określić masy źródła promieniowania rentgenowskiego. Możemy jednak nałożyć silne ograniczenia na krytyczne parametry systemu, używając programu syntezy krzywej blasku do modelowania elipsoidalnych zmian światła i szerokości linii absorpcyjnych HDE22686. Modele są dodatkowo ograniczone przez efektywną temperaturę gwiazdy, krzywą prędkości radialnej linii absorpcyjnej i odległość oszacowaną na podstawie wzrostu różnych efektów ośrodka międzygwiazdowego, przy czym odległość jest określana poprzez pomiar gwiazd w polu wokół HDE226868. Na szczęście wyniki modelowania nie są wrażliwe na założenia, które muszą zostać poczynione w trakcie procesu. Ta analiza daje silne dolne ograniczenie masy Cygnusa X-1, Mx > 7M⊙ . Jest to ponad dwukrotność górnej granicy masy gwiazdy neutronowej, Mns < 3,2M , zgodnie z teorią OGÓLNEJ WZGLĘDNOŚCI. Cygnus X-1 był pierwszym obiektem, dla którego istniał przekonujący argument, że jest czarną dziurą. Minęła prawie dekada od pierwszego rozpoznania, że Cygnus X-1 musi być czarną dziurą, zanim odkryto kolejny przykład.
Źródło promieniowania rentgenowskiego
Silne źródło promieniowania rentgenowskiego Cygnus X-1 zostało po raz pierwszy odkryte przez rakietowy detektor promieniowania rentgenowskiego w 1964 roku. Jest jednym z pięciu najsilniejszych źródeł promieniowania rentgenowskiego w zakresie energii 2-10 keV. Ma dwa odrębne "stany" promieniowania rentgenowskiego, pierwotnie oznaczone jako wysoki i niski. Widmo promieniowania rentgenowskiego jest twardsze, to znaczy ma większy udział fotonów o wysokiej energii, w stanie niskim, nie tylko z powodu spadku strumienia promieniowania rentgenowskiego o niskiej energii, ale również dlatego, że strumień promieniowania rentgenowskiego dla energii większych niż 10 keV wzrasta w tym samym czasie. Podobnie strumień o wysokiej energii spada, gdy strumień o niskiej energii wzrasta. W rezultacie powszechną praktyką jest obecnie oznaczanie "stanów" odpowiednio jako miękki i twardy. Długoterminowe monitorowanie Cygnus X-1 wykazało, że różne stany mogą trwać od tygodni do lat. Nie ma charakterystycznych skal czasowych dla dwóch stanów. Co więcej, zaobserwowano co najmniej dwa inne "stany" przynajmniej raz. Stany te muszą odzwierciedlać zmiany w tempie akrecji lub strukturze DYSK AKRECYJNY, ale jak dotąd nikt nie zaproponował modelu, który wyjaśniałby wszystkie obserwacje. Zmiany strumienia promieniowania rentgenowskiego nie ograniczają się do zmian stanu. W rzeczywistości strumień promieniowania rentgenowskiego zmienia się w skalach czasowych od ∿1 ms do co najmniej skal czasowych związanych ze zmianami stanu. Obejmują one zmiany strumienia, które są modulowane okresem orbitalnym i zmiennym, dłuższym okresem, który może być okresem precesji pewnej struktury w układzie. Są one nałożone na tło szumu śrutowego i okazjonalnych rozbłysków. 5,6-dniowa zmiana strumienia promieniowania rentgenowskiego jest najłatwiejsza do zrozumienia. Minima trwają 27% okresu orbitalnego i są skoncentrowane dokładnie wokół czasu górnej koniunkcji czarnej dziury z gwiazdą O. Minima są głębsze w niższych pasmach energetycznych. Faza i kształt widmowy minimów wskazują, że zmiana jest spowodowana absorpcją fotoelektryczną przez skupiony wiatr gwiazdowy z gwiazdy O. Zmiany te są obserwowane tylko w stanie twardym. Antykorelacja szerokości równoważnika linii emisyjnej H? z miękkim strumieniem promieniowania rentgenowskiego w stanie miękkim w 1996 roku wspiera tę ideę. Monitorowanie strumienia 3-12 keV Cygnus X-1 w latach 1969-1980 wykazało, że średni strumień zmienia się z okresem P = 294±4 dni. Strumień promieniowania rentgenowskiego jest na poziomie maksymalnym przez około 40% okresu 294 dni. Spadek do minimalnego strumienia, który stanowi około 75% maksymalnego strumienia, trwa o połowę krócej niż powrót do maksymalnego strumienia. Od sierpnia 1996 do września 1998, podczas stanu twardego następującego po stanie miękkim z 1996 roku, zarówno strumień 2-10 keV, jak i 20-100 keV zmieniał się z okresem 142 ± 7 dni. Amplituda w paśmie 2-10 keV była prawie dwukrotnie większa od obserwowanej wcześniej, a kształt krzywej strumienia był niemal lustrzanym odbiciem tej dla okresu 294 dni. Pozostaje pytanie, czy osobliwy związek między okresami i krzywymi blasku jest czymś więcej niż niezwykłym zbiegiem okoliczności. Krótkoterminowe zmiany strumienia promieniowania rentgenowskiego można opisać za pomocą szumu śrutowego, rodzaju szumu wynikającego z superpozycji dużej liczby zaburzeń (strzałów), które występują losowo. Strzały mają charakterystyczną skalę czasową około 20 ms, ale ich cechy zmieniają się w złożony sposób wraz z energią i stanem promieniowania rentgenowskiego. Wszystkie strzały narastają wolniej do szczytowej intensywności niż opadają. Szczyty ujęć w wyższych energiach są węższe i bardziej asymetryczne niż te w pasmach o niskiej energii. Podczas stanów twardych i przejściowych średnia twardość ujęć jest niższa niż emisja stacjonarna. Podczas stanu miękkiego średnia twardość ujęć jest większa niż emisja stacjonarna. Twarde ujęcia rentgenowskie pozostają w tyle za miękkimi ujęciami rentgenowskimi o wartość, która jest funkcją energii. To opóźnienie jest najmniejsze dla stanu twardego i nieznacznie większe niż dla stanu miękkiego, a znacznie większe dla stanu przejściowego. Oddzielne badanie opóźnienia czasowego Fouriera, opóźnienia czasowego między tą samą fazą w dwóch różnych szeregach czasowych, doprowadziło do podobnych wniosków przy użyciu danych rentgenowskich twardego stanu. Oznacza to, że prawie wszystkie twarde i miękkie zmiany strumienia występują jednocześnie. Jednocześnie szeregi czasowe w różnych kanałach energetycznych wykazują prawie całkowitą spójność do ≈0,02 Hz i po niewielkiej utracie spójności w pobliżu 10-2 Hz, powracają do prawie jedności przy 0,005 Hz. Trudno to zrozumieć, jeśli zmiany strumienia twardego i miękkiego powstają niemal jednocześnie, ponieważ twarde fotony są rozpraszane znacznie częściej niż fotony miękkie. Widmo stanu twardego Cygnusa X-1 można przedstawić jako sumę miękkiego składnika termicznego i twardego, nietermicznego składnika potęgowego z odcięciem wysokiej energii w pobliżu 150 keV. Widmo potęgowe jest modyfikowane przez ponowne przetwarzanie cech, w szczególności słabej linii fluorescencji żelaza przy 6,4 keV i prawdopodobnie garbu odbicia Comptona w pobliżu 30 keV. W stanie miękkim miękki składnik termiczny zwiększa się o współczynnik kilku, podczas gdy twardy, nietermiczny składnik potęgowy spada o 10-20%. Wszystkie cztery składniki widmowe są zwykle wyjaśniane w kontekście modeli korony dysku akrecyjnego, w których promieniowanie cieplne pochodzi z dysku akrecyjnego i jest komptonizowane w gorącej plazmie, "koronie dysku akrecyjnego". Modele te mogą skutecznie odtworzyć widmowe zmiany między stanem miękkim i twardym, jeśli dysk akrecyjny rozciąga się do wewnątrz do ostatniej stabilnej orbity wokół czarnej dziury, a centralna korona wypełnia niewielką objętość w stanie miękkim, a wewnętrzna krawędź dysku jest znacznie dalej od czarnej dziury, a centralna korona jest znacznie większa w stanie twardym. Nie ma jednak powszechnie akceptowanego modelu geometrii lub dynamiki układu dysku akrecyjnego/koron dysku akrecyjnego. W tej chwili nie jest jasne, czy którykolwiek z modeli odniósł sukces w odtworzeniu czegokolwiek więcej niż widma rentgenowskiego. Próby wyjaśnienia zmienności w krótkiej skali czasowej odniosły co najwyżej ograniczony sukces, a precesję traktowano jakościowo jako oddzielny problem.
Krzywe jasności optycznej
Aby określić masy gwiazd w UKŁADACH PODWÓJNYCH, musimy określić nachylenie orbity i, gdzie i jest kątem między płaszczyzną orbity a płaszczyzną nieba. Zasadniczo, gdy nie ma zaćmień i nie można rozróżnić układu podwójnego, najlepszą metodą określenia i jest polarymetria optyczna. Jednak HDE226868 jest tak słaby, że błędy fotometryczne sprawiają, że wynik polarymetryczny, 25° < i < 65°, jest zasadniczo bezużyteczny do określenia i. Ze względu na charakter transferu masy w układzie Cygnus X-1, spodziewamy się, że HDE226868 będzie bardzo blisko wypełnienia swojego ROCHELOBE. Oznacza to, że gwiazda zostanie silnie zniekształcona w kształt mniej więcej elipsoidalny, przy czym długa oś elipsoidy będzie wyrównana z linią między gwiazdą a czarną dziurą, a koniec elipsoidy skierowany w stronę czarnej dziury zostanie rozciągnięty w punkt. Obszary gwiazdy, które są dalej od środka, będą miały niższą jasność powierzchniową niż te, które są bliżej środka. Nazywa się to przyciemnieniem grawitacyjnym lub rozjaśnieniem grawitacyjnym. Jeśli nie ma innych źródeł światła i oglądamy gwiazdę zniekształconą pływowo z kierunku płaszczyzny orbity, tj. i = 90°, krzywa blasku będzie miała płytsze, zaokrąglone minimum przy fazie orbitalnej Φ = 0,0, koniunkcji górnej czarnej dziury, ostrzejsze, głębsze minimum przy ? = 0,5, koniunkcji dolnej czarnej dziury i szerokie równe maksimum między minimami. Strumień świetlny jest mniejszy w koniunkcjach, ponieważ obszary gwiazdy rzutowane na niebo są mniejsze, jasności powierzchniowe tych obszarów są niższe z powodu efektów przyciemnienia grawitacyjnego. Głębokości minimów zależą od temperatury. W tym przypadku głębokości będą rosły wraz ze zmniejszaniem się długości fali z powodu wysokiej efektywnej temperatury HDE226868. W bardziej ogólnym przypadku amplituda zmiany światła zależy od stosunku mas q = Mx/Mopt, gdzie Mx jest masą czarnej dziury, a Mopt jest masą HDE226868, współczynnika wypełnienia ρ, stosunku promienia objętości gwiazdy (tj. promienia kuli o objętości równoważnej do objętości gwiazdy) do promienia kuli o objętości równoważnej objętości płata Roche′a i kąta nachylenia orbity i. Większe q i ρ zwiększą zniekształcenie pływowe gwiazdy, a tym samym zwiększą amplitudę krzywej blasku. Gdy i zmniejsza się od 90°, amplituda krzywej blasku zmniejsza się, a różnice w amplitudzie i kształcie między dwoma minimami stopniowo zanikają. Ponadto przy niskich nachyleniach efekty przyciemnienia grawitacyjnego stają się tak małe, że amplituda krzywych blasku jest niezależna od długości fali przynajmniej w obszarze optycznym. Krzywe światła optycznego HDE226868 obserwowane w stanie twardym źródła promieniowania rentgenowskiego wyglądają mniej więcej tak, jak oczekiwano dla układu o niskim nachyleniu. Amplitudy krzywych światła U, B i V wynoszą około 0,025 mag. Krzywa światła jest fazowana zgodnie z oczekiwaniami w stosunku do krzywej prędkości radialnej. Jeśli HDE226868 wypełnia swój płat Roche′a, półamplituda krzywej światła jest prawie niezależna od stosunku mas i można jej użyć do ustalenia dolnej granicy kąta nachylenia orbity i ≥ 27°.Istnieją dwa problemy, które utrudniają pracę z krzywymi światła. Po pierwsze, rozrzut średniokwadratowy wokół krzywej światła wynosi 0,022 mag, co stanowi prawie połowę amplitudy zmienności wewnętrznej. Jest to porównywalne ze zmiennością widoczną w fotometrii pojedynczych, jasnych gwiazd OB i prawdopodobnie wynika z tej samej przyczyny - albo niejednorodności gęstości w ich wiatrach, albo wielookresowych nieradialnych pulsacji. Niestety, ta dodatkowa wewnętrzna zmienność oznacza, że musimy uśredniać obserwacje z kilku lat, aby uzyskać wiarygodne elipsoidalne krzywe blasku. Po drugie, dodatkowy składnik rozproszenia na elipsoidalnych krzywych blasku wynika z okresowych zmian w kształcie krzywej blasku. Po odjęciu 5,6-dniowych elipsoidalnych krzywych blasku od strumieni świetlnych w pasmach U i B uzyskanych w czasie twardego stanu rentgenowskiego między 1972 a 1983 rokiem, mają one krzywe blasku z P = 294 i tym samym kształtem i fazowaniem co strumień rentgenowski w danych pobranych między 1972 a 1983 rokiem. Zmienność jest największa, 0,0061 ą 0,0012 mag, w paśmie U, mniejsza w paśmie B i statystycznie niewykrywalna w paśmie V. Porównanie 5,6-dniowych krzywych jasności uzyskanych podczas jasnych i słabych faz rentgenowskich okresu 294 dni pokazuje, że gdy źródło promieni rentgenowskich jest jaśniejsze, krzywe jasności optycznej są jaśniejsze we wszystkich fazach, z wyjątkiem czasu dolnej koniunkcji źródła promieni rentgenowskich. Faza i względna amplituda krzywych jasności optycznej sugerują, że zmiany optyczne są spowodowane gorącym źródłem między źródłem promieni rentgenowskich a HDE226868. Nie zaproponowano żadnych modeli wyjaśniających, dlaczego strumienie optyczne i rentgenowskie zmieniają się w fazie. Orbitalna modulacja krzywych jasności optycznej zanikła w stanie miękkiego promieniowania rentgenowskiego w 1996 r., podczas gdy 142-dniowa długoterminowa modulacja trwała. Modulacja orbitalna powróciła do normy, gdy źródło promieni rentgenowskich powróciło do stanu twardego. Oczywiste jest, że wyniki te podnoszą poważne pytania dotyczące standardowych założeń, które są przyjmowane w różnych schematach wyprowadzania masy czarnej dziury w Cygnus X-1. Dokładna inspekcja wielu średnich krzywych światła nie jest zachęcająca. Żadna z nich nie pasuje do standardowego modelu elipsoidalnej krzywej światła.
HDE226868: obserwacje spektroskopowe
Widmo optyczne HDE226868 zostało sklasyfikowane jako O9.7Iab(p-var), gdzie osobliwość dotyczy słabej, zmiennej emisji w linii He II ?468,6 nm. Słaba zmienna emisja występuje również w liniach H?, H? i H?. Widmo linii absorpcyjnych jest bardzo podobne do widma porównywalnych nadolbrzymów, ale atmosfera gwiazdy może być przepełniona He i C. PRĘDKOŚCI RADIALNE mierzone z linii absorpcyjnych pokazują, że HDE226868 jest pojedynczym układem spektroskopowym podwójnym o okresie orbitalnym P = 5,5998 dni i półamplitudzie prędkości radialnej Kopt = 74,7 km s-1. Daje to funkcję masy
Pomiary prędkości radialnych linii emisyjnych dają krzywą prędkości, gdzie maksymalna prędkość jest przesunięta o około 0,75P od maksymalnej prędkości radialnej linii absorpcyjnych. Wskazuje to, że linie emisyjne powstają w gazie, który leży na lub w pobliżu linii łączącej dwie gwiazdy i płynie od widocznej gwiazdy do źródła promieniowania rentgenowskiego. Pokazuje to, że widoczna gwiazda musi wypełnić lub prawie wypełnić swój płat Roche′a. Szczegółowe analizy profili emisji pokazują, że są one mieszanką dwóch składników, profilu P Cygni, który podąża za krzywą prędkości radialnej linii absorpcyjnej i szerokiej, mniej więcej symetrycznej, cechy emisji, która jest przesunięta o 0,86P względem krzywej prędkości linii absorpcyjnej. Analizy te wskazują, że linie emisyjne powstają w obszarze mniejszym niż 0,1Ropt nad powierzchnią HDE226868, gdzie Ropt jest promieniem gwiazdy. Średnia prędkość przepływu w tym obszarze jest mniejsza niż 100 km s-1. Szerokość cech emisji, FWHM < 400 km s-1 jest zgodna z gradientem prędkości oczekiwanym w skoncentrowanym wietrze gwiazdowym. Prędkość przepływu i gradient prędkości w strumieniu gazu raczej nie będą tak duże tak blisko gwiazdy. Emisja z wypływu nie jest zakryta. Jeśli gwiazda wypełnia 90% swojego płatu Roche′a i bierzemy rozsądny margines błędu w położeniu, w którym powstaje emisja, oznacza to, że i < 55°. Limit ten jest znacznie zmniejszony, jeśli gwiazda wypełnia większą część swojego płatu Roche′a. Górny limit intensywności szczytowej emisji H? z dysku akrecyjnego wynosi 3% strumienia kontinuum z HDE226868. Nie jest to zaskakujące, ponieważ oczekuje się, że dysk akrecyjny będzie znacznie słabszy niż HDE226868.
Masa obiektu kompaktowego
Krzywe światła i prędkości HDE22686 nie dostarczają informacji wymaganych do rozwiązania krytycznych parametrów układu podwójnego, zwłaszcza masy źródła promieni rentgenowskich. Możliwe jest jednak uzyskanie znaczących ograniczeń ważnych parametrów poprzez połączenie informacji uzyskanych z tych krzywych z innymi danymi. Jeśli wektory momentu pędu spinu i orbity są wyrównane, stosunek rzutowanej prędkości obrotowej V sin i do półamplitudy krzywej prędkości linii absorpcyjnej opt jest niezależny od kąta nachylenia orbity
gdzie Ω jest stosunkiem prędkości kątowej wirowania gwiazdy do jej prędkości kątowej orbity, q jest stosunkiem mas, a Φ(Ω, q) jest promieniem objętości płata Roche′a podzielonym przez separację układu. Zależność tę można wykorzystać do wyprowadzenia q dla siatki ρ i Ω. Obliczenia teoretyczne pokazują, że nastąpi katastrofalne przepełnienie płata Roche′a, które stłumi źródło promieniowania rentgenowskiego, jeśli ρ = 1. Ponadto obliczenia teoretyczne profili linii emisyjnych dla modeli wiatru skupionego pokazują, że dla ρ < 0,9 gęstość wiatru nie jest wystarczająco wysoka wzdłuż linii łączącej gwiazdy, aby wytworzyć obserwowaną emisję. Kołowość orbity sugeruje, że siły pływowe miały wystarczająco dużo czasu, aby wprowadzić gwiazdę na orbitę prawie synchroniczną, więc rozsądne jest ograniczenie naszej siatki do wartości bliskich jedności. Amplituda krzywej blasku zależy od q, ρ, Ω i i. Kształt gwiazdy jest modelowany za pomocą potencjału, który obejmuje efekty ciśnienia promieniowania zarówno z gwiazdy, jak i źródła promieniowania rentgenowskiego oraz asynchroniczny obrót, do pierwszego rzędu. Proces modelowania rozpoczyna się od zgadywania wartości q i i, a następnie są one wykorzystywane do uzyskania mas składowych, promienia i grawitacji powierzchniowej widocznej gwiazdy. Wielkość V i wygaszenie mogą być wykorzystane do powiązania promienia widocznej gwiazdy z jej odległością d w kpc, Ropt = (9,7 ± 0,9)d. Odległość może być następnie wykorzystana do obliczenia jasności widocznej gwiazdy i źródła promieniowania rentgenowskiego, które są wymagane do oszacowania stosunku przyspieszenia radiacyjnego do grawitacyjnego, które są wymagane przy uwzględnieniu efektów promieniowania w obliczaniu potencjałów. Strumienie i profile intensywności właściwej są obliczane przy użyciu kodu atmosfery modelu. Profile intensywności właściwej są obliczane dla Teff = 27 500 K i grawitacji powierzchniowej, która jest odpowiednia dla wybranych parametrów. Dane te są wprowadzane do kodu syntezy krzywej blasku, gdzie są integrowane na powierzchni gwiazdy, biorąc pod uwagę efekty ściemnienia grawitacyjnego i ściemnienia krawędzi. Jeśli FWHM profilu linii strumienia i amplituda krzywej blasku nie pasują do obserwacji, q i i są dostosowywane, a proces jest powtarzany aż do uzyskania dopasowania. Ponieważ amplituda krzywej blasku jest najbardziej wrażliwa na i, a FWHM zależy całkowicie od q, wybór dostosowania jest stosunkowo łatwy, a proces zbiega się w ciągu kilku iteracji. Krzywa blasku V z lat 1972-1983 została użyta w tym celu, ponieważ wydawała się najmniej dotknięta zaburzeniami odnotowanymi wcześniej. Na szczęście wyniki tego ćwiczenia są niewrażliwe na założenia poczynione podczas obliczeń. Obejmują one wartość prędkości makroturbulentnej użytej do obliczenia teoretycznych profili linii, uwzględnienie lub pominięcie efektów ciśnienia promieniowania i koliniowość wektorów momentu pędu. W przypadku niemal synchronicznego obrotu i dużego uwzględnienia niepewności, Mopt = 33 ± 9 M⊙ i Mx = 16 ± 5 M⊙. Wartości te są zgodne z szacunkami odległości opartymi na ultrafiolecie i kolorach optycznych HDE226868 oraz badaniami absorpcji międzygwiazdowej jako funkcji odległości dla gwiazd w otaczającym polu. Absolutny dolny limit odległości oparty na tych danych wynosi d > 1,7 kpc. Odpowiada to Mopt = 20 M⊙ i Mx = 7 M⊙. Alternatywna analiza oparta na zunifikowanych modelach atmosfery i wiatru dopasowanych do widm HDE226868 uzyskała nieco niższe wartości, Mopt = 18 M⊙ i Mx = 10 M⊙. Wynik ten zależy również niejawnie od krzywych blasku w celu uzyskania nachylenia, choć w mniejszym stopniu niż pierwsza metoda, i nie podano żadnych szacunków błędów. Gdyby tak było, prawdopodobnie błędy dla obu metod by się nakładały.