Przejdź do treści

e-VLBI, czyli radiowa interferometria
wielkobazowa w czasie rzeczywistym

Andrzej Marecki

Rozdzielczość obrazu wynikającego z przetworzenia informacji niesionej przez falę elektromagnetyczną to zdolność do pomiaru odległości kątowych w obrębie promieniującego obiektu, a tym samym możliwość rozróżniania jego detali: im jest ona większa, tym mniejsze są rozmiary kątowe elementów obiektu, jakie mogą zostać odwzorowane na jego obrazie. Niezależnie od metody owego przetwarzania rozdzielczość jest zawsze skończona, to fakt doskonale wszystkim znany, zwłaszcza w dziedzinie astronomii. Jesteśmy bowiem, przynajmniej intuicyjnie, świadomi tego, że gdy przy użyciu teleskopu zrobimy zdjęcie jakiegoś obiektu, powiedzmy tarczy Księżyca, to na nic się zda oglądanie naświetlonej kliszy pod mikroskopem w poszukiwaniu śladów pozostawionych na powierzchni Srebrnego Globu przez astronautów. Co prawda, materiały fotochemiczne poszły już dziś do lamusa wyparte przez matryce CCD, czyli „cyfrowe” aparaty fotograficzne, ale nawet dysponując profesjonalnymi matrycami CCD mającymi kilkanaście milionów pikseli i dysponując najlepszym oprogramowaniem do obróbki zdjęć, nie da się dowolnie powiększać zdjęcia tak, by móc dostrzec dowolnie małe szczegóły obrazu. Poniżej pewnej granicy rozmiarów kątowych detali obiektu na obrazie ich nie będzie, bo po prostu nie zostaną odwzorowane przez układ optyczny teleskopu.

Dlaczego tak się dzieje i czym uwarunkowane są owe graniczne rozmiary kątowe detali obiektu, po przekroczeniu której obraz będzie ich pozbawiony? Otóż pomijając ewentualne niedoskonałości optyki teleskopu, a także wpływ atmosfery, skończona rozdzielczość jest skutkiem skończonej długości fali ? i ograniczonego rozmiaru apertury teleskopu D; rozdzielczość zależy po prostu od stosunku ?/D, który to stosunek (po uwzględnieniu pewnej stałej) nazywa się kryterium Rayleigha. Bardzo dobrym przykładem instrumentu astronomicznego, gdzie z funkcjonowaniem tego kryterium spotykamy się niejako „w czystej postaci”, jest kosmiczny teleskop Hubble'a (HST). Brak wpływu atmosfery i dobra jakość (skorygowanej w 1993 r.) optyki sprawia, że rozdzielczość HST jest ograniczona tylko przez nie właśnie. A zatem to długość fali światła (setki nanometrów) oraz średnica HST (2,4 m) determinują jego rozdzielczość: 40 milisekund kątowych.

Kryterium Rayleigha działa bez względu na długość fali. Pozostaje ono zatem ważne także dla fal radiowych, a więc, w odniesieniu do najczęściej używanych w astronomii fal centymetrowych, fal elektromagnetycznych setki tysięcy razy dłuższych od fal świetlnych. Gdy policzymy zatem, jaka będzie rozdzielczość typowego radioteleskopu, to okaże się, iż będzie ona na poziomie minut kątowych. Przykład: instrument o 40-m średnicy zwierciadła dysponuje zdolnością rozdzielczą tylu minut kątowych, ile centymetrów długości ma odbierana fala. Nie bez konsternacji stwierdzamy, iż pojedyncze radioteleskopy mają zdolność rozdzielczą wyraźnie gorszą od… nieuzbrojonego oka ludzkiego, to bowiem ma rozdzielczość poniżej jednej minuty.

Czy zatem radioastronomowie są skazani na widzenie nieba jakby przez matowe szkło? Na szczęście nie. Dobra, a w pewnych warunkach, o czym dalej, nawet rewelacyjna zdolność rozdzielcza obserwacji radiowych jest możliwa dzięki pracom prof. Martina Ryle'a z Cambridge, który w roku 1946 skonstruował pierwszy wieloelementowy interferometr radiowy. Wcześniej Ryle wykazał bowiem teoretycznie, że kryterium Rayleigha można niejako „obejść”, jeśli obserwacji dokonuje się interferometrem, którego elementami są anteny radiowe. Dokonując transformacji Fouriera funkcji widzialności prążków interferencyjnych (w terminologii radioastronomów zwanych raczej „listkami interferencyjnymi”), uzyskujemy informację o obrazie, a rozdzielczość jest w tym przypadku uwarunkowana już nie rozmiarami samych anten, ale odległością pomiędzy nimi, czyli długością tzw. bazy interferometru. Tak więc uzyskiwanie obrazów poprzez interferometrię, zwane w radioastronomii syntezą apertury, stało się podstawowym narzędziem przy tworzeniu radiowych map nieba, a Martin Ryle został uhonorowany (w 1974 r. wraz z Anthony Hewishem) Nagrodą Nobla.

W ciągu 30 lat od ukazania się pionierskich prac Ryle'a i jego kolegów (Hewish, Vonberg, Smith i Elsmore) skonstruowano kilka instrumentów opartych o syntezę apertury, wśród których największe i najważniejsze to 5-km teleskop Ryle'a w Cambridge, Westerbork Synthesis Radio Telescope w Holandii, MERLIN w Wielkiej Brytanii i bodajże najbardziej znany Very Large Array (VLA) w USA. Bazy tych interferometrów mieszczą się w zakresie od 18 m (teleskop Ryle'a) do 200 km (MERLIN), co przekłada się odpowiednio na kątowe zdolności rozdzielcze od kilkunastu minut do kilkunastu milisekund. Przy założeniu, że obserwacje MERLIN-em prowadzimy na fali 6 cm — wtedy jego rozdzielczość wyniesie 40 milisekund, możemy MERLIN-a uważać za radiowy analog HST. Wszystko się tu zgadza: skoro MERLIN ma tworzyć obrazy na falach sto tysięcy razy dłuższych niż to czyni HST, musi mieć tyleż razy większe od niego rozmiary.

Rys. 1 Rys. 1 Idea syntezy apertury. Łącząc odległe teleskopy tak, by tworzyły interferometry, a następnie przekształcając funkcję widzialności listków interferencyjnych na obraz, uzyskujemy rozdzielczość równoważną rozdzielczości teleskopu o średnicy równej najdłuższej bazie (tu: 1000 km).

W tym momencie dość oczywiste staje się pytanie: czy te 200 km to już jest górna granica naszych możliwości? Przecież stosowanie syntezy apertury nie powinno mieć żadnego górnego ograniczenia w dziedzinie długości baz! Rzeczywiście. Z teoretycznego punktu widzenia nie ma żadnych przeciwwskazań, żeby elementy interferometrów były usytuowane w dowolnie wielkich odległościach. Taką „wielką” odległością mogłoby być np. 1000 km, co oznacza, że wirtualny teleskop ma syntetyczną aperturę o średnicy równej 1000 km (rys. 1). Pójdźmy jednak dalej. A gdyby tak zaaranżować interferometry np. z udziałem radioteleskopów w całej Europie, od Wielkiej Brytanii po Polskę czy nawet Ukrainę, która swój radioteleskop ma na Krymie? W ten sposób można by stworzyć sieć dającą rozdzielczość około 10 razy lepszą niż MERLIN. Podobnie Amerykanie mogliby ustawić anteny na terenie całego kraju, a nawet wykorzystać Hawaje i Wyspy Dziewicze (np. administrowaną przez USA wyspę Saint Croix), co dałoby bazę ponad 8600 km, a tym samym rozdzielczość rzędu milisekundy.

Idea transkontynentalnych a może i nawet globalnych interferometrów radiowych nie jest bynajmniej szalona. Co więcej, nie jest wcale nowa, jako że nurtowała umysły radioastronomów już w latach 60. XX w. Nadano jej nawet nazwę: interferometria wielkobazowa (Very Long Baseline Interferometry — VLBI). Z realizacją VLBI był jednak, a do pewnego stopnia aż do dzisiaj nadal jest, fundamentalny problem: jak fizycznie połączyć tak odległe anteny, by powstały interferometry? Dopóki bowiem odległości są małe, np. rzędu kilku czy kilkunastu kilometrów, łącza mogą mieć postać po prostu klasycznych kabli. W przypadku MERLIN-a rolę łączy spełniają radiolinie (stąd zresztą wzięła się nazwa tej instalacji: Multi-Element Radio Linked Interferometer Network), jednakże dla odległości rzędu tysięcy kilometrów tego typu rozwiązanie okazało się niemożliwe do zastosowania w praktyce.

Cóż zatem robić? Z dzisiejszej perspektywy odpowiedź nasuwa się natychmiast: a gdyby tak radioteleskopy połączyć przez Internet? Taka odpowiedź jest oczywiście genialna w swej prostocie i oczywistości, ale ma w sobie coś z dialogu wnuczka i babci: „Babciu, a jakie ty oglądałaś dobranocki w telewizji, jak byłaś mała?” „Kochanie, jak ja byłam mała, to… jeszcze nie było telewizji.” Nie zapominajmy więc, że powszechność, lub zgoła powszedniość, Internetu to kwestia dopiero ostatnich lat, podczas gdy w latach 60., a nawet 70. XX w., kiedy to zaczęto eksperymentować z VLBI, nie istniało absolutnie nic, co przypominałoby obecny Internet. Co prawda faktem jest, że pierwszą transmisję między komputerami przeprowadzono 29 października 1969 r., którą to datę uważa się za formalną datę narodzin ARPANET-u, tj. prototypu Internetu, to jednak za znacznie bardziej realną datę powstania Internetu należy uważać 1 stycznia 1983 r., kiedy to wszystkie komputery ARPANET-u przestawiono na używanie protokołu TCP/IP, który do dziś pozostaje podstawowym kodem porozumiewania się komputerów przez sieć. Pierwsza sieć uniwersytecka w USA rozwijająca „zawrotną” prędkość 56 kb/s, nb. będąca pierwszym cywilnym zastosowaniem Internetu, zaistniała w roku 1985, a jego burzliwy rozwój w środowisku akademickim przypadł na lata 90. Znaczącą datą jest tu zwłaszcza 6 sierpnia 1991 r., kiedy to w CERN-ie ujrzał światło dzienne projekt World Wide Web (WWW). Dzisiejszym maturzystom nie wyobrażającym sobie życia bez e-maila, Gadu-gadu i surfowania po wirtualnym świecie chyba trudno uwierzyć, że wszechobecny dziś skrót „www” jest młodszy od nich samych.

Rys. 2 Rys. 2 Schemat rejestracji obserwacji VLBI na taśmach.
(Źródło: Wikipedia)

Zanim jednak odpowiemy sobie na pytanie, czy stworzenie wirtualnej sieci interferometrycznej o wysokiej rozdzielczości pracującej na falach radiowych w czasie rzeczywistym przez Internet jest możliwe przy dzisiejszym stanie techniki, zobaczmy, jak sobie radzono w sytuacji braku odpowiednich łączy, a więc przez okres z górą 30 lat. Otóż całkiem nieźle. Sprytna, a przy tym wcale skuteczna, metoda polega na rejestracji przekształconego do postaci cyfrowej sygnału odebranego przez radioteleskop wraz z bardzo precyzyjną informacją o czasie (pochodzącą z zegarów atomowych) na nośnikach magnetycznych (rys. 2). Następnie nośniki te transportuje się w jedno miejsce i synchronicznie odtwarza (rys. 3). Tak więc w czasie obliczania funkcji widzialności listków interferencyjnych (tzw. korelacji), co jest esencją procesu syntezy apertury, strumień danych z obu „końców” interferometru miast płynąć w czasie rzeczywistym z faktycznych anten, pobierany jest z nośników magnetycznych, na których został uprzednio zapisany. Opierając się na tej filozofii VLBI jest realizowana od ok. 40 lat aż do dzisiaj.

Rys. 3 Rys. 3 Schemat korelacji obserwacji VLBI zapisanych na taśmach. Fringe visibility to funkcja widzialności listków interferencyjnych. Jej odwrotna transformata fourierowska jest przyczynkiem obrazu.
(Źródło: Wikipedia)

Metoda ta obarczona jest jednak paroma niedogodnościami, a są one związane właśnie z posługiwaniem się owymi, tak ogólnie tu nazywanymi, nośnikami magnetycznymi zastępującymi realne łącza. Czym są te nośniki? Przez wiele lat były to po prostu taśmy magnetyczne różnych typów i standardów. W tym miejscu trzeba wspomnieć o kluczowym parametrze decydującym o sensowności całego przedsięwzięcia, a mianowicie o szerokości odbieranego a następnie rejestrowanego pasma. Ujmując rzecz najkrócej: powinno ono być możliwie jak najszersze, aby zapewnić możliwie najlepszą czułość instrumentu. Praktyka pokazała, że aby móc obserwować również słabe obiekty radiowe, pożądane byłyby pasma rzędu 100 MHz, a to oznacza konieczność rejestracji cyfrowych danych w tempie setek milionów próbek na sekundę! Zderzamy się tu zatem z nie lada problemem technicznym, a mianowicie jak na taśmie magnetycznej zapisywać strumień informacji w tak zawrotnym tempie. Czy może to być poczciwa kaseta VHS, o której dziś już pomału zapominamy? Owszem, kaset VHS używano w VLBI aż do lat 80. XX w., ale tempo zapisu 4 Mb/s pozwalające na rejestrację pasma zaledwie 2 MHz ograniczało możliwości obserwacyjne VLBI do zaledwie paru tuzinów radioźródeł. Począwszy od lat 80. XX w. aż do roku 2005, w roli nośników występowały specjalne taśmy o szerokości jednego cala, standardowo pozwalające na zapis w tempie do 256 Mb/s. W tej technice przeprowadzono bardzo wiele obserwacji VLBI o ogromnej wartości naukowej.

Calowe taśmy przysparzały jednak rozlicznych kłopotów na czele z zawodnością zapisu i kosztami transportu. Od 2004 r. były one sukcesywnie zastępowane przez bardzo pojemne dyski, dokładnie takie same, jakie obecnie instaluje się w pecetach. Przyczyna tak późnego zastąpienia taśm dyskami była prozaiczna: dopiero od kilku lat pojemności tych ostatnich — setki gigabajtów — i duże prędkości zapisu/odczytu przy jednocześnie dramatycznie spadających cenach uczyniły z nich rozsądną alternatywę dla nieporęcznych i zawodnych taśm. Obecnie w VLBI używa się pakietów złożonych z 8 dysków. Taki pakiet ma pojemność kilku terabajtów. Konieczność organizowania kosztownego ich transportu jednak pozostała.

Powtórzmy więc zadane tu wcześniej pytanie: a może by jednak spróbować transferu danych z radioteleskopów przez Internet? Koszty przesyłki nośników i wszelkie problemy logistyczne wówczas znikają. (Oczywiście, tu z kolei mogą się pojawić koszty dzierżawienia stosownych łączy, ale to już zupełnie inna sprawa). Ale bodajże najistotniejszą zaletą VLBI w czasie rzeczywistym, czyli e-VLBI, byłoby radykalne przyspieszenie procesu redukcji danych; w przypadku klasycznej VLBI trzeba było zazwyczaj całymi tygodniami, jeśli nie wręcz miesiącami (!), czekać na rezultat korelacji, a więc efekt całej obserwacji. Do tego zawsze dochodziła niepewność, czy w każdym obserwatorium wszystkie ustawienia aparatury i oprogramowania były prawidłowe. W sytuacji, gdy obserwacje robi się „w ciemno”, zdarzyć się może (i zdarzało się to nieraz), że jakaś banalna pomyłka operatora popełniona w trakcie obserwacji wychodziła na jaw dopiero w trakcie korelacji, a zatem wtedy, gdy nie było już najmniejszych szans, by ją skorygować. W e-VLBI wszelkie błędy techniczne mogą być usuwane na bieżąco, a gdy wszystkie elementy całego systemu pracują poprawnie, widać to natychmiast, a wyniki naukowe uzyskuje się w czasie rzędu godzin.

Realizacja koncepcji e-VLBI nie jest jednak zagadnieniem trywialnym. Jak bowiem podkreślono powyżej, aby czułość wirtualnego teleskopu była odpowiednia, pasmo rejestrowanego, a w przypadku e-VLBI — transmitowanego sygnału musi być bardzo szerokie, tzn. rzędu setek megabitów na sekundę. Jeśli na dodatek chcielibyśmy, aby e-VLBI miała przewagę nad techniką klasyczną, pokazanie której to przewagi ma znaczenie zarówno merytoryczne, jak i „polityczne” przy ubieganiu się o środki na finansowanie e-VLBI, to prędkość transmisji powinna przekraczać 1 Gb/s. Bez żadnych przerw i „zatorów” na całym łączu o długości rzędu tysięcy kilometrów! Takie wymagania są bardzo poważnym wyzwaniem nawet przy obecnym poziomie zaawansowania technologii sieciowych. Okazuje się bowiem, że standardowy Internet pracujący na zasadzie przełączania pakietów i protokole TCP/IP nie jest w stanie sprostać takim wymaganiom. Na łączu e-VLBI nie może być żadnego innego ruchu, a „po drodze” nie powinny być zainstalowane żadne routery. Najlepiej zatem gdy dysponujemy dedykowanym traktem światłowodowym, tzw. lightpath. Po wielu staraniach natury organizacyjnej i przygotowaniach technicznych taka wydzielona sieć funkcjonuje w Europie w odniesieniu do sześciu radioteleskopów; wśród nich znajduje się 32-m instrument Centrum Astronomii UMK. Anteny te są połączone światłowodami z Joint Institute for VLBI in Europe (JIVE) mieszczącym się w Dwingeloo w Holandii, gdzie w czasie rzeczywistym dokonuje się korelacji strumieni danych. Tak powstała europejska sieć e-VLBI, czyli e-EVN (electronic European VLBI Network).

Rys. 4 Rys. 4 Radiowy obraz supernowej SN2007gr uzyskany przy użyciu e-EVN z obserwacji 6/7.09.2007. Niebieski okrąg pokazuje rozdzielczość teleskopu optycznego, przy pomocy którego odkryto SN2007gr. Takie rozmiary ma nierozdzielony „punkt” w rozumieniu obserwacji optycznej. Żółty okrąg pokazuje rozdzielczość interferometru radiowego VLA. Rozdzielczość e-EVN to 7 milisekund kątowych, jednak supernowa jest na tym etapie swojej ekspansji — ok. 3 tygodni od wybuchu — wciąż nierozdzielona przez VLBI. Mimo że odległość do galaktyki NGC 1058, w której wybuchła SN2007gr, wynosi wynosi 23 mln lat świetlnych, supernowa jest wykrywalna radiowo techniką e-VLBI na poziomie 5,6 sigma. (Autor: Zsolt Paragi, Joint Institute for VLBI in Europe)

Po trwającej parę lat serii testów e-EVN staje się już narzędziem rutynowo służącym nauce. Wyższość e-VLBI nad (nadal regularnie praktykowaną) klasyczną VLBI realizowaną w oparciu o transport dysków jawi się szczególnie dobrze w przypadku obiektów szybkozmiennych, jak np. gwiazdy supernowe, kiedy to możliwość szybkiego zaaranżowania obserwacji i krótki czas oczekiwania na wynik są kluczowe. Sztandarowym przykładem jest tu supernowa SN2007gr obserwowana przez e-EVN 6/7 września 2007 r., a więc po upływie mniej niż miesiąca od wybuchu, który nastąpił w galaktyce NGC 1058 między 10 a 15 sierpnia. (SN2007gr została odkryta 15.08.2007, podczas gdy na obrazach NGC 1058 z 10.08.2007 była jeszcze nieobecna.) Wynik obserwacji przy użyciu e-EVN przedstawia rys. 4 (patrz s. III kolorowej wkładki).

Na rok 2008 przewidziane są kolejne etapy rozwoju e-VLBI. Przede wszystkim do e-EVN dołączone zostaną dwa wielkie radioteleskopy: 305-m w Arecibo (Puerto Rico) i 100-m w Effelsbergu (Niemcy), co wydatnie powiększy czułość całej sieci. Z drugiej zaś strony oczekiwany jest znaczący skok rozdzielczości za sprawą przyłączenia teleskopu w Szanghaju. Tym samym wkrótce zostaną wyeliminowane dwie główne słabości e-EVN, które sprawiają, że technologii dyskowej nadal się używa, gdy zależy nam na uzyskiwaniu radiowych obrazów o najwyższej rozdzielczości i najlepszym możliwym stosunku sygnału do szumu. Gdy zaś prędkość łączy zostanie podniesiona do 10 Gb/s, nad czym obecnie pracujemy, e-EVN stanie się najlepszą realizacją techniki VLBI. Nie bez powodu zatem na 1 lutego 2008 r. ogłoszono już termin pierwszego naboru w konkursie projektów obserwacyjnych e-EVN, gdyż taka jest normalna droga starania się o dostęp do wszelkich unikalnych instrumentów obserwacyjnych współczesnej, profesjonalnej astronomii.

Na zakończenie wypada dodać, iż rozwój e-VLBI nie byłby możliwy bez znacznych nakładów finansowych. Głównym źródłem finansowania jest tu projekt EXPReS (Express Production Real-time e-VLBI Service), będący częścią Szóstego Programu Ramowego UE, realizowany w latach 2006–2009, w ramach którego jest przewidziane wsparcie w łącznej kwocie 12,4 mln euro, z czego 3,6 mln euro to dotacja UE. Wprojekcie EXPReS uczestniczy 19 instytutów z 14 krajów, w tej liczbie Centrum Astronomii UMK. Więcej informacji o projekcie EXPReS, a w konsekwencji o e-VLBI, można znaleźć: na http://www.expres-eu.org/papers.html.

Andrzej Marecki, dr hab. w Centrum Astronomii UMK. Interesuje się strukturą radioźródeł i ich klasyfikacją. Od lat uczestniczy w obserwacjach VLBI różnych obiektów i rozwoju tej techniki badań

(Źródło: „Urania — PA” nr 2/2008 )