Problemy Geoinformacji (Geoinformation Issues) tom 3, zeszyt 1, 2011

Strony redakcyjne, spis treści, lista recenzentów

strony redakcyjne, spis treści, lista recenzentów do pobrania



Walyeldeen Godah, Jan Kryński

Ocena jakości na obszarze Polski modeli pola siły ciężkości opracowanych na podstawie danych z misji GOCE przy użyciu modelu EGM2008 i danych satelitarno-niwelacyjnych

DOI: 10.34867/gi.2011.1

Streszczenie. Od połowy 2010 roku są udostępnione globalne modele geopotencjału opracowane na podstawie danych z misji GOCE. Pierwsze dwie generacje modeli geopotencjału z misji GOCE zawierały cztery różne rozwiązania podczas gdy trzecia – składała się zaledwie z dwóch rozwiązań. Jakość dostępnych modeli pola siły ciężkości z misji GOCE została w niniejszym opracowaniu oceniona w wyniku porównania obliczonych z nich anomalii wysokości i anomalii grawimetrycznych z odpowiednimi funkcjonałami obliczonymi z modelu geopotencjału EGM2008 oraz z anomaliami wysokości 184 stacji precyzyjnego satelitarno-niwelacyjnego trawersu kontrolnego.
Odchylenia standardowe różnic anomalii wysokości i anomalii grawimetrycznych pomiędzy uzyskanymi z opracowanych na podstawie danych z misji GOCE modeli geopotencjału i z modelu EGM2008 wynoszą odpowiednio 10 cm i 3 mGal. Dopasowanie modeli geopotencjału z misji GOCE do anomalii wysokości satelitarno-niwelacyjnego trawersu kontrolnego kształtuje się również na poziomie 10 cm. Uzyskane wyniki wskazują na poprawę w kolejnych generacjach modeli geopotencjału z misji GOCE.

artykuł do pobrania


Elżbieta Welker

Wpływ krótkookresowych zmian pola magnetycznego Ziemi na dokładność opracowania magnetycznych obserwacji w Polsce

DOI: 10.34867/gi.2011.2

Streszczenie. Wobec wzrostu dokładności pomiarów magnetycznych pojawia się konieczność zbadania wpływu rozkładu wariacji pola geomagnetycznego na terenie Polski na wyniki ich opracowania. W latach 60. ubiegłego wieku na terenie Polski rozmieszczono kilkanaście stacji wariografi cznych, rejestrujących w sposób analogowy zmiany składowych: D (deklinacji magnetycznej), H (składowej poziomej) i Z (składowej pionowej) wektora natężenia pola geomagnetycznego. Opracowane wówczas wyniki graficznych rejestracji, jak i próba ich opracowania podjęta obecnie (na podstawie archiwalnych zasobów IGiK) nie dały satysfakcjonujących, z punktu widzenia geodezji, wyników. Wartości zmian amplitud składowych pola geomagnetycznego lub przesunięcia rejestracji w czasie były mniejsze niż błędy samego opracowania.
Obecnie na stacjach polowych można przeprowadzać rejestruję zmian pola geomagnetycznego z większą częstotliwością i dużo większą dokładnością. W latach 2010 – 2011 na terenie Polski rozlokowano 15 nowych stacji polowych, które w sposób ciągły rejestrowały zmiany pola geomagnetycznego w okresie minimum 3 – 4 miesięcy. Dane te wykorzystano do opracowania rozkładu amplitud zmian deklinacji magnetycznej oraz do wyznaczenia przesunięć czasowych (związanych z efektem solarnym) między rejestracjami. Zebrany materiał z obserwatoriów magnetycznych Polski i z wybranych obserwatoriów Europy (głównie z krajów sąsiednich) pozwolił na podobne opracowanie zmian amplitud rejestrowanych składowych natężenia pola geomagnetycznego X, Y i Z oraz przesunięcia czasowego między zapisami w poszczególnych obserwatoriach.
Wszystkie dane opracowane zostały w sposób klasyczny – jako średnie wartości dobowe – i przy wykorzystaniu transformaty Fouriera. Opracowanie ciągu milionowych danych magnetycznych z lat 2008–2011 pozwoliło na dokładniejsze wyznaczenie cykli zmian poszczególnych składowych wektora natężenia pola geomagnetycznego, wartości zmian ich amplitud na przestrzeni kilku lat oraz przesunięcia obserwatoryjnych magnetogramów względem magnetogramów z Belska (Centralne Obserwatorium Geofi zyczne PAN). Zakres zmian amplitud składowych pola geomagnetycznego jest niespodziewanie mały; wynosi on zaledwie ±2 – 3 nT i jest on na poziomie błędu opracowania danych. Wyniki opracowania danych obserwatoryjnych i polowych jednoznacznie wskazują na przypadkowy charakter zmian amplitud składowych pola geomagnetycznego na terenie Polski. Ich rozkład zależy od danych przyjętych do analizy: roku opracowania, pory roku, wybranego przedziału czasowego itp.
Obraz przesunięć czasowych rejestracji magnetycznych dla Polski jest systematyczny, a poprawki czasowe mieszczą się w przedziale od +6 minut dla pomiarów na granicy wschodniej do –15 minut dla pomiarów na granicy zachodniej.
Testowe opracowanie wyników polowych pomiarów magnetycznych z wybranych punktów wiekowych z lat 2009–2011 wykazało, że nieuwzględnienie poprawek czasowych może spowodować różnice w wynikach końcowych mniejsze od błędów samych pomiarów. Pomiary magnetyczne wykonane na terenie Polski można, bez utraty dokładności, redukować do polskiego centralnego obserwatorium w Belsku. Pomiary wykonywane blisko granic powinno się redukować do najbliższego obserwatorium magnetycznego kraju sąsiedniego.

artykuł do pobrania


Jan Ziobro

Zintegrowana orientacja sensorów – fotopunkty dla dużych bloków aerotriangulacji

DOI: 10.34867/gi.2011.3

Streszczenie. W artykule opisano badania dotyczące liczby i rozmieszczenia fotopunktów dla dużych bloków aerotriangulacji z wykorzystaniem technologii zintegrowanej orientacji sensorów Integrated Sensor Orientation (ISO). Badania przeprowadzono na drodze symulacji aerotriangulacji. Symulacje wykonano dla 5 typów bloków zdjęć spotykanych w kraju oraz dla dwóch poziomów precyzji pomiarów wyznaczonych na podstawie wcześniej wykonanych badań 19 dużych bloków wykonanych w kraju w latach 2008–2010.
Użyteczność opracowanych reguł projektowania fotopunktów sprawdzono w rzeczywistych aerotriangulacjach 10 dużych bloków zdjęć. W badaniach odniesiono się do dokładności wymaganych przez krajowe instrukcje, do homogeniczności uzyskiwanych wyników, jak również do niezawodności pomiarów.
Wyniki badań określają wystarczającą osnowę dla aerotriangulacji dużych prostokątnych bloków i trójszeregowego bloku wstęgowego. Wymagana liczba fotopunktów dla bloków prostokątnych określona liczbą zdjęć przypadających na jeden fotopunkt wynosi 40÷150, a dla bloku wstęgowego 24÷45, przy czym liczba ta jest zależna od poziomu precyzji pomiarów i od kształtu bloku.

artykuł do pobrania


Bartłomiej Kraszewski

Kalibracja lustrzanki cyfrowej Nikon D3X dla celów fotogrametrycznych opracowań cyfrowych

DOI: 10.34867/gi.2011.4

Streszczenie. W artykule przedstawiono wyniki badań nad kalibracją wysokorozdzielczej lustrzanki cyfrowej Nikon D3X. Badania obejmowały określenie stabilności rejestrowanych na matrycy obrazów cyfrowych, wyznaczenie odległości obrazowej, punktu głównego zdjęcia, dystorsji radialnej, dystorsji tangencjalnej oraz przetestowanie uzyskanych parametrów orientacji wewnętrznej kamery na projekcie testowym. Wszystkie etapy prac przeprowadzono wykorzystując trzy wymienne obiektywy Nikkor o ogniskowych 24, 35 i 50 mm. Proces kalibracji kamery wykonano z zastosowaniem zbieżnych zobrazowań naziemnych w oprogramowaniu PhotoModeler oraz pojedynczej sceny w module programu Aerosys. Do określenia elementów orientacji wewnętrznej aparatu z poszczególnymi obiektywami wykorzystano pole testowe płaskie oraz przestrzenne. Stabilność i powtarzalności rejestracji obrazów na matrycy sprawdzono na 25 rozmieszczonych równomiernie punktach. Uzyskane wyniki to przeciętnie: dla ogniskowej 24 mm – 0.06 piksela, 35 mm – 0.08 piksela, 50 mm – 0.04 piksela. Kalibrację wykonano wykorzystując moduły Camera Calibration i Field Calibration oprogramowania PhotoModeler oraz moduł DLT programu Aerosys. Najdokładniej dla wszystkich obiektywów opracowano przykładowy projekt fotogrametryczny, stosując elementy orientacji wewnętrznej testowanej lustrzanki, wyznaczone na podstawie zdjęć zbieżnych testu trójwymiarowego.

artykuł do pobrania


Agata Ciołkosz-Styk, Adam Styk

Zastosowanie metody cyfrowego przetwarzania obrazów do wyznaczania gęstości graficznej opracowań kartograficznych na przykładzie planów miast

DOI: 10.34867/gi.2011.5

Streszczenie. Przez wieki głównym problemem przy opracowaniu map było uzyskanie wystarczających i wiarygodnych danych źródłowych, natomiast obecnie problemem stał się odpowiedni wybór pożądanej informacji z zalewu dostępnych danych. Dostępność dużej ilości danych skłania do przekazania za pomocą mapy możliwie bogatej informacji. Skutkuje to często przeładowaniem opracowań kartografi cznych, przez co stają się one mało komunikatywne i trudne w odbiorze. Tę sytuację dobrze ilustruje przykład planów miast, które należą do najczęściej wykorzystywanych, a przez to również najczęściej wydawanych publikacji kartograficznych. Z tych wysokonakładowych opracowań korzysta wiele grup użytkowników o zróżnicowanych potrzebach i przygotowaniu do czytania map, dlatego też problem efektywności przekazu informacji za ich pośrednictwem jest szczególnie istotny.
Plany miast należą do najbardziej złożonych prezentacji kartografi cznych, ponieważ obszary, które prezentują są miejscami największej koncentracji różnego rodzaju obiektów i form działalności człowieka, wynikających z rozwoju cywilizacji. Oddanie tej specyfi ki na planie miasta stawia problem wyboru najbardziej istotnych z punktu widzenia potrzeb użytkownika elementów treści, bowiem przedstawienie wszystkich obiektów i ich charakterystyk jest niemożliwe, jeżeli ma być zachowana czytelność planu.
Chociaż złożoność od wielu lat jest przedmiotem zainteresowania kartografów, ponieważ wywiera wpływ na czytelność i efektywność opracowań kartografi cznych, to jednak żadna z dotychczas stosowanych w kartografi i miar złożoności nie pozwala na jej automatyczne określanie w przypadku tak grafi cznie skomplikowanych opracowań jak plany miast. Konieczne było więc zaproponowanie nowej metody, pozwalającej na wyznaczanie złożoności grafi cznej tych opracowań. W tym celu zastosowane zostały techniki cyfrowego przetwarzania obrazów. Zaproponowana metoda zapewnia porównywalność map, obciążonych różnymi elementami (sygnaturami punktowymi, liniowymi, napisami etc.). Na podstawie analizy wybranych materiałów kartografi cznych można stwierdzić, iż metoda ta pozwala na ilościową ocenę obciążenia grafi cznego planów miast przy pomocy sformalizowanego wskaźnika.

artykuł do pobrania


Andrzej Ciołkosz

Kartowanie zmian użytkowania ziemi z wykorzystaniem satelitarnych obserwacji Ziemi

DOI: 10.34867/gi.2011.6

Streszczenie. Kartowanie użytkowania ziemi na potrzeby odbudowy kraju było jednym z głównych zadań Głównego Urzędu Pomiarów Kraju utworzonego po drugiej wojnie światowej. Mimo dużego zapotrzebowania na taką mapę przez gospodarkę narodową i wielu prób jej opracowania dotychczas nie udało się jej wykonać. Głównym powodem był brak odpowiednich materiałów źródłowych oraz wysoki koszt prac terenowych. Sytuacja uległa zmianie z chwilą wystrzelenia satelity Landsat. Zdjęcia wykonywane przez tego satelitę zostały wykorzystane do opracowania mapy użytkowania ziemi obejmującej obszar całego kraju. Zostały one także wykorzystanie do opracowania baz danych zawierających informacje o pokryciu terenu w ramach trzech projektów CORINE Land Cover (CLC) 1990, 2000 i 2006. Porównanie tych baz pozwoliło na analizę zmian użytkowania ziemi jakie zaszły w okresie 16 lat. Zmiany te okazały się stosunkowo nieduże, dalekie poniżej oczekiwań.
Baza danych CLC-2000 została porównana z mapą użytkowania ziemi opracowaną na podstawie map topograficznych z lat 30 ubiegłego wieku. Porównanie to wykazało zmiany jakie zaszły w ciągu niemal 80 lat w Polsce. Objęły one obszar stanowiący niemal 10% powierzchni kraju. Zmiany te odzwierciedliły zniszczenia wojenne, powojenny rozwój kraju, jak również wykazały skutki klęsk ekologicznych, które wystąpiły w Polsce w ostatnich latach.
Zdjęcia wykonane przez satelitę Landsat zostały także wykorzystane do badania zniszczeń lasów w Sudetach. Kilka stopni uszkodzeń drzewostanów świerkowych rozpoznano na podstawie tych zdjęć. Były one także wykorzystane do badania wpływu kopalni odkrywkowej węgla brunatnego powstanie leja depresyjnego jak również do określenia rozwoju zabudowy w Warszawie w ciągu ostatnich 80 lat.

  artykuł do pobrania


Katarzyna Dąbrowska-Zielińska, Andrzej Ciołkosz, Alicja Malińska, Maciej Bartold

Monitoring suszy rolniczej w Polsce na podstawie danych pozyskiwanych za pomocą satelitów środowiskowych

DOI: 10.34867/gi.2011.7

Streszczenie. W Polsce obserwuje się brak dostatecznej ilości opadów w okresie wzrostu roślin. Prowadzi to do wystąpienia suszy rolniczej i w konsekwencji spadku plonów. Do wczesnego wykrywania suszy zostały wykorzystane zdjęcia satelitarne wykonane przez satelity środowiskowe i meteorologiczne. Na podstawie tych zdjęć określono różne wskaźniki roślinne, takie jak NDVI, VCI i TCI, charakteryzujące kondycję i wigor roślin. Analiza zmian tych wskaźników pozwala na wnioskowanie o wystąpieniu zjawiska suszy, jej zasięgu oraz natężenia. Wskaźniki wegetacyjne zostały również wykorzystane w modelu prognozy plonów zbóż. Wyniki modelowania wykazują dużą zgodność z wynikami opublikowanymi przez GUS. Opracowany model szacowania redukcji plonów upraw z powodu suszy dostarcza informacji umożliwiających przedsięwzięcie działań na rzecz łagodzenia skutków suszy i zapobieżeniu redukcji plonów poprzez np. sztuczne nawadnianie.

  artykuł do pobrania