Ortofotomapy

Ortofotomapa jest mapą, której treść przedstawiona jest obrazem fotograficznym. Jest to odpowiednio przetworzone zdjęcie lotnicze lub satelitarne powierzchni ziemi. Ortofotomapa jest produktem w pełni kartometrycznym, posiada walory fotografii oraz dodatkowo spełnia następujące warunki:

  • wykonana jest w odpowiednim układzie współrzędnych,
  • gwarantuje odpowiednią dla skali dokładność dobrze identyfikowalnych elementów treści,
  • zachowuje ustalony krój arkuszowy.

Obecnie wyróżniane są dwa rodzaje ortofotomapy: klasyczna ortofotomapa oraz prawdziwa ortofotomapa tzw. true ortho.

Ortofotomapa klasyczna jest mapą fotograficzną, na której obrazy obiektów położonych na powierzchni terenu są zrektyfikowane do położenia ortogonalnego. Powoduje to, że dla terenów zabudowanych lub porośniętych wysoką roślinnością jest nieczytelna. Wiele obszarów pozostaje niewidoczne, zakryte przez „położone” na nich budynki.

Ortofotomapa prawdziwa tzw. true ortho jest mapą fotograficzną, na której zarówno obiekty leżące na powierzchni terenu jak i te wystające ponad teren są zrektyfikowane do położenia ortogonalnego. W przypadku budynków zarówno ich przyziemie jak i krawędzie dachów przedstawione są w rzucie ortogonalnym. Dzięki temu nie występują tzw. martwe pola, czyli obszary zasłonięte przez inne (wyższe) obiekty. Każdy obiekt na ortofotomapie prawdziwej pokazany jest „z góry”, przysłonięte powierzchnie nie występują.

Różnice między klasyczną a prawdziwą ortofotomapą dobrze przedstawiają poniższe obrazy.
Na obrazy w drugim wierszu dodatkowo nałożono wektorową warstwę obrysów przyziemia budynków pochodzącą z ewidencji.

Fragment ortofotomapy klasycznej Fragment ortofotomapy prawdziwej
Źródło obrazów:
"True orthophoto generation" Morten Ødegaard Nielsen Kgs. Lyngby 2004

Źródło opisów:
Kurczyński Zdzisław, Lotnicze i satelitarne obrazowanie Ziemi, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2006, tom 1 i 2
Kurczyński Zdzisław, Preuss Ryszard, Podstawy fotogrametrii, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2011

Satelitarne zobrazowania optyczne

Satelitarne zobrazowania optyczne należą do grupy danych pozyskiwanych za pomocą tzw. sensorów pasywnych, które w procesie rejestracji wykorzystują energię elektromagnetyczną emitowaną przez Słońce.

Ortofotomapy satelitarne są źródłem obiektywnej i aktualnej informacji o rejestrowanym obszarze. Mogą być wykonane dla dowolnego fragmentu powierzchni Ziemi, niezależnie od dostępności terenu. Obraz satelitarny stanowi doskonałą dokumentację sytuacji lub zjawisk jakie zaszły na danym obszarze. Obrazowanie powierzchni Ziemi za pośrednictwem sensorów umieszczonych na satelitach jest także doskonałym narzędziem do monitorowania zmian zachodzących na powierzchni Ziemi poprzez tzw. analizę detekcji zmian. Obserwacji satelitarnej mogą podlegać tereny leśne, stan infrastruktury miejskiej, obszary katastrof ekologicznych lub humanitarnych. Dane pozyskiwane z pułapu satelitarnego coraz częściej wykorzystywane są w dziedzinie jaką jest planowanie przestrzenne będąc źródłem cennej informacji o procesach jakie zachodzą w obrębie tkanki miejskiej.

Najpowszechniejszym podziałem satelitarnych zobrazowań optycznych jest podział ze względu na rozdzielczość przestrzenną pojedynczego piksela obrazu. Klasyfikowane są one na trzy kategorie:

  • obrazy VHR (Very High Resolution) o bardzo wysokiej rozdzielczości przestrzennej (od 0.3 do 1 m)
    Obecnie na orbitach heliosynchronicznych znajduje się 9 satelitów tego typu. Nominalna rozdzielczość ortofotomap VHR odpowiada mapie topograficznej w skali 1: 2 000.

  • obrazy HR (High Resolution) o wysokiej rozdzielczości przestrzennej (od 1 do 10 m)
    Mają zastosowanie przede wszystkim do opracowań o charakterze regionalnym lub makroregionalnym. Rozdzielczość nominalna ortofotomap odpowiada mapom w skalach od 1: 5 000 do 1: 25 000.

  • obrazy MR (Medium Resolution) o średniej rozdzielczości przestrzennej (poniżej 10 m)
    Najbardziej popularne satelity tego typu to TERRA oraz Landsat – obydwa należą do amerykańskiej agencji kosmicznej NASA.

INFORMACJE O SATELITACH

SATELITY O BARDZO WYSOKIEJ ROZDZIELCZOŚCI PRZESTRZENNEJ


WorldView-1
Jeden z trzech satelitów konstelacji WorldView, należącej do firmy DigitalGlobe, realizującej kontrakt amerykańskiej Narodowej Agencji Wywiadu Geoprzestrzennego (NGA) pod nazwą NextView. Został wystrzelony dnia 18 września 2007 roku z Vandenberg w USA. Rozdzielczość 50 cm osiągana jest w nadirze, w trybie panchromatycznym (zakres 400-900 nm). Przy kącie odchylenia od nadiru równym 20° satelita obrazuje z rozdzielczością 55 cm. Głębia obrazu wynosi 11 bitów.

WorldView-2
Satelita WorldView-2 rejestruje obraz powierzchni Ziemi aż w 8 kanałach spektralnych. Został on wystrzelony dnia 8 września 2009 roku na orbitę heliosynchroniczną, na wysokość 770 km. Szerokość pasa skanowania wynosi 16,4 km, rozdzielczość radiometryczna to 11 bitów, a czas rewizyty nad danym obszarem wynosi niespełna 3,7 dnia. Rozdzielczość przestrzenna wynosi 46 cm dla kanału panchromatycznego i 1,85 m dla kanałów multispektralnych.

WorldView-3
Jest obecnie najbardziej zaawansowanym technologicznie multispektralnym sensorem VHR na rynku. Obrazy rejestrowane są w kanale panchromatycznym z rozdzielczością 31 cm, a w 8 kanalach multispektralnych z rozdzielczością 1,24 m. Dodatkowo zamontowano sensor rejestrujący 8 kanałów podczerwieni krótkofalowej z rozdzielczością przestrzenną 7,5 m. Jest to aktualnie najlepsze na rynku zobrazowanie tego typu. Dzięki niemu można dokładnie obserwować Ziemię również przez mgłę oraz dym. Zobrazowania SWIR mogą być z powodzeniem wykorzystywane w identyfikacji minerałów i kopalin, dogaszaniu wielkoobszarowych pożarów (detekcja źródeł ciepła) oraz rozróżnianu materiałów antropogenicznych. Satelita został wystrzelony na orbitę (na wysokosć 617 km) w dniu 13 sierpnia 2014 roku, jednak ze względu ma konieczność pokonania barier prawnych związanych z wysoką rozdzielczością zdjęć (30 cm) zobrazowania można kupować od lutego 2015 roku. Głębia obrazu dla kanałów PAN oraz MS to 11 bitów, dla SWIR 14 bitów.

QuickBird
Został umieszczony na orbicie okołoziemskiej dnia 18 października 2001 roku. Należący do firmy DigitalGlobe satelita QuickBird został zaprojektowany i zbudowany przez firmę Ball Aerospace & Technologies Corporation w Boulder (stan Colorado, USA). Wyposażony jest w dwa sensory: panchromatyczny i multispektralny, za pomocą którego wykonywane są zdjęcia w 4 zakresach widma. Zdjęcia panchromatyczne cechuje wysoka rozdzielczość przestrzenna wynosząca 0,61 m; zdjęcia w zakresie multispektralnym wykonywane są z rozdzielczością 2,44 m. Satelita odwzorowuje na jednym zdjęciu obszar o wymiarach 16,5×16,5 km. 27 stycznia 2015 roku satelita wszedł w atmosferę ziemską kończąc tym samym swoją trzynastoletnią misję. W dalszym ciągu jednak dostępne są zarejestrowane przez niego archiwalne zobrazowania.

GeoEye-1
Został wystrzelony i umieszczony na orbicie okołobiegunowej dnia 6 września 2008 roku. Centrum kontroli misji znajduje się w Dulles w stanie Virginia. Centrum wspomagają stacje naziemne umieszczone w Barrow (Alaska), Tromsø (Norwegia) i przy stacji antarktycznej Troll. Zapasową stacją naziemną jest Thornton. Sensory rejestrują obraz ziemski w 5 pasmach fal elektromagnetycznych z głębią 11 bitów/piksel. Obraz panchromatyczny jest rejestrowany z rozdzielczością 41 cm (w nadirze) a multispektralne do 1,65 m.

Pléiades 1A, Pléiades 1B
Satelity zostały wystrzelone odpowiednio 17 grudnia 2011 roku i 2 grudnia 2012 roku. Poruszają się one po orbitach heliosynchronicznych na wysokości 694 km. Odległość kątowa pomiędzy orbitą satelity Pléiades 1A a orbitą Pléiades 1B wynosi 180°. Takie rozwiązanie zapewnia czas rewizyty nad danym obszarem równy 1 dzień. Sensory rejestrują obraz w kanale panchromatycznym o rozdzielczości przestrzennej w nadirze 70 cm i w 4 kanałach spektralnych o rozdzielczości równej 2,8 m.

IKONOS
Jest jednym z satelitów należących do amerykańskiej agencji kosmicznej NASA. Został wystrzelony na orbitę 24 września 1999 roku z Vandenberg w USA. Był on pierwszym komercyjnym satelitą obrazującym powierzchnię Ziemi z rozdzielczością przestrzenną 0,8 metra w kanale panchromatycznym oraz 3,2 metra w zakresie wielospekralnym. IKONOS był w stanie wykonać zdjęcia tego samego terenu w okresie od 3 do 5 dni. Aby pojawić się znowu dokładnie w nadirze nad tym samym punktem potrzebował 144 dni. Poruszał się on po orbicie heliosynchronicznej. Zakończył on swoją misję w marcu 2015 roku pozostawiając po sobie bogatą bibliotekę zobrazowań archiwalnych.

EROS A i B (Earth Remote Observation Satellite)
System dwóch izraelskich satelitów, których właścicielem i operatorem jest spółka ImageSAT. W 2000 roku został wystrzelony pierwszy z nich – EROS A. Jest on kopią izraelskiego wojskowego systemu Ofeg 3. Pierwsze obrazy zostały opublikowane w 2001 roku. Jest to satelita bardzo lekki, o masie około 250 kg. System obrazuje tylko w zakresie panchromatycznym. W 2006 roku na orbicie został umieszczony drugi, podobny satelita - EROS B. Rozdzielczosć przestrznna z jaką rejestrowane są obrazy w nadirze to dla systemu EROS A - 2,1 m, a dla EROS B - 70 cm.

Kompsat-2
Satelita został wystrzelony 28 lipca 2006 i porusza się po orbicie heliosynchronicznej na wysokości 685 km. Kompsat-2 (znany także jako Arirang-2) został zbudowany w ramach projektu realizowanego przez Koreański Instytut Badań Kosmicznych (KARI). Wykonuje on obrazy w kanale panchromatycznym z rozdzielczością 1 m oraz czterech kanałach barwnych (Blue, Green, Red, Near Infrared) z rozdzielczością 4 m. Głębia obrazu wynosi 10 bitów na piksel.

Kompsat-3
Nazywany również Arirang-3. Należy do Koreańskiego Instytutu Badań Kosmicznych (KARI) i porusza się po orbicie heliosynchronicznej na wysokości 685 km. Misja satelity rozpoczęła się 17 maja 2012 roku, gdy został wystrzelony z Centrum Kosmicznego w Tanegashima w Japonii. Ma on rozdzielczość przestrzenną 0,7 m dla kanału panchromatycznego i 2,8 m w czterech kanałach barwnych (Blue, Green, Red, Near Infrared). Głębia obrazu to 14 bitów na piksel. Oferuje trzy tryby obrazowania: Strip Imaging, Multipoint Imaging oraz Single Pass Stereo Imaging.

Kompsat-3A
Kolejny z konstelacji stworzonej przez Koreański Instytut Badań Kosmicznych (KARI). Został wyniesiony na orbitę heliosynchroniczną się 25 marca 2015 roku i znajduje się na wysokości 528 km. Siostrzany satelita dla Kompsat-3 wyróżnia się większą rozdzielczością przestrzenną – 0,55 m dla kanału panchromatycznego i 2,2 m dla czterech kanałów wielospektralnych (Blue, Green, Red, Near Infrared) oraz możliwością rejestracji w dodatkowym kanale z zakresu średniej podczerwieni (MWIR - Mid Wavelength Infrared) o rozdzielczości 5,5 m. Według KARI wrażliwe na temperaturę zobrazowania w zakresie MWIR będą szczególnie przydatne do monitorowania pożarów lasów, aktywności wulkanicznej i katastrof naturalnych. Szerokość pasa obrazowania satelity to 12 km, a głębia obrazu 14 bitów na piksel.


SATELITY O WYSOKIEJ ROZDZIELCZOŚCI PRZESTRZENNEJ


RapidEye
Konstelacja pięciu satelitów wystrzelona w kosmos z kosmodromu Bajkonur w 2008 roku na wysokość 630 kilometrów. System RapidEye jest w stanie zebrać w ciągu dnia obrazy dla 5 milionów kilometrów kwadratowych o rozdzielczości 6,5 metra. System rejestruje obrazy wyłącznie w kanalach multispektralnych (Blue, Green, Red, Red Edge oraz Near-Infrared). Szerokość pasa rejestracji to 77 km, a głębia obrazu to 11 bitów/piksel. Czas rewizyty nad danym obszarem wynosi 1 dzień przy kącie odchylenia od nadiru zwykle mniejszym od 20°. Rewizyta w nadirze następuje co 5,5 dnia.

SPOT 6, SPOT 7
Jest to system dwóch satelitów wyniesionych na orbity heliosynchroniczne na wysokość 694 km. Odległość kątowa pomiędzy orbitami wynosi 180°, co zapewnia czas rewizyty od 1 do 3 dni. Spot 6 został wystrzelony na orbitę 9 września 2012 roku, a Spot 7 - 30 czerwca 2014 roku. Sensory rejestują obraz o głębi 12 bitów/piksel. Rozdzielczość przestrzenna obrazu zarejestrowanego w kanale panchromatycznym wynosi 1,5 m, obrazu wielospektralnego (Blue, Green, Red, Near Infrared) - 6 m. Szerokość pasa rejestracji to 60 km w nadirze.


SATELITY O ŚREDNIEJ ROZDZIELCZOŚCI PRZESTRZENNEJ

ASTER
Sensor ASTER powstał w wyniku współpracy amerykańskiej agencji kosmicznej NASA z japońskim Ministerstwem ds. Przemysłu i Handlu. Jest on jednym z pięciu zdalnych urządzeń sensorycznych zainstalowanych na pokładzie satelity TERRA. Wprowadzony został na orbitę okołoziemską przez NASA w 1999 roku, a dane zbierane są od lutego 2000 roku. Sensor ASTER dostarcza zobrazowania Ziemi w 14 kanałach widma elektromagnetycznego. Rozdzielczość terenowa piksela to: 15 m - zobrazowania wielospektralne (Green, Red, Near Infrared), 30 m - podczerwień krótkofalowa oraz 90 m - podczerwień termalna.

Landsat 7
Era satelitów z serii Landsat rozpoczęła się już w roku 1973. Landsat 7 został umieszczony na orbicie heliosynchronicznej, okołobiegunowej na wysokości 705 km dnia 15 kwietnia 1999 roku. Głównym instrumentem na pokładzie tego satelity jest skaner ETM+ (Enhanced Thematic Mapper Plus), który pozwala na rejestrację obrazów o rozdzielczości 15 m - obraz panchromatyczny, 30 m - obrazy wielospektralne oraz 60 m - podczerwień termalna.

Zobrazowania radarowe

Obrazy radarowe powstają w wyniku rejestracji fal radiowych odbitych od powierzchni Ziemi. Radar jest urządzeniem, które służy do wykrywania oraz określania położenia lub parametrów ruchu obiektów. Wykrywane są te obiekty, które mają zdolność odbijania fal elektromagnetycznych. Satelity radarowe należą do tzw. grupy sensorów aktywnych co oznacza, że źródłem emisji fali elektromagnetycznej jest antena zainstalowana na pokładzie statku kosmicznego. Antena generuje i transmituje własną energię. Systemy radarowe wykorzystują fale mikrofalowe o długości od 1 mm do 1 m. Zaletą tego rodzaju sensorów jest możliwość wykonywania pomiarów niezależnie od pory dnia (dzień i noc) oraz warunków atmosferycznych (możliwość przenikania fal radarowych przez pokrywę chmur oraz mgłę). Fale mikrofalowe mogą ponadto odbijać się od powierzchni wody, co dodatkowo zwiększa zastosowanie obrazów radarowych. Jakość pozyskiwanego obrazu zależy od szorstkości powierzchni, wilgotności gruntu i przenikalności elektrycznej. W celu uzyskania większej ilości informacji z danych radarowych oraz zwiększenia dokładności przestrzennej stosowana jest polaryzacja lub interferometria. Dzięki temu można wykrywać milimetrowe przemieszczenia np. wywołane ruchami górowtoru lub wstrząsami tektonicznymi. Satelity radarowe krążą wokół Ziemi w sposób ciągły. Rewizyta nad danym obszarem z reguły następuje co 11-30 dni. Możliwe jest zwiększenie rozdzielczości czasowej poprzez zastosowanie tzw. misji tandemowej.


Do głównych zastosowań obrazów radarowych należą:
  • tworzenie cyfrowych modeli terenu,
  • monitorowanie zagrożeń naturalnych takich jak osuwiska, powodzie, ruchy skorypy ziemskiej,
  • monitorowanie terenów, na których prowadzona jest intensywna eksploatacja górnicza, budowa tuneli i innych obiektów infrastruktury podziemnej,
  • monitorowanie środowiska morskiego, wycieku ropy naftowej, ruchu kry lodowej,
  • badania geologiczne,
  • różnego rodzaju badania naukowe.

SATELITY RADAROWE

TerraSAR-X (TSX)
TerraSAR-X to pierwszy niemiecki satelita wybudowany na zasadzie partnerstwa publiczno-prywatnego. Właścicielami TSX są: Niemiecka Agencja Kosmiczna, DLR oraz firma EADS Astrium. Statek został umieszczony na orbicie polarnej, heliosynchronicznej 15 czerwca 2007 roku, a jego rozdzielczość czasowa wynosi około 11 dni. TSX wykorzystuje do obserwacji radar o syntetycznej aparaturze z aktywną anteną (o wymiarach 4,8×0,8×0,15 m) i pracuje na częstotliwości 9,65 GHz (pasmo X, dł. fali 3,1 cm). W czerwcu 2010 roku do TSX dołączył bliźniaczy satelita TanDEM-X. Ich wzajemne położenie na orbicie w niewielkiej odległości od siebie pozwola na synchroniczną rejestrację w trybie interferometrycznym. Głównym celem misji TanDEM-X jest pozyskanie Numerycznego Modelu Terenu o niespotykanej wcześniej dokładności. Rozdzielczość obrazów z satelity TerraSAR-X wynosi od 1 do 40 m (w zależności od wybranego trybu rejestracji). Radar TSX może pracować w trzech głównych trybach:

  • punktowym (spotlight)- rozdzielczość piksela: 1-2 m; wielkość sceny: 10x10 km lub 5x10 km
  • pasmowym (stripmap)- rozdzielczość piksela: 3 m; wielkość sceny: 30x50 km
  • szerokim (scanSAR)- rozdzielczość piksela: 18 m; wielkość sceny: 100x150 km

COSMO-SkyMed (Constellation of small Satellites for Mediterranean basin Observation)
Włoska Agencja Kosmiczna i Włoskie Ministerstwo Obrony sfinansowało konstelację czterech cywilno-wojskowych satelitów radarowych. Pierwszy z nich został umieszczony na orbicie w czerwcu 2007 roku, a ostatni w listopadzie 2010 roku. Każdy spośród czterech wystrzelonych satelitów wyposażony jest w radar o syntetycznej aperturze (SAR) mogący obserwować powierzchnię Ziemi w każdych warunkach atmosferycznych. Pracują one w paśmie X (9,66 GHz). Satelity oferują różne tryby rejestracji z rozdzielczością przestrzenną od 1 m do 100 m. Satelity COSMO-SkyMed mają także możliwość rejestracji w trybie interferometrycznym. Obrazy wykonane przez satelity z tej konstelacji dają możliwość m.in. monitorowania klęsk żywiołowych, środowiska morskiego i przyrodniczego, obserwację kry lodowej i kształtu fal morskich oraz posiadają wiele przydatnych zastosowań wojskowych.

RADARSAT-2
Kanadyjska Agencja Kosmiczna 14 grudnia 2007 roku wystrzeliła na pokładzie statku Soyuz-FG satelitę Radarsat-2. Satelita posiada radiolokator SAR pracujący w kanale C (5,405 GHz). Szerokość obrazowania zawiera się w przedziale od 20 do 500 km, a rozdzielczość przestrzenna od 3 do 100 metrów. Radarsat-2 może odpowiednio dostosować rozdzielczość przestrzenną, obrazować teren pod różnymi kątami i wykorzystywać cztery warianty polaryzacji (HH, HV, VH, VV). Obrazy z tego satelity znajdują zastosowanie w wielu dziedzinach m.in. w rolnictwie, kartografii, hydrologii, leśnictwie, oceanografii i geologii. Dostarcza obrazów do badania lodu i monitoringu oceanów oraz wykrywania plam ropy naftowej na powierzchni mórz.

ERS-1, ERS-2 (European Remote-Sensing Satellite)
21 kwietnia 1995 roku Europejska Agencja Kosmiczna (ESA) umieściła na orbicie okołobiegunowej satelitę teledetekcyjnego ERS-2. Został on wystrzelony na pokładzie statku Ariane 4 z Gujańskiego Centrum Kosmicznego. Umieszczono go na tej samej płaszczyźnie orbity, na której 17 lipca 1991 umieszczono satelitę ERS-1 (pierwszego europejskiego satelitę teledetekcyjnego), co pozwoliło na utworzenie misji tandem: ERS-2 przelatywał nad tym samym punktem na Ziemi dokładnie jeden dzień później niż ERS-1. ERS-1 uległ awarii 10 marca 2000 roku i zakończył misję. Misja ERS-2 została zakończona 5 września 2011 roku. Nadal możliwe jest nabycie archiwalnych zdjęć pozyskanych w misji tandem przez oba satelity. ERS-1 i ERS-2 łącznie przez 20 lat zapewniały ciągły napływ danych do obserwacji środowiska naturalnego. Satelity obrazowały z częstotliwością 5,3 GHz kanału C oraz pojedynczą polaryzacją VV. Rozdzielczość przestrzenna wynosiła od 10 do 30 m.

Kompsat-5
Został wystrzelony na orbitę 22 sierpnia 2013 roku w ramach projektu prowadzonego przez Koreański Instytut Badań Kosmicznych (KARI). Podstawowym celem misji jest zapewnienie zobrazowań radarowych SAR dla systemów informacji geograficznej oraz monitorowanie katastrof naturalnych. Obrazy mogą być rejestrowane w kilku różnych trybach - trzy podstawowe to: High Resolution Mode z rozdzielczością 1 m i szerokością pasa obrazowania 5 km, Standard Mode z rozdzielczością 3 m i szerokością pasa obrazowania 30 km oraz Wide Swath Mode z rozdzielczością 20 m i szerokością pasa obrazowania 100 km. Satelita wykorzystuje cztery tryby polaryzacji – HH, VV, HV i VH. Kompsat-5 (Arirang-5) pracuje na częstotliwości 9,66 GHz pasma X.

Termowizja

Termowizja (termografia) jest procesem rejestracji emitowanego przez obiekty promieniowania cieplnego, a dokładniej - promieniowania podczerwonego. Działanie termowizji opiera się na prawie Plancka. Prawo to podaje zależność zdolności emisyjnej ciała doskonale czarnego od częstotliwości fali lub długości fali i temperatury. Umożliwia to przekształcenie promieniowania na obraz widzialny oraz przedstawienie graficzne temperatury w postaci barwnego termogramu. Każdy obiekt, którego temperatura jest wyższa od zera bezwzględnego emituje fale elektromagetyczne i może być zarejestrowane.

Metoda termowizyjna należy do metod teledetekcyjnych, jest bezkontaktową metodą badawczą. Umożliwia ona detekcję, rejestrację oraz wizualizację rozkładu tempetatury na powierzchni badanych obiektów.

Teledetekcja

Teledetekcja jest procesem zdalnego pozyskiwania informacji o obiektach lub zjawiskach. Takie pozyskiwanie informacji oznacza, że badany obiekt i rejestrujący go sensor nie wchodzą ze sobą w bezpośredni kontakt. Teledetekcja lotnicza i satelitarna koncentrują sie przede wszystkim na rejestracji powierzchni ziemi w mniejszej bądź większej skali oraz badaniu obiektów znajdujących się na powierzchni terenu. Teledetekcja dostarcza informacji na temat cech jakościowych oraz pośrednio cech ilościowych badanego obszaru. Sensory teledetekcyjne jako nośnik informacji o badanym obiekcie wykorzystują promieniowanie elektromagnetyczne. Zakres widma promieniowania elektromagnetycznego wykorzystywanego w teledetekcji rozpoczyna się od pasma promieniowania widzialnego (wykorzystywanego głównie przez kamery fotogrametryczne i skanery), poprzez bliską, średnią i termalną podczerwień aż do zakresu promieniowania mikrofalowego (wykorzystywanego przez radary). Sensory teledetekcyjne można podzielić na: sensory pasywne - rejestrujące promieniowanie pochodzące od istniejących w środowisku źródeł energii np. Słońca oraz sensory aktywne - emitujące własną energię, która jest wysyłana, następnie odbijana od badanego obiektu i powraca z powrotem do sensora.

Ta strona używa plików cookie w celu usprawnienia i ułatwienia dostępu do serwisu oraz prowadzenia danych statystycznych. Dalsze korzystanie z tej witryny oznacza akceptację Polityki prywatności.
   ROZUMIEM