GIS (ang. Geographic Information System, GIS) to System informacji geograficznej.

Co zawiera ten system?

Jest rodzajem bazy danych zawierającym dane geograficzne, połączonym z programami do zarządzania, analizy i obrazowania tych danych.

Taki system może również zawierać użytkowników, pracowników, procedury, specjalistyczną wiedze oraz instytucje.

GIS jest również popularną nazwą na inne rzeczy związane z tymi systemami, np. zawody czy przemysł. Jest niemal synonimem geoinformatyki i częścią szerszej dziedziny jaką jest geoinformacja, w skład której wchodzi GPS, teledetekcja itp.

Kolejnym rozwinięciem skrótu GIS może być geograficzna nauka informacyjna (ang. geographic information science), jednak ona jest częściej określana skrótowo jako GIScience. Jest to dziedzina akademicka zajmująca się badaniem tych systemów i podlegającym im zasad geograficznych. GIScience jest często określana jako gałąź geografii.

GIS jest obsługiwany przez wiele różnych technologii, procesów, technik i metod. Wiąże się to z różnymi programami służącymi do planowania, inżynierii, zarządzania, transportu, ubezpieczeń, telekomunikacji oraz prowadzenia biznesu. Dlatego właśnie GIS i dane lokalizacyjne są fundamentem usług polegających na analizie geograficznej oraz wizualizacji.

GIS nadaje znaczenie poprzednio niezwiązanym ze sobą informacjom, poprzez użycie lokalizacji jako „głównego czynnika zmiennego”. Każde miejsce w ziemskiej czasoprzestrzeni da się zapisać w formie daty, godziny oraz współrzędnych - przestrzennych i wysokościowych. Wszystkie zapisy powinny być ze sobą zgodne oraz odnosić się do prawdziwej lokalizacji.

Ta unikalna właściwość GISu otworzyła drogę nowym dziedzinom studiów i nauki.

 

Spis treści:

 

 

Historia i rozwój GIS

Mimo że cyfrowy rozwój GISu datuje się na połowę lat ’60, od kiedy Roger Tomlinson użył określenia „system informacji geograficznej”, wiele metod czy konceptów geograficznych zautomatyzowanych przez GIS sięga dekad wcześniej.

Jeden z pierwszych znanych przypadków analizy przestrzennej pochodzi z dziedziny epidemiologii, a konkretniej z "Rapport sur la marche et les effets du choléra dans Paris et le département de la Seine" (1832). Francuski geograf i kartograf, Charles Picquet, stworzył mapę 48 dystryktów Paryża, za pomocą kolorowych rastrów. Dzięki temu przedstawił obrazowo liczbę oficjalnych zgonów spowodowanych przez cholerę na 1000 mieszkańców.

W 1854 r. John Snow, epidemiolog i lekarz, zdołał określić przyczynę wybuchu cholery w Londynie poprzez analizę danych przestrzennych. Osiągnął to poprzez porównanie miejsca zamieszkania każdej ofiary na mapie, razem z lokacjami pobliskich źródeł wody pitnej. Kiedy już to zaznaczył, był w stanie określić które źródło wody odpowiada za ten wybuch. To jeden z pierwszych przypadków skutecznego użycia metodologii geograficznej przy lokalizowaniu centrum epidemii. Mimo że podstawowe elementy topografii istniały już wcześniej w kartografii, mapa Johna Snowa była unikalna, z powodu technik jakich użył do przeanalizowania danych geograficznych.

Na początku XX wieku rozwijała się fotocynkografia, która pozwalała na dzielenie mapy na warstwy np. warstwa wegetacji roślin i warstwa wody. Używane to było głównie przy drukowaniu konturów, gdyż rysowanie tego ręcznie było męczącą pracą, a osobne warstwy usprawniały prace minimalizując ryzyko pomyłki. Na początku używano szklanych płytek, jednak z czasem zastąpiono je plastikowymi kliszami, które były lżejsze, zużywały mniej miejsca i były mniej podatne na zniszczenie. Kiedy już wszystkie warstwy zostały ukończone, łączono je w jeden obraz za pomocą specjalnego aparatu. Kiedy na rynek weszło drukowanie w kolorze, ponownie wykorzystano pomysł warstw. Mimo że wiele lat później warstwy stały się podstawową cechą współczesnego oprogramowania GIS, opisany proces fotograficzny nie jest zaliczany jako GIS, dlatego że mapy były jedynie obrazami, bez przypisanych wartości.

We wczesnych latach GISu pojawiły się również dwa dodatkowe czynniki które wprowadziły coś nowego do tego zagadnienia: „Design with Nature” Iana McHarga, i jego metoda nakładania mapy oraz wprowadzenie ulicznych sieci do systemu DIME (ang. Dual Independent Map Encoding) w U.S. Census Bureau.

Pierwsza publikacja opisująca użycie komputerów w kartografii powstała z rąk Waldo Toblera w 1959 r. Późniejszy rozwój sprzętu komputerowego spowodowany przez badania nuklearne, doprowadził do powstawania programów ogólnego zastosowania mapy na początku lat ’60.

W roku 1960 w Ottawie, powstał pierwszy w pełni funkcjonalny GIS, stworzony przez krajowy Departament Leśnictwa i Rozwoju Wiejskiego. Twórcą był dr. Roger Tomlinson i nazwał go Canada Geographic Information System (CGIS), a jego celem było przechowywanie, analizowanie i przetwarzane danych zebranych przez Canada Land Inventory. CGIS określał możliwości wykorzystania ziemi na terenach wiejskich poprzez nakładanie na siebie informacji o ziemi, rolnictwie, rozrywce, faunie, zalesieniu, nawodnieniu i terenie w skali 1:50000. Wystawiano także ocenę w celu dokładniejszej analizy.

CGIS był usprawnieniem „komputerowego mapowania”, ponieważ dostarczał możliwości przechowywania danych, nakładania na siebie warstw, mierzenia oraz cyfryzacji/skanowania. Współpracował z narodowym systemem współrzędnych, kodował linie w formie łuków co wyraźnie usprawniło topologie oraz przechowywał właściwości i lokalizacje w osobnych plikach. W rezultacie, Tomlinson został ochrzczony Ojcem GIS, głównie ze względu na promowanie warstw w przestrzennej analizie danych geograficznych. CGIS dotrwał do lat ’90 i zbudował obszerną bazę danych dotyczącą zasobów ziemskich Kanady. Powstawał jako system mainframe, który miał wspierać narodowe i prowincjonalne narzędzia do zarządzania i planowania. Jego zaletą była szeroka na cały kontynent baza danych i jej wnikliwa analiza.

W 1964 r. Howard T. Fisher otworzył Laboratory of Computer Graphics and Spatial Analysis w Harvard Graduate School of Design, gdzie stworzono wiele ważnych fundamentów w zarządzaniu przestrzennym, a które w ciągu kilku lat zawojowały uniwersytety, ośrodki badawcze i korporacje poprzez takie systemy jak SYMAP, GRID, ODYSSEY. Te programy były pierwszymi przykładami aplikacji GIS nie stworzonymi w określonym celu, i na ich podstawie powstały programy komercyjne takie jak Esri ARC/INFO w 1983 r.

Do późnych lat ’70 rozwijano dwie publiczne domeny GIS – MOSS i GRASS GIS, a na początku lat ’80 M&S Computing wraz z Bentley Systems Incorporated, Environmental Systems Research Institute (ESRI), Computer Aided Resource Information System (CARIS) oraz Earth Resource Data Analysis System (ERDAS) rozpoczęli sprzedaż komercyjną swojego rozwiązania GIS, bazując się na funkcjach CGIS i łącząc zalety opisywania warstw oraz przydzielania danych do odpowiednich struktur.

W 1986 r. został wypuszczony pierwszy produkt GIS na systemach DOS – Mapping Display and Analysis System (MIDAS). W 1990 zmieniono go na MapInfo gdy został zaimportowany na platformę Miscrosoftu. To rozpoczęło proces komercjalizacji GIS.

Z końcem XX wieku, gwałtowny wzrost zainteresowania różnymi systemami doprowadził do standaryzacji kilku platform, a użytkownicy zaczęli odkrywać GIS przez internet. Później rosnąca liczba darmowych pakietów open-source pozwoliła na dostosowanie ich do konkretnych potrzeb. Wielkim trendem XXI wieku stało się integrowanie możliwości GIS z infrastrukturą internetu, poprzez dane zależne, chmury obliczeniowe, oprogramowanie-usługi oraz obliczenia mobilne.

 

Oprogramowanie GIS

Należy rozróżnić pojedynczy system informacji geograficznej, który jest pojedynczym programem stworzonym w jednym konkretnym celu oraz oprogramowanie GIS - program użytku ogólnego do stosowania w wielu różnych systemach geograficznych różnych aplikacji. Od późnych lat ’70 wiele programów robiono właśnie pod GIS. ArcGIS wydany przez Esri jest obecnie liderem rynku GIS. Jest także Autodesk, MapInfo Proffessional oraz programy open-source takie jak QGIS, GRASS GIS, MapGuide, i Hadoop-GIS. Te i inne programy zawierają masę funkcji do wprowadzania, zarządzania, analizowania i wizualizowania danych geograficznych.

Pod koniec lat ’90 wraz z rozwojem internetu rozwinęła się technologia sieciowa, i infrastruktura GIS zaczęła się przenosić na serwery. Przyczyniły się do tego samodzielne programy instalowane na serwerze, podobne do oprogramowania HTTP, które pozwalały na dostęp do oprogramowania GIS bez potrzeby instalowania specjalistycznego programu. Rozwijano to poprzez platformy GIS umieszczane w chmurze jak np. ArcGIS Online albo oprogramowanie jako usługi (ang. software as a service – SAAS). Używanie środowiska GIS w internecie nosi nazwę Internet GIS.

Alternatywnym podejściem jest łączenie części albo wszystkich możliwości w innych programach lub technikach informacyjnych. Przykładem może być rozszerzenie przestrzenne do oprogramowania z bazą danych, które definiuje typy geometrii w taki sposób, że dane przestrzenne mogą być przechowywane w tabelkach odnośnikowych i rozszerzeniach do SQL dla analiz przestrzennych. Kolejnym przykładem jest proliferacja bibliotek geoprzestrzennych i zastosowanie ich w interfejsie aplikacji oraz rozszerzenie języków programowania w celu przyjęcia danych GIS, a następnie przetworzenie ich na własne oprogramowanie takie jak wykorzystujące lokalizacje aplikacje smartfonowe.

 

Zarządzanie danymi geoprzestrzennymi

Źródłem każdego GISu jest baza danych, zawierająca wartości geograficzne, modelowanie terenu oraz właściwości i atrybuty. Taka baza danych może być przechowywana na wiele sposobów, np. jako zbiór plików danych. Zbieranie i zarządzanie tymi danymi zazwyczaj pochłania dużą część czasu i zasobów finansowych projektu, znacznie więcej niż np. mapowanie czy analiza.

 

Aspekty danych geograficznych

GIS wykorzystuje lokalizacje czasoprzestrzenne jako kluczową wartość zmienną dla pozostałych danych. Tak jak zależna baza danych zawierająca tekst i liczby przetwarza wiele różnych arkuszy używając popularne kluczowe zmienne, tak GIS odnosi się do zwykle nie powiązanych informacji za pomocą lokalizacji jako głównego czynnika zmiennego. Kluczem jest lokalizacja w czasie i przestrzeni.

Dowolna zmienna, którą da się umieścić przestrzennie i czasowo może zostać użyta przez GIS. Lokacja i wymiar w ziemskiej czasoprzestrzeni mogą zostać opisane poprzez daty występowania, koordynaty X Y i Z, oznaczające kolejno długość, szerokość i wysokość. Te właśnie lokalizacje GIS mogą przedstawiać inne odnośniki czasowo-przestrzenne (np. klatka filmu, słupek na autostradzie, adres, skrzyżowanie, brama wejściowa). Jednostki zapisanych danych mogą się różnić, jednak wszystkie odniesienia do Ziemi i lokalizacji na niej powinny się odnosić do siebie oraz prowadzić do prawdziwego miejsca lub momentu w czasie.

Dokładne dane przestrzenne, zawierające masę różnych wartości mogą być analizowane, interpretowane oraz przedstawiane. Ta kluczowa cecha GISu otworzyła ścieżki nowym rodzajom badań naukowych w kategorii zachowań i wzorców informacji świata, które do tej pory nie były systematycznie powiązywane.

 

Modelowanie danych GIS

Dane GIS reprezentują zjawiska z naszego świata, tak jak np. drogi, drzewa, zagospodarowanie ziemi czy województwa. Najbardziej popularne zjawiska, które przedstawia się danymi można podzielić na 2 rodzaje: fizyczne przedmioty (np. dom, droga) oraz zjawiska czasowe (np. zaludnienie, poziom opadów deszczu). Są jeszcze inne fenomeny geograficzne jak np. wydarzenia czy procesy, ale są wykorzystywane przez analizy procedur a nie danych.

Są 2 główne metody przechowywania danych GIS w odniesieniu do map: rastrowe i wektorowe. Punkty, linie i poligony reprezentują dane wektorowe punktów odniesienia do lokacji.

Nową, hybrydową metodą przechowywania danych jest ta, polegająca na identyfikacji punktów, a następnie połącznie ich trójwymiarowej lokalizacji z kolorami, tworząc swego rodzaju obraz 3D.

 

Pozyskiwanie danych GIS

Pozyskiwanie danych GIS sprowadza się do 3 metod zbierania informacji przestrzennych: głównej, polegającej na bezpośrednim mierzeniu zjawiska w jego lokalizacji, drugiej, czyli pozyskiwaniu informacji z źródeł innych niż GIS takich jak np. papierowe mapy oraz transferu danych ze źródeł zewnętrznych np. agencji rządowych. Wszystkie te metody kosztują czas, pieniądze i inne zasoby.

 

Główna metoda zbierania danych

Pomiar może być wprowadzony bezpośrednio do GIS poprzez systemy cyfrowego zbierania danych, za pomocą narzędzi oraz technologii analitycznej. Można pozyskać lokalizacje np. z GPS i następnie wprowadzić do GISu. Obecnie technologia pozyskiwania danych pozwala użytkownikom na pracę w terenie za pomocą internetu albo sesji offline. Aktualnie popularyzuje się wykorzystywanie aplikacji na smartfony. Przyczyniła się do tego dostępność tanich rozwiązań GPS z dokładnością do decymetra w czasie bieżącym. Eliminuje to potrzebę obrabiania danych w biurze po pracy w terenie. Nowe technologie pozwalają na tworzenie map oraz analizę bezpośrednio na miejscu, sprawiając że praca z mapami jest znacznie wydajniejsza.

Teledetekcja działająca na zadzie sensorów podłączonych do platformy również jest bardzo ważna. Sensory te mają wbudowaną kamerę, skanery cyfrowe oraz lidar, natomiast platformy składają się ze sprzętu lotniczego i satelit. W Anglii, w połowie lat ’90, powstały pół balony-pół latawce które jako pierwsze używały kompaktowe aparaty do celów fotografii przestrzennej, o dokładności do 0,4 mm. Te pół balony są tanie i zbierają dane dokładniej niż samoloty. Można ich używać nad drogami, koleją i miejscami z zakazem lotów.

Ostatnimi czasy zdobywanie danych droga powietrzną stało się łatwiejsze dzięki dronom. Przykładowo, Aeryon Scout został wykorzystany by w 12 minut zrobić mapę 20 hektarów terenu z dokładnością do 2,5 cm.

Większość danych cyfrowych w tej chwili pochodzi ze zdjęć powietrznych, a przetwarza się je na cyfrowe za pomocą stereoskopii. Dzięki temu dane można zapisać w dwóch i trzech wymiarach, od razu z punktem wzniesienia. Analogowe zdjęcia powietrzne muszą zostać zeskanowane, natomiast w przypadku zdjęć w wysokiej rozdzielczości nie jest to konieczne.

Teledetekcja satelitarna dostarcza kolejne ważne źródła danych przestrzennych. Satelity używają innych sensorów by pasywnie mierzyć odbicia od części w spektrum elektromagnetycznym lub fal radiowych. Teledetekcja zbiera dane rastrowe, które można dalej przetwarzać w celu identyfikacji zjawisk.

 

Druga metoda zbierania danych

Najbardziej popularną metodą zbierania danych jest cyfryzacja, w której fizyczna kopia mapy zostaje cyfrowo zastąpiona przy pomocy programu CAD oraz funkcjonalności przestrzennych. Za pomocą ortofotomapy, bezpośrednia cyfryzacja staje się coraz bardziej popularnym sposobem pozyskiwania danych geograficznych. Bezpośrednia cyfryzacja polega na przesyłaniu pozyskanych danych ponad mapy powietrzne, bez potrzeby używania tabletów graficznych. Cyfryzacja manualna, albo pośrednia, polega na użyciu specjalnego rysika w celu wprowadzenia identycznej mapy cyfrowej. Niektóre tablety używają urządzenia podobnego do myszki, tzw. manipulatora 3D. Ma on okienko z celownikiem, co pozwala na większą dokładność w obsłudze mapy. Mimo że bezpośrednia cyfryzacja jest bardziej popularna, przy cyfryzacji map w słabej jakości wciąż przydaje się cyfryzacja manualna.

Dane wydrukowane np. na papierze można digitalizować albo zeskanować by otrzymać dane cyfrowe. Digitalizator tworzy dane wektorowe, podczas gdy operator śledzi granice punktów, linii i poligonów na mapie. Skanowanie mapy daje dane rastrowe, które można dalej przetworzyć na dane wektorowe.

Podczas zbierania danych, użytkownik powinien rozważyć, z jaką dokładnością należy je zapisać, gdyż wpływa to zarówno na jakość danych, jak i koszty ich pozyskania.

Po wprowadzeniu danych do GISu, zazwyczaj trzeba je edytować w celu usunięcia błędów albo dalszego przetwarzania. Dla danych wektorowych ważna jest wcześniejsza kontrola topologiczna, przed przejściem do bardziej zaawansowanych analiz. Przykładowo, w przypadku sieci drogowej, linie drogi muszą łączyć się z węzłami na skrzyżowaniach. Błędy polegające na złej jakości zdjęć także należy usunąć. W przypadku skanowanych map, koniecznie także należy usunąć skazy powstałe na plikach rastrowych.

 

Projekcje, rejestracja i system współrzędnych

Ziemia może być reprezentowana przez różne modele, a każdy z nich może dostarczać inny zestaw współrzędnych dla dowolnego punktu na powierzchni planety. Najprościej założyć, że Ziemia jest kulą. Z czasem, jak więcej pomiarów na ziemi zostało zrobionych, jej modele stały się coraz dokładniejsze. Nawet funkcjonuje coś takiego jak datum, czyli modele konkretnych fragmentów Ziemi, które zawierają większą dokładność – np. Północnoamerykański datum 1983 r. wykorzystywany przez Stany do pomiarów oraz World Geodetic System (WGS) dla pomiarów na świecie.

Szerokość i długość geograficzna na mapie może nie być taka sama jak otrzymana z odbiornika GPS. Przenoszenie współrzędnych pomiędzy datum wymaga jego transformacji, jak np. metodą Helmerta. Chociaż w niektórych sytuacjach wystarczy najprostszy przekład.

W oprogramowaniu GIS dane naniesione na długość i szerokość są zwykle reprezentowane przez współrzędne geograficzne.

 

Jakość danych geodezyjnych

Mimo że model cyfrowy nigdy nie będzie idealnym odwzorowaniem świata rzeczywistego, ważne jest by dane wprowadzone do GISu były wysokiej jakości. Zgodnie z zasada homomorfizmu, dane muszą być wierne prawdziwym realiom, tak by zabiegi w GISie dokładnie odwzorowywały realia. To oznacza że nie ma standardu dla jakości danych, ponieważ stopień dokładności jakości zależy od skali i celu zadania do którego był użyty.

 

Dla danych GIS ważnych jest kilka elementów:

  • Dokładność - jest to stopień podobieństwa pomiędzy pomiarami i wartością prawdziwą. W danych GIS bardzo ważne jest dokładne przedstawienie lokalizacji, właściwości oraz czasu. Przykładowo, amerykański spis ludności podał, że populacja Houston 1 kwietnia 2020 wynosiła 2.304.580. Jeśli natomiast ta populacja wynosiła 2.310.674, byłby to błąd spowodowany brakiem dokładności.
  • Precyzja - jest to stopień udoskonalenia danych przedstawiony jednostkowo, np. ilość cyfr w mierzonej wartości. Nieprecyzyjna wartość jest dwuznaczna i wątpliwa, wliczając w to błąd pomiaru. Przykładowo, gdyby ktoś powiedział że populacja Houston w kwietniu 2020 wynosiła ok. 2,3 mln, byłoby to nieprecyzyjne, jednak poprawne, gdyż w tej wartości mieści się wartość rzeczywista. Tak jak w przypadku dokładności, lokalizacja, właściwości oraz czas mogą być bardziej lub mniej precyzyjne. Najbardziej popularnym określeniem precyzji, zwłaszcza w danych rastrowych jest rozdzielczość.
  • Niepewność - jest to stopień uwzględnienia błędu i braku precyzji w pozyskanych danych geograficznych. Mimo że oczywiście ciężko jest określić stopień błędu w zestawie danych, to jednak da się to oszacować. Niepewność jest czasami wspólnym określeniem na wszystkie aspekty jakości danych.
  • Niejasność - jest to skala błędu poznania (lokalizacja, właściwości albo czas) zjawiska które i tak jest już nieprecyzyjne. Przykładowo przestrzeń miejska aglomeracji Houston jest niejasna, gdyż niektóre miejsca na jego przedmieściach są gorzej połączone z głównym miastem, niż te bliższe centrum. Matematycznie obrazuje to zbiór rozmyty.
  • Kompletność - jest to stopień spełnienia funkcji przez pozyskane dane. Przykładowo, jeśli warstwa „dróg w Houston” ma brakujące drogi to jest niekompletna.
  • Aktualność - jest to najnowszy punkt w czasie, w którym wartość stanowi dokładne odzwierciedlenie rzeczywistości. Jest to ważne dla większości GPS, gdyż chcą one odwzorowywać warunki w czasie rzeczywistym.
  • Spójność - jest to stopień w jakim pliki danych konkretnego zjawiska poprawnie ze sobą współpracują. Jedność w stosunkach topologicznych pomiędzy obiektami przestrzennymi jest niezwykle ważnym aspektem spójności. Dla przykładu, jeśli wszystkie drogi w sieci ulicznej przypadkowo przesunąć o 10m na wschód, to były by niedokładne, ale za to spójne, ponieważ wciąż łączyłyby się na skrzyżowaniach, a narzędzia do analizy sieciowej jak np. znajdywanie najkrótszej drogi wciąż by działały poprawnie.
  • Wątpliwość - jest to stopień, w jakim jakość wyników analizy przestrzennej zależy od jakości wprowadzonych danych. Przykładowo, interpolacja jest standardowym zabiegiem, na wiele sposobów używanych w GISie, ponieważ generuje szacunkowe wartości pomiędzy pomiarami, a jej wyniki zawsze będą bardziej precyzyjne, lecz mniej pewne.

 

Dokładność GISu zależy od danych wejściowych oraz od tego jak zostały przygotowane. Za pomocą GPSu, geodeci dostarczają bardzo dokładne dane pozycyjne. Takie rzeczy jak wysoka rozdzielczość terenu i zdjęć powietrznych, mocne komputery i technologia internetowa zwiększają standard jakości, funkcji i oczekiwań wobec GISu. Nie mniej jednak, są inne źródła pozyskiwania danych, które już nie dają tak dużej precyzji, np. mapy papierowe.

Przy produkcji cyfrowej, topograficznej bazy danych GIS, głównym źródłem danych są mapy topograficzne, a dopiero potem zdjęcia lotnicze/satelitarne. Zarówno skala mapy jak i geograficzny rodzaj terenu, albo odwzorowanie kartograficzne, są o tyle ważne, że ich zawartość zależy od ustalonej skali i lokalizacji oznaczeń mapy. W celu cyfryzacji mapy, musi ona zostać oznaczona teoretycznymi wymiarami, a następnie przeskanowana do formy rastrowej. Wtedy dane rastrowe muszą otrzymać wymiary za pomocą procesu geoferencji.

Ilościowa analiza map zwraca uwagę na dokładność. Sprzęty używane do pomiarów GISowych są znacznie dokładniejsze niż technologia analizy zwykłych map. Dane geograficzne są z założenia niedokładne, a te niedokładności wyjdą w GISie w trudny do przewidzenia sposób.

 

Konwersja rastrów na obiekty wektorowe

Restrukturyzacja danych może zostać przeprowadzona przez GIS, żeby przekonwertować dane do innego formatu. Dla przykładu, GIS może być użyty do przetworzenia obrazu satelitarnego na strukturę wektorową poprzez generowanie linii dookoła komórek z takim samym typem, a jednocześnie określając powiązanie przestrzenne pomiędzy komórkami, takie jak np. odległość.

Przetwarzanie obrazów cyfrowych to bardziej zaawansowane narzędzie do obróbki danych. To technika powstała w latach ’60 z rąk NASA i sektora prywatnego, i składa się min. z wzmacniania kontrastem, renderowania kolorem i transformacji Fouriera.

Do pracy z mapami rastrowymi oraz do wektoryzacji map przydatna jest nakładka GTXRaster CAD

 

ETL

Skrót ETL odnosi się do pozyskania, przetworzenia i wczytania danych, jednak jego głównym narzędziem jest zarządzanie danymi przestrzennymi. Dzięki temu użytkownicy GIS mogę przekładać dane pomiędzy różnymi standardami i formatami danych. Takie narzędzia mogą przyjąć formę np. arkuszy kalkulacyjnych.

 

Analiza przestrzenna

Analiza przestrzenna GISu rozwija się bardzo prężnie, a pakiety GIS robią się coraz obszerniejsze wliczając w to narzędzia analityczne. W wielu przypadkach, te są dostarczane przez producenta oprogramowania, a w pozostałych są one rozwijane i dostarczane przez firmy zewnętrzne. Co więcej, wiele programów oferuje zestawy oprogramowania twórczego, języki programowania wraz ze wsparciem, ułatwienia skryptowe i/albo specjalny interfejs w celu ułatwienia tworzenia własnych narzędzi analitycznych. Zwiększona dostępność tego typu programów wprowadziła analitykę biznesową na nowy poziom, określany mianem analityki przestrzennej. Ta, dostarczana przez internet, demokratyzuje dostęp do danych geograficznych i społecznych. Rozpoznanie satelitarne, bazujące na analizach przestrzennych GIS, stało się ważnym elementem bezpieczeństwa. GIS jako całość można opisać jako rozmowę z reprezentowaniem wektorowym.

Przetwarzanie geograficzne to zabieg GIS mający na celu manipulacje danymi przestrzennymi. Typowy taki proces polega na wprowadzeniu zbioru danych, a następnie po przetworzeniu, wydaniu rezultatu operacji w formie danych wyjściowych. Zazwyczaj takie procesy zawierają w sobie wartości geograficzne, analizę, przetwarzanie topologiczne i rastrowe oraz konwersje danych. Proces pozwala więc podejmować decyzje w oparciu o definicje, zarządzanie i analizę informacyjną.

 

Analiza terenu

Wiele z działań geograficznych opierają się na terenie, kształcie powierzchni, hydrologii, wykopach i biogeografii. A więc dane terenów są zwykle głównymi wartościami GIS, zazwyczaj w formie rastrów numerycznego modelu terenu albo TIN. Dostępne jest wiele narzędzi do analizy terenu, często powstałych przez pochodne zbiorów danych prezentujących konkretny aspekt powierzchni.

Jednymi z najpopularniejszych są:

  • Nachylenie – poziom pochylenia terenu, zwykle mierzony kątem jako stopnie albo procenty.
  • Ekspozycja – strona w którą teren się pochyla, zazwyczaj wyrażany w stopniach od północy.
  • Obliczenia robót ziemnych – wyliczenia różnicy powierzchni przed i po wykopie w celu oszacowania kosztów.
  • Modelowanie hydrologiczne – dostarcza takich elementów przestrzennych jakich nie może dostarczyć inne rozwiązanie hydrologiczne, z dodatkową analizą zmiennych jak np. pochylenie, ekspozycja i dział wodny. Analiza terenu jest kluczowa w hydrologii, gdyż woda zawsze spływa po nachyleniu. Podstawowa analiza numerycznym modelem terenu zawiera obliczenia nachylenia i ekspozycji. Wtedy wykorzystuje się je do ustalenia kierunku powierzchni i przez to biegu strumieni, rzek i jezior. Tereny mogą również bezpośrednio wskazać granice zlewni. Można również dodawać więcej detali do modelu, takich jak twardość, typ wegetacji, rodzaj ziemi. Jednym z głównych zastosowań hydrologicznego modelowania jest badanie zanieczyszczenia środowiskowego. Inne aplikacje tego rodzaju programów mają także funkcje tworzenia map wód podziemnych i powierzchniowych, a także map ryzyka powodziowego.
  • Analiza pola widzenia – przewidywanie wpływu terenu na widoczność pomiędzy lokacjami, bardzo istotne w komunikacji bezprzewodowej.
  • Zacieniona rzeźba terenu – oznaczenie terenu jak gdyby było trójwymiarowym obiektem podniesionym z wybranego kierunku, bardzo popularne w mapach.

Większość z tego jest generowana algorytmami, które są uproszczoną analizą wektorową. Nachylenie, ekspozycja i krzywizna powierzchni terenu wywodzą się z zabiegów wykorzystujących punkty wysokościowe sąsiadujących komórek. Każda z nich jest zależna od poziomu szczegółów w zebranych danych, takich jak rozdzielczość.

 

Analiza odległości

Dystans jest kluczem do rozwiązywania wielu zadań geograficznych, najczęściej z powodu zjawiska tarcia odległości. Z tego powodu wiele programów ma wbudowane narzędzia do analizy jakiegoś rodzaju dystansu, np. bufory czy diagram Woronoja.

 

Analiza danych

Nie jest łatwym zadaniem powiązanie map mokradeł z opadami deszczu zanotowanymi w różnych miejscach, jak np. lotnisko, telewizja albo szkoła. Jednak GIS może wyróżnić dwu i trzywymiarową charakterystykę powierzchni ziemi, podziemi i atmosfery z posiadanych informacji. Przykładowo, GIS jest w stanie szybko wygenerować mapę izolinii albo konturów, które wskazywać będą różne ilości opadów deszczu. Wiele skomplikowanych metod jest w stanie wyliczyć charakterystykę powierzchni po minimalnej liczbie pomiarów. Dwuwymiarowa mapa konturowa stworzona z punktów pomiarowych deszczu może zostać porównana z inną mapą w GISie. Tak powstała mapa jest w stanie dostarczyć dodatkowych informacji, jak np. siła prądu rzeki w kontekście odnawialnego źródła energii. Tak samo można wykorzystać GIS do porównania innych źródeł odnawialnej energii w celu znalezienia najlepszego potencjału w regionie.

Dodatkowo, z serii trójwymiarowych punktów albo cyfrowego modelu wysokościowego, można stworzyć kontury profilu wysokościowego razem z analizą nachylenia i innymi przydatnymi funkcjami. Dane w GIS pozwalają także stworzyć oś doliny, gdzie można przewidzieć ruch wody.

 

Modelowanie topograficzne

GIS jest w stanie rozpoznać i analizować powiązania przestrzenne w danych cyfrowych. Te powiązania dają możliwości kompleksowego modelowania przestrzennego i jego analizy.

 

Sieć geometryczna

            Sieci geometryczne to połączenia liniowe obiektów, jakie można użyć do reprezentowania niepołączonych wartości i analizowania ich. Sieć taka składa się z punktów połączonych ze sobą liniami, niczym matematyczne wykresy. Tak jak one, sieci mogą mieć przypisane wartości które reprezentując swoje niepołączone elementy zwiększają dokładność analizy. Sieci geometryczne często są używane do modelowania dróg i elementów użyteczności publicznej, jak np. prąd, gaz, czy woda.  

 

Modelowanie kartograficzne

Dana Tomlin stworzył termin „modelowania kartograficznego” w swojej pracy w 1983 r. Odnosi się to do procesu tworzenia, przetwarzania i analizowania wielu warstw tematycznych tego samego terenu. Tomlin użył warstw rastrowych, ale metoda nakładania warstw jest bardziej ogólna. Zabiegi na warstwach można łączyć w algorytmy i symulacje.  

 

Nakładki mapy

Są to połączenia wielu baz danych przestrzennych, które tworzą wektorową bazę danych. Wizualnie przypomina to nakładane na siebie mapy tego samego regionu, coś jak diagram Venna. Suma zbiorów nakładek pozwala na skuteczne łączenie właściwości geograficznych i atrybutów. Część wspólna określa teren gdzie te same fragmenty się na siebie nakładają, tworząc swoje własne atrybuty. Różnica symetryczna zbiorów definiuje teren wyjściowy połączonych warstw ale poza tymi częściami, które nakłada się na siebie.

Pozyskiwanie danych jest procesem podobnym do nakładania wektorowego, ale z tą różnicą, że może być używane do analiz wektorowych i rastrowych. Zamiast łączyć wartości i właściwości obu baz danych, ten proces pozyskuje właściwości innej bazy danej  pasujące do wartości przestrzennych drugiej bazy.

 W analizach danych rastrowych, bazy danych nakłada się na siebie poprzez proces lokalnej operacji na wielu rastrach.

 

Geostatystyka

Jest to branża statystyki, operująca na danych terenowych i przestrzennych. Dostarcza metod porównania modeli przestrzennych oraz przewiduje wartości w dowolnych miejscach.

Kiedy przychodzi do mierzenia wartości zjawiska, dokładność pomiaru zależy od sposobu prowadzenia obserwacji. Ze względu na ciężkie do przewidzenia wartości, jak np. pogoda nad Pacyfikiem albo wzorce zakorkowania w centrum miasta, zawsze jakaś część dokładności pomiaru zostaje utracona. Jest ona zależna od wielkości pomiaru i sposobu przydzielania danych.

Aby określić statystyczną wartość analizy, należy ustalić średnią, a punkty które znajdą się poza strefą pomiaru mogą zostać doliczone, przewidując ich zachowanie. Z powodu ograniczeń stosowanej statystyki i metod pomiaru danych, należy zastosować interpolacje aby przewidzieć zachowanie cząstek, punktów i miejsc, które nie są bezpośrednio mierzalne.

Interpolacja to proces w którym powierzchnia jest tworzona (zwykle w formie obrazu rastrowego), poprzez wstawianie pozyskanych danych z wielu punktów. Jest kilka rodzajów interpolacji, każdy w inny sposób interpretuje dane, w zależności od ich właściwości. Przy porównywaniu metod interpolacji, pierwszym czynnikiem powinno być to, czy dane źródłowe się zmienią. Następnie, czy metody te są subiektywne czy obiektywne. Kolejno, czy przejścia pomiędzy punktami są skokowe czy stopniowe. I na koniec, czy metoda globalna (używa całą bazę danych by stworzyć model), czy lokalna (algorytm jest powtarzany w niektórych małych fragmentach terenu).

Metodami tworzenia danych interpolacyjnych są: numeryczne modele terenu, TIN, diagram Woronoja, analiza Fouriera, algorytmy wykrywania krawędzi, kriging, metoda Sheparda, funkcja sklejana i tendencja rozwojowa.

 

Geokodowanie adresu

Geokodowanie to interpolacja przestrzenna lokacji, na podstawie danych przestrzennych jak np. adres, kod pocztowy. Potrzebny jest do tego punkt odniesienia, którym może być przykładowo plik z linią drogi i przyległymi adresami. Pojedyncze adresy bywały już interpolowane przez studiowanie innych adresów wzdłuż drogi, które zazwyczaj są dostarczane w formie tabelki albo bazy danych. Program wtedy postawi punkt w centrum przestrzeni pomiędzy sąsiednimi adresami i drogą. Geokodowanie również ma zastosowanie w przypadku faktycznych działek, zwykle na podstawie map komunalnych. W takim przypadku, efektem geokodowania będzie dokładna przestrzeń, zamiast interpolacji.

 

Wsteczne geokodowanie

Wsteczne geokodowanie jest procesem przywracania szacunkowego adresu w oparciu o dane współrzędne. Proces ten nie przywraca właściwego adresu, jedynie w oparciu o swoje dane szacuje co powinno się tam znajdować.

 

Analiza decyzji                  

Metoda analizy decyzji pomaga przy analizowaniu alternatywnych rozwiązań przestrzennych, jak np. dla terenu zagrożonego, w budowie dróg pod miejsca wegetacji roślin. Analiza decyzji działa w oparciu o kryteria, które pozwalają na ocenę skuteczności alternatywnych rozwiązań i przez to ustalenie ich priorytetu. W przypadku GISu, to rozwiązanie może obniżyć koszt i czas potrzebny do identyfikacji potencjalnych miejsc do odnowienia.

 

Eksploracja danych

GIS, albo eksploracja danych przestrzennych to aplikacja pozwalająca na pozyskiwanie danych przestrzennych. Eksploracja danych jest procesem częściowo zautomatyzowanym dla ukrytych wzorców w dużych bazach danych i oferuje wiele korzyści. Aplikacje zwykle pozwalają na monitorowanie środowiska. Cechą charakterystyczną dla nich jest to, że potrzebują skomplikowanych algorytmów dla zapewnienia najdokładniejszej analizy.

 

Dane wyjściowe i kartografia

Kartografia jest procesem projektowania i tworzenia map albo innych reprezentacji danych przestrzennych. Zdecydowana większość współczesnej kartografii jest tworzona za pomocą komputerów, często za pomocą GISu, ale najwyższej jakości mapy powstają poprzez importowanie warstw do programu by je przetworzył. Większość programów GIS pozwala użytkownikowi na pełną kontrole danych.

Proces ten pełni dwie funkcje:

Po pierwsze, tworzy grafikę na ekranie lub papierze, która przekazuje rezultat analizy ludziom którzy podejmują decyzję na podstawie zasobów. Mapy ścienne czy też inne grafiki mogą być tworzone, pozwalając odbiorcy na wizualizacje i przez to uświadomienie mu rezultatów analizy albo symulacji potencjalnych wydarzeń. Strony WMS wspierają dystrybucje generowanych map poprzez przeglądarkę dzięki takim interfejsom jak np. Java, Flash, AJAX.

Po drugie, inne informacje mogą być generowane w celu użycia lub dalszego przetworzenia, jak np. lista adresów w określonym zasięgu od toksycznego wycieku.

 

Metody przedstawiania rzeźby terenu na mapach

Tradycyjne mapy są abstrakcyjnym przedstawieniem prawdziwego świata, fragmentem przedstawionym na papierze, z symbolami opisującymi fizyczne obiekty. Osoby czytające te mapy muszą interpretować te symbole. Mapy topograficzne pokazują ukształtowanie terenu za pomocą linii konturów i zacienienia wysokości.

Dzisiejsze techniki graficzne takie jak zacienienie wysokości bezwzględnej w GIS, bardzo ułatwiają rozczytanie powiazania pomiędzy elementami mapy. Dla przykładu, do stworzenia w GISie perspektywicznego widoku fragmentu San Mateo w Kalifornii użyto dwóch typów danych.

  • Cyfrowy model wysokościowy, którego powierzchnia składa się z wzniesień zarejestrowanych na wysokości 30m, pokazuje wysokie punkty na biało, a niskie na czarno.
  • Thematic Mapper towarzyszący programowi Landstat, którego zdjęcie w fałszywej kolorystyce pokazuje to samo miejsce, jednak z pikselami na 30m, które w całości tworzą dokładny obraz wysokościowy.

Użyto GISu by połączyć dwa zdjęcia ze sobą i wyrenderować trójwymiarowy widok perspektywiczny na uskok San Andreas. Thematic Mapper odpowiadał za piksele obrazu, a wywyższenie form terenu zacieniowano. Widok z GISu zależy od punktu widzenia obserwatora i czasu jego wykonania, gdyż renderowanie cieni jest zależne od promieni słonecznych, wysokości i szerokości.

 

Webmapping

Ostatnimi laty nastąpił rozkwit darmowych, łatwo dostępnych programów do przeglądania map jak np. Google Maps, Bing Maps, ale także darmowych i na licencji open-source OpenStreetMap. Takie usługi dają ludziom dostęp do ogromnej ilości danych geograficznych, które są powszechnie postrzegane jako godne zaufania i solidne.

Niektóre z nich, jak np. Google Maps i OpenLayers, udostępniają swój interfejs programowy, pozwalając na tworzenie własnych aplikacji. Te narzędzia oferują mapy ulic, zdjęcia satelitarne, geokodowanie, wyszukiwarki i funkcjonalności drogowe. Webmapping pokazał potencjał crowdsourcingu w zbieraniu danych geograficznych w projektach takich jak OpenStreetMap, który jest projektem polegającym na współpracy w celu stworzenia edytowalnej mapy świata. Tego typu projekty udowodniły że są w stanie dostarczać wysoką jakość i być przydatne dla odbiorców z całego świata.

Webmapping ma jednak swoje minusy. Pozwala na tworzenie i dystrybucje map przez ludzi bez odpowiedniego szkolenia. Przez to istnieje ryzyko, że owe mapy staną się przypadkowo błędne.

Aplikacją działającą w środowisku CAD pozwalającą wczytać mapy z serwerów z internetowych jest program Spatial Manager lub zawarty w ZWCAD Professional program ArcGIS.

 

Aplikacje GIS

Od lat ’60 GIS był używany w co raz to nowszych dziedzinach, stając się istotną wartością na rynku. Różne użyteczności GISu można określić na kilka sposobów:

  • Cel: cel aplikacji może być określony jako badania naukowe albo zarządzanie zasobami. Powodem badań, zdefiniowanych tak szeroko jak to tylko możliwe, jest chęć odkrycia nowej wiedzy. Może to być z rąk naukowca albo kogoś kto dopiero się uczy działania programu. Studiowanie przyczyn, dlaczego lokacja biznesowa nie wypaliła, jest tutaj swego rodzaju badaniami. Zarzadzanie, również szeroko pojęte, jest praktycznym zastosowaniem zasobów, jak np. czas, pracownicy, wyposażenie, w celu osiągnięcia celu.
  • Poziom decyzyjny: programy do zarządzania zostały dalej sklasyfikowane jako strategiczne, taktyczne, operacyjne. Zadania strategiczne są długoterminowe, jak np. wizja przyszłości firmy. Zadania taktyczne są średniej długości, skupiają się raczej na osiąganiu konkretnych celów, przykładowo planu zarządzania stanowiskiem. Decyzje operacyjne odnoszą się do zadań z dnia na dzień, np. znalezienie najkrótszej drogi do celu.
  • Temat: w przypadku GISu zwykle jest to geografia społeczno-ekonomiczna (np. ekonomia, polityka, edukacja, obrona narodowa) oraz środowisko naturalne (np. geologia, biologia, klimat). Jedną z najsilniejszych funkcji GISu jest wbudowana możliwość porównywania tematów. Przykładem mieszania tematów społeczno-ekonomicznych i naturalnych są zasoby naturalne, zmiany klimatyczne itp.
  • Instytucja: GIS funkcjonuje już w wielu rodzajach instytucji: rządowe, biznesowe, organizacje non-profit oraz prywatnie. To ostatnie bardzo się rozwinęło za sprawą smartfonów.
  • Długość działania: tutaj możemy wyróżnić dwa rodzaje: projektowa i firmowa. Projektowa odnosi się do jakiegoś zadania: zbierane są dane, potem przeprowadza się analizę i rezultat jest przedstawiany. W przypadku firmowej, GIS jest z założenia stałą częścią przedsiębiorstwa, ma swoje bazy danych wykorzystywane w różnych projektach, a korzystać będzie z niego prawdopodobnie wiele osób.
  • Integracja: tradycyjnie aplikacje GIS są samodzielne, wykorzystują konkretne oprogramowanie, sprzęt, dane i osoby. Jednak bywają też zintegrowane, których pojawiło się więcej po tym jak technologia geoprzestrzenna stała się częścią dużej ilości programów na rynku, infrastruktur IT, baz danych itp.

GIS skłania się w kierunku usług bazujących na lokalizacji, dzięki temu że urządzenia z GPS są w stanie pokazywać lokalizacje względem stałych punktów takich jak restauracja, stacja itp.

 

Standardy Open Geospatial Consortium

Open Geospatial Consortium to międzynarodowy koncern zrzeszający 384 firmy, agencje rządowe, uniwersytety oraz osoby prywatne, które wspólnie biorą udział w procesie tworzenia otwartych standardów dla danych i usług przestrzennych. Otwarty interfejs i protokoły zdefiniowane przez OpenGIS współpracują z bezprzewodowymi i bazującymi na lokalizacji usługami, współczesną informatyką oraz wspierają twórców, by dostarczali rozbudowane informacje przestrzenne oraz usługi dostępne w miarę możliwości z każdego urządzenia. Open Geospatial Consortium obsługuje Web Map Service i Web Feature Service.

Produkty GIS dzielone są przez OGC na dwie kategorie, zależne od tego jak dokładnie program podąża za wytycznymi OGC.

Produkty zgodne to te, które stosują się do wytycznych OpenGIS. Każdy produkt który został przetestowany i dostał certyfikat zgodności z Open Geospatial Consortium jest automatycznie przydzielany do tej kategorii.

Produkty wywiązujące się to te, które korzystają z OpenGIS ale jeszcze nie zdały testu zgodności. Producenci oprogramowania mogą zarejestrować swój produkt, jednak OGC ma prawo do weryfikacji i recenzji każdego z osobna.

 

Dodawanie wymiaru czasu

Stan powierzchni Ziemi i jej atmosfery można sprawdzić poprzez implementacje danych satelitarnych do GISu. Technologia GIS daje badaczom możliwość badania zmian na Ziemi w ciągu dni, miesięcy a nawet lat, poprzez wizualizacje kartograficzne. Dla przykładu, zmiany w wegetacji roślin podczas sezonu wegetacyjnego można przedstawić w formie animacji, przez co susza będzie lepiej widoczna. Praca z dwoma zmiennymi przez okres czasu pozwoli badaczom na wykrycie regionalnych różnic i zmian w zależności od np. opadów.

Technologia GIS i łatwość zdobycia danych cyfrowych na skale regionu i świata pozwala właśnie na taką analizę. Sensor satelitarny, który odpowiada za tworzenie grafiki wegetacyjnej, wykrywa ilość energii odbitej od powierzchni Ziemi przez wiele ustawionych spektrum, i robi to na powierzchni blisko 1 km2. Sensor tworzy takie obrazy dowolnego miejsca na ziemi dwa razy dziennie.

Dodatkowo, GIS jest rozwijany pod kątem śledzenia i modelowania postępu ludzkości przez codzienną rutynę. Dobrym przykładem postępu na tym polu jest niedawne opublikowanie przez Amerykański urząd Spisu Ludności. W tym spisie, populacja miast jest przedstawiona za dnia i wieczorem, podkreślając tym samym wzorce gromadzenia się i rozproszenia jakie tam funkcjonują. Bez GIS nie byłoby możliwe ani zebrać ani przetworzyć takie dane.

 

Implikacje społeczne

Wraz z popularyzacją GISu w podejmowaniu decyzji, uczeni zaczęli się bliżej przyglądać możliwościom zastosowania GISu w przypadkach społecznych i politycznych. Można go także wykorzystać dla wykolejenia faktów dla politycznego zysku. Produkcja, dystrybucja, utylizacja i przedstawienie graficzne informacji jest mocno powiązane z kontekstem socjalnym oraz ma swój potencjał w generowaniu zaufania społecznego.

Z końcem XX wieku GIS był rozważany jako narzędzie do użycia w szkołach. Zaletą takiego  rozwiązania byłoby skupienie się na orientacji przestrzennej, jednak nie ma wystarczającej ilości badań które potwierdziłyby skuteczność użycia GISu w edukacji.

GIS dostarcza wiele narzędzi do nauki geografii, takich jak analiza bazująca na prawdziwych danych geograficznych, zbieranie pytań wśród uczniów, czy nawet kreowanie myślenia przestrzennego.

GIS również jest znany na świecie ze zmieniania sposobów działania ośrodków rządowych. Takie ośrodki przyjęły GIS jako lepszą metodę zarządzania następującymi branżami:

  • Rozwój ekonomiczny, ponieważ użycie interaktywnych narzędzi do obsługi map wraz z innymi danymi (np. demografia, biznes, przemysł itp.) oraz bazą danych dostępnych miejsc komercyjnych pozwala zainteresować odpowiednie firmy i klientów. Biznesy szukające miejsca pod inwestycje mogą korzystać z narzędzi zwiększających ich szanse na sukces.
  • Bezpieczeństwo publiczne wykorzystuje GIS w centrach operacyjnych, policji, straży pożarnej do przewidywania ryzyka i pomocy w dobieraniu oddziałów.
  • Zarządy zieleni miejskiej korzystają z pielęgnacji ziemi, zarządzania terenem czy cmentarzami.
  • Służby publiczne, tam wykorzystuje się GIS do śledzenia wody, projektów inżynieryjnych, transportu itp.
  • Szkoły dla danych analitycznych i demograficznych, zarządzania kapitałem itp.
  • Administracja publiczna, ze względu na dane wyborów, zapisy posiadłości, zarządzanie terenem.

Inicjatywa Open Data namawia lokalne władze do tego by korzystały z takich narzędzi jak GIS do swoich celów. Z tą inicjatywą, lokalne władze mogą np. wprowadzać nowe funkcje przez internet, dzięki czemu obywatele mogą widzieć informacje o ziemi, zgłaszać problemy, przeglądać parki po filtrach, sprawdzać przestępczość w czasie rzeczywistym itp. Presja otwartych danych w ośrodkach miejskich napędza wzrost lokalnego zastosowania technologii GIS.

 

Chmura punktów

Od kilku lat serwery udostępniają mapę w postaci chmury punktów. W ZWCAD 2024 Professional zostanie wprowadzona obsługa danych GIS w takiej postaci.

Pokazaliśmy to na poniższym filmie.