Geoinformatica Polonica jest rocznikiem wydawanym od 1999 roku przez Polską Akademię Umiejętności, w którym publikowane są recenzowane prace w języku angielskim.
Na łamach tego pisma zamieszczane są zarówno oryginalne, recenzowane prace badawcze, jak i przeglądowe artykuły z zakresu szeroko pojętej geoinformatyki.
Redakcja czasopisma Geoinformatica Polonica zaprasza do zgłaszania tekstów naukowych, o charakterze badawczym lub przeglądowym, stanowiących krytyczną refleksję nad współczesnymi zagadnieniami z zakresu szeroko pojętej geoinformatyki – zarówno o zasięgu lokalnym, jak i międzynarodowym.
Geoinformatica Polonica to czasopismo recenzowane, wydawane od 1999 roku przez Polską Akademię Umiejętności.
Geoinformatica Polonica publikuje oryginalne prace badawcze i przeglądowe artykuły z zakresu szeroko pojętej geoinformatyki. Geoinformatyka jest nauką łącząca informatykę z geografią i matematyką i zajmująca się gromadzeniem, przetwarzaniem, analizowaniem, klasyfikowaniem oraz przedstawianiem i wizualizacją informacji geograficznej. Czasopismo stwarza Autorom wywodzącym się z różnych kręgów dyscyplin nauki i techniki, możliwość prezentowania rozwiązań geoinformatycznych, a Czytelnikom - poznawania bardzo różnych zastosowań informatyki (m. in. metod rozpoznawania obrazów, sieci neuronowych, systemów eksperckich, hurtowni danych) w szerokim spektrum nauk o Ziemi. Misją czasopisma jest zatem upowszechnianie badań geoinformatycznych, zarówno teoretycznych, jak i praktycznych, a także zapoznawanie czytelników z bieżącymi osiągnięciami międzynarodowymi w tym obszarze. Ważnym celem Geoinformatica Polonica jest także współpraca, integracja i rozwój środowiska naukowego na wszystkich polach: badawczym, konceptualnym i organizacyjnym.
Geoinformatica Polonica jest rocznikiem, w którym artykuły publikowane są w języku angielskim, w formie papierowej i w otwartym dostępie (Open Access) – pełne teksty artykułów są dostępne na stronie internetowej czasopisma. Redakcja dąży do archiwizacji tekstów w różnorodnych bazach danych.
Warunki publikacji zamieszczone są w zakładce „Informacje dla autorów”.
Do czasopisma Geoinformatica Polonica, przypisane są następujące dyscypliny naukowe: w dziedzinie nauk inżynieryjno-technicznych: architektura i urbanistyka, informatyka techniczna i telekomunikacja, inżynieria lądowa i transport, inżynieria środowiska, górnictwo i energetyka; w dziedzinie nauk rolniczych: nauki leśne, rolnictwo i ogrodnictwo; w dziedzinie nauk ścisłych i przyrodniczych: astronomia, informatyka, nauki o Ziemi i środowisku.
Pismo jest wydawane w wersji drukowanej (ISSN 1642-2511) oraz elektronicznej (ISSN 2199-5923) będącej dokładnym odzwierciedleniem wersji drukowanej.
Za przesłanie, recenzję, publikację i przetwarzanie artykułu nie są wymagane żadne opłaty.
Czasopismo działa na zasadzie licencji „open-access” i oferuje darmowy dostęp do pełnego tekstu wszystkich publikacji poprzez swoją stronę internetową. Wszystkie artykuły są udostępnianie na zasadach licencji Creative Commons CC BY-NC-ND (uznanie autorstwa - użycie niekomercyjne - bez utworów zależnych). Teksty pochodzące z czasopisma są publikowane w wersji elektronicznej, a korzystanie z nich jest dozwolone w ramach dozwolonego użytku osobistego z jednoczesnym poszanowaniem praw autorskich.
Redakcja Geoinformatica Polonica zaprasza czytelników do podjęcia dyskusji na temat publikowanych treści.
Odnawialne źródła energii odgrywają kluczową rolę w zmniejszeniu globalnego zapotrzebowania na paliwa kopalne. Postęp technologiczny umożliwił czerpanie odnawialnej energii ze słońca, wiatru i pływów oceanicznych. W szczególności energia
słoneczna zyskała uznanie w skali globalnej jako odnawialna alternatywa energetyczna. Niniejsze badania integrują ocenę wielokryterialną (Multi-Criteria Evaluation – MCE) i systemy informacji geograficznej (Geographic Information Systems – GIS) dla oceny możliwości utrzymania fotowoltaicznych farm słonecznych (Solar Photovoltaic Farms – SPVF) w hrabstwie Nakuru, Kenia.
Badania brały pod uwagę siedem kryteriów: nachylenie, nasłonecznienie, kierunek ekspozycji, użytkowanie i pokrycie gruntu, bliskość dróg, linie wysokiego napięcia oraz obecność osiedli ludzkich. Były one oceniane przy użyciu metody hierarchicznej analizy problemów (Analytical Hierarchy Process – AHP), tak aby dla każdego kryterium decyzyjnego wygenerować wagi. Wagi zostały użyte by wypełnić mapy niezależnymi kryteriami, utworzonymi w wyniku ponownej klasyfikacji każdego kryterium, z których utworzono złożoną mapę z uwzględnieniem rang. Podobnie utworzono złożoną mapę ograniczeń, poprzez wykorzystanie kryteriów ograniczających takich jak: ekosystemy chronione, zbiorniki wodne, osiedla ludzkie, nachylenie terenu powyżej 20%, bliskość dróg, bliskość linii przekaźnikowych, użytkowanie i pokrycie gruntu.
Wyniki otrzymane z utworzenia złożonych map ocen i ograniczeń wskazują na to, że hrabstwo Nakuru zasadniczo nadaje się do wykorzystania SPVF, z wyjątkiem obszarów Północnego Kuresoi i Południowego Kuresoi, które wykazują niskie natężenie promieniowania słonecznego. Obszary wyjątkowo odpowiednie dla energii słonecznej stanowią 3.00% (224.14 km²), bardzo odpowiednie stanowią 34.05% (2541.45 km2), umiarkowanie odpowiednie – 7.76% (579.55 km2), mało odpowiednie – 1.47% (109.77 km2), a najmniej odpowiednie pokrywają 0.02% (1.39 km2).
Badania dostarczają wartościowych danych i informacji dla agencji rządowych i inwestorów, którzy chcieliby wskazać miejsca możliwej instalacji systemów fotowoltaicznych (PV). Ponadto zachęca się rząd do utworzenia odpowiedniego ramowego planu badań nad PV i wprowadzenie ułatwień dla sektora prywatnego, aby umożliwić zakładanie SPVFs.
Artykuł odnosi się do pracy inżynierskiej, w której opisano symulację zachowania osadów i zmian ukształtowania dna w Zbiorniku Włocławskim z wykorzystaniem modelu PTM. Za pomocą symulacji numerycznych zbadano wpływ dynamiki przepływu na transport i depozycję materiału dennego. Analizę przeprowadzono w oparciu o dwie zmienne: wysokość powstających form dennych i zmianę rzędnej dna. Porównano wyniki dla przepływów średnich i wysokich dla Wisły: 780, 1143, 1630 oraz 2990 m3·s–1.
Niniejsza analiza bibliograficzna skupia się na różnych metodach obliczania wskaźnika pierwotnej produktywności netto, wskaźników wegetacji i różnych ich zastosowaniach, a także ocenie podatności na zagrożenia i strategiach zarządzania obszarami chronionymi. W tym celu przeanalizowano bibliografię dotyczącą różnych tematów, zebraną za pomocą wyszukiwarek Scopus, Science Direct, ResearchGate i Google Scholar za pośrednictwem portalu Publish or Perish. Spośród 1128 artykułów naukowych na ten temat zachowanych po oczyszczeniu bazy danych, 978 to artykuły w czasopismach, 59 to książki, 52 to raporty, 20 to materiały konferencyjne, a 19 to prace magisterskie lub doktorskie. Dokumenty te szczegółowo opisują wiele metod szacowania pierwotnej produktywności netto, kluczowego parametru oceny wydajności ekosystemu. Metody wykorzystujące dane teledetekcyjne, w szczególności wskaźniki wegetacji, wydają się dziś najłatwiejsze, najtańsze i najmniej żmudne, gwarantujące wiarygodne wyniki. Te innowacyjne metody najlepiej nadają się do oceny wrażliwych ekosystemów. Dzieje się tak w przypadku obszarów chronionych, które w ostatnich latach stanęły w obliczu połączonych skutków działań antropogenicznych i zmian klimatycznych. Biorąc pod uwagę wyzwania, jakie stwarza zarządzanie obszarami chronionymi w Togo, zwłaszcza od czasu niepokojów społeczno-politycznych, jakie miały miejsce w latach 90. XX wieku, należy pilnie ocenić stan zdrowia tych konkretnych ekosystemów, ze szczególnym uwzględnieniem ich funkcjonowania.
Metoda georadarowa (ang. GPR – ground-penetrating radar) jest jedną z geofizycznych metod elektromagnetycznych. Standardową na dzień dzisiejszy techniką badań GPR jest krótko-offsetowe profilowanie refleksyjne (ang. SORP – short-offset reflection profiling), które teoretycznie można opisać identycznie jak pomiary zero-offsetowe (ZO). W badaniach wykonywanych techniką SORP nie dostosowuje się offsetu (tj. odległości między anteną nadawczą i odbiorczą) do głębokości położenia obiektów znajdujących się w rejonie badań. W bardziej zaawansowanych pomiarach wykonywanych techniką szeroko-offsetowego profilowania refleksyjnego (ang. WORP – wide-offset reflection profiling), offset dostosowany jest od domniemanej głębokości położenia obiektów podziemnych, które planujemy wykryć przy pomocy metody GPR. Założenia teoretyczne oraz porównanie pomiarów techniką SORP i WORP opisano w artykule. W artykule przedstawiono również analizy teoretyczne dotyczące kształtu pola radiacji fali dla anten GPR usytuowanych na powierzchni ziemi, tzn. na granicy dwóch ośrodków (tj. powietrze i ośrodek geologiczny) różniących się parametrami elektromagnetycznymi. Zmienność kształtu pola radiacji, jak również zmienność współczynników odbicia dla fal elektromagnetycznych o poprzecznej polaryzacji składowej elektrycznej (ang. TE – transverse electric) i magnetycznej (ang. TM – transverse emagnetic) przy różnych offsetach, wpływają na jakość rejestracji GPR, co przeanalizowano w artykule teoretycznie, jak również poprzez testy terenowe. Terenowe badania testowe wykonano na wybranym fragmencie wału przeciwpowodziowego rzeki Wisły w Krakowie (Polska), gdzie sondowania geotechniczne wskazywały na istnienie stref rozluźnień. W celu zwiększenia zdolności detekcyjnych metody GPR, pomiary wykonano po opadach, które stworzyły tymczasowy układ dwuwarstwowy, tzn. przypowierzchniowa strefa nasycona wodą oraz głębiej leżąca strefa sucha. Wyniki testowych badań techniką WORP potwierdziły założenia analizy teoretycznej i pozwoliły zarejestrować bardziej czytelne radargramy dla większych offsetów niż w przypadku krótkiego offsetu, co ułatwiło dalszą interpretację rejestracji.
Na zmiany socjodynamiki i wzorca występowania naturalnych zagrożeń zarówno w skali regionalnej, jak i większej mają wpływ modyfikacje użytkowania i pokrycia terenu (ang. land use land cover change – LULCC). Wskaźnik LULCC w Dolinie Dolny Dibang w Arunachal Pradesh badano przy użyciu nowoczesnych narzędzi teledetekcyjnych oraz Geograficznego Systemu Informacji (GIS). Analizę zmian w czasie przeprowadzano dla lat 2009, 2014 i 2021 przy pomocy zobrazowań satelitarnych USGS Landsat. Aby określić zmiany w LULCC zastosowano maszynę wektorów nośnych, metodę klasyfikacji nadzorowanej, którą skonfrontowano z punktami w Google Earth, aby osiągnąć dokładność, a analizy zmian w czasie dokonano porównując każdy obraz piksel po pikselu. Wyniki pokazują, że pomiędzy rokiem 2009 i 2021 region ulegał znaczącym zmianom pokrycia terenu w następujących aspektach: zalesienie (–8%), pastwiska/zarośla (–6%), ogołocona ziemia/gołe skały (–1%), obszary rolnicze (–2%) oraz zbiorniki wodne/rzeki (–1%). Zaobserwowano, że większość zmian LULCC wystąpiła na nizinach i większych wysokościach. W siedmiu tehsilach (jednostka administracyjna) Doliny Dolnego Dibangu (Arunachal Pradesh) położonych na różnych wysokościach i stokach niezależnie oceniono skutki zmian LULC w odniesieniu do parametrów klimatu i środowiska, takich jak przepływ ciepła utajonego/jawnego, temperatura, opady oraz wilgotność właściwa. Rozdziały pracy przedstawiające metodykę i wyniki w pełni objaśniają użyte procedury i otrzymane rezultaty.
Korona Gór Polski jest listą szczytów górskich, która od lat reprezentuje wysoki wskaźnik zainteresowania. Wszystkie objęte nią szczyty są warte zdobycia. Propozycja rozszerzenia tej listy o kilka szczytów nazwana została „Nową Koroną Polskich Gór” przez historyka Krzysztofa Bzowskiego i stała się inspiracją do wykonania badania dokładności chmury punktów LIDAR (Light Detection and Ranging) na terenach nowo zaproponowanych szczytów Korony Gór Polski. Chmura punktów LIDAR o gęstości 4 punktów na metr kwadratowy pozyskana w ramach projektu ISOK jest głównym źródłem danych objętych analizą. Jako drugie źródło danych LiDARowych wykorzystano samodzielnie wykonaną chmurę punktów za pomocą wbudowanego sensora LIDAR w iPhone 13 Pro oraz darmowej aplikacji mobilnej 3dScannerApp w ramach naziemnego skaningu. Takie dane porównano do wyników pomiarów RTK GNSS wykonanych odbiornikiem Leica GS16 i pomiaru mobilnego wykonanego za pomocą smartfonów z systemem Android. Oprócz badania surowej chmury punktów podjęto się wizualizacji terenów objętych analizą, za pomocą wykonanych Numerycznych Modeli Terenu w dwóch programach: ArcGIS Pro oraz QGIS Desktop. Badania potwierdziły znaną dokładność chmury punktów ALS i odkryły, iż wbudowany sensor LIDAR w iPhone 13 Pro reprezentuje zaskakującą dokładność. Możliwość skaningu laserowego za pomocą smartfona wraz z możliwością wykonania pomiaru mobilnego GNSS może zrewolucjonizować pomiary geodezyjne oraz ułatwić pozyskiwanie danych chmurowych.
W obliczu dynamicznego rozwoju technologii oraz coraz większej ilości przetwarzanych danych, inteligentne miasta (smart cities) wykorzystują przetwarzanie informacji w czasie rzeczywistym do optymalizacji różnych procesów, w tym nawigacji i zarządzania ruchem drogowym. W tym kontekście dane przestrzenne dotyczące utrudnień drogowych odgrywają kluczową rolę, umożliwiając kierowcom omijanie zatorów oraz bezpieczne i efektywne poruszanie się po mieście. Niniejsze badanie koncentruje się na ocenie jakości i dostępności danych przestrzennych dotyczących utrudnień drogowych, udostępnianych przez Generalną Dyrekcję Dróg Krajowych i Autostrad (GDDKiA) w Polsce. W celu analizy tych danych opracowano aplikację webową, która wizualizuje dane na mapie, co pozwala na identyfikację problemów związanych z dokładnością lokalizacji i brakiem kluczowych informacji. Podczas badania stwierdzono, że wiele punktów, które miały reprezentować miejsca utrudnień drogowych, znajdowało się w znacznej odległości od rzeczywistych osi dróg, co wskazuje na błędy w geolokalizacji. Aby poprawić dokładność, zastosowano dodatkowe algorytmy, które automatycznie korygowały położenie punktów, dopasowując je do najbliższych dróg. W przypadkach, gdy brakowało współrzędnych geograficznych, zastosowano metodę geokodowania opartą na danych z OpenStreetMap, umożliwiając przypisanie utrudnień do najbliższych słupków kilometrowych. Analiza wykazała, że dane z GDDKiA są częściowo niekompletne i problematyczne, co ogranicza ich użyteczność w dalszych analizach przestrzennych. Ponadto nieregularna aktualizacja danych w interwałach 10-minutowych oraz niska liczba raportowanych zdarzeń dodatkowo wpływają na ich jakość i przydatność. Ponadto porównanie wyników wizualizacji z mapą informacji drogowej GDDKiA ujawniło istotne rozbieżności w lokalizacji utrudnień, co sugeruje, że źródła danych lub metody ich przetwarzania mogą się różnić. Wyniki sugerują potrzebę poprawy dokładności i kompletności udostępnianych danych przestrzennych, aby mogły skutecznie wspierać analizy i wizualizacje kartograficzne.
Oprócz powszechnie znanych trwałych relacji prawnych osób lub instytucji do fragmentów powierzchni Ziemi (nieruchomości) – istnieją szeroko stosowane doraźne relacje do przestrzeni realnej, o znacznie zróżnicowanym czasie trwania. Są one funkcją nabytych uprawnień i obowiązują w ściśle określonym czasie. Są powszechne w życiu codziennym i przybierają zróżnicowane formy, których podstawowym atrybutem jest odniesienie do szeroko rozumianego fragmentu przestrzeni geograficznej. Wchodzące zdobycze techniki, jak choćby cyfryzacja płatności, algorytmizacja procedur, identyfikacja dokumentów i osób, ruch autonomiczny i sztuczna inteligencja – stanowią w czasach współczesnych wyzwanie do nadania doraźnym relacjom do przestrzeni sformalizowanego zapisu. Problem formalnego zapisu reguł prawnych obowiązujących w przestrzeni lokalnej zostanie przedstawiony na przykładzie reguł związanych z prawem wjazdu na teren kampusu uniwersyteckiego, wraz z lokalnymi regułami ruchu i parkowania. Przestrzeń jest podzielona na strefy, a następnie na mniejsze jednostki – miejsca do parkowania zgodnie ze strukturą hierarchiczną. Grupy społeczne, które posiadają relacje ze strefami, są również uformowane w zbiory hierarchiczne. Poszczególne grupy mają zróżnicowane prawa do przestrzeni – w odniesieniu hierarchicznym – na poziomie stref. Ustalona hierarchia to pierwszy z rozpatrywanych czynników. Drugim czynnikiem jest zmienność w czasie. Relacje do przestrzeni lokalnej zmieniają się w czasie, najczęściej w formie cyklicznej. Można zatem postawić wniosek, że w tym przypadku prawo jest funkcją czasu. Miejsca do parkowania jako obiekty w zbiorach przestrzennych są zajmowane losowo, a kolejni użytkownicy muszą uruchomić procedurę przeszukiwania pozostałych obiektów należących do zbioru. Ta procedura została zapisana w postaci schematu blokowego oraz grafu. Obiekty usunięte ze zbioru (jako zajęte) mogą losowo powracać, dlatego na potrzeby efektywnego szukania przedstawiono ten proces jako powtarzalny – całościowo lub lokalnie (kaskadowo). Trzecim rozpatrywanym aspektem są różnice w sposobie poruszania się użytkowników sieci dróg lokalnych i na elementarnych polach przestrzeni. Strukturę sieci reprezentują skrzyżowania, które zapisano jako macierze węzłów. W celu zdefiniowania sposobu zachowywania się w przestrzeni lokalnej sporządzono listę reguł, którą poddano standaryzacji. Z praktycznego punktu widzenia, korzystna jest forma zakazu, ponieważ może być powiązana logicznie z listą (zbiorem) konsekwencji. Po takich założeniach sformułowano ogólną postać algorytmu testów behawioralnych. Przedstawiona problematyka pokazuje złożone relacje do przestrzeni oraz jej integrujący charakter w stosunku do reguł prawnych. Takie podejście do prawa pozwala na zarządzanie przestrzenią metodami informatycznymi. Zapis struktury przestrzeni i relacji prawnych powiązanych z czasem – umożliwiają określenie reguł postępowania dla zróżnicowanych grup społeczeństw lokalnych. Odmienność od równości prawa dla wszystkich i stałości w czasie występuje w środowiskach lokalnych i stawia relacje między społecznością, przestrzenią i czasem na wyższy poziom ogólności.
Pomiary przy pomocy technologii LiDAR w ostatnich kilkunastu latach stały się bardzo popularne ze względu na wysoką dokładność, szybkość pozyskiwania oraz kompletność przechwytywania przestrzeni. Ze względu na postępującą łatwość obsługi, coraz częściej pomiary te są wykonywane przez mniej wykwalifikowanych pracowników terenowych. Z drugiej strony coraz większa wiedza i „know-how” pojawia się na etapach przetwarzania danych zebranych w terenie. Jeżeli obydwie części tego procesu będą odpowiednio zorganizowane oraz wspomagane przez technologię, można uzyskać satysfakcjonujące efekty na poziomie wzrostu efektywności zarówno prac terenowych, jak i automatycznego przetwarzania danych LiDAR. W niniejszej analizie przedstawiono efekty prac nad aplikacją SITEPLANNER opracowaną przez firmę 3Deling.
Odnawialne źródła energii odgrywają kluczową rolę w zmniejszeniu globalnego zapotrzebowania na paliwa kopalne. Postęp technologiczny umożliwił czerpanie odnawialnej energii ze słońca, wiatru i pływów oceanicznych. W szczególności energia
słoneczna zyskała uznanie w skali globalnej jako odnawialna alternatywa energetyczna. Niniejsze badania integrują ocenę wielokryterialną (Multi-Criteria Evaluation – MCE) i systemy informacji geograficznej (Geographic Information Systems – GIS) dla oceny możliwości utrzymania fotowoltaicznych farm słonecznych (Solar Photovoltaic Farms – SPVF) w hrabstwie Nakuru, Kenia.
Badania brały pod uwagę siedem kryteriów: nachylenie, nasłonecznienie, kierunek ekspozycji, użytkowanie i pokrycie gruntu, bliskość dróg, linie wysokiego napięcia oraz obecność osiedli ludzkich. Były one oceniane przy użyciu metody hierarchicznej analizy problemów (Analytical Hierarchy Process – AHP), tak aby dla każdego kryterium decyzyjnego wygenerować wagi. Wagi zostały użyte by wypełnić mapy niezależnymi kryteriami, utworzonymi w wyniku ponownej klasyfikacji każdego kryterium, z których utworzono złożoną mapę z uwzględnieniem rang. Podobnie utworzono złożoną mapę ograniczeń, poprzez wykorzystanie kryteriów ograniczających takich jak: ekosystemy chronione, zbiorniki wodne, osiedla ludzkie, nachylenie terenu powyżej 20%, bliskość dróg, bliskość linii przekaźnikowych, użytkowanie i pokrycie gruntu.
Wyniki otrzymane z utworzenia złożonych map ocen i ograniczeń wskazują na to, że hrabstwo Nakuru zasadniczo nadaje się do wykorzystania SPVF, z wyjątkiem obszarów Północnego Kuresoi i Południowego Kuresoi, które wykazują niskie natężenie promieniowania słonecznego. Obszary wyjątkowo odpowiednie dla energii słonecznej stanowią 3.00% (224.14 km²), bardzo odpowiednie stanowią 34.05% (2541.45 km2), umiarkowanie odpowiednie – 7.76% (579.55 km2), mało odpowiednie – 1.47% (109.77 km2), a najmniej odpowiednie pokrywają 0.02% (1.39 km2).
Badania dostarczają wartościowych danych i informacji dla agencji rządowych i inwestorów, którzy chcieliby wskazać miejsca możliwej instalacji systemów fotowoltaicznych (PV). Ponadto zachęca się rząd do utworzenia odpowiedniego ramowego planu badań nad PV i wprowadzenie ułatwień dla sektora prywatnego, aby umożliwić zakładanie SPVFs.
Artykuł odnosi się do pracy inżynierskiej, w której opisano symulację zachowania osadów i zmian ukształtowania dna w Zbiorniku Włocławskim z wykorzystaniem modelu PTM. Za pomocą symulacji numerycznych zbadano wpływ dynamiki przepływu na transport i depozycję materiału dennego. Analizę przeprowadzono w oparciu o dwie zmienne: wysokość powstających form dennych i zmianę rzędnej dna. Porównano wyniki dla przepływów średnich i wysokich dla Wisły: 780, 1143, 1630 oraz 2990 m3·s–1.
Niniejsza analiza bibliograficzna skupia się na różnych metodach obliczania wskaźnika pierwotnej produktywności netto, wskaźników wegetacji i różnych ich zastosowaniach, a także ocenie podatności na zagrożenia i strategiach zarządzania obszarami chronionymi. W tym celu przeanalizowano bibliografię dotyczącą różnych tematów, zebraną za pomocą wyszukiwarek Scopus, Science Direct, ResearchGate i Google Scholar za pośrednictwem portalu Publish or Perish. Spośród 1128 artykułów naukowych na ten temat zachowanych po oczyszczeniu bazy danych, 978 to artykuły w czasopismach, 59 to książki, 52 to raporty, 20 to materiały konferencyjne, a 19 to prace magisterskie lub doktorskie. Dokumenty te szczegółowo opisują wiele metod szacowania pierwotnej produktywności netto, kluczowego parametru oceny wydajności ekosystemu. Metody wykorzystujące dane teledetekcyjne, w szczególności wskaźniki wegetacji, wydają się dziś najłatwiejsze, najtańsze i najmniej żmudne, gwarantujące wiarygodne wyniki. Te innowacyjne metody najlepiej nadają się do oceny wrażliwych ekosystemów. Dzieje się tak w przypadku obszarów chronionych, które w ostatnich latach stanęły w obliczu połączonych skutków działań antropogenicznych i zmian klimatycznych. Biorąc pod uwagę wyzwania, jakie stwarza zarządzanie obszarami chronionymi w Togo, zwłaszcza od czasu niepokojów społeczno-politycznych, jakie miały miejsce w latach 90. XX wieku, należy pilnie ocenić stan zdrowia tych konkretnych ekosystemów, ze szczególnym uwzględnieniem ich funkcjonowania.
Metoda georadarowa (ang. GPR – ground-penetrating radar) jest jedną z geofizycznych metod elektromagnetycznych. Standardową na dzień dzisiejszy techniką badań GPR jest krótko-offsetowe profilowanie refleksyjne (ang. SORP – short-offset reflection profiling), które teoretycznie można opisać identycznie jak pomiary zero-offsetowe (ZO). W badaniach wykonywanych techniką SORP nie dostosowuje się offsetu (tj. odległości między anteną nadawczą i odbiorczą) do głębokości położenia obiektów znajdujących się w rejonie badań. W bardziej zaawansowanych pomiarach wykonywanych techniką szeroko-offsetowego profilowania refleksyjnego (ang. WORP – wide-offset reflection profiling), offset dostosowany jest od domniemanej głębokości położenia obiektów podziemnych, które planujemy wykryć przy pomocy metody GPR. Założenia teoretyczne oraz porównanie pomiarów techniką SORP i WORP opisano w artykule. W artykule przedstawiono również analizy teoretyczne dotyczące kształtu pola radiacji fali dla anten GPR usytuowanych na powierzchni ziemi, tzn. na granicy dwóch ośrodków (tj. powietrze i ośrodek geologiczny) różniących się parametrami elektromagnetycznymi. Zmienność kształtu pola radiacji, jak również zmienność współczynników odbicia dla fal elektromagnetycznych o poprzecznej polaryzacji składowej elektrycznej (ang. TE – transverse electric) i magnetycznej (ang. TM – transverse emagnetic) przy różnych offsetach, wpływają na jakość rejestracji GPR, co przeanalizowano w artykule teoretycznie, jak również poprzez testy terenowe. Terenowe badania testowe wykonano na wybranym fragmencie wału przeciwpowodziowego rzeki Wisły w Krakowie (Polska), gdzie sondowania geotechniczne wskazywały na istnienie stref rozluźnień. W celu zwiększenia zdolności detekcyjnych metody GPR, pomiary wykonano po opadach, które stworzyły tymczasowy układ dwuwarstwowy, tzn. przypowierzchniowa strefa nasycona wodą oraz głębiej leżąca strefa sucha. Wyniki testowych badań techniką WORP potwierdziły założenia analizy teoretycznej i pozwoliły zarejestrować bardziej czytelne radargramy dla większych offsetów niż w przypadku krótkiego offsetu, co ułatwiło dalszą interpretację rejestracji.
Na zmiany socjodynamiki i wzorca występowania naturalnych zagrożeń zarówno w skali regionalnej, jak i większej mają wpływ modyfikacje użytkowania i pokrycia terenu (ang. land use land cover change – LULCC). Wskaźnik LULCC w Dolinie Dolny Dibang w Arunachal Pradesh badano przy użyciu nowoczesnych narzędzi teledetekcyjnych oraz Geograficznego Systemu Informacji (GIS). Analizę zmian w czasie przeprowadzano dla lat 2009, 2014 i 2021 przy pomocy zobrazowań satelitarnych USGS Landsat. Aby określić zmiany w LULCC zastosowano maszynę wektorów nośnych, metodę klasyfikacji nadzorowanej, którą skonfrontowano z punktami w Google Earth, aby osiągnąć dokładność, a analizy zmian w czasie dokonano porównując każdy obraz piksel po pikselu. Wyniki pokazują, że pomiędzy rokiem 2009 i 2021 region ulegał znaczącym zmianom pokrycia terenu w następujących aspektach: zalesienie (–8%), pastwiska/zarośla (–6%), ogołocona ziemia/gołe skały (–1%), obszary rolnicze (–2%) oraz zbiorniki wodne/rzeki (–1%). Zaobserwowano, że większość zmian LULCC wystąpiła na nizinach i większych wysokościach. W siedmiu tehsilach (jednostka administracyjna) Doliny Dolnego Dibangu (Arunachal Pradesh) położonych na różnych wysokościach i stokach niezależnie oceniono skutki zmian LULC w odniesieniu do parametrów klimatu i środowiska, takich jak przepływ ciepła utajonego/jawnego, temperatura, opady oraz wilgotność właściwa. Rozdziały pracy przedstawiające metodykę i wyniki w pełni objaśniają użyte procedury i otrzymane rezultaty.
Korona Gór Polski jest listą szczytów górskich, która od lat reprezentuje wysoki wskaźnik zainteresowania. Wszystkie objęte nią szczyty są warte zdobycia. Propozycja rozszerzenia tej listy o kilka szczytów nazwana została „Nową Koroną Polskich Gór” przez historyka Krzysztofa Bzowskiego i stała się inspiracją do wykonania badania dokładności chmury punktów LIDAR (Light Detection and Ranging) na terenach nowo zaproponowanych szczytów Korony Gór Polski. Chmura punktów LIDAR o gęstości 4 punktów na metr kwadratowy pozyskana w ramach projektu ISOK jest głównym źródłem danych objętych analizą. Jako drugie źródło danych LiDARowych wykorzystano samodzielnie wykonaną chmurę punktów za pomocą wbudowanego sensora LIDAR w iPhone 13 Pro oraz darmowej aplikacji mobilnej 3dScannerApp w ramach naziemnego skaningu. Takie dane porównano do wyników pomiarów RTK GNSS wykonanych odbiornikiem Leica GS16 i pomiaru mobilnego wykonanego za pomocą smartfonów z systemem Android. Oprócz badania surowej chmury punktów podjęto się wizualizacji terenów objętych analizą, za pomocą wykonanych Numerycznych Modeli Terenu w dwóch programach: ArcGIS Pro oraz QGIS Desktop. Badania potwierdziły znaną dokładność chmury punktów ALS i odkryły, iż wbudowany sensor LIDAR w iPhone 13 Pro reprezentuje zaskakującą dokładność. Możliwość skaningu laserowego za pomocą smartfona wraz z możliwością wykonania pomiaru mobilnego GNSS może zrewolucjonizować pomiary geodezyjne oraz ułatwić pozyskiwanie danych chmurowych.
W obliczu dynamicznego rozwoju technologii oraz coraz większej ilości przetwarzanych danych, inteligentne miasta (smart cities) wykorzystują przetwarzanie informacji w czasie rzeczywistym do optymalizacji różnych procesów, w tym nawigacji i zarządzania ruchem drogowym. W tym kontekście dane przestrzenne dotyczące utrudnień drogowych odgrywają kluczową rolę, umożliwiając kierowcom omijanie zatorów oraz bezpieczne i efektywne poruszanie się po mieście. Niniejsze badanie koncentruje się na ocenie jakości i dostępności danych przestrzennych dotyczących utrudnień drogowych, udostępnianych przez Generalną Dyrekcję Dróg Krajowych i Autostrad (GDDKiA) w Polsce. W celu analizy tych danych opracowano aplikację webową, która wizualizuje dane na mapie, co pozwala na identyfikację problemów związanych z dokładnością lokalizacji i brakiem kluczowych informacji. Podczas badania stwierdzono, że wiele punktów, które miały reprezentować miejsca utrudnień drogowych, znajdowało się w znacznej odległości od rzeczywistych osi dróg, co wskazuje na błędy w geolokalizacji. Aby poprawić dokładność, zastosowano dodatkowe algorytmy, które automatycznie korygowały położenie punktów, dopasowując je do najbliższych dróg. W przypadkach, gdy brakowało współrzędnych geograficznych, zastosowano metodę geokodowania opartą na danych z OpenStreetMap, umożliwiając przypisanie utrudnień do najbliższych słupków kilometrowych. Analiza wykazała, że dane z GDDKiA są częściowo niekompletne i problematyczne, co ogranicza ich użyteczność w dalszych analizach przestrzennych. Ponadto nieregularna aktualizacja danych w interwałach 10-minutowych oraz niska liczba raportowanych zdarzeń dodatkowo wpływają na ich jakość i przydatność. Ponadto porównanie wyników wizualizacji z mapą informacji drogowej GDDKiA ujawniło istotne rozbieżności w lokalizacji utrudnień, co sugeruje, że źródła danych lub metody ich przetwarzania mogą się różnić. Wyniki sugerują potrzebę poprawy dokładności i kompletności udostępnianych danych przestrzennych, aby mogły skutecznie wspierać analizy i wizualizacje kartograficzne.
Oprócz powszechnie znanych trwałych relacji prawnych osób lub instytucji do fragmentów powierzchni Ziemi (nieruchomości) – istnieją szeroko stosowane doraźne relacje do przestrzeni realnej, o znacznie zróżnicowanym czasie trwania. Są one funkcją nabytych uprawnień i obowiązują w ściśle określonym czasie. Są powszechne w życiu codziennym i przybierają zróżnicowane formy, których podstawowym atrybutem jest odniesienie do szeroko rozumianego fragmentu przestrzeni geograficznej. Wchodzące zdobycze techniki, jak choćby cyfryzacja płatności, algorytmizacja procedur, identyfikacja dokumentów i osób, ruch autonomiczny i sztuczna inteligencja – stanowią w czasach współczesnych wyzwanie do nadania doraźnym relacjom do przestrzeni sformalizowanego zapisu. Problem formalnego zapisu reguł prawnych obowiązujących w przestrzeni lokalnej zostanie przedstawiony na przykładzie reguł związanych z prawem wjazdu na teren kampusu uniwersyteckiego, wraz z lokalnymi regułami ruchu i parkowania. Przestrzeń jest podzielona na strefy, a następnie na mniejsze jednostki – miejsca do parkowania zgodnie ze strukturą hierarchiczną. Grupy społeczne, które posiadają relacje ze strefami, są również uformowane w zbiory hierarchiczne. Poszczególne grupy mają zróżnicowane prawa do przestrzeni – w odniesieniu hierarchicznym – na poziomie stref. Ustalona hierarchia to pierwszy z rozpatrywanych czynników. Drugim czynnikiem jest zmienność w czasie. Relacje do przestrzeni lokalnej zmieniają się w czasie, najczęściej w formie cyklicznej. Można zatem postawić wniosek, że w tym przypadku prawo jest funkcją czasu. Miejsca do parkowania jako obiekty w zbiorach przestrzennych są zajmowane losowo, a kolejni użytkownicy muszą uruchomić procedurę przeszukiwania pozostałych obiektów należących do zbioru. Ta procedura została zapisana w postaci schematu blokowego oraz grafu. Obiekty usunięte ze zbioru (jako zajęte) mogą losowo powracać, dlatego na potrzeby efektywnego szukania przedstawiono ten proces jako powtarzalny – całościowo lub lokalnie (kaskadowo). Trzecim rozpatrywanym aspektem są różnice w sposobie poruszania się użytkowników sieci dróg lokalnych i na elementarnych polach przestrzeni. Strukturę sieci reprezentują skrzyżowania, które zapisano jako macierze węzłów. W celu zdefiniowania sposobu zachowywania się w przestrzeni lokalnej sporządzono listę reguł, którą poddano standaryzacji. Z praktycznego punktu widzenia, korzystna jest forma zakazu, ponieważ może być powiązana logicznie z listą (zbiorem) konsekwencji. Po takich założeniach sformułowano ogólną postać algorytmu testów behawioralnych. Przedstawiona problematyka pokazuje złożone relacje do przestrzeni oraz jej integrujący charakter w stosunku do reguł prawnych. Takie podejście do prawa pozwala na zarządzanie przestrzenią metodami informatycznymi. Zapis struktury przestrzeni i relacji prawnych powiązanych z czasem – umożliwiają określenie reguł postępowania dla zróżnicowanych grup społeczeństw lokalnych. Odmienność od równości prawa dla wszystkich i stałości w czasie występuje w środowiskach lokalnych i stawia relacje między społecznością, przestrzenią i czasem na wyższy poziom ogólności.
Pomiary przy pomocy technologii LiDAR w ostatnich kilkunastu latach stały się bardzo popularne ze względu na wysoką dokładność, szybkość pozyskiwania oraz kompletność przechwytywania przestrzeni. Ze względu na postępującą łatwość obsługi, coraz częściej pomiary te są wykonywane przez mniej wykwalifikowanych pracowników terenowych. Z drugiej strony coraz większa wiedza i „know-how” pojawia się na etapach przetwarzania danych zebranych w terenie. Jeżeli obydwie części tego procesu będą odpowiednio zorganizowane oraz wspomagane przez technologię, można uzyskać satysfakcjonujące efekty na poziomie wzrostu efektywności zarówno prac terenowych, jak i automatycznego przetwarzania danych LiDAR. W niniejszej analizie przedstawiono efekty prac nad aplikacją SITEPLANNER opracowaną przez firmę 3Deling.
Celem pracy jest ocena przestrzennego zróżnicowania średniego minimalnego rocznego przepływu SNQ, a także przepływu SNQm (m = 1, 2, …12) w poszczególnych miesiącach w Polsce.
W pracy wykorzystano pozyskane z IMGW‑PIB ciągi dobowych przepływów z okresu od 1.11.1990 do 31.10.2020 roku w 433 przekrojach wodowskazowych zlokalizowanych na obszarze Polski. Wyniki analiz przedstawiono na mapach na tle regionów fizycznogeograficznych (pobrzeża, pojezierza, niziny, wyżyny, Karpaty i Sudety).
Do porównania średnich SNqm w każdym miesiącu, między regionami fizycznogeograficznymi wykorzystano test Kruskala-Wallisa z poprawką Dunna (Bonferroniego), a do oceny siły zróżnicowania przestrzennego przepływów SNqm określono współczynnik korelacji Spearmana między SNqm a wysokością położenia zera wodowskazu, a także zweryfikowano hipotezę o istotności tego współczynnika.
W ciągu roku przepływ SNqm zmienia się; spodziewanie największe wartości obserwuje się w marcu i kwietniu, a najniższe w lipcu i sierpniu. Zdecydowanie najmniej zasobne w wodę są, niezależnie od miesiąca, rzeki środkowej i nizinnej części Polski, a największe przepływy obserwuje się w rzekach górskich.
Nie obserwuje się statystycznej różnicy między SNqm na pobrzeżach, w Karpatach oraz Sudetach i w prawie wszystkich miesiącach między pojezierzami i nizinami.
Na obszarze Polski przepływ zależy od wysokości położenia zlewni, przy czym najsilniejsza zależność występuje w obszarach górskich.
W artykule przedstawiono i omówiono niestandardowe metody przetwarzania sygnałówi obrazów georadarowych GPR (Ground Penetrating Radar) dla różnych orientacji anten pomiarowych. Badania terenowe przeprowadzono na wybranym obszarze pogórniczym w Polsce, gdzie zaobserwowano na powierzchni terenu liczne zapadliska i strefy osiadań wywołane dawną działalnością górniczą. Badania GPR przeprowadzono pomiędzy dwoma istniejącymi zapadliskami. Celem pomiarów było wykrycie stref rozluźnień w gruncie powstałych w wyniku procesów sufozyjnych, który wcześniej spowodował powstanie wspomnianych dwóch zapadlisk. W artykule zaproponowano nowy sposób przetwarzania i analizy radarogramów oparty na trzech etapach, tj. bardziej zaawansowane przetwarzanie 1D sygnałów/tras, bardziej zaawansowane przetwarzanie 2D obrazu powstałego z połączenia radarogramów i finalnie wizualizację oraz analizę wybranych atrybutów sygnałów georadarowych.
W artykule przedstawiono wyniki przyrodniczej i geodezyjnej kwerendy dwóch sąsiadujących w przestrzeni miejskiej Krakowa bezodpływowych zbiorników pogórniczych, tj. Bagrów Wielkich i Stawu Płaszowskiego (Bagrów Małych), usytuowanych niemal w centrum Krakowa. Przeanalizowano ruch zwierciadeł wody w okresie 2016–2023 (od chwili katastrofy ekologicznej w obrębie Stawu zarejestrowanej w lutym 2016 roku) oraz przedstawiono mapy batymetryczne.
Na podstawie pomiarów geodezyjnych prowadzonych w latach 2016–2022 i bezpośrednich obserwacji przyrodniczych dokumentujących bioróżnorodność obu zbiorników w latach 2019–2022, autorzy dokonali przeglądu stanu biosfery w obrębie tych lokalizacji. Pomiary geodezyjne i wywiady przyrodnicze dały podstawę sparametryzowania obu akwenów (dane morfometryczne i mapy batymetryczne) oraz stworzenia aktualnej bazy przyrodniczej (mapy lokalizacji, dane jakościowe oraz ilościowe elementów flory i fauny). Zgromadzony materiał stanowi wartościowe podstawy do dalszych prac badawczych z wykorzystaniem bardziej zaawansowanych i przydatnych w tych szczególnych warunkach technik fotogrametrycznych i technologii UAV, które w przyszłości mogą usprawnić pozyskiwanie i zwiększyć dokładność danych rozpoznania przyrodniczego zawartych w niniejszej publikacji.
W artykule przedstawiono wyniki analizy dokładności transformacji współrzędnych punktów granicznych sąsiednich obszarów górniczych na Śląsku. Transformacje przeprowadzono niezależnie dla każdego obszaru górniczego, co spowodowało, że równoważne punkty graniczne sąsiednich obszarów górniczych w lokalnym układzie współrzędnych mają inne współrzędne w krajowym układzie PL-2000. Dodatkowo przeprowadzono analizy uwzględniające dokładność pomiaru potwierdzające wrażliwość transformacji konforemnej pierwszego stopnia na błędy pomiarowe. Występujące różnice wskazują na konieczność poszukiwania metody, która je zmniejszy lub zniweluje.
Ze względu na rozmiar surowych danych pochodzących z pomiarów geodezyjnych szczególnego znaczenia nabiera ich dalsze przetwarzanie przez wyszkolonych inżynierów przy użyciu algorytmów komputerowych. Dlatego też naukowcy pracują nad kolejnymi algorytmami do automatyzacji procesów wykrywania cech geometrycznych takich jak symetria, osie główne, linie szkieletowe itp. W artykule przedstawiono autorski algorytm do wyznaczania nierozgałęzionej osi głównej. Opisywane rozwiązanie bazuje na algorytmie Krzywej Minimalnego Promienia (CMR) i eliminuje znaczące ograniczenia pierwowzoru dotyczące kształtu danych wejściowych. Użyty parametr progu iteracyjnego pozwala manipulować dokładnością wyników. Opisane rozwiązanie jest bardziej uniwersalne pod względem kształtu danych wejściowych niż algorytm CMR. Testy działania algorytmu przeprowadzono na obiektach dwuwymiarowych o zróżnicowanym kształcie, a otrzymane wyniki porównano z algorytmami CMR i Medial Axis.
Spośród mezozoicznych basenów w Jemenie, Basen Sab’atay ma najbardziej znaczący potencjał dla poszukiwań ropy naftowej i gazu. Sprawą kluczową w ocenie skał źródłowych w aspekcie poszukiwania węglowodorów jest ilość i natura materii organicznej w osadach. Wykorzystując geochemię organiczną, całkowitą zawartość węgla organicznego, osady bogate w związki organiczne z Meem (dolnego) i Lam (górnego), przeanalizowano próbki z czterech studni w północno-zachodniej części Basenu Sab’atayn. Badania pokazały, że skały źródłowe z Meem mają całkowitą zawartość węgla organicznego (TOC) w granicach 0,2–1,68 wt%, co sugeruje oceny skały źródłowej od dostatecznej do bardzo dobrej. Tylko dwie próbki z odwiertu Kamaran-01 miały wartości powyżej 3 wt%, w porównaniu do skał źródłowych Lam, których wartości wahały się od 0,2 do 3,81 wt%, co sugeruje ocenę doskonałą. Większość próbek pochodzi z przetworzonych szczątków organicznych, bez możliwości stania się interesującymi skałami źródłowymi, według danych pirolizy Rock-Eval. Większość badanych próbek skał źródłowych Meem i Lam ma wartość maksymalną temperatury poniżej 440 °C, co umiejscawia je w grupie od niedojrzałych do słabo dojrzałych, oraz na peryferiach i w głównej części peryferyjnej formacji węglowodorów. Na podstawie wyników potencjału generatywnego (GP) skał źródłowych z Meem można wnioskować, że skały z Meem mają status skał płonnych, ze względu na wartości GP poniżej 2 mg HC/g skały. Ponadto, jeśli głębokość ok. 1,5 m wystarczy do wytworzenia potrzebnej temperatury i ciśnienia, skały źródłowe o niezwykle wysokich wartościach GP – ponad 10 mg Hc/g, skały mogą służyć jako wydajne źródło w odwiercie Dahamr Ali-01. Z drugiej strony skały źródłowe Lam klasyfikuje się jako umiarkowane skały źródłowe. Brak potencjału generatywnego odnotowano w skałach źródłowych z Lam w odwiercie Himyar-01, gdzie GP jest niższe niż 1 mg HC/g skałę. Wykresy cech pyrolizy, takich jak HI versus Tmax (zmodyfikowany diagram van Krevelena) i TOC vs S2, będące najprawdopodobniej wynikiem odkładania się na obszarze badań materiałów organicznych typu III, pochodzących z lądu, mogą być użyte do określenia typu karogenu dla jednostek źródłowych z Lam i Meem. Analiza skał źródłowych Meem pokazała, że zazwyczaj układają się one w strefie dojrzałej; chociaż próbki skał źródłowych z Lam wykazały, że wciąż są one niedojrzałe lub zaledwie na granicy dojrzałości w odwiertach Dahamr Ali-01 i Saba-01.
Zdrowie jednostki jest w dużej mierze zdeterminowane przez odżywianie i określone przez dietę, która składa się z różnych produktów spożywczych. Tak więc zbilansowana i bogata w składniki odżywcze żywność jest najważniejszym pojedynczym czynnikiem związanym z osiągnięciem i utrzymaniem dobrego stanu zdrowia [1]. W sumie wybrano 115 wiosek, a 23 z tej listy (ITDP) losowo wybrano w każdym tehsilu (jednostka administracyjna w Indiach). Stosując prawdopodobieństwo proporcjonalne do wielkości różnych plemion, zbadano łącznie 10 gospodarstw domowych (HH) z każdej wybranej wioski. Z tego powodu gospodarstwa domowe w każdej wiosce podzielono na grupy w oparciu o plemię, a niezbędną liczbę gospodarstw domowych z każdego plemienia uwzględniono w ankiecie. Łączna wielkość udziału w wadze danego produktu spożywczego w posiłku została obliczona przy użyciu przydzielonej wagi. Populacje plemienne są niedożywione, a w wyniku niedoborów żywności narażone na rozwój chorób związanych z niedoborem pokarmowym.
Głównym celem artykułu było opracowanie narzędzia, które automatycznie wyznacza podstawowe parametry opisujące efektywność prac scaleniowych, w szczególności projektów scaleniowych i analizy optymalnej lokalizacji działek. Efektywność określają zwykle podstawowe parametry przestrzenne, takie jak wielkość, liczba i rozproszenie działek. Do obliczenia rozproszenia przestrzennego działek w jednostce ewidencyjnej zaproponowano wykorzystanie otoczki wypukłej. Jest to jedna z podstawowych funkcji Systemu Informacji Geograficznej (GIS). Dzięki temu w prosty sposób można oszacować rozproszenie gruntów, biorąc pod uwagę ich powierzchnię i przynależność do danej jednostki ewidencyjnej. Do budowy narzędzia do oceny efektywności wykorzystano aplikację ModelBuilder dostępną w oprogramowaniu ArcGIS. Działanie tego narzędzia sprawdzono na trzech obszarach scaleniowych – Ilkowice, Rajsko-Niedzieliska-Szczurowa oraz Łukowa. Najlepsze wyniki w zakresie optymalnego rozmieszczenia działek uzyskano na obiekcie Rajsko-Niedzielska-Szczurowa. W tym przypadku średnia powierzchnia działek wzrosła ponad trzykrotnie. Liczba działek w całym obiekcie i w jednostkach ewidencyjnych zmniejszyła się ponad trzykrotnie. Średnie rozproszenie działek w jednostkach zmniejszyło się niemal czterokrotnie. Pozostałe dwa obiekty nie uzyskały tak dobrych wyników, ale analiza parametrów wskazuje, że nastąpiła poprawa rozkładu działek w stosunku do stanu wyjściowego. Średnia powierzchnia działek w Ilkowicach wzrosła o ok. 25%, a w Łukowej ok. 48%. Liczba działek zmalała w Ilkowicach o ok. 25%, a w Łukowej o ok. 48%. Średnie rozproszenie działek w jednostkach zmalało w Ilkowicach o 20%, a w Łukowej o ok. 22%. Należy zauważyć, że obiekt Rajsko-Niedzielska-Szczurowa składał się wyłącznie z działek rolnych, więc zdecydowanie łatwiej było osiągnąć tak dobre wyniki. Na obiektach Ilkowice i Łukowa występowały też działki zabudowane, które nie podlegały konsolidacji.
Charakterystykę zbiorników wodnych poszerzono dzięki różnym pomiarom petrofizycznym i pomiarom elastyczności, dostarczając wartościowych informacji o formacjach geologicznych. Określenia porowatości przy użyciu zapisów dźwięku, badania neutronów oraz gęstości wykazały wyraźną tendencję do zmniejszania się porowatości wraz z głębokością. Przyczynia się do tego litologia, ciśnienie i obecność węglowodorów. Strefy węglowodoronośne są identyfikowane przez korelację pomiędzy tworzeniem się oporności a nasyceniem skał węglowodorami. Wyższa oporność skał nasyconych węglowodorami wynika ze złego przewodnictwa ropy naftowej i gazu, w porównaniu z wodą. Klasyfikacja litologiczna na podstawie zapisu gamma i ilorazu Vp/Vs doprowadziła do głębszego zrozumienia składu złóż, klasyfikując je jako złoża piaskowo-łupkowe formacji Agbada. Elastyczne właściwości złóż, szczególnie piaskowców, wykazały ważne korelacje związane z głębokością, która ma wpływ na kruchość złóż, ich odporność oraz podatność na zniszczenie w różnych warunkach. Obserwowana w złożach łupkowych pod ciśnieniem równowaga ścisłości diagenetycznej odegrała znaczącą rolę w akumulacji węglowodorów. Wyniki badań nie tylko przyczyniają się do zrozumienia formacji geologicznych w rejonie delty rzeki Niger, ale również dostarczają podstaw do przedsięwzięć związanych z poszukiwaniem i eksploatacją złóż. Charakterystyka złóż węglowodorowych na różnych głębokościach i ich cechy, takie jak porowatość, nasycenie płynem i litologia, przyczynią się do podejmowania decyzji w przemyśle naftowo-gazowym. Analiza danych z odwiertów B001, B002 oraz B003 pozwoliła na znalezienie cech charakterystycznych dla wielu złóż w rejonie delty Nigru, dostarczając wartościowych informacji dla podejmowania decyzji dotyczących poszukiwań i wydobycia węglowodorów.
Celem pracy jest ocena przestrzennego zróżnicowania średniego minimalnego rocznego przepływu SNQ, a także przepływu SNQm (m = 1, 2, …12) w poszczególnych miesiącach w Polsce.
W pracy wykorzystano pozyskane z IMGW‑PIB ciągi dobowych przepływów z okresu od 1.11.1990 do 31.10.2020 roku w 433 przekrojach wodowskazowych zlokalizowanych na obszarze Polski. Wyniki analiz przedstawiono na mapach na tle regionów fizycznogeograficznych (pobrzeża, pojezierza, niziny, wyżyny, Karpaty i Sudety).
Do porównania średnich SNqm w każdym miesiącu, między regionami fizycznogeograficznymi wykorzystano test Kruskala-Wallisa z poprawką Dunna (Bonferroniego), a do oceny siły zróżnicowania przestrzennego przepływów SNqm określono współczynnik korelacji Spearmana między SNqm a wysokością położenia zera wodowskazu, a także zweryfikowano hipotezę o istotności tego współczynnika.
W ciągu roku przepływ SNqm zmienia się; spodziewanie największe wartości obserwuje się w marcu i kwietniu, a najniższe w lipcu i sierpniu. Zdecydowanie najmniej zasobne w wodę są, niezależnie od miesiąca, rzeki środkowej i nizinnej części Polski, a największe przepływy obserwuje się w rzekach górskich.
Nie obserwuje się statystycznej różnicy między SNqm na pobrzeżach, w Karpatach oraz Sudetach i w prawie wszystkich miesiącach między pojezierzami i nizinami.
Na obszarze Polski przepływ zależy od wysokości położenia zlewni, przy czym najsilniejsza zależność występuje w obszarach górskich.
W artykule przedstawiono i omówiono niestandardowe metody przetwarzania sygnałówi obrazów georadarowych GPR (Ground Penetrating Radar) dla różnych orientacji anten pomiarowych. Badania terenowe przeprowadzono na wybranym obszarze pogórniczym w Polsce, gdzie zaobserwowano na powierzchni terenu liczne zapadliska i strefy osiadań wywołane dawną działalnością górniczą. Badania GPR przeprowadzono pomiędzy dwoma istniejącymi zapadliskami. Celem pomiarów było wykrycie stref rozluźnień w gruncie powstałych w wyniku procesów sufozyjnych, który wcześniej spowodował powstanie wspomnianych dwóch zapadlisk. W artykule zaproponowano nowy sposób przetwarzania i analizy radarogramów oparty na trzech etapach, tj. bardziej zaawansowane przetwarzanie 1D sygnałów/tras, bardziej zaawansowane przetwarzanie 2D obrazu powstałego z połączenia radarogramów i finalnie wizualizację oraz analizę wybranych atrybutów sygnałów georadarowych.
W artykule przedstawiono wyniki przyrodniczej i geodezyjnej kwerendy dwóch sąsiadujących w przestrzeni miejskiej Krakowa bezodpływowych zbiorników pogórniczych, tj. Bagrów Wielkich i Stawu Płaszowskiego (Bagrów Małych), usytuowanych niemal w centrum Krakowa. Przeanalizowano ruch zwierciadeł wody w okresie 2016–2023 (od chwili katastrofy ekologicznej w obrębie Stawu zarejestrowanej w lutym 2016 roku) oraz przedstawiono mapy batymetryczne.
Na podstawie pomiarów geodezyjnych prowadzonych w latach 2016–2022 i bezpośrednich obserwacji przyrodniczych dokumentujących bioróżnorodność obu zbiorników w latach 2019–2022, autorzy dokonali przeglądu stanu biosfery w obrębie tych lokalizacji. Pomiary geodezyjne i wywiady przyrodnicze dały podstawę sparametryzowania obu akwenów (dane morfometryczne i mapy batymetryczne) oraz stworzenia aktualnej bazy przyrodniczej (mapy lokalizacji, dane jakościowe oraz ilościowe elementów flory i fauny). Zgromadzony materiał stanowi wartościowe podstawy do dalszych prac badawczych z wykorzystaniem bardziej zaawansowanych i przydatnych w tych szczególnych warunkach technik fotogrametrycznych i technologii UAV, które w przyszłości mogą usprawnić pozyskiwanie i zwiększyć dokładność danych rozpoznania przyrodniczego zawartych w niniejszej publikacji.
W artykule przedstawiono wyniki analizy dokładności transformacji współrzędnych punktów granicznych sąsiednich obszarów górniczych na Śląsku. Transformacje przeprowadzono niezależnie dla każdego obszaru górniczego, co spowodowało, że równoważne punkty graniczne sąsiednich obszarów górniczych w lokalnym układzie współrzędnych mają inne współrzędne w krajowym układzie PL-2000. Dodatkowo przeprowadzono analizy uwzględniające dokładność pomiaru potwierdzające wrażliwość transformacji konforemnej pierwszego stopnia na błędy pomiarowe. Występujące różnice wskazują na konieczność poszukiwania metody, która je zmniejszy lub zniweluje.
Ze względu na rozmiar surowych danych pochodzących z pomiarów geodezyjnych szczególnego znaczenia nabiera ich dalsze przetwarzanie przez wyszkolonych inżynierów przy użyciu algorytmów komputerowych. Dlatego też naukowcy pracują nad kolejnymi algorytmami do automatyzacji procesów wykrywania cech geometrycznych takich jak symetria, osie główne, linie szkieletowe itp. W artykule przedstawiono autorski algorytm do wyznaczania nierozgałęzionej osi głównej. Opisywane rozwiązanie bazuje na algorytmie Krzywej Minimalnego Promienia (CMR) i eliminuje znaczące ograniczenia pierwowzoru dotyczące kształtu danych wejściowych. Użyty parametr progu iteracyjnego pozwala manipulować dokładnością wyników. Opisane rozwiązanie jest bardziej uniwersalne pod względem kształtu danych wejściowych niż algorytm CMR. Testy działania algorytmu przeprowadzono na obiektach dwuwymiarowych o zróżnicowanym kształcie, a otrzymane wyniki porównano z algorytmami CMR i Medial Axis.
Spośród mezozoicznych basenów w Jemenie, Basen Sab’atay ma najbardziej znaczący potencjał dla poszukiwań ropy naftowej i gazu. Sprawą kluczową w ocenie skał źródłowych w aspekcie poszukiwania węglowodorów jest ilość i natura materii organicznej w osadach. Wykorzystując geochemię organiczną, całkowitą zawartość węgla organicznego, osady bogate w związki organiczne z Meem (dolnego) i Lam (górnego), przeanalizowano próbki z czterech studni w północno-zachodniej części Basenu Sab’atayn. Badania pokazały, że skały źródłowe z Meem mają całkowitą zawartość węgla organicznego (TOC) w granicach 0,2–1,68 wt%, co sugeruje oceny skały źródłowej od dostatecznej do bardzo dobrej. Tylko dwie próbki z odwiertu Kamaran-01 miały wartości powyżej 3 wt%, w porównaniu do skał źródłowych Lam, których wartości wahały się od 0,2 do 3,81 wt%, co sugeruje ocenę doskonałą. Większość próbek pochodzi z przetworzonych szczątków organicznych, bez możliwości stania się interesującymi skałami źródłowymi, według danych pirolizy Rock-Eval. Większość badanych próbek skał źródłowych Meem i Lam ma wartość maksymalną temperatury poniżej 440 °C, co umiejscawia je w grupie od niedojrzałych do słabo dojrzałych, oraz na peryferiach i w głównej części peryferyjnej formacji węglowodorów. Na podstawie wyników potencjału generatywnego (GP) skał źródłowych z Meem można wnioskować, że skały z Meem mają status skał płonnych, ze względu na wartości GP poniżej 2 mg HC/g skały. Ponadto, jeśli głębokość ok. 1,5 m wystarczy do wytworzenia potrzebnej temperatury i ciśnienia, skały źródłowe o niezwykle wysokich wartościach GP – ponad 10 mg Hc/g, skały mogą służyć jako wydajne źródło w odwiercie Dahamr Ali-01. Z drugiej strony skały źródłowe Lam klasyfikuje się jako umiarkowane skały źródłowe. Brak potencjału generatywnego odnotowano w skałach źródłowych z Lam w odwiercie Himyar-01, gdzie GP jest niższe niż 1 mg HC/g skałę. Wykresy cech pyrolizy, takich jak HI versus Tmax (zmodyfikowany diagram van Krevelena) i TOC vs S2, będące najprawdopodobniej wynikiem odkładania się na obszarze badań materiałów organicznych typu III, pochodzących z lądu, mogą być użyte do określenia typu karogenu dla jednostek źródłowych z Lam i Meem. Analiza skał źródłowych Meem pokazała, że zazwyczaj układają się one w strefie dojrzałej; chociaż próbki skał źródłowych z Lam wykazały, że wciąż są one niedojrzałe lub zaledwie na granicy dojrzałości w odwiertach Dahamr Ali-01 i Saba-01.
Zdrowie jednostki jest w dużej mierze zdeterminowane przez odżywianie i określone przez dietę, która składa się z różnych produktów spożywczych. Tak więc zbilansowana i bogata w składniki odżywcze żywność jest najważniejszym pojedynczym czynnikiem związanym z osiągnięciem i utrzymaniem dobrego stanu zdrowia [1]. W sumie wybrano 115 wiosek, a 23 z tej listy (ITDP) losowo wybrano w każdym tehsilu (jednostka administracyjna w Indiach). Stosując prawdopodobieństwo proporcjonalne do wielkości różnych plemion, zbadano łącznie 10 gospodarstw domowych (HH) z każdej wybranej wioski. Z tego powodu gospodarstwa domowe w każdej wiosce podzielono na grupy w oparciu o plemię, a niezbędną liczbę gospodarstw domowych z każdego plemienia uwzględniono w ankiecie. Łączna wielkość udziału w wadze danego produktu spożywczego w posiłku została obliczona przy użyciu przydzielonej wagi. Populacje plemienne są niedożywione, a w wyniku niedoborów żywności narażone na rozwój chorób związanych z niedoborem pokarmowym.
Głównym celem artykułu było opracowanie narzędzia, które automatycznie wyznacza podstawowe parametry opisujące efektywność prac scaleniowych, w szczególności projektów scaleniowych i analizy optymalnej lokalizacji działek. Efektywność określają zwykle podstawowe parametry przestrzenne, takie jak wielkość, liczba i rozproszenie działek. Do obliczenia rozproszenia przestrzennego działek w jednostce ewidencyjnej zaproponowano wykorzystanie otoczki wypukłej. Jest to jedna z podstawowych funkcji Systemu Informacji Geograficznej (GIS). Dzięki temu w prosty sposób można oszacować rozproszenie gruntów, biorąc pod uwagę ich powierzchnię i przynależność do danej jednostki ewidencyjnej. Do budowy narzędzia do oceny efektywności wykorzystano aplikację ModelBuilder dostępną w oprogramowaniu ArcGIS. Działanie tego narzędzia sprawdzono na trzech obszarach scaleniowych – Ilkowice, Rajsko-Niedzieliska-Szczurowa oraz Łukowa. Najlepsze wyniki w zakresie optymalnego rozmieszczenia działek uzyskano na obiekcie Rajsko-Niedzielska-Szczurowa. W tym przypadku średnia powierzchnia działek wzrosła ponad trzykrotnie. Liczba działek w całym obiekcie i w jednostkach ewidencyjnych zmniejszyła się ponad trzykrotnie. Średnie rozproszenie działek w jednostkach zmniejszyło się niemal czterokrotnie. Pozostałe dwa obiekty nie uzyskały tak dobrych wyników, ale analiza parametrów wskazuje, że nastąpiła poprawa rozkładu działek w stosunku do stanu wyjściowego. Średnia powierzchnia działek w Ilkowicach wzrosła o ok. 25%, a w Łukowej ok. 48%. Liczba działek zmalała w Ilkowicach o ok. 25%, a w Łukowej o ok. 48%. Średnie rozproszenie działek w jednostkach zmalało w Ilkowicach o 20%, a w Łukowej o ok. 22%. Należy zauważyć, że obiekt Rajsko-Niedzielska-Szczurowa składał się wyłącznie z działek rolnych, więc zdecydowanie łatwiej było osiągnąć tak dobre wyniki. Na obiektach Ilkowice i Łukowa występowały też działki zabudowane, które nie podlegały konsolidacji.
Charakterystykę zbiorników wodnych poszerzono dzięki różnym pomiarom petrofizycznym i pomiarom elastyczności, dostarczając wartościowych informacji o formacjach geologicznych. Określenia porowatości przy użyciu zapisów dźwięku, badania neutronów oraz gęstości wykazały wyraźną tendencję do zmniejszania się porowatości wraz z głębokością. Przyczynia się do tego litologia, ciśnienie i obecność węglowodorów. Strefy węglowodoronośne są identyfikowane przez korelację pomiędzy tworzeniem się oporności a nasyceniem skał węglowodorami. Wyższa oporność skał nasyconych węglowodorami wynika ze złego przewodnictwa ropy naftowej i gazu, w porównaniu z wodą. Klasyfikacja litologiczna na podstawie zapisu gamma i ilorazu Vp/Vs doprowadziła do głębszego zrozumienia składu złóż, klasyfikując je jako złoża piaskowo-łupkowe formacji Agbada. Elastyczne właściwości złóż, szczególnie piaskowców, wykazały ważne korelacje związane z głębokością, która ma wpływ na kruchość złóż, ich odporność oraz podatność na zniszczenie w różnych warunkach. Obserwowana w złożach łupkowych pod ciśnieniem równowaga ścisłości diagenetycznej odegrała znaczącą rolę w akumulacji węglowodorów. Wyniki badań nie tylko przyczyniają się do zrozumienia formacji geologicznych w rejonie delty rzeki Niger, ale również dostarczają podstaw do przedsięwzięć związanych z poszukiwaniem i eksploatacją złóż. Charakterystyka złóż węglowodorowych na różnych głębokościach i ich cechy, takie jak porowatość, nasycenie płynem i litologia, przyczynią się do podejmowania decyzji w przemyśle naftowo-gazowym. Analiza danych z odwiertów B001, B002 oraz B003 pozwoliła na znalezienie cech charakterystycznych dla wielu złóż w rejonie delty Nigru, dostarczając wartościowych informacji dla podejmowania decyzji dotyczących poszukiwań i wydobycia węglowodorów.
Na przełomie ery analogowej i cyfrowej w archeologii, w Polsce, dalej w przewadze jest ta pierwsza. Narodowy Instytut Dziedzictwa zdefiniował ogólne reguły wykonywania planów stanowisk archeologicznych, które mają być przedstawione w dokumentacji z prac archeologicznych. Wytyczne NID nie definiują jednak, jak ma wyglądać standaryzacja poszczególnych elementów, w przypadku wykonywania opracowań za pomocą technologii geoinformacyjnej. Niniejszy artykuł przedstawia wybrane aspekty opracowania cyfrowego planu stanowiska archeologicznego. Celem szczegółowym jest zaprezentowanie sposobu wdrożenia rozwiązania w systemach informacji geograficznej (GIS) na przykładzie QGIS. Opracowana koncepcja, zgodna z polską nomenklaturą archeologiczną, daje możliwość zintegrowania danych między stanowiskami w różnych częściach kraju. Proponowany system kodów surowców i zabytków mógłby mieć także zastosowanie przy analizie koncepcji i zjawisk obejmujących zasięgiem obszar wykraczający poza współczesne granice państw (np. Szlak Bursztynowy oparty na żywicy kopalnej z rejonu Bałtyku). Opis proponowanego modelu danych stanowiska archeologicznego, wykonany przy użyciu UML, stwarza duże możliwości implementacyjne w dowolnym środowisku narzędziowym GIS i systemie zarządzania bazą danych. Standaryzacja w obszarze cyfrowych opracowań archeologicznych oraz stosowanie uzgodnionych struktur danych mogą rozszerzać możliwości na poziomie analizy i interpretacji wyników badań w mikroskali, np. miejskiej lub makro, np. międzynarodowej.
Modelowanie Informacji o Budynku (ang. Building Information Modelling – BIM) to nowoczesne podejście do zarządzania procesem przygotowania, realizacji i eksploatacji obiektów budowlanych, łącznie z ich dokumentacją przez cały cykl życia. Celem tego podejścia jest wykorzystanie wspólnego środowiska danych (ang. common data environment – CDE), gdzie zagadnienie budowli będzie rozpatrywane przez cały czas – od projektu architektonicznego do jej rozbiórki, z możliwością dostępu do danych przez profesjonalistów i wszystkich, których to dotyczy. W pracy przedstawiono wybrane konteksty BIM i pomiarów geodezyjnych. W drugiej części przedstawiono przykład budowli związanej z infrastrukturą transportu, aby pokazać metodę zamiany klasycznej dokumentacji budowlanej w BIM. Omawianym przedsięwzięciem budowlanym jest przebudowa dworca kolejowego, gdzie uwzględniono wymagania i doświadczenia Administracji Kolejowej, powstałe w trakcie projektów pilotażowych.
Do obliczenia zawartości płynu porowego i zbadania litologii zastosowano współczynnik prędkości i współczynnik Poissona. Piaski gazonośne, roponośne i solankonośne zidentyfikowano na podstawie analizy współczynnika prędkości i współczynnika Poissona. Badania w oparciu o współczynnik prędkości i współczynnik Poissona potwierdziły występowanie piasku gazonośnego, na co wskazywała analiza właściwości fizycznych przy użyciu lambda-mho i mu-rho. Analizy współczynnika prędkości i współczynnika Poissona zastosowano dla lepszego zdefiniowania piasku mokrego przewidzianego przez analizy właściwości fizycznych skały za pomocą lambda-mho i mu-rho. Określenie litologii oraz zawartości płynu porowego jest bardzo ważne w procesie poszukiwania i pozyskiwania węglowodorów. W wyniku analizy właściwości fizycznych skały za pomocą lambda-mho i mu-rho przewidziano, że piasek mokry zawiera piaski roponośne i solankonośne. Wartość lambda-mho waha się pomiędzy 21,74 a 25,67; a wartość mu-rho wynosi 16,34 – 23,21; współczynnik Poissona ratio wynosi 0,25 – 0,29; a Vp/Vs waha się pomiędzy 1,74 a 1,83. Potwierdza to obecność piasku roponośnego we wszystkich siedmiu (7) złożach badanych w dwóch (2) odwiertach. Wszystkie złoża znajdują się w regionie Agbada (10212,50 – 11741,00 stóp) i mają bardzo dobrą strefę opłacalności netto – 41,50 do 193,00 stóp w rejonie delty Nigru (Nigeria). Otrzymane współczynniki prędkości i Poissona wykorzystano do wyliczenia zawartości płynu porowego. Piaski gazonośne, roponośne i solankonośne zidentyfikowano na podstawie analizy współczynnika prędkości i współczynnika Poissona. Badania za pomocą współczynników prędkości i Poissona potwierdziły występowanie piasku gazonośnego, przewidzianego przez analizę właściwości fizycznych skały, przy użyciu lambda-mho i mu-rho. Współczynniki prędkości i Poissona wykorzystano dla lepszego określenia piasków mokrych, przewidzianych przez analizy właściwości fizycznych skały, przy użyciu lambda-mho i mu-rho. Najwięcej piasków przewidzianych przez badania nad właściwościami fizycznymi skały, przy użyciu lambda-mho i mu-rho stanowiły piaski roponośne i solankonośne.
Turystyka stała się jednym z ważnych sektorów i odgrywa ważną rolę w ogólnym rozwoju kraju. Sektor ten odzwierciedla wiele aspektów społeczno-kulturowych kraju i jego tożsamość. Ale przemysł turystyczny jest bezpośrednio związany ze środowiskiem. Cechy środowiska zależą od naturalnych i antropogenicznych uwarunkowań turystyki. Przedmiotem badań jest pozytywny i negatywny wpływ turystyki na środowisko. Badania prowadzono głównie na podstawie przeglądu literatury, bezpośrednich wywiadów oraz danych otrzymanych pośrednio. W pracy wykorzystano różnorodne źródła: seminaria, artykuły, wnioski z dyskusji, raporty rządowe i czasopisma naukowe, na temat oddziaływaniu turystyki na środowisko. Dane opierają się na sprawdzonych metodach badań i wywiadów z turystami, właścicielami domów, przedsiębiorcami i ludźmi związanymi z ośrodkiem turystycznym. W styczniu 2020 r., spośród ogólnej liczby domów i mieszkańców Ajanty, do badań włączono 5%. Jednakże bardziej gwałtowny rozwój odpowiada za degradację środowiska. W ośrodku turystycznym Ajanta 28,33% osób zgodziło się z tym, że powinno się zniechęcać do dalszego wzrostu liczby turystów. Aż 39,17% osób uważa wzrost turystyki za szkodliwy dla środowiska i zniechęca do rozwoju turystyki. Ale 18.33% osób nie zgadza się z tym, że gwałtowny rozwój turystyki szkodzi środowisku. Świadomość turystów i agencji rządowych na temat przemysłu turystycznego mogą wpływać pozytywnie lub negatywnie na środowisko Ajanty.
Energia pochodząca z promieniowania słońca może być eksploatowana przy użyciu różnorodnych technologii, w tym (a) fotowoltaiki (PV)/skoncentrowanej fotowoltaiki (CPV), systemów, które przekształcają fotony w energię elektryczną; i (b) słoneczne technologie cieplne, które wychwytują energię cieplną z promieniowania słonecznego przy pomocy kolektorów słonecznych lub skoncentrowanych systemów energii słonecznej (CSP). Z powodu poszukiwań dostaw energii ze źródeł odnawialnych, tanich i nie emitujących zanieczyszczeń gazowych, a także wysiłków na rzecz walki z niedoborem wody pitnej w obszarach wiejskich, opublikowano wiele badań na temat systemów pozyskiwania energii słonecznej dla obsługi oczyszczalni ścieków. Jednakże większość istniejących opracowań oparta jest o modelowanie teoretyczne, jedynie z minimalną częścią eksperymentalną, analizą kosztów, projektami pilotażowymi i studiami strategicznymi. Co więcej, technologie oczyszczania wody zasilane energią słoneczną wciąż są na wczesnym etapie, a prace dotyczące badań w prawdziwych oczyszczalniach są rzadkie, publikacje w większości skupiają się na pojedynczych przypadkach, uniemożliwiając porównywanie kilku technologii wykorzystujących energię słoneczną do odsalania wody i oczyszczania ścieków. Wskazuje również kluczowe wyniki badań oraz istotne braki w istniejącym stanie zaawansowania. Ponadto przedstawia próby z technikami hybrydowymi, wykorzystującymi inne odnawialne źródła energii, takie jak wiatr i energia geotermalna, które są kluczowe w zwiększaniu skali produkcji i komercjalizacji. Jednakże wyniki badań wskazują, że większość prac ograniczona jest do innych kontynentów; brak jest jasnej afrykańskiej perspektywy, szczególnie dotyczącej Afryki subsaharyjskiej. Tak więc, z powodu skąpych informacji na ten temat, które dotyczą tego regionu, istnieje potrzeba dalszych badań nad zastosowaniem energii słonecznej do oczyszczania ścieków, szczególnie w skali pilotażowej, które przyczynią się do zrównoważonego rozwoju.
Proces likwidacji kopalń jest bardzo złożony i długotrwały. Towarzyszą mu różne zagrożenia, wśród których można wymienić sejsmiczność pogórniczą oraz deformacje powierzchni terenu. Problematyka ta jest przedmiotem projektu badawczego, w ramach którego wykonywany jest monitoring ruchów powierzchni na terenie nieczynnej już kopalni „Kazimierz-Juliusz”, która jest obecnie zatapiania. Monitoring realizowany jest z wykorzystaniem techniki GNSS oraz satelitarnej interferometrii radarowej (InSAR). W projekcie wykorzystywane są dane radarowe z projektu Copernicus, który realizowany jest przez Komisję Europejską we współpracy z Europejską Agencją Kosmiczną (ESA – European Space Agence). Monitoring techniką InSAR rozpoczęto w grudniu 2020 roku. Dodatkowo przeanalizowano powierzchniowe skutki pięciu wstrząsów górotworu o energii nieprzekraczającej wartości 6,5E+05 J (magnituda wstrząsu Mw = 2,1), które zarejestrowano w rejonie badań w latach 2018–2020. W artykule przedstawiono wyniki analizy jakościowej związków aktywności sejsmicznej z ruchami pionowymi powierzchni terenu. W celu zbadania potencjalnych zmian wysokościowych wykorzystano technologię DInSAR. Na podstawie obrazów interferometrycznych wygenerowanych z radarogramów w okresach przed i po wstrząsie, w styczniu 2019 roku, stwierdzono możliwość wystąpienia pionowych ruchów powierzchni terenu. Zmiany wysokościowe scharakteryzować można wartościami w zakresie pojedynczych milimetrów, wykraczających tylko nieznacznie poza zakres dokładności metody InSAR. Analiza interferogramów, obejmujących szersze bazy czasowe, wskazała na incydentalny wpływ wstrząsu na deformacje powierzchni terenu.
Artykuł zawiera rezultaty badań geoarcheologicznych prowadzonych metodami geoinformatycznymi, dotyczących szeroko rozumianego terytorium zajmowanego przez tzw. Grody Czerwieńskie we wczesnym średniowieczu. Publikacja dotyczy złożonego aspektu pogranicza Polski i Rusi Rurykowiczów w trakcie tworzenia się tych dwóch monarchii. Głównymi celami opracowania są: ukazanie zróżnicowania czasu korzystania z ośrodków grodowych na przestrzeni wieków na obszarze wczesnośredniowiecznego pogranicza południowo-wschodniej Polski, przedstawienie relacji jakie zachodziły pomiędzy nimi oraz zwizualizowanie otrzymanych wyników badań za pomocą narzędzi geoinformatycznych, na podstawie danych geoarcheologicznych. W opracowaniu przedstawiono mapy i wizualizacje, które mogą pomóc zrozumieć, jak funkcjonowały społeczności wieków średnich. Do ich opracowania zastosowano narzędzia GIS i programy graficzne. W celu weryfikacji danych, w 2021 r. przeprowadzono badania terenowe bezpośrednio na wybranych grodziskach. W rezultacie opracowano szereg map i modeli. Głównym wynikiem przeprowadzonych badań jest wskazanie zróżnicowania czasu zakończenia istnienia omawianych obiektów obronnych – przykładowo w zlewni rzeki Wiar miało to miejsce do XI wieku, nieopodal Sanoka do XIII/XIV wieku. Świadczy to o zmianie strategii obrony danych terenów w obrębie przytoczonego terytorium wpływu średniowiecznej Polski i Rusi, w tym w zasięgu łuku Karpat.
Zużycie wody stale się zwiększa, głównie z powodu wzrostu liczby ludności, a zasoby niestety się kurczą. Konieczne staje się oszczędzanie wody. Wiele jest form oszczędzania wody chroniąc jej zasoby, np. ograniczenie wycieków (generujących straty wody), zarówno w instalacji, jak i na sieci wodociągowej, ograniczenie nieracjonalnych potrzeb (np. wielokrotne wykorzystanie opakowań lub innych przedmiotów), wykorzystanie wód opadowych. W artykule przedstawiono możliwości, jakie daje opomiarowanie całej sieci wodociągowej oraz zużycia wody u odbiorców. Dla przyjętej strefy zasilającej osiedle mieszkaniowe, zamieszkiwane przez około 2 200 osób określono współczynnik strat nieuniknionych.
W kraju demokratycznym obywatel ma prawo do informacji o środowisku, w którym żyje – dlatego powinna istnieć procedura umownej, formalnej oceny terenu zurbanizowanego z wyróżnieniem jego lokalnych fragmentów. Przykładowy algorytm postępowania został zaproponowany w niniejszym artykule. Propozycja bazuje na umownej punktacji lokalnych obszarów, którym można przyporządkowywać wagi reprezentujące cechy pozytywne i negatywne. Algorytm przewiduje wariantowanie warunków wstępnych i kontynuację rozważań dla zmiennych danych źródłowych. Metoda oceny jakości życia w lokalnym obszarze powinna służyć szerokiej społeczności lokalnej, dlatego wyniki pośrednie i końcowe rozważań przedstawiono nie tylko w postaci map, lecz także w sposób poglądowy – jako obrazy trójwymiarowe (3D), z barwami łatwo kojarzonymi z cechami pozytywnymi lub negatywnymi warunków lokalnych. Do realizacji zadania wykorzystano szeroką gamę narzędzi profesjonalnego pakietu GIS – systemu ArcGIS. Zastosowane narzędzia pozwalają na realizację skomplikowanych zadań przestrzennych, jak również umożliwiają efektowną wizualizację wyników analiz.
Rozwój narzędzi geodezyjnych i informatycznych przyczynił się w ostatnim dziesięcioleciu do wzbogacenia metod pomiarowych i interpretacyjnych oraz wizualizacji różnego rodzaju obiektów pochodzenia antropogenicznego oraz naturalnego, które podlegają deformacjom w czasie. Dostępność metod fotogrametrycznych (pomiary naziemne i lotnicze) sprawiła, że wykorzystywane są one powszechnie do monitoringu różnego rodzaju obiektów poddanych oddziaływaniu czynników zewnętrznych, tj. atmosferycznych (deszcz, wiatr, temperatura), górniczych (wpływ podziemnej eksploatacji górniczej). Dotyczy to także naturalnych powierzchni terenu objętych ruchami masowymi oraz sztucznych budowli ziemnych (kopce, hałdy, groble, nasypy drogowe i kolejowe), których zmiany mogą zagrażać stateczności i stwarzać zagrożenie dla obiektów towarzyszących, usytuowanych na tych obszarach/obiektach oraz ich użytkowników. Istnieje szereg metod pozyskiwania danych przestrzennych oraz ich opracowania, pozwalających na interpretację geozagrożeń. W artykule przedstawiono model pomiarowy oraz interpretacyjny zmian sztucznie ukształtowanej powierzchni zabytkowego Kopca Wandy w Krakowie, przy wykorzystaniu stacji robotycznej SPS 930 Trimble i sygnału aktywnego MT 1000 oraz programu AutoCAD v. 2021 (funkcje sklejane oraz płaty Coons’a). W artykule dowiedziono, że stosując ograniczoną liczebność zbioru danych w określonym układzie geometrycznym oraz tę samą technologię pomiarową w rozpatrywanym okresie analizy 2013–2022, możliwa jest rejestracja oraz graficzna interpretacja zmian powierzchni ziemnego kopca podlegającej zjawisku spełzywania gruntu, nawet w przypadku niewielkich wartości.
Na przełomie ery analogowej i cyfrowej w archeologii, w Polsce, dalej w przewadze jest ta pierwsza. Narodowy Instytut Dziedzictwa zdefiniował ogólne reguły wykonywania planów stanowisk archeologicznych, które mają być przedstawione w dokumentacji z prac archeologicznych. Wytyczne NID nie definiują jednak, jak ma wyglądać standaryzacja poszczególnych elementów, w przypadku wykonywania opracowań za pomocą technologii geoinformacyjnej. Niniejszy artykuł przedstawia wybrane aspekty opracowania cyfrowego planu stanowiska archeologicznego. Celem szczegółowym jest zaprezentowanie sposobu wdrożenia rozwiązania w systemach informacji geograficznej (GIS) na przykładzie QGIS. Opracowana koncepcja, zgodna z polską nomenklaturą archeologiczną, daje możliwość zintegrowania danych między stanowiskami w różnych częściach kraju. Proponowany system kodów surowców i zabytków mógłby mieć także zastosowanie przy analizie koncepcji i zjawisk obejmujących zasięgiem obszar wykraczający poza współczesne granice państw (np. Szlak Bursztynowy oparty na żywicy kopalnej z rejonu Bałtyku). Opis proponowanego modelu danych stanowiska archeologicznego, wykonany przy użyciu UML, stwarza duże możliwości implementacyjne w dowolnym środowisku narzędziowym GIS i systemie zarządzania bazą danych. Standaryzacja w obszarze cyfrowych opracowań archeologicznych oraz stosowanie uzgodnionych struktur danych mogą rozszerzać możliwości na poziomie analizy i interpretacji wyników badań w mikroskali, np. miejskiej lub makro, np. międzynarodowej.
Modelowanie Informacji o Budynku (ang. Building Information Modelling – BIM) to nowoczesne podejście do zarządzania procesem przygotowania, realizacji i eksploatacji obiektów budowlanych, łącznie z ich dokumentacją przez cały cykl życia. Celem tego podejścia jest wykorzystanie wspólnego środowiska danych (ang. common data environment – CDE), gdzie zagadnienie budowli będzie rozpatrywane przez cały czas – od projektu architektonicznego do jej rozbiórki, z możliwością dostępu do danych przez profesjonalistów i wszystkich, których to dotyczy. W pracy przedstawiono wybrane konteksty BIM i pomiarów geodezyjnych. W drugiej części przedstawiono przykład budowli związanej z infrastrukturą transportu, aby pokazać metodę zamiany klasycznej dokumentacji budowlanej w BIM. Omawianym przedsięwzięciem budowlanym jest przebudowa dworca kolejowego, gdzie uwzględniono wymagania i doświadczenia Administracji Kolejowej, powstałe w trakcie projektów pilotażowych.
Do obliczenia zawartości płynu porowego i zbadania litologii zastosowano współczynnik prędkości i współczynnik Poissona. Piaski gazonośne, roponośne i solankonośne zidentyfikowano na podstawie analizy współczynnika prędkości i współczynnika Poissona. Badania w oparciu o współczynnik prędkości i współczynnik Poissona potwierdziły występowanie piasku gazonośnego, na co wskazywała analiza właściwości fizycznych przy użyciu lambda-mho i mu-rho. Analizy współczynnika prędkości i współczynnika Poissona zastosowano dla lepszego zdefiniowania piasku mokrego przewidzianego przez analizy właściwości fizycznych skały za pomocą lambda-mho i mu-rho. Określenie litologii oraz zawartości płynu porowego jest bardzo ważne w procesie poszukiwania i pozyskiwania węglowodorów. W wyniku analizy właściwości fizycznych skały za pomocą lambda-mho i mu-rho przewidziano, że piasek mokry zawiera piaski roponośne i solankonośne. Wartość lambda-mho waha się pomiędzy 21,74 a 25,67; a wartość mu-rho wynosi 16,34 – 23,21; współczynnik Poissona ratio wynosi 0,25 – 0,29; a Vp/Vs waha się pomiędzy 1,74 a 1,83. Potwierdza to obecność piasku roponośnego we wszystkich siedmiu (7) złożach badanych w dwóch (2) odwiertach. Wszystkie złoża znajdują się w regionie Agbada (10212,50 – 11741,00 stóp) i mają bardzo dobrą strefę opłacalności netto – 41,50 do 193,00 stóp w rejonie delty Nigru (Nigeria). Otrzymane współczynniki prędkości i Poissona wykorzystano do wyliczenia zawartości płynu porowego. Piaski gazonośne, roponośne i solankonośne zidentyfikowano na podstawie analizy współczynnika prędkości i współczynnika Poissona. Badania za pomocą współczynników prędkości i Poissona potwierdziły występowanie piasku gazonośnego, przewidzianego przez analizę właściwości fizycznych skały, przy użyciu lambda-mho i mu-rho. Współczynniki prędkości i Poissona wykorzystano dla lepszego określenia piasków mokrych, przewidzianych przez analizy właściwości fizycznych skały, przy użyciu lambda-mho i mu-rho. Najwięcej piasków przewidzianych przez badania nad właściwościami fizycznymi skały, przy użyciu lambda-mho i mu-rho stanowiły piaski roponośne i solankonośne.
Turystyka stała się jednym z ważnych sektorów i odgrywa ważną rolę w ogólnym rozwoju kraju. Sektor ten odzwierciedla wiele aspektów społeczno-kulturowych kraju i jego tożsamość. Ale przemysł turystyczny jest bezpośrednio związany ze środowiskiem. Cechy środowiska zależą od naturalnych i antropogenicznych uwarunkowań turystyki. Przedmiotem badań jest pozytywny i negatywny wpływ turystyki na środowisko. Badania prowadzono głównie na podstawie przeglądu literatury, bezpośrednich wywiadów oraz danych otrzymanych pośrednio. W pracy wykorzystano różnorodne źródła: seminaria, artykuły, wnioski z dyskusji, raporty rządowe i czasopisma naukowe, na temat oddziaływaniu turystyki na środowisko. Dane opierają się na sprawdzonych metodach badań i wywiadów z turystami, właścicielami domów, przedsiębiorcami i ludźmi związanymi z ośrodkiem turystycznym. W styczniu 2020 r., spośród ogólnej liczby domów i mieszkańców Ajanty, do badań włączono 5%. Jednakże bardziej gwałtowny rozwój odpowiada za degradację środowiska. W ośrodku turystycznym Ajanta 28,33% osób zgodziło się z tym, że powinno się zniechęcać do dalszego wzrostu liczby turystów. Aż 39,17% osób uważa wzrost turystyki za szkodliwy dla środowiska i zniechęca do rozwoju turystyki. Ale 18.33% osób nie zgadza się z tym, że gwałtowny rozwój turystyki szkodzi środowisku. Świadomość turystów i agencji rządowych na temat przemysłu turystycznego mogą wpływać pozytywnie lub negatywnie na środowisko Ajanty.
Energia pochodząca z promieniowania słońca może być eksploatowana przy użyciu różnorodnych technologii, w tym (a) fotowoltaiki (PV)/skoncentrowanej fotowoltaiki (CPV), systemów, które przekształcają fotony w energię elektryczną; i (b) słoneczne technologie cieplne, które wychwytują energię cieplną z promieniowania słonecznego przy pomocy kolektorów słonecznych lub skoncentrowanych systemów energii słonecznej (CSP). Z powodu poszukiwań dostaw energii ze źródeł odnawialnych, tanich i nie emitujących zanieczyszczeń gazowych, a także wysiłków na rzecz walki z niedoborem wody pitnej w obszarach wiejskich, opublikowano wiele badań na temat systemów pozyskiwania energii słonecznej dla obsługi oczyszczalni ścieków. Jednakże większość istniejących opracowań oparta jest o modelowanie teoretyczne, jedynie z minimalną częścią eksperymentalną, analizą kosztów, projektami pilotażowymi i studiami strategicznymi. Co więcej, technologie oczyszczania wody zasilane energią słoneczną wciąż są na wczesnym etapie, a prace dotyczące badań w prawdziwych oczyszczalniach są rzadkie, publikacje w większości skupiają się na pojedynczych przypadkach, uniemożliwiając porównywanie kilku technologii wykorzystujących energię słoneczną do odsalania wody i oczyszczania ścieków. Wskazuje również kluczowe wyniki badań oraz istotne braki w istniejącym stanie zaawansowania. Ponadto przedstawia próby z technikami hybrydowymi, wykorzystującymi inne odnawialne źródła energii, takie jak wiatr i energia geotermalna, które są kluczowe w zwiększaniu skali produkcji i komercjalizacji. Jednakże wyniki badań wskazują, że większość prac ograniczona jest do innych kontynentów; brak jest jasnej afrykańskiej perspektywy, szczególnie dotyczącej Afryki subsaharyjskiej. Tak więc, z powodu skąpych informacji na ten temat, które dotyczą tego regionu, istnieje potrzeba dalszych badań nad zastosowaniem energii słonecznej do oczyszczania ścieków, szczególnie w skali pilotażowej, które przyczynią się do zrównoważonego rozwoju.
Proces likwidacji kopalń jest bardzo złożony i długotrwały. Towarzyszą mu różne zagrożenia, wśród których można wymienić sejsmiczność pogórniczą oraz deformacje powierzchni terenu. Problematyka ta jest przedmiotem projektu badawczego, w ramach którego wykonywany jest monitoring ruchów powierzchni na terenie nieczynnej już kopalni „Kazimierz-Juliusz”, która jest obecnie zatapiania. Monitoring realizowany jest z wykorzystaniem techniki GNSS oraz satelitarnej interferometrii radarowej (InSAR). W projekcie wykorzystywane są dane radarowe z projektu Copernicus, który realizowany jest przez Komisję Europejską we współpracy z Europejską Agencją Kosmiczną (ESA – European Space Agence). Monitoring techniką InSAR rozpoczęto w grudniu 2020 roku. Dodatkowo przeanalizowano powierzchniowe skutki pięciu wstrząsów górotworu o energii nieprzekraczającej wartości 6,5E+05 J (magnituda wstrząsu Mw = 2,1), które zarejestrowano w rejonie badań w latach 2018–2020. W artykule przedstawiono wyniki analizy jakościowej związków aktywności sejsmicznej z ruchami pionowymi powierzchni terenu. W celu zbadania potencjalnych zmian wysokościowych wykorzystano technologię DInSAR. Na podstawie obrazów interferometrycznych wygenerowanych z radarogramów w okresach przed i po wstrząsie, w styczniu 2019 roku, stwierdzono możliwość wystąpienia pionowych ruchów powierzchni terenu. Zmiany wysokościowe scharakteryzować można wartościami w zakresie pojedynczych milimetrów, wykraczających tylko nieznacznie poza zakres dokładności metody InSAR. Analiza interferogramów, obejmujących szersze bazy czasowe, wskazała na incydentalny wpływ wstrząsu na deformacje powierzchni terenu.
Artykuł zawiera rezultaty badań geoarcheologicznych prowadzonych metodami geoinformatycznymi, dotyczących szeroko rozumianego terytorium zajmowanego przez tzw. Grody Czerwieńskie we wczesnym średniowieczu. Publikacja dotyczy złożonego aspektu pogranicza Polski i Rusi Rurykowiczów w trakcie tworzenia się tych dwóch monarchii. Głównymi celami opracowania są: ukazanie zróżnicowania czasu korzystania z ośrodków grodowych na przestrzeni wieków na obszarze wczesnośredniowiecznego pogranicza południowo-wschodniej Polski, przedstawienie relacji jakie zachodziły pomiędzy nimi oraz zwizualizowanie otrzymanych wyników badań za pomocą narzędzi geoinformatycznych, na podstawie danych geoarcheologicznych. W opracowaniu przedstawiono mapy i wizualizacje, które mogą pomóc zrozumieć, jak funkcjonowały społeczności wieków średnich. Do ich opracowania zastosowano narzędzia GIS i programy graficzne. W celu weryfikacji danych, w 2021 r. przeprowadzono badania terenowe bezpośrednio na wybranych grodziskach. W rezultacie opracowano szereg map i modeli. Głównym wynikiem przeprowadzonych badań jest wskazanie zróżnicowania czasu zakończenia istnienia omawianych obiektów obronnych – przykładowo w zlewni rzeki Wiar miało to miejsce do XI wieku, nieopodal Sanoka do XIII/XIV wieku. Świadczy to o zmianie strategii obrony danych terenów w obrębie przytoczonego terytorium wpływu średniowiecznej Polski i Rusi, w tym w zasięgu łuku Karpat.
Zużycie wody stale się zwiększa, głównie z powodu wzrostu liczby ludności, a zasoby niestety się kurczą. Konieczne staje się oszczędzanie wody. Wiele jest form oszczędzania wody chroniąc jej zasoby, np. ograniczenie wycieków (generujących straty wody), zarówno w instalacji, jak i na sieci wodociągowej, ograniczenie nieracjonalnych potrzeb (np. wielokrotne wykorzystanie opakowań lub innych przedmiotów), wykorzystanie wód opadowych. W artykule przedstawiono możliwości, jakie daje opomiarowanie całej sieci wodociągowej oraz zużycia wody u odbiorców. Dla przyjętej strefy zasilającej osiedle mieszkaniowe, zamieszkiwane przez około 2 200 osób określono współczynnik strat nieuniknionych.
W kraju demokratycznym obywatel ma prawo do informacji o środowisku, w którym żyje – dlatego powinna istnieć procedura umownej, formalnej oceny terenu zurbanizowanego z wyróżnieniem jego lokalnych fragmentów. Przykładowy algorytm postępowania został zaproponowany w niniejszym artykule. Propozycja bazuje na umownej punktacji lokalnych obszarów, którym można przyporządkowywać wagi reprezentujące cechy pozytywne i negatywne. Algorytm przewiduje wariantowanie warunków wstępnych i kontynuację rozważań dla zmiennych danych źródłowych. Metoda oceny jakości życia w lokalnym obszarze powinna służyć szerokiej społeczności lokalnej, dlatego wyniki pośrednie i końcowe rozważań przedstawiono nie tylko w postaci map, lecz także w sposób poglądowy – jako obrazy trójwymiarowe (3D), z barwami łatwo kojarzonymi z cechami pozytywnymi lub negatywnymi warunków lokalnych. Do realizacji zadania wykorzystano szeroką gamę narzędzi profesjonalnego pakietu GIS – systemu ArcGIS. Zastosowane narzędzia pozwalają na realizację skomplikowanych zadań przestrzennych, jak również umożliwiają efektowną wizualizację wyników analiz.
Rozwój narzędzi geodezyjnych i informatycznych przyczynił się w ostatnim dziesięcioleciu do wzbogacenia metod pomiarowych i interpretacyjnych oraz wizualizacji różnego rodzaju obiektów pochodzenia antropogenicznego oraz naturalnego, które podlegają deformacjom w czasie. Dostępność metod fotogrametrycznych (pomiary naziemne i lotnicze) sprawiła, że wykorzystywane są one powszechnie do monitoringu różnego rodzaju obiektów poddanych oddziaływaniu czynników zewnętrznych, tj. atmosferycznych (deszcz, wiatr, temperatura), górniczych (wpływ podziemnej eksploatacji górniczej). Dotyczy to także naturalnych powierzchni terenu objętych ruchami masowymi oraz sztucznych budowli ziemnych (kopce, hałdy, groble, nasypy drogowe i kolejowe), których zmiany mogą zagrażać stateczności i stwarzać zagrożenie dla obiektów towarzyszących, usytuowanych na tych obszarach/obiektach oraz ich użytkowników. Istnieje szereg metod pozyskiwania danych przestrzennych oraz ich opracowania, pozwalających na interpretację geozagrożeń. W artykule przedstawiono model pomiarowy oraz interpretacyjny zmian sztucznie ukształtowanej powierzchni zabytkowego Kopca Wandy w Krakowie, przy wykorzystaniu stacji robotycznej SPS 930 Trimble i sygnału aktywnego MT 1000 oraz programu AutoCAD v. 2021 (funkcje sklejane oraz płaty Coons’a). W artykule dowiedziono, że stosując ograniczoną liczebność zbioru danych w określonym układzie geometrycznym oraz tę samą technologię pomiarową w rozpatrywanym okresie analizy 2013–2022, możliwa jest rejestracja oraz graficzna interpretacja zmian powierzchni ziemnego kopca podlegającej zjawisku spełzywania gruntu, nawet w przypadku niewielkich wartości.
W celu realizacji postanowień dyrektywy INSPIRE konieczne jest podjęcie przez państwa członkowskie Unii Europejskiej odpowiednich działań umożliwiających łączenie w sposób jednolity danych przestrzennych pochodzących z różnych źródeł i współdzielenie ich przez wielu użytkowników i wiele aplikacji. Dane przestrzenne dotyczące podziemnego wydobycia węgla kamiennego w Polsce powinny być również dostępne w krajowym układzie odniesień przestrzennych. Przedsiębiorstwa górnicze prowadzą zasób kartograficzny w lokalnych prostokątnych płaskich układach współrzędnych. Standardowa procedura przekształceń nie zapewnia wymaganej dokładności, ze względu na to, że są to tereny objęte działalnością górniczą, a stabilność punktów jest ograniczona, dlatego podjęto badania. Efektem końcowym jest opracowanie oprogramowania, które można wykorzystać w Systemach Informacji Geograficznej do przekształcania danych przestrzennych z systemu używanego w kopalni do systemu krajowego. W artykule opisano pokrótce wybrane układy współrzędnych stosowane w polskich kopalniach podziemnych, opracowaną procedurę doboru stopnia i rodzaju wielomianu transformacji w zadaniu transformacji. Przedstawiono praktyczne zastosowanie procedury na terenie jednej z kopalń węgla kamiennego z wykorzystaniem autorskiego oprogramowania opracowanego w wynikach powyższych badań.
Praca dotyczy jednego z kopców krakowskich – kopca Esterki w Krakowie. Kopiec ten najprawdopodobniej był elementem ogrodu założonego przy pałacu w dawnej wsi Łobzów (obecnie w dzielnicy Kraków-Krowodrza). Dotychczasowe informacje o kopcu są rozproszone w wielu publikacjach, a niekiedy zawierają błędy. Dotyczy to również materiałów ikonograficznych. W pracy zebrano i usystematyzowano dostępne materiały ikonograficzne i kartograficzne, jakie pozostały po tym obiekcie. Sporządzono dokumentację bibliograficzną istniejących materiałów graficznych pokazujących kopiec (panoramy, plany, mapy, fotografie). Informacje znajdujące się w artykule mogą zostać wykorzystane w planach rewitalizacji kopca Esterki i dawnej rezydencji królewskiej w Łobzowie.
Rzeczywistość Rozszerzona (Augmented Reality – AR) jest jedną z nowoczesnych technologii wykorzystywanych do udostępniania danych przestrzennych 3D. W artykule przedstawiono możliwe sposoby wzbogacenia aplikacji mobilnej o funkcjonalność AR. Aplikacja zawiera informacje o 50 obiektach zlokalizowanych na terenie miasta Bielska-Białej i została stworzona w dwóch programach: Android Studio oraz Unity. Aplikacja pozwala na poznanie zabytkowych obiektów miasta oraz zachęca do ich zwiedzania poprzez dodanie wirtualnych elementów obserwowanych w czasie rzeczywistym na tle obrazu z kamery urządzenia mobilnego. W artykule przedstawiono statystyki użytkowania aplikacji oraz wyniki ankiety przeprowadzonej wśród grupy testerów. Informacje zwrotne od testerów aplikacji potwierdzają zasadność zastosowania technologii AR w aplikacji.
Modelowanie kształtu powierzchni obiektów powłokowych, pomierzonych za pomocą skaningu laserowego, można przeprowadzić za pomocą aproksymacyjnych funkcji sklejanych. Funkcje te dobrze przybliżają kształty o ciągłej krzywiźnie, jakimi są powłoki, jednocześnie wykazując spadki dokładności w miejscach zerwania tej ciągłości. Od lat 90. XX wieku rozwinęło się kilka technik modelowania za ich pomocą, m.in.: wykorzystujących same punkty, siatki mesh, obszary obrysowane na siatkach mesh, regiony grupujące obszary o podobnej strukturze. Najbardziej skuteczne z nich zostały zastosowane we współczesnym oprogramowaniu, ale ich implementacje znacząco się pomiędzy sobą różnią. Najważniejsze różnice dotyczą dokładności modelowania, szczególnie miejsc o szybkich zmianach kształtu, włączając w nie krawędzie. Różnice dotyczą też złożoności matematycznej utworzonego modelu (liczby niewiadomych) oraz czasu jego opracowania. Czynniki te składają się na efektywność modelowania. Część metod działa w pełni automatycznie, inne pozwalają na ręczny dobór pewnych parametrów, są też metody wymagające pełnego sterowania ręcznego. W ich wyborze i stosowaniu duże znaczenie ma intuicja i wiedza użytkownika w zakresie tworzenia tego typu powierzchni. W opracowaniu przetestowano wpływ powyższych czynników na efektywność modelowania. Badaniom poddano łącznie sześć metod tworzenia powierzchni sklejanych w trzech pakietach oprogramowania różnej klasy: Geomagic Design X, Solidworks i RhinoResurf. Analizy przeprowadzono na obiekcie powłokowym o złożonym kształcie, składającym się z siedmiu płatów rozdzielonych krawędziami. Został on pomierzony metodą skaningu laserowego, a scalona chmura punktów stanowiła podstawę do modelowania za pomocą funkcji sklejanych. Utworzone modele oceniono pod względem dokładności wpasowania w chmurę punktów za pomocą wykresów odchyłek punktów od powierzchni, odchyłek średnich oraz maksymalnych. Dodatkowo określono złożoność modelu wyrażoną liczbą punktów kontrolnych oraz czas jego opracowania. Wyniki pozwoliły na potwierdzenie skuteczności czterech metod w zakresie dokładności wpasowania modeli. Najlepsze efekty osiągnięto stosując metodę półautomatyczną w najbardziej zaawansowanym pakiecie oprogramowania oraz metodę ręczną w najprostszym z pakietów. Potwierdza to duże znaczenie doświadczenia użytkownika w zakresie teoretycznych własności funkcji sklejanych. Złożoność i czas opracowania nie wykazywały natomiast bezpośredniego związku z dokładnością tworzonych modeli.
Spośród licznej grupy śródlądowych zbiorników wodnych dużą grupę stanowią obecnie akweny będące wynikiem działalności górniczej. Eksploatacja odkrywkowa kopalin pospolitych, tj.: piasków, żwirów, gliny, kopalin podstawowych, takich jak węgiel brunatny, surowców chemicznych, jak siarka, oraz kopalnych żywic drzew iglastych (bursztynu) pozostawia po sobie liczną wyrobiska, które z czasem wypełniają się samoistnie wodami opadowymi, zaskórnymi (przypowierzchniowymi) oraz gruntowymi (podziemnymi), tworząc często nowe i niezwykłe elementy lokalnego krajobrazu. Do czasu przemian ustrojowych w Polsce znikoma świadomość właściwej rekultywacji terenów pogórniczych decydowała o tym, iż niewiele wyrobisk poeksploatacyjnych samoistnie wypełnionych wodą doczekało się kompleksowej inwentaryzacji i udokumentowania mierniczo- geologicznego, co jest niezbędnym warunkiem bezpiecznego niegórniczego ich użytkowania. Przykładem takich obiektów wodnych są krakowskie Bagry i Staw Płaszowski (eksploatacja: gliny, piasku, żwiru), które doczekały się pełnej inwentaryzacji geodezyjnej, w tym batymetrycznej, dopiero kilkadziesiąt lat po zakończeniu eksploatacji surowców (Gawałkiewicz R., Maciaszek J., 1999; Gawałkiewicz R., 2017; Gawałkiewicz R., 2018a oraz Gawałkiewicz R., 2018b), mimo iż od wielu lat stanowią własność miasta Krakowa, pełniąc funkcje rekreacyjno-sportowe, przyrodnicze (użytki ekologiczne) oraz gospodarcze (obiekty wędkarskie). Wartym uwagi akwenem wodnym kwalifikowanym obecnie do grupy zbiorników średniej retencji, powstałym po eksploatacji odkrywkowej złóż siarki, jest zbiornik Piaseczno (gm. Łoniów, pow. sandomierski). Pomimo wielu lat rekultywacji (zabezpieczeń zboczy i ich wielokrotnego przemodelowywania, wypłycania poprzez namywanie piasków szklarskich do zbiornika), z uwagi na szereg niebezpieczeństw (lokalnych osuwisk, niestabilnego podłoża w strefach nadbrzeżnych, sztucznie utrzymywanego poziomu zwierciadła wody) nie został przekazany w użytkowanie gminie Łoniów i dziś poza funkcją użytku ekologicznego nie nadaje się do jakiejkolwiek innej formy zagospodarowania. W artykule przedstawiono wyniki kompleksowej inwentaryzacji geodezyjnej (strefa przybrzeżna) i hydrograficznej (akwen) przy wykorzystaniu zdalnie sterowanego hydrodrona HyDrone firmy Seefloor Systems wyposażonego w sondę ultradźwiękową SonarMite BTX/SPX OHMEX firmy Lymtech oraz zestaw GNSS firmy Trimble (antena R8s + kontroler TSC3) oraz inwentaryzacji przyrodniczej w strefie litoralu. Określono także szczegółowe parametry morfometryczne zbiornika na podstawie zintegrowanych pomiarów geodezyjnych oraz batymetrycznych, co w przyszłości może stanowić wartościowy materiał w procesie adaptacji analizowanego terenu do różnych społeczno- gospodarczych celów przy zachowaniu warunku wysokiego stopnia bezpieczeństwa jego użytkowania.
W Polsce dużą popularnością turystyczną od lat cieszą się obiekty antropogeniczne wzniesione pod powierzchnią ziemi, pełniące różnorodne funkcje użytkowe w przeszłości (zabytkowe kopalnie, podziemne składy kupieckie, obiekty militarne, obiekty specjalne, jaskinie i groty). Wiele z nich zostało w stopniu istotnym zabezpieczone i przebudowane w taki sposób, by nadać im nową formę. Udostępnione, dziś stanowią ciekawe oferty turystyczne, a ich liczba stanowi dziś zbiór otwarty. Przykładem mocno przetworzonego podziemnego obiektu antropogenicznego o bardzo zróżnicowanej geometrii i niezwykle ciekawej formie architektonicznej jest Podziemna Trasa Turystyczna w Sandomierzu. Dzięki zaangażowaniu wielu środków udało się w latach 60. XX w. ocalić od zniszczenia wiele interesujących piwnic i składów kupieckich i połączyć je z zastosowaniem technik górniczych w atrakcyjne formy przestrzenne. Dotychczas powstało niewiele opracowań, które ukazałyby w pełni ich charakterystykę oraz sparametryzowały obiekt. Możliwości dostępnych dzisiaj technik pomiarowych oraz informatycznych pozwalają na kompleksową inwentaryzację skomplikowanych budowli inżynierskich, a także wizualizację przestrzenną z uwzględnieniem nawet najdrobniejszych elementów małej architektury (drzwi, kraty, lampy itp.). W artykule zaprezentowano wyniki wizualizacji i parametryzacji na podstawie danych zintegrowanych pomiarów geodezyjnych (niwelacji, poligonizacji, tachimetrii elektronicznej, skaningu laserowego i innych pomiarów bezpośrednich).
Od kilkunastu już lat użytkownicy oprogramowania GIS mogą używać do dowolnych celów zbioru danych będącego do pewnego stopnia alternatywą zarówno dla produktów oferowanych przez dostawców komercyjnych, jak i urzędowych baz danych. Jest nim OpenStreetMap (w skrócie OSM) – obejmujący cały świat zbiór danych przestrzennych, tworzony i edytowany przez zainteresowane osoby i dostępny do stosowania przez każdego chętnego bez żadnych ograniczeń. Budowany jest na podstawie danych rejestrowanych turystycznymi odbiornikami GPS, pozyskiwanych poprzez wektoryzację zdjęć lotniczych oraz pochodzących z innych nadających się do wykorzystania źródeł, w tym nawet szkiców wykonywanych w terenie. Zgromadzona informacja zapisywana jest w centralnej bazie danych, której zawartość jest nie tylko prezentowana na stronie internetowej w postaci cyfrowej mapy, lecz również oferowana do pobrania jako dane wektorowe. Takie dane mogą mieć zastosowanie między innymi do przeprowadzania różnorodnych analiz bazujących na sieciach drogowych, z których najczęściej wykorzystywana jest funkcja wyznaczania optymalnej trasy łączącej wybrane lokalizacje. Wyniki takich analiz można uznać za wiarygodne tylko wtedy, gdy użyte w nich dane będą się charakteryzować odpowiednią jakością. Ponieważ baza danych OSM budowana jest przez pasjonatów, nie są formułowane żadne plany jej systematycznego rozwoju oraz brak jest wbudowanych mechanizmów kontroli jakości. Dlatego w artykule zaproponowano metody i narzędzia, które pozwolą na weryfikację przydatności zgromadzonych do tej pory danych, jak również na poprawę wykrytych błędów. Skupiono się na następujących kategoriach jakości danych geograficznych: dokładności położenia, spójności topologicznej oraz ważności czasowej. Dodatkowo dostrzeżono problem z wyznaczaniem długości poszczególnych obiektów sieci drogowej, związany z metodami pozyskiwania danych i sposobami rejestracji kształtu linii. W związku z tym do przeprowadzenia tak zwanej kalibracji trasy zasugerowano użycie stosowanych w sieciach transportowych słupków kilometrowych i hektometrowych, których lokalizacje są sukcesywnie wprowadzane do bazy danych OSM.
Wiedza astronomiczna na dysku została zakodowana na dwóch płaszczyznach: horyzontalnej i południkowej. Na płaszczyźnie horyzontalnej (poziomej) opisano zakres kierunków wschodu i zachodu Słońca w ciągu roku. Z kolei na płaszczyźnie południkowej (pionowej) opisano zakres zmiany wysokości horyzontalnej i deklinacji Słońca w kulminacji górnej w ciągu roku oraz Księżyca w jego 18,61-rocznym cyklu. Za pomocą konstrukcji geometrycznych opisano związki między szerokością geograficzną miejsca obserwacji, wysokością horyzontalną ciała niebieskiego i jego deklinacją. Prezentowany artykuł jest kontynuacją dwóch publikacji: [1], [2], w których opisano deszyfrację dysku z Nebry. Publikacje te były oparte na interpretacji wyników pomiarów kątowych, wykonanych za pomocą kątomierza o podziałce 0,5 stopnia, bez użycia komputera. Prezentowana publikacja bazuje na cyfrowym obrazie dysku, uzyskanym za pomocą jego digitalizacji. Uzyskane dane wykorzystano do dalszych obliczeń opartych na geometrii analitycznej oraz programach graficznych.
W artykule przedstawiono przykład galerii transportowej, której odporność na wpływy górnicze okazała się niewystarczająca. W pierwszej części artykułu podano zasady, jakim powinny odpowiadać tego typu obiekty budowlane. W części drugiej przedstawiono opis konstrukcji przedmiotowej galerii oraz przeanalizowano przyczyny zbyt niskiej odporności obiektu na wpływy górnicze. Wykazano, że są to zarówno błędy projektowe, jak i wykonawcze oraz eksploatacyjne. Z kolei przedstawiono zabiegi zmierzające do zapewnienia galerii transportowej odporności zgodnej z założeniami projektowymi. W podsumowaniu sformułowano wnioski i zalecenia, które powinny być uwzględniane na etapie projektowania i budowy oraz podczas eksploatacji galerii transportowych w zakładach przemysłowych usytuowanych na terenach górniczych.
W artykule przeanalizowano proces przemieszczeń pogórniczych generowanych przez górnictwo podziemne. Innowacyjne struktury matematyczne do modelowania emisji pola zagrożenia opracowano jako silne rozwiązania równań różniczkowych cząstkowych w R3+1. Ponadto zdefiniowano i zastosowano równanie stochastyczne w L2(Ω) (przestrzeni probabilistycznej) jako model uwzględniający losowość procesu. Monitoring obszaru górniczego, w oparciu o rozwiązania w technologii GNSS i klasycznej geodezji, wspomaga analizę przekształceń topologicznych danej podprzestrzeni. Dane archiwizowano i przechowywano w formie cyfrowej, a następnie analizowano na wiele sposobów. Jakość reprezentacji (pomiary i modelowanie) oszacowano za pomocą statystyk przyrostowych. Tak uzyskane rozkłady funkcji gęstości nie są klasyfikowane jako rozkład normalny. Przeprowadzone analizy pozwalają przewidzieć optymalne scenariusze zagrożeń dla środowiska pogórniczego.
W celu realizacji postanowień dyrektywy INSPIRE konieczne jest podjęcie przez państwa członkowskie Unii Europejskiej odpowiednich działań umożliwiających łączenie w sposób jednolity danych przestrzennych pochodzących z różnych źródeł i współdzielenie ich przez wielu użytkowników i wiele aplikacji. Dane przestrzenne dotyczące podziemnego wydobycia węgla kamiennego w Polsce powinny być również dostępne w krajowym układzie odniesień przestrzennych. Przedsiębiorstwa górnicze prowadzą zasób kartograficzny w lokalnych prostokątnych płaskich układach współrzędnych. Standardowa procedura przekształceń nie zapewnia wymaganej dokładności, ze względu na to, że są to tereny objęte działalnością górniczą, a stabilność punktów jest ograniczona, dlatego podjęto badania. Efektem końcowym jest opracowanie oprogramowania, które można wykorzystać w Systemach Informacji Geograficznej do przekształcania danych przestrzennych z systemu używanego w kopalni do systemu krajowego. W artykule opisano pokrótce wybrane układy współrzędnych stosowane w polskich kopalniach podziemnych, opracowaną procedurę doboru stopnia i rodzaju wielomianu transformacji w zadaniu transformacji. Przedstawiono praktyczne zastosowanie procedury na terenie jednej z kopalń węgla kamiennego z wykorzystaniem autorskiego oprogramowania opracowanego w wynikach powyższych badań.
Praca dotyczy jednego z kopców krakowskich – kopca Esterki w Krakowie. Kopiec ten najprawdopodobniej był elementem ogrodu założonego przy pałacu w dawnej wsi Łobzów (obecnie w dzielnicy Kraków-Krowodrza). Dotychczasowe informacje o kopcu są rozproszone w wielu publikacjach, a niekiedy zawierają błędy. Dotyczy to również materiałów ikonograficznych. W pracy zebrano i usystematyzowano dostępne materiały ikonograficzne i kartograficzne, jakie pozostały po tym obiekcie. Sporządzono dokumentację bibliograficzną istniejących materiałów graficznych pokazujących kopiec (panoramy, plany, mapy, fotografie). Informacje znajdujące się w artykule mogą zostać wykorzystane w planach rewitalizacji kopca Esterki i dawnej rezydencji królewskiej w Łobzowie.
Rzeczywistość Rozszerzona (Augmented Reality – AR) jest jedną z nowoczesnych technologii wykorzystywanych do udostępniania danych przestrzennych 3D. W artykule przedstawiono możliwe sposoby wzbogacenia aplikacji mobilnej o funkcjonalność AR. Aplikacja zawiera informacje o 50 obiektach zlokalizowanych na terenie miasta Bielska-Białej i została stworzona w dwóch programach: Android Studio oraz Unity. Aplikacja pozwala na poznanie zabytkowych obiektów miasta oraz zachęca do ich zwiedzania poprzez dodanie wirtualnych elementów obserwowanych w czasie rzeczywistym na tle obrazu z kamery urządzenia mobilnego. W artykule przedstawiono statystyki użytkowania aplikacji oraz wyniki ankiety przeprowadzonej wśród grupy testerów. Informacje zwrotne od testerów aplikacji potwierdzają zasadność zastosowania technologii AR w aplikacji.
Modelowanie kształtu powierzchni obiektów powłokowych, pomierzonych za pomocą skaningu laserowego, można przeprowadzić za pomocą aproksymacyjnych funkcji sklejanych. Funkcje te dobrze przybliżają kształty o ciągłej krzywiźnie, jakimi są powłoki, jednocześnie wykazując spadki dokładności w miejscach zerwania tej ciągłości. Od lat 90. XX wieku rozwinęło się kilka technik modelowania za ich pomocą, m.in.: wykorzystujących same punkty, siatki mesh, obszary obrysowane na siatkach mesh, regiony grupujące obszary o podobnej strukturze. Najbardziej skuteczne z nich zostały zastosowane we współczesnym oprogramowaniu, ale ich implementacje znacząco się pomiędzy sobą różnią. Najważniejsze różnice dotyczą dokładności modelowania, szczególnie miejsc o szybkich zmianach kształtu, włączając w nie krawędzie. Różnice dotyczą też złożoności matematycznej utworzonego modelu (liczby niewiadomych) oraz czasu jego opracowania. Czynniki te składają się na efektywność modelowania. Część metod działa w pełni automatycznie, inne pozwalają na ręczny dobór pewnych parametrów, są też metody wymagające pełnego sterowania ręcznego. W ich wyborze i stosowaniu duże znaczenie ma intuicja i wiedza użytkownika w zakresie tworzenia tego typu powierzchni. W opracowaniu przetestowano wpływ powyższych czynników na efektywność modelowania. Badaniom poddano łącznie sześć metod tworzenia powierzchni sklejanych w trzech pakietach oprogramowania różnej klasy: Geomagic Design X, Solidworks i RhinoResurf. Analizy przeprowadzono na obiekcie powłokowym o złożonym kształcie, składającym się z siedmiu płatów rozdzielonych krawędziami. Został on pomierzony metodą skaningu laserowego, a scalona chmura punktów stanowiła podstawę do modelowania za pomocą funkcji sklejanych. Utworzone modele oceniono pod względem dokładności wpasowania w chmurę punktów za pomocą wykresów odchyłek punktów od powierzchni, odchyłek średnich oraz maksymalnych. Dodatkowo określono złożoność modelu wyrażoną liczbą punktów kontrolnych oraz czas jego opracowania. Wyniki pozwoliły na potwierdzenie skuteczności czterech metod w zakresie dokładności wpasowania modeli. Najlepsze efekty osiągnięto stosując metodę półautomatyczną w najbardziej zaawansowanym pakiecie oprogramowania oraz metodę ręczną w najprostszym z pakietów. Potwierdza to duże znaczenie doświadczenia użytkownika w zakresie teoretycznych własności funkcji sklejanych. Złożoność i czas opracowania nie wykazywały natomiast bezpośredniego związku z dokładnością tworzonych modeli.
Spośród licznej grupy śródlądowych zbiorników wodnych dużą grupę stanowią obecnie akweny będące wynikiem działalności górniczej. Eksploatacja odkrywkowa kopalin pospolitych, tj.: piasków, żwirów, gliny, kopalin podstawowych, takich jak węgiel brunatny, surowców chemicznych, jak siarka, oraz kopalnych żywic drzew iglastych (bursztynu) pozostawia po sobie liczną wyrobiska, które z czasem wypełniają się samoistnie wodami opadowymi, zaskórnymi (przypowierzchniowymi) oraz gruntowymi (podziemnymi), tworząc często nowe i niezwykłe elementy lokalnego krajobrazu. Do czasu przemian ustrojowych w Polsce znikoma świadomość właściwej rekultywacji terenów pogórniczych decydowała o tym, iż niewiele wyrobisk poeksploatacyjnych samoistnie wypełnionych wodą doczekało się kompleksowej inwentaryzacji i udokumentowania mierniczo- geologicznego, co jest niezbędnym warunkiem bezpiecznego niegórniczego ich użytkowania. Przykładem takich obiektów wodnych są krakowskie Bagry i Staw Płaszowski (eksploatacja: gliny, piasku, żwiru), które doczekały się pełnej inwentaryzacji geodezyjnej, w tym batymetrycznej, dopiero kilkadziesiąt lat po zakończeniu eksploatacji surowców (Gawałkiewicz R., Maciaszek J., 1999; Gawałkiewicz R., 2017; Gawałkiewicz R., 2018a oraz Gawałkiewicz R., 2018b), mimo iż od wielu lat stanowią własność miasta Krakowa, pełniąc funkcje rekreacyjno-sportowe, przyrodnicze (użytki ekologiczne) oraz gospodarcze (obiekty wędkarskie). Wartym uwagi akwenem wodnym kwalifikowanym obecnie do grupy zbiorników średniej retencji, powstałym po eksploatacji odkrywkowej złóż siarki, jest zbiornik Piaseczno (gm. Łoniów, pow. sandomierski). Pomimo wielu lat rekultywacji (zabezpieczeń zboczy i ich wielokrotnego przemodelowywania, wypłycania poprzez namywanie piasków szklarskich do zbiornika), z uwagi na szereg niebezpieczeństw (lokalnych osuwisk, niestabilnego podłoża w strefach nadbrzeżnych, sztucznie utrzymywanego poziomu zwierciadła wody) nie został przekazany w użytkowanie gminie Łoniów i dziś poza funkcją użytku ekologicznego nie nadaje się do jakiejkolwiek innej formy zagospodarowania. W artykule przedstawiono wyniki kompleksowej inwentaryzacji geodezyjnej (strefa przybrzeżna) i hydrograficznej (akwen) przy wykorzystaniu zdalnie sterowanego hydrodrona HyDrone firmy Seefloor Systems wyposażonego w sondę ultradźwiękową SonarMite BTX/SPX OHMEX firmy Lymtech oraz zestaw GNSS firmy Trimble (antena R8s + kontroler TSC3) oraz inwentaryzacji przyrodniczej w strefie litoralu. Określono także szczegółowe parametry morfometryczne zbiornika na podstawie zintegrowanych pomiarów geodezyjnych oraz batymetrycznych, co w przyszłości może stanowić wartościowy materiał w procesie adaptacji analizowanego terenu do różnych społeczno- gospodarczych celów przy zachowaniu warunku wysokiego stopnia bezpieczeństwa jego użytkowania.
W Polsce dużą popularnością turystyczną od lat cieszą się obiekty antropogeniczne wzniesione pod powierzchnią ziemi, pełniące różnorodne funkcje użytkowe w przeszłości (zabytkowe kopalnie, podziemne składy kupieckie, obiekty militarne, obiekty specjalne, jaskinie i groty). Wiele z nich zostało w stopniu istotnym zabezpieczone i przebudowane w taki sposób, by nadać im nową formę. Udostępnione, dziś stanowią ciekawe oferty turystyczne, a ich liczba stanowi dziś zbiór otwarty. Przykładem mocno przetworzonego podziemnego obiektu antropogenicznego o bardzo zróżnicowanej geometrii i niezwykle ciekawej formie architektonicznej jest Podziemna Trasa Turystyczna w Sandomierzu. Dzięki zaangażowaniu wielu środków udało się w latach 60. XX w. ocalić od zniszczenia wiele interesujących piwnic i składów kupieckich i połączyć je z zastosowaniem technik górniczych w atrakcyjne formy przestrzenne. Dotychczas powstało niewiele opracowań, które ukazałyby w pełni ich charakterystykę oraz sparametryzowały obiekt. Możliwości dostępnych dzisiaj technik pomiarowych oraz informatycznych pozwalają na kompleksową inwentaryzację skomplikowanych budowli inżynierskich, a także wizualizację przestrzenną z uwzględnieniem nawet najdrobniejszych elementów małej architektury (drzwi, kraty, lampy itp.). W artykule zaprezentowano wyniki wizualizacji i parametryzacji na podstawie danych zintegrowanych pomiarów geodezyjnych (niwelacji, poligonizacji, tachimetrii elektronicznej, skaningu laserowego i innych pomiarów bezpośrednich).
Od kilkunastu już lat użytkownicy oprogramowania GIS mogą używać do dowolnych celów zbioru danych będącego do pewnego stopnia alternatywą zarówno dla produktów oferowanych przez dostawców komercyjnych, jak i urzędowych baz danych. Jest nim OpenStreetMap (w skrócie OSM) – obejmujący cały świat zbiór danych przestrzennych, tworzony i edytowany przez zainteresowane osoby i dostępny do stosowania przez każdego chętnego bez żadnych ograniczeń. Budowany jest na podstawie danych rejestrowanych turystycznymi odbiornikami GPS, pozyskiwanych poprzez wektoryzację zdjęć lotniczych oraz pochodzących z innych nadających się do wykorzystania źródeł, w tym nawet szkiców wykonywanych w terenie. Zgromadzona informacja zapisywana jest w centralnej bazie danych, której zawartość jest nie tylko prezentowana na stronie internetowej w postaci cyfrowej mapy, lecz również oferowana do pobrania jako dane wektorowe. Takie dane mogą mieć zastosowanie między innymi do przeprowadzania różnorodnych analiz bazujących na sieciach drogowych, z których najczęściej wykorzystywana jest funkcja wyznaczania optymalnej trasy łączącej wybrane lokalizacje. Wyniki takich analiz można uznać za wiarygodne tylko wtedy, gdy użyte w nich dane będą się charakteryzować odpowiednią jakością. Ponieważ baza danych OSM budowana jest przez pasjonatów, nie są formułowane żadne plany jej systematycznego rozwoju oraz brak jest wbudowanych mechanizmów kontroli jakości. Dlatego w artykule zaproponowano metody i narzędzia, które pozwolą na weryfikację przydatności zgromadzonych do tej pory danych, jak również na poprawę wykrytych błędów. Skupiono się na następujących kategoriach jakości danych geograficznych: dokładności położenia, spójności topologicznej oraz ważności czasowej. Dodatkowo dostrzeżono problem z wyznaczaniem długości poszczególnych obiektów sieci drogowej, związany z metodami pozyskiwania danych i sposobami rejestracji kształtu linii. W związku z tym do przeprowadzenia tak zwanej kalibracji trasy zasugerowano użycie stosowanych w sieciach transportowych słupków kilometrowych i hektometrowych, których lokalizacje są sukcesywnie wprowadzane do bazy danych OSM.
Wiedza astronomiczna na dysku została zakodowana na dwóch płaszczyznach: horyzontalnej i południkowej. Na płaszczyźnie horyzontalnej (poziomej) opisano zakres kierunków wschodu i zachodu Słońca w ciągu roku. Z kolei na płaszczyźnie południkowej (pionowej) opisano zakres zmiany wysokości horyzontalnej i deklinacji Słońca w kulminacji górnej w ciągu roku oraz Księżyca w jego 18,61-rocznym cyklu. Za pomocą konstrukcji geometrycznych opisano związki między szerokością geograficzną miejsca obserwacji, wysokością horyzontalną ciała niebieskiego i jego deklinacją. Prezentowany artykuł jest kontynuacją dwóch publikacji: [1], [2], w których opisano deszyfrację dysku z Nebry. Publikacje te były oparte na interpretacji wyników pomiarów kątowych, wykonanych za pomocą kątomierza o podziałce 0,5 stopnia, bez użycia komputera. Prezentowana publikacja bazuje na cyfrowym obrazie dysku, uzyskanym za pomocą jego digitalizacji. Uzyskane dane wykorzystano do dalszych obliczeń opartych na geometrii analitycznej oraz programach graficznych.
W artykule przedstawiono przykład galerii transportowej, której odporność na wpływy górnicze okazała się niewystarczająca. W pierwszej części artykułu podano zasady, jakim powinny odpowiadać tego typu obiekty budowlane. W części drugiej przedstawiono opis konstrukcji przedmiotowej galerii oraz przeanalizowano przyczyny zbyt niskiej odporności obiektu na wpływy górnicze. Wykazano, że są to zarówno błędy projektowe, jak i wykonawcze oraz eksploatacyjne. Z kolei przedstawiono zabiegi zmierzające do zapewnienia galerii transportowej odporności zgodnej z założeniami projektowymi. W podsumowaniu sformułowano wnioski i zalecenia, które powinny być uwzględniane na etapie projektowania i budowy oraz podczas eksploatacji galerii transportowych w zakładach przemysłowych usytuowanych na terenach górniczych.
W artykule przeanalizowano proces przemieszczeń pogórniczych generowanych przez górnictwo podziemne. Innowacyjne struktury matematyczne do modelowania emisji pola zagrożenia opracowano jako silne rozwiązania równań różniczkowych cząstkowych w R3+1. Ponadto zdefiniowano i zastosowano równanie stochastyczne w L2(Ω) (przestrzeni probabilistycznej) jako model uwzględniający losowość procesu. Monitoring obszaru górniczego, w oparciu o rozwiązania w technologii GNSS i klasycznej geodezji, wspomaga analizę przekształceń topologicznych danej podprzestrzeni. Dane archiwizowano i przechowywano w formie cyfrowej, a następnie analizowano na wiele sposobów. Jakość reprezentacji (pomiary i modelowanie) oszacowano za pomocą statystyk przyrostowych. Tak uzyskane rozkłady funkcji gęstości nie są klasyfikowane jako rozkład normalny. Przeprowadzone analizy pozwalają przewidzieć optymalne scenariusze zagrożeń dla środowiska pogórniczego.
Celem artykułu jest ustalenie związku między losowo wybranym punktem pola gry a celem. Analiza została oparta na przykładzie boiska i zasadach futbolu. Decyzja o odstąpieniu od zdobywania pola i oddaniu strzału musi uwzględniać związek między możliwym kątem rozproszenia a kątem, pod jakim można zobaczyć bramkę. Temu ostatniemu (oznaczonemu przez γ) została poświęcona szczególna uwaga. Zwrócono też uwagę na fakt, że widok bramki zmniejsza się w miarę oddalania się gracza od osi podłużnej boiska. Obracając kierunek linii bramkowej (b) w kierunku prostopadłym do linii strzału, uzyskujemy zmniejszony rzut bramki (t). Wskaźniki, takie jak kąt γ, rzut t i jego ilorazowa wersja N trafnie określają różne sytuacje przestrzenne występujące na polu gry. Jednak w celu lepszego zilustrowania oceny zaproponowano kolejny wskaźnik (V). Uwzględnia on zmieniający się widok bramki jako „cel” obserwowany z różnych odległości. Porównywalność możliwości została również wykazana w postaci izolinii w kształcie koła, opartych na cięciwie bramki. Przeprowadzone analizy potwierdziły doświadczalną zasadę i cel piłki nożnej, który polega na korzystnym zdobywaniu pola wzdłuż skrzydeł i ostatecznie przerzuceniu piłki na środkowe pole.
Bieżące ustawienie bramkarza w grze w piłkę nożną jest funkcją przebiegu akcji i każdej chwilowej pozycji rozgrywania piłki. Bramkarz śledzi akcję i pozycję potencjalnego strzału, natomiast strzał do bramki jest w jego odbiorze zdarzeniem losowym. Dlatego tak bardzo ważne jest zajęcie takiego miejsca w najbliższej strefie bramki, które uwzględnia losowy charakter kierunku piłki. Podstawową zasadą strategii postępowania jest stworzenie równej szansy obrony po stronie lewej i prawej. Stosując język geometrii, można tę pozycję umiejscowić na dwusiecznej kąta, pod jakim widać światło bramki z potencjalnej pozycji strzeleckiej. Na początku niniejszego artykułu zostały przedstawione korzyści z niewielkiego wyjścia z bramki wzdłuż tej dwusiecznej oraz pewne ograniczenia z tym związane. W dalszej części podjęto zadanie wyznaczenia teoretycznej krzywej, po jakiej powinien się poruszać bramkarz. Rozpatrzono poprawne pod względem geometrycznym, ale niepraktyczne dwa okręgi, owal Cassiniego, złożenie łuków dwóch okręgów i odcinka prostej oraz łuk elipsy. W drugiej części artykułu punktową analizę pozycji bramkarza zamieniono na warunki realne – uwzględniono strefę obrony równą rozpiętości ramion. Dla tych urealnionych warunków została wyznaczona krzywa utworzona z dwóch łuków okręgów i łuku elipsy. Szczegółowa analiza doprowadziła do wniosku, że rozbieżność pomiędzy tak zbudowanym złożonym łukiem a jednorodnym łukiem elipsy jest praktycznie zaniedbywalna. Dlatego te obydwa łuki: złożony z części i jednorodny łuk elipsy – mogą być zaakceptowane jako racjonalne i praktycznie alternatywne. W niniejszym artykule problem był rozważany od strony geometrii, z uwzględnieniem strzału do bramki odbieranego przez bramkarza jako zdarzenie losowe. Zaproponowany teoretyczny łuk bramkarza zapewnia optymalną pozycję uwzględniającą strzały padające z różnych kierunków, ze strefy bliskiej pola karnego.
W artykule poruszono problem badania wartości odkształceń poziomych występujących na długości pojedynczych boków linii obserwacyjnych. Zwrócono szczególną uwagę na istotność tego zagadnienia w aspekcie wykonywanych dziś ocen zagrożenia terenów górniczych. Brak znajomości faktycznie występujących wartości odkształceń poziomych w aspekcie wyznaczanych powszechnie średnich wartości wskaźnika (przypisywanych dla całej długości boku) w przypadku ich dużych wzajemnych różnic może być przyczyną małej wiarygodności sporządzanych ocen. Może to wyjaśniać również występowanie uszkodzeń obiektów na terenach o ustalonej w ten sposób kategorii terenu górniczego.
W artykule przedstawiono przypadek identyfikacji parametrów teorii prognozowania wpływów S. Knothego dla wieloletniej podziemnej eksploatacji górniczej. Przedstawione zagadnienie jest związane z założeniami co do wartości parametrów teorii w długoterminowych prognozach wpływu eksploatacji złoża na powierzchnię, zawartych w projekcie zagospodarowania złoża.
Nieprawidłowo dobrane wartości mogą znacząco wpływać na jakość sporządzanych prognoz deformacji. Prezentowane w artykule obliczenia wykonano dla rejonu, w którym prowadzono eksploatację sześciu pokładów węgla w okresie ponad trzydziestu lat, natomiast na powierzchni obserwowano powstające deformacje z wykorzystaniem pomiarów geodezyjnych. Na podstawie krzywych osiadań punktów linii obserwacyjnej w czasie określono trzy okresy zatrzymania ruchów górotworu. Dla okresów zatrzymania ruchów górotworu określono zakres dotychczasowej eksploatacji górniczej. Na podstawie pomiarów geodezyjnych oraz zakresu wybranych pokładów przeprowadzono identyfikację parametrów teorii S. Knothego. Obliczenia parametrów wykonano dla zwiększającego się zakresu eksploatacji górniczej oraz dla zakresów eksploatacji pomiędzy kolejnymi zatrzymaniami ruchów górotworu. Przeprowadzona w ten sposób identyfikacja parametrów teorii stworzyła możliwość prześledzenia zmian wartości parametrów dla różnych zakresów eksploatacji górniczej. Stwierdzono istotne zmiany w przypadku parametru opisującego rozproszenie wpływów (tgβ), natomiast zmiany wartości współczynnika eksploatacji nie są znaczne, a jego wartość po pewnym czasie ustala się na stałym poziomie.
W artykule scharakteryzowano zmiany wykorzystania informacji przestrzennej, które w przeciągu ostatnich 20 lat dokonały się w dziedzinie inżynierii i ochrony środowiska i spowodowały odejście od map analogowych na rzecz map cyfrowych. Omówiono znaczenie Dyrektywy INSPIRE UE dla upowszechnienia usług udostępnienia danych przestrzennych w celu prowadzenia polityki środowiskowej realizowanej w ramach Dyrektywy „środowiskowej” UE. Scharakteryzowano główne kierunki wykorzystania informacji przestrzennej w inżynierii i ochronie środowiska. Następnie omówiono problem otwartości danych administracji publicznej w kontekście Dyrektywy „otwartych danych” UE. Na podstawie zdefiniowanych przez autora 4 kryteriów przeanalizowano dostępność zbiorów danych wszystkich 21 tematów 3. Aneksu Dyrektywy INSPIRE w Polsce. Kluczowym parametrem oceny była dostępność danych do pobrania bez konieczności logowania się do systemu dostawcy usługi. W podsumowaniu zaprezentowano wyniki badań, a we wnioskach wskazano na proponowane metody ich rozwiązania.
Artykuł przedstawia możliwości wykorzystania kamery wideo do stworzenia metrycznego modelu 3D obiektów inżynierskich przy użyciu oprogramowania Agisoft i CloudCompare. Tradycyjna technika fotogrametryczna nie zawsze odpowiada pilności produkcji potrzebnej na rynku. Złożoność jest widoczna w przypadku dużych obiektów, co prowadzi do wzrostu kosztów, czasu i żmudności pracy. Zastosowanie techniki Video Camera, zwanej tu wideogrametrią, jest porównywalne z robieniem zdjęć, jednak pozwala przyspieszyć proces pozyskiwania danych, które w wielu przypadkach są kluczowym elementem każdego projektu czy badania.
Wykonano analizę jakości modelowania 3D sfilmowanych trzech obiektów, co pozwoliło na dopracowanie procedury pozyskiwania zobrazowań do analiz przestrzennych. Zastosowana technika „wideogrametrii” jest porównywalna do wykonywania zdjęć, jednak pozwala przyspieszyć proces pozyskiwania danych, co w wielu przypadkach jest elementem kluczowym w badaniach terenowych. Filmy z obiektami 3D z kamery niemetrycznej zostały przetworzone przez Agisoft Metashape. Aby móc ocenić dokładność danych wideogrametrycznych, do porównania użyto dobrze ugruntowanej techniki skanera laserowego. Dane skanera laserowego zostały wstępnie przetworzone w programie Autodesk Recap. Rejestracja ręczna została przeprowadzona z wykorzystaniem 14 punktów z trzech skanów. Dwa modele 3D zostały wyeksportowane do oprogramowania CloudCompare w celu porównania i dalszej analizy. Przeprowadzono analizę jakości modelowania 3D trzech filmowanych obiektów, co pozwoliło dopracować procedurę pozyskiwania obrazów do analizy przestrzennej. W artykule przedstawiono możliwości wykorzystania „wideogrametrii” niemetrycznej kamery wideo telefonu komórkowego do tworzenia metrycznego modelu 3D obiektów inżynierskich przy użyciu oprogramowania Agisoft i CloudCompare. W CloudCompare przeprowadzono rejestrację, chmurę do chmury (C2C) i analizę profilu do profilu w celu określenia niepewności modelu 3D utworzonego z danych wideogrametrii określonych jako odległość separacji między dwoma modelami. Wyniki pokazują, że średnia odległość separacji między skanerem laserowym a chmurą punktów modelu 3D uzyskaną z wideogrametrii wynosi 34 cm, średnia separacja profili wynosiła 25 cm w płaszczyźnie XY i 1,9 cm w płaszczyźnie Z. Używając Cloud to Cloud PCV, określono średnią różnicę 84 cm.
W pracy zaprezentowano metodę i wyniki rozkodowania treści zawartej na powierzchni dysku z Nebry. Wykazano, że znajdujące się na nim symbole sugerujące Słońce, Księżyc i barkę słoneczną są tylko figurami geometrycznymi ułatwiającymi zapis wiedzy o charakterze astronomicznym. W pracy wpierw zdefiniowano układ biegunowy na płaszczyźnie horyzontu. W układzie tym opisano zakres kierunków wschodu i zachodu Słońca w okresie rocznym i Księżyca w cyklu 18,61-letnim. Okazało się, że na powierzchni dysku zapisano wiedzę astronomiczną na dwu płaszczyznach: horyzontalnej i na płaszczyźnie do niej prostopadłej (płaszczyźnie południka). Za pomocą konstrukcji geometrycznych znajdujących się na płaszczyźnie południka udało się rozkodować zakres zmian wysokości horyzontalnej (odległości zenitalnej) Słońca w okresie rocznym, w momencie jego kulminacji górnej. Również za pomocą dwu różnych konstrukcji geometrycznych rozkodowano zakres zmian wysokości horyzontalnych (odległości zenitalnych) Księżyca w momencie jego kulminacji górnej w cyklu 18.61-letnim.
Przestawiona praca dotyczy problematyki deformacji powierzchni i górotworu w rejonie Kopalni Soli Bochnia. Deformacje te związane są zarówno z przyczynami naturalnymi (głównie nacisk tektoniczny orogenu karpackiego), jak i antropogenicznymi związanymi z minioną aktywnością górniczą prowadzoną bezpośrednio pod zabudową miejską Bochni. Omówione charakterystyki deformacji powierzchni terenu są istotne z punktu widzenia zagrożeń dla obiektów powierzchni oraz są elementem planowania przestrzennego. Szczególnie przeanalizowane zostały strefy anomalne niecki obniżeniowej jako efekty drugiego rzędu deformacji. Autor przedstawił sposób ich wyznaczania oraz omówił genezę ich powstania
Obszar Inowrocławia uznawany jest za aktywny tektonicznie ze względu na halotektoniczny ruch znajdującego się tam wysadu solnego. Badania geodezyjne przeprowadzone w celu określenia powierzchni terenu na przestrzeni lat ujawniły charakterystykę tego ruchu. Oszacowane przemieszczenia pionowe na podstawie pomiarów niwelacyjnych sieci reperów wykazują różne charakterystyki w zależności od rodzaju przyjętych nawiązań dalekich punktów. Rodzi to problemy w analizie, interpretacji wyników i podejmowaniu decyzji w planowaniu głównym. Dlatego autorzy przedstawiają metodę wyrównania, która minimalizuje niespójności pomiędzy wcześniej opracowanymi wysokościami oraz niespójności punktów wcześniej uznanych za punkty nawiązania. Dzięki nowej metodzie punkty przyjęte wcześniej jako punkty nawiązania okazały się niestabilne. Natomiast dla innych reperów uzyskano bardziej spójne wartości przemieszczeń: kilka reperów wykazało większą różnicę w wartościach przemieszczeń w stosunku do pierwotnego podejścia o wartościach w przedziale –9 mm – +3 mm.
Charakterystycznymi elementami krajobrazu rejonu tarnobrzeskiego są dwa poeksploatacyjne wyrobiska (relikty górnictwa siarkowego), obecnie wypełnione wodą. Stanowią historyczny i trwały ślad odkrywkowej działalności górniczej prowadzonej w Piasecznie (lewobrzeżna Wisła) w latach 1958–1971 oraz w Machowie (prawobrzeżna Wisła) w latach 1970–1992. Proces rekultywacji wyrobiska Machów zakończono pomyślnie i od kliku lat zbiornik wodny stanowi popularne miejsce wypoczynku i rekreacji mieszkańców miasta i okolic. Niestety w przypadku wyrobiska Piaseczno, mimo wielu lat prac likwidacyjnych i rekultywacyjnych, przywracanie wartości użytkowych i przyrodniczych tym terenom nie zostało zakończone. Nadal istnieje realne ryzyko masowych ruchów zawodnionych warstw ziemi w strefie nadwodnej, co ogranicza możliwość adaptacji zbiornika na cele inne niż tylko retencja i użytek przyrodniczy. Mimo krótkiej trzynastoletniej historii wydobycia rud siarki oraz blisko dziesięcioletniej eksploatacji piasków baranowskich (szklarskich) Kopalnia Siarki „Piaseczno” ma ciekawą historię, za sprawą działalności górniczej (etapy: eksploatacji, likwidacji i rekultywacji) oraz sił natury, które stanowią poważny problem w procesie zakończenia prac zmierzających do przywrócenia wartości użytkowej terenom nieistniejącego już obszaru górniczego.
Na podstawie analizy i post-processingu dostępnych archiwalnych materiałów kartograficznych przy wykorzystaniu narzędzi informatycznych (Surfer, AutoCAD), możliwe było szczegółowe sparametryzowanie zbiornika Piaseczno oraz wykazanie wpływu prac rekultywacyjnych oraz zjawisk naturalnych (ruchów masowych) na kształt misy jeziornej oraz skarp nadwodnych wyrobiska.
Celem artykułu jest ustalenie związku między losowo wybranym punktem pola gry a celem. Analiza została oparta na przykładzie boiska i zasadach futbolu. Decyzja o odstąpieniu od zdobywania pola i oddaniu strzału musi uwzględniać związek między możliwym kątem rozproszenia a kątem, pod jakim można zobaczyć bramkę. Temu ostatniemu (oznaczonemu przez γ) została poświęcona szczególna uwaga. Zwrócono też uwagę na fakt, że widok bramki zmniejsza się w miarę oddalania się gracza od osi podłużnej boiska. Obracając kierunek linii bramkowej (b) w kierunku prostopadłym do linii strzału, uzyskujemy zmniejszony rzut bramki (t). Wskaźniki, takie jak kąt γ, rzut t i jego ilorazowa wersja N trafnie określają różne sytuacje przestrzenne występujące na polu gry. Jednak w celu lepszego zilustrowania oceny zaproponowano kolejny wskaźnik (V). Uwzględnia on zmieniający się widok bramki jako „cel” obserwowany z różnych odległości. Porównywalność możliwości została również wykazana w postaci izolinii w kształcie koła, opartych na cięciwie bramki. Przeprowadzone analizy potwierdziły doświadczalną zasadę i cel piłki nożnej, który polega na korzystnym zdobywaniu pola wzdłuż skrzydeł i ostatecznie przerzuceniu piłki na środkowe pole.
Bieżące ustawienie bramkarza w grze w piłkę nożną jest funkcją przebiegu akcji i każdej chwilowej pozycji rozgrywania piłki. Bramkarz śledzi akcję i pozycję potencjalnego strzału, natomiast strzał do bramki jest w jego odbiorze zdarzeniem losowym. Dlatego tak bardzo ważne jest zajęcie takiego miejsca w najbliższej strefie bramki, które uwzględnia losowy charakter kierunku piłki. Podstawową zasadą strategii postępowania jest stworzenie równej szansy obrony po stronie lewej i prawej. Stosując język geometrii, można tę pozycję umiejscowić na dwusiecznej kąta, pod jakim widać światło bramki z potencjalnej pozycji strzeleckiej. Na początku niniejszego artykułu zostały przedstawione korzyści z niewielkiego wyjścia z bramki wzdłuż tej dwusiecznej oraz pewne ograniczenia z tym związane. W dalszej części podjęto zadanie wyznaczenia teoretycznej krzywej, po jakiej powinien się poruszać bramkarz. Rozpatrzono poprawne pod względem geometrycznym, ale niepraktyczne dwa okręgi, owal Cassiniego, złożenie łuków dwóch okręgów i odcinka prostej oraz łuk elipsy. W drugiej części artykułu punktową analizę pozycji bramkarza zamieniono na warunki realne – uwzględniono strefę obrony równą rozpiętości ramion. Dla tych urealnionych warunków została wyznaczona krzywa utworzona z dwóch łuków okręgów i łuku elipsy. Szczegółowa analiza doprowadziła do wniosku, że rozbieżność pomiędzy tak zbudowanym złożonym łukiem a jednorodnym łukiem elipsy jest praktycznie zaniedbywalna. Dlatego te obydwa łuki: złożony z części i jednorodny łuk elipsy – mogą być zaakceptowane jako racjonalne i praktycznie alternatywne. W niniejszym artykule problem był rozważany od strony geometrii, z uwzględnieniem strzału do bramki odbieranego przez bramkarza jako zdarzenie losowe. Zaproponowany teoretyczny łuk bramkarza zapewnia optymalną pozycję uwzględniającą strzały padające z różnych kierunków, ze strefy bliskiej pola karnego.
W artykule poruszono problem badania wartości odkształceń poziomych występujących na długości pojedynczych boków linii obserwacyjnych. Zwrócono szczególną uwagę na istotność tego zagadnienia w aspekcie wykonywanych dziś ocen zagrożenia terenów górniczych. Brak znajomości faktycznie występujących wartości odkształceń poziomych w aspekcie wyznaczanych powszechnie średnich wartości wskaźnika (przypisywanych dla całej długości boku) w przypadku ich dużych wzajemnych różnic może być przyczyną małej wiarygodności sporządzanych ocen. Może to wyjaśniać również występowanie uszkodzeń obiektów na terenach o ustalonej w ten sposób kategorii terenu górniczego.
W artykule przedstawiono przypadek identyfikacji parametrów teorii prognozowania wpływów S. Knothego dla wieloletniej podziemnej eksploatacji górniczej. Przedstawione zagadnienie jest związane z założeniami co do wartości parametrów teorii w długoterminowych prognozach wpływu eksploatacji złoża na powierzchnię, zawartych w projekcie zagospodarowania złoża.
Nieprawidłowo dobrane wartości mogą znacząco wpływać na jakość sporządzanych prognoz deformacji. Prezentowane w artykule obliczenia wykonano dla rejonu, w którym prowadzono eksploatację sześciu pokładów węgla w okresie ponad trzydziestu lat, natomiast na powierzchni obserwowano powstające deformacje z wykorzystaniem pomiarów geodezyjnych. Na podstawie krzywych osiadań punktów linii obserwacyjnej w czasie określono trzy okresy zatrzymania ruchów górotworu. Dla okresów zatrzymania ruchów górotworu określono zakres dotychczasowej eksploatacji górniczej. Na podstawie pomiarów geodezyjnych oraz zakresu wybranych pokładów przeprowadzono identyfikację parametrów teorii S. Knothego. Obliczenia parametrów wykonano dla zwiększającego się zakresu eksploatacji górniczej oraz dla zakresów eksploatacji pomiędzy kolejnymi zatrzymaniami ruchów górotworu. Przeprowadzona w ten sposób identyfikacja parametrów teorii stworzyła możliwość prześledzenia zmian wartości parametrów dla różnych zakresów eksploatacji górniczej. Stwierdzono istotne zmiany w przypadku parametru opisującego rozproszenie wpływów (tgβ), natomiast zmiany wartości współczynnika eksploatacji nie są znaczne, a jego wartość po pewnym czasie ustala się na stałym poziomie.
W artykule scharakteryzowano zmiany wykorzystania informacji przestrzennej, które w przeciągu ostatnich 20 lat dokonały się w dziedzinie inżynierii i ochrony środowiska i spowodowały odejście od map analogowych na rzecz map cyfrowych. Omówiono znaczenie Dyrektywy INSPIRE UE dla upowszechnienia usług udostępnienia danych przestrzennych w celu prowadzenia polityki środowiskowej realizowanej w ramach Dyrektywy „środowiskowej” UE. Scharakteryzowano główne kierunki wykorzystania informacji przestrzennej w inżynierii i ochronie środowiska. Następnie omówiono problem otwartości danych administracji publicznej w kontekście Dyrektywy „otwartych danych” UE. Na podstawie zdefiniowanych przez autora 4 kryteriów przeanalizowano dostępność zbiorów danych wszystkich 21 tematów 3. Aneksu Dyrektywy INSPIRE w Polsce. Kluczowym parametrem oceny była dostępność danych do pobrania bez konieczności logowania się do systemu dostawcy usługi. W podsumowaniu zaprezentowano wyniki badań, a we wnioskach wskazano na proponowane metody ich rozwiązania.
Artykuł przedstawia możliwości wykorzystania kamery wideo do stworzenia metrycznego modelu 3D obiektów inżynierskich przy użyciu oprogramowania Agisoft i CloudCompare. Tradycyjna technika fotogrametryczna nie zawsze odpowiada pilności produkcji potrzebnej na rynku. Złożoność jest widoczna w przypadku dużych obiektów, co prowadzi do wzrostu kosztów, czasu i żmudności pracy. Zastosowanie techniki Video Camera, zwanej tu wideogrametrią, jest porównywalne z robieniem zdjęć, jednak pozwala przyspieszyć proces pozyskiwania danych, które w wielu przypadkach są kluczowym elementem każdego projektu czy badania.
Wykonano analizę jakości modelowania 3D sfilmowanych trzech obiektów, co pozwoliło na dopracowanie procedury pozyskiwania zobrazowań do analiz przestrzennych. Zastosowana technika „wideogrametrii” jest porównywalna do wykonywania zdjęć, jednak pozwala przyspieszyć proces pozyskiwania danych, co w wielu przypadkach jest elementem kluczowym w badaniach terenowych. Filmy z obiektami 3D z kamery niemetrycznej zostały przetworzone przez Agisoft Metashape. Aby móc ocenić dokładność danych wideogrametrycznych, do porównania użyto dobrze ugruntowanej techniki skanera laserowego. Dane skanera laserowego zostały wstępnie przetworzone w programie Autodesk Recap. Rejestracja ręczna została przeprowadzona z wykorzystaniem 14 punktów z trzech skanów. Dwa modele 3D zostały wyeksportowane do oprogramowania CloudCompare w celu porównania i dalszej analizy. Przeprowadzono analizę jakości modelowania 3D trzech filmowanych obiektów, co pozwoliło dopracować procedurę pozyskiwania obrazów do analizy przestrzennej. W artykule przedstawiono możliwości wykorzystania „wideogrametrii” niemetrycznej kamery wideo telefonu komórkowego do tworzenia metrycznego modelu 3D obiektów inżynierskich przy użyciu oprogramowania Agisoft i CloudCompare. W CloudCompare przeprowadzono rejestrację, chmurę do chmury (C2C) i analizę profilu do profilu w celu określenia niepewności modelu 3D utworzonego z danych wideogrametrii określonych jako odległość separacji między dwoma modelami. Wyniki pokazują, że średnia odległość separacji między skanerem laserowym a chmurą punktów modelu 3D uzyskaną z wideogrametrii wynosi 34 cm, średnia separacja profili wynosiła 25 cm w płaszczyźnie XY i 1,9 cm w płaszczyźnie Z. Używając Cloud to Cloud PCV, określono średnią różnicę 84 cm.
W pracy zaprezentowano metodę i wyniki rozkodowania treści zawartej na powierzchni dysku z Nebry. Wykazano, że znajdujące się na nim symbole sugerujące Słońce, Księżyc i barkę słoneczną są tylko figurami geometrycznymi ułatwiającymi zapis wiedzy o charakterze astronomicznym. W pracy wpierw zdefiniowano układ biegunowy na płaszczyźnie horyzontu. W układzie tym opisano zakres kierunków wschodu i zachodu Słońca w okresie rocznym i Księżyca w cyklu 18,61-letnim. Okazało się, że na powierzchni dysku zapisano wiedzę astronomiczną na dwu płaszczyznach: horyzontalnej i na płaszczyźnie do niej prostopadłej (płaszczyźnie południka). Za pomocą konstrukcji geometrycznych znajdujących się na płaszczyźnie południka udało się rozkodować zakres zmian wysokości horyzontalnej (odległości zenitalnej) Słońca w okresie rocznym, w momencie jego kulminacji górnej. Również za pomocą dwu różnych konstrukcji geometrycznych rozkodowano zakres zmian wysokości horyzontalnych (odległości zenitalnych) Księżyca w momencie jego kulminacji górnej w cyklu 18.61-letnim.
Przestawiona praca dotyczy problematyki deformacji powierzchni i górotworu w rejonie Kopalni Soli Bochnia. Deformacje te związane są zarówno z przyczynami naturalnymi (głównie nacisk tektoniczny orogenu karpackiego), jak i antropogenicznymi związanymi z minioną aktywnością górniczą prowadzoną bezpośrednio pod zabudową miejską Bochni. Omówione charakterystyki deformacji powierzchni terenu są istotne z punktu widzenia zagrożeń dla obiektów powierzchni oraz są elementem planowania przestrzennego. Szczególnie przeanalizowane zostały strefy anomalne niecki obniżeniowej jako efekty drugiego rzędu deformacji. Autor przedstawił sposób ich wyznaczania oraz omówił genezę ich powstania
Obszar Inowrocławia uznawany jest za aktywny tektonicznie ze względu na halotektoniczny ruch znajdującego się tam wysadu solnego. Badania geodezyjne przeprowadzone w celu określenia powierzchni terenu na przestrzeni lat ujawniły charakterystykę tego ruchu. Oszacowane przemieszczenia pionowe na podstawie pomiarów niwelacyjnych sieci reperów wykazują różne charakterystyki w zależności od rodzaju przyjętych nawiązań dalekich punktów. Rodzi to problemy w analizie, interpretacji wyników i podejmowaniu decyzji w planowaniu głównym. Dlatego autorzy przedstawiają metodę wyrównania, która minimalizuje niespójności pomiędzy wcześniej opracowanymi wysokościami oraz niespójności punktów wcześniej uznanych za punkty nawiązania. Dzięki nowej metodzie punkty przyjęte wcześniej jako punkty nawiązania okazały się niestabilne. Natomiast dla innych reperów uzyskano bardziej spójne wartości przemieszczeń: kilka reperów wykazało większą różnicę w wartościach przemieszczeń w stosunku do pierwotnego podejścia o wartościach w przedziale –9 mm – +3 mm.
Charakterystycznymi elementami krajobrazu rejonu tarnobrzeskiego są dwa poeksploatacyjne wyrobiska (relikty górnictwa siarkowego), obecnie wypełnione wodą. Stanowią historyczny i trwały ślad odkrywkowej działalności górniczej prowadzonej w Piasecznie (lewobrzeżna Wisła) w latach 1958–1971 oraz w Machowie (prawobrzeżna Wisła) w latach 1970–1992. Proces rekultywacji wyrobiska Machów zakończono pomyślnie i od kliku lat zbiornik wodny stanowi popularne miejsce wypoczynku i rekreacji mieszkańców miasta i okolic. Niestety w przypadku wyrobiska Piaseczno, mimo wielu lat prac likwidacyjnych i rekultywacyjnych, przywracanie wartości użytkowych i przyrodniczych tym terenom nie zostało zakończone. Nadal istnieje realne ryzyko masowych ruchów zawodnionych warstw ziemi w strefie nadwodnej, co ogranicza możliwość adaptacji zbiornika na cele inne niż tylko retencja i użytek przyrodniczy. Mimo krótkiej trzynastoletniej historii wydobycia rud siarki oraz blisko dziesięcioletniej eksploatacji piasków baranowskich (szklarskich) Kopalnia Siarki „Piaseczno” ma ciekawą historię, za sprawą działalności górniczej (etapy: eksploatacji, likwidacji i rekultywacji) oraz sił natury, które stanowią poważny problem w procesie zakończenia prac zmierzających do przywrócenia wartości użytkowej terenom nieistniejącego już obszaru górniczego.
Na podstawie analizy i post-processingu dostępnych archiwalnych materiałów kartograficznych przy wykorzystaniu narzędzi informatycznych (Surfer, AutoCAD), możliwe było szczegółowe sparametryzowanie zbiornika Piaseczno oraz wykazanie wpływu prac rekultywacyjnych oraz zjawisk naturalnych (ruchów masowych) na kształt misy jeziornej oraz skarp nadwodnych wyrobiska.
Zagadnienia dotyczące struktury przestrzennej miasta zaczęto ostatnio dokładniej badać z uwagi na wzrost zainteresowania autentycznym dziedzictwem kulturowym i turystyką oraz poszukiwanie zakorzenionych w kulturze, więc bardziej zrównoważonych, zasad planowania przestrzeni miejskiej. W aspekcie poprawy potencjału miejskiego w rejonach tropikalnych, w tym w rejonie Nusantara, szczególne zainteresowanie budzą przedkolonialne „oryginalne” układy urbanistyczne miast nadrzecznych lub nadmorskich Azji Południowo-Wschodniej, powstające od XV do XVIII wieku na Półwyspie Malajskim i Borneo. Praca ta rzuca światło na tego rodzaju badania, a skupia się przede wszystkim na takich miastach, jak: Alor Setar (zlokalizowane na północy Półwyspu Malajskiego), Kuala Kangsar (na północnym wschodzie, ale skierowane bardziej w stronę lądu), Malaka (nadmorskie miasto na południu) oraz Pontianak, Kalimantan (zachodnia część Borneo). Podjęto próbę odtworzenia ery zwanej ‘przedkolonialną’ w realiach Malajów, które są ściśle związane z rzekami i morzem. Podjęto próbę utworzenia ramowej koncepcji projektowania urbanistycznego, którego cechy są silnie związane z klimatem tropikalnym. Chodzi więc o wzmocnienie typowych zasad bioklimatycznych, w oparciu o które stworzono wizualizacje inspirowane rodzimymi formami dawnego osadnictwa. Zanim pojawiły się obce wpływy, malajskie centra miast w przeszłości związane były z wybrzeżem i nadbrzeżami rzek, później kolonizacja doprowadziła do rozerwania i fragmentacji. Ponieważ wiele z tych miejsc pokryły osady (sedymentacja), praca dokonuje rekonstrukcji w oparciu o dane historyczne, mapy i dokumenty, a następnie porównuje te rekonstrukcje z formami i układami urbanistycznymi z czasów kolonialnych. Wykazano, że malajski rdzeń miasta w czasach przedkolonialnych wyróżnia się naturalnym wzrostem oraz dostosowaniem do warunków ekologicznych i klimatycznych, dzięki układowi i spójności, podczas gdy wzory postkolonialne są bardziej rozprzestrzenione i tracą oryginalną przejrzystość.
Lasy Państwowe w Polsce utrzymują dokładną przestrzenną bazę danych obejmującą około 80% powierzchni lasów w Polsce. Jednakże pozostałe 20% lasów, głównie prywatnych, jest kartowane ze znacznie mniejszą dokładnością. W ostatnich latach w Polsce zrealizowane zostały różne projekty pozyskiwania danych przestrzennych o zasięgu krajowym, jednakże integracja ich wyników w celu uzyskania wartości lesistości nie jest łatwa, z uwagi na niespójności w przyjętych definicjach lasu. Na przykład, w niektórych zbiorach danych nie uwzględnia się obszarów, które prawnie są lasami, natomiast chwilowo są wylesione wskutek uszkodzeń rzewostanów przez wiatry lub szkodniki. Niepewność w szacunkach powierzchni lasów wprowadza też sukcesja leśna na porzuconych gruntach rolnych, której zasięg przestrzenny jest na ogół nieznany. W naszej pracy zaproponowaliśmy więc półautomatyczny algorytm integrujący dane przestrzenne o lasach pochodzące z różnych współczesnych źródeł, który eliminuje występujące w tych danych niespójności. Badania przeprowadzone zostały w Karpatach polskich, gdzie, z uwagi na duży odsetek lasów prywatnych, rzetelne oszacowanie powierzchni lasów jest szczególnie trudne. Zastosowane podejście łączy informacje o rozmieszczeniu lasów z polskich danych topograficznych, zarówno historycznych (lata 70. XX wieku), jak i współczesnych, oraz z przestrzennych baz danych Lasów Państwowych. Inaczej niż współczesne dane topograficzne, opracowana mapa przedstawia lasy zgodnie z polską definicją prawną i jest w ten sposób porównywalna do wcześniejszych opracowań topograficznych. Nasze wyniki wskazują, że różne współczesne bazy danych zaniżają lesistość Karpat polskich, natomiast fuzja różnych zbiorów danych poparta wiedzą ekspercką pozwala na uzyskanie kompletnej i rzetelnej informacji o współczesnym rozmieszczeniu lasów w tym regionie.
Cykl artykułów zawiera porównanie możliwości wykorzystania do dazymetrycznego szacowania rozmieszczenia ludności informacji przestrzennej o zabudowie z trzech źródeł, charakteryzujących się różną dokładnością przestrzenną, tematyczną i czasową: dane z projektów Corine Land Cover (CLC) i Urban Atlas (UA) oraz klasyfikacji obiektowej (OBIA) danych RapidEye. Eksperyment przeprowadzono na obszarze Krakowa, wykorzystując dane statystyczne ze 141 jednostek urbanistycznych miasta. W pierwszych dwóch częściach cyklu zaprezentowano przeliczanie populacji w oparciu o CLC, UA (Pirowski i Timek, 2018) oraz OBIA, w tym jej skorygowany wynik poprzez połączenie z UA (Pirowski i in., 2018). Łącznie uzyskano 12 map zaludnienia Krakowa. Poddano dyskusji obliczone błędy średnie RMSE i MAPE oraz wagi zagęszczenia ludności dla każdej kategorii zabudowy mieszkalnej. W trzeciej części cyklu uzyskane wyniki poddane zostały szczegółowej analizie dzięki specjalnie przygotowanej przez autorów, wysokorozdzielczej referencyjnej mapie ludności dzielnicy Bronowice (północno-zachodni obszar miasta). Szczegółowo opisano przyjętą metodykę jej opracowania, w tym komplementarne wykorzystanie interpretacji ortofotomapy ze zdjęć lotniczych oraz ogólnodostępnych baz danych (Geoportal, OpenStreetMap, GoogleStreetView). Zaproponowano autorski parametr MMAPE, analizujący podobieństwo mapy referencyjnej Bronowic z mapami dazymetrycznymi, pozwalający statystycznie opisać ich wiarygodność i wykluczyć zjawisko ekwifinalności. W wyniku przeprowadzonych badań wykryto błędny rozkład ludności dla wariantu opartego o klasyfikację obiektową z ustalaniem wag na drodze minimalizacji błędu MAPE. Spośród pozostałych eksperymentów trzy najlepsze wyniki uzyskały mapy wykorzystujące informacje o zabudowie z Urban Atlas (MMAPE100m = 19,3–22,1%). Komplementarne wykorzystanie OBIA i UA nie przyniosło efektu synergii – wyniki są gorsze niż dla UA (21,6–24,3%). Wysokie błędy odnotowano dla OBIA – warto jedynie odnotować lepszy wynik dla metody binarnej OBIA (MMAPE100m = 22,8%) niż dla metody binarnej CLC (MMAPE100m = 24,3%). Na tym etapie badań rekomenduje się do przeliczania ludności stosować dane UA. Metody klasyfikacji obiektowej nie są wiarygodnym źródłem danych o rodzajach zabudowy, niezbędnym dla metod powierzchniowo-wagowych. Stosowanie OBIA jest możliwe w metodzie binarnej i daje rezultaty zbliżone do korzystania z CLC. W czwartej części planuje się weryfikację map zaludnienia wykorzystując siatkę kilometrową GUS, udostępnioną przez urząd w 2017 roku, dla całej Polski. Na bazie wielowariantowych testów i dwuetapowej weryfikacji autorzy planują podać ograniczenia proponowanej metody przeliczania ludności oraz opracować ranking map.
Artykuł jest kontynuacją i podsumowaniem cyklu publikacji związanych z dazymetrycznym szacowaniem rozmieszczenia ludności Krakowa. Przeliczanie ludności z pierwotnych jednostek spisowych oparto na danych o zabudowie z trzech źródeł, z projektu Corine Land Cover (CLC), z projektu Urban Atlas (UA) oraz z klasyfikacji obiektowej (OBIA) danych RapidEye. Eksperyment przeprowadzono wykorzystując archiwalne dane statystyczne z roku 2009 ze 141 jednostek urbanistycznych (j.u.) miasta. W pierwszych dwóch częściach cyklu (Pirowski i Timek, 2018; Pirowski i in., 2018) zaprezentowano przeliczanie populacji na bazie map CLC, UA oraz OBIA, łącznie uzyskując 12 map zaludnienia Krakowa. Przedstawiono uzyskane rozkłady błędów, poddano dyskusji obliczone wagi zagęszczenia ludności dla każdej kategorii zabudowy mieszkalnej. W trzeciej części cyklu (Pirowski i Berka, 2019) opracowane wyniki poddane zostały szczegółowej analizie poprzez odniesienie się do referencyjnej, wysokorozdzielczej mapy zaludnienia dzielnicy Bronowice (północno-zachodni obszar miasta). W niniejszej publikacji, kończącej cykl, zweryfikowano mapy zaludnienia w oparciu o siatkę kilometrową GUS, będącą agregacją danych Narodowego Spisu Powszechnego Ludności i Mieszkań z 2011, udostępnioną przez Urząd w 2017 roku. Porównano wyniki weryfikacji wysokorozdzielczej prowadzonej na dzielnicy Bronowice z weryfikacją na danych GUS. W siatce GUS uzyskano najlepsze wyniki dla metod powierzchniowo-wagowych UA (RMSE 908–917 osób; MAPE 42–46%). Za błędne uznano szacowanie rozmieszczenia ludności przy użyciu danych OBIA (RMSE 1115–2073 os.; MAPE 121–184%). Po korekcie OBIA poprzez dane UA uzyskano znaczącą poprawę wyników dla metod powierzchniowo-wagowych (RMSE 930–1067 osób; MAPE 53–68%), jednak poziom błędów był nadal wyższy niż dla samej UA, co eliminuje metodę OBIA z zastosowań praktycznych w tym obszarze. Stwierdzono zależność pomiędzy notowanymi błędami RMSE i MAPE w j.u. na etapie doboru wag a notowanymi błędami RMSE i MAPE w siatce GUS, odpowiednio R2(RMSE) = 91%, R2(MAPE) = 65%. Zatem wykryta korelacja wskazuje, że niskie błędy uzyskane na etapie doboru wag przekładają się na wiarygodne szacowanie liczby ludności. Proponowana metodyka doboru wag ogranicza subiektywizm metody, opierając się na minimalizacji RMSE i MAPE w pierwotnych jednostkach spisowych. Wadą metody jest konieczność definiowania warunków brzegowych doboru wag, w przypadku uzyskiwania nierzeczywistych wag oraz możliwość wystąpienia ekwifinalności, trudnej do wykrycia przy braku dodatkowych danych referencyjnych.
W niniejszym artykule przedstawiono metodologię stosowania podejścia GIS do analizy transformacji spółdzielni rolniczych w ramach wietnamskiej ustawy spółdzielczej z 2012 roku. Dzięki ankietom przeprowadzonym w 90 spółdzielniach, w 9 prowincjach oraz w 7 regionach gospodarczych Wietnamu dokonano oceny poziomu przekształconej z sukcesem grupy, przekształconej nieudanie grupy i nieprzekształconej grupy spółdzielni rolniczych. Dzięki narzędziom analitycznym GIS przeprowadzono analizę przestrzenną, wykorzystując dane z badań terenowych. Na tej podstawie menedżerowie mogą określić poziom i jakość przekształcania spółdzielni rolniczych w ramach Wietnamskiej Ustawy Spółdzielczej 2012 zgodnie z czterema wybranymi kryteriami.
Odkrywkowa eksploatacja kruszyw naturalnych (piasku i żwiru) niesie ze sobą zmiany w krajobrazie, przyczyniając się również do powstawania antropogenicznych zbiorników wodnych. Badania zostały przeprowadzone w wybranych kopalniach kruszyw w południowej Polsce z zastosowaniem autorskiego. zdalnie sterowanego urządzenia batymetrycznego Smart-Sonar-Boat. Pierwszym celem badań była weryfikacja metody pomiarowej w ściśle określonych warunkach, jakie występowały w kopalniach odkrywkowych kruszyw naturalnych. Cykl badań miał przede wszystkim na celu sprawdzenie, w jakim stopniu zdalna batymetria mogła być pomocna do ochrony środowiska wodnego.
charakterystyka uzyskanych danych batymetrycznych,
badania batymetryczne przy zastosowaniu zdalnie sterowanego zestawu batymetrycznego, jakie zostały przeprowadzone przez autora w kopalniach odkrywkowych,
wkład, jaki może być wniesiony w wiedzę o środowisku wodnym w kopalniach odkrywkowych stosując tego typu obserwacje.
Pomiary badawcze przeprowadzono w południowej Polsce w następujących obiektach:
Kopalnia Kruszywa „Zator – Podolsze-Nowe” w miejscowości Zator, gdzie gniazdowały rzadko występujące kolonie ślepowronów (Nycticorax nycticorax),
Kopalnia Kruszywa „Dwory” w Oświęcimiu, w której prowadzono eksploatację surowca w bliskim sąsiedztwie linii wysokiego napięcia oraz linii kolejowej,
Kopalnia Kruszywa „Brzegi” w Krakowie, gdzie prowadzone były prace rekultywacyjne dla zagospodarowania terenu poeksploatacyjnego w celu utworzenia obiektu rekreacyjnego „Przystań Brzegi”,
Otwarty zbiornik rekreacyjny Bagry Wielkie w Krakowie, gdzie wykonane zostały pomiary badawcze trudnodostępnego obszaru wodnego.
Wyniki wykazały, że zastosowana metoda zdalnej batymetrii była w kopalniach odkrywkowych praktyczna, skuteczna i dokładna. Badania potwierdziły możliwość znacznego wkładu takich obserwacji w ochronę środowiska wodnego. Poszczególne etapy badań zostały szeroko opisane w osobnych artykułach. Szczegółowe wyniki planowanych zadań zostaną opisane po zakończeniu obserwacji.
Tradycja sypania kopców i kurhanów na ziemiach polskich sięga czasów prehistorycznych. Kurhany pełniły funkcję mogilną pochówków szkieletowych i ciałopalnych oraz miejsc kultu. Późniejsze kopce spełniały m.in. funkcje: punktów orientacyjnych, sygnalizacyjnych, strażniczych i granicznych, sztucznych wyniosłości terenu pod zabudowę, elementów wystroju ogrodów i parków dworskich, mogilne, pomników ku czci ważnych osobistości i wydarzeń państwowych. Właściwe ich udokumentowanie poprzez charakterystykę opisowo-graficzną może stanowić cenne źródło informacji o lokalizacji, historii oraz stanie technicznym budowli. W artykule przedstawiono propozycję karty naukowo-dokumentacyjnej kopca lub kurhanu na przykładzie kopca Krakusa. Na podstawie przeprowadzonej kwerendy literatury naukowej, materiałów kartograficznych, wykazów PTTK oraz wywiadów terenowych zilustrowano na mapie lokalizację 1111 kopców i kurhanów (w tym 85 zniszczonych), które stanowią otwartą bazę danych.
Lokalizacja znacznej liczby kościołów i klasztorów krakowskich wyznacza linie o charakterze astronomiczno-kalendarzowym. Opisano dwie linie, które są ściśle związane z kierunkiem kopiec Krakusa – kopiec Wandy. Wykazano korzystne warunki, w aspekcie astronomicznym lokalizacji: kościoła św. Benedykta, kościoła św. Wojciecha na Rynku Głównym, kościoła Mariackiego oraz kopca Esterki. Szczegółowo opisano linię kierunku zachodu Słońca w dniu przesilenia letniego na tle Wzgórza Wawelskiego oraz dwie linie południkowe.
Drążenie wyrobisk w podziemnych zakładach górniczych realizowane jest przy ścisłej współpracy górników oraz mierniczych górniczych. Prowadzenie wyrobisk w określonym kierunku poziomym i pionowym bazuje na wykorzystaniu osnowy, której charakterystyka dokładnościowa określona jest obowiązującymi przepisami. Spełnienie wymagań dokładnościowych dotyczących błędu położenia punktu oraz błędu azymutu boku niejednokrotnie nie jest możliwe bez wykorzystania przyrządów giroskopowych. Wdrożenie pomiarów giroskopowych w podziemnym zakładzie górniczym uwarunkowane jest, przede wszystkim: lepszym dostosowaniem się do obowiązujących przepisów dotyczących wykonywania pomiarów w wyrobiskach górniczych, szczególnie w ciągach jednostronnie nawiązanych, odtworzeniem pomiarów giroskopowych na istniejących bokach na powierzchni i wyrobiskach udostępniających, wykonywaniem orientacji wyrobisk przy budowie nowych poziomów wydobywczych lub nowych kopalń. Proces wdrażania pomiarów giroskopowych został podzielony na kilka etapów, tj.: rozbudowę bazy giro na powierzchni Ruchu „Borynia” o nowo zastabilizowane punkty, na których wykonano pomiar statyczny GPS w dowiązaniu do stacji referencyjnych sieci ASG-EUPOS, wykonanie transformacji współrzędnych z układu 2000 do układu kopalnianego SG-ROW i obliczenie azymutu boków w lokalnym układzie geodezyjnym, przeprowadzenie pomiarów giroskopowych na kilku bokach bazy na powierzchni w Ruchu „Borynia”, wyznaczenie azymutów giroskopowych w wyrobiskach górniczych. W artykule przedstawiono również wyniki uzyskane z pierwszych pomiarów wykonanych w wyrobiskach górniczych, tj. z jednego pomiaru w Ruchu „Zofiówka” oraz dwóch pomiarów w Ruchu „Borynia”, gdzie przy odległości ok. 3,5 km pomiędzy bokami giro dokonano pomiaru ciągu poligonowego metodą trzech statywów. W podsumowaniu artykułu zawarto wnioski z pierwszych doświadczeń z pomiarów giroskopowych wykonywanych przez dział mierniczy Ruchu „Borynia” JSW S.A. oraz przeprowadzono wstępną ocenę dokładności giroteodolitu Sokkia GYRO X1 II.
W każdym zakładzie górniczym w procesie wydobywania złóż występuje konieczność ponownego przeliczenia zasobów, a co za tym idzie aktualizacji dokumentacji mierniczo-geologicznej. Dokumentacja ta jest niezbędna m.in. do wprowadzenia zmian w projekcie zagospodarowania złoża, planie ruchu zakładu górniczego i w końcu do poprawnego zaplanowania działań w zakresie przeróbki (usuwania zanieczyszczeń urobku), transportu i sprzedaży. Opracowano oprogramowanie, które pozwala na tworzenie modeli przestrzennych złóż. Są to modele interaktywne i numeryczne. W artykule przedstawiono rozwiązania w tym zakresie stosowane w większości przedsiębiorstw górniczych prowadzących podziemną eksploatację węgla kamiennego w rejonie GZW. Zastosowany system, o nazwie Numeryczny Model Złoża, wykorzystuje programy Oracle Spatial, AutoCAD Civil 3D, GEONET, GEOLISP, EDBJ. W artykule skupiono się na możliwościach systemu w aspekcie oceny jakości węgla w oparciu o metody chemiczne, fizykochemiczne, fizyczne i petrograficzne. Przedstawiono podstawowe funkcjonalności wykorzystujące jakościowy model złoża. Wykonane przez laboratorium analizy chemiczne węgla zapisywane są na bieżąco do relacyjnej bazy danych. Następnie, po weryfikacji przez uprawnionego geologa, trafiają na mapę numeryczną, co dalej pozwala na uzupełnienie danych parcel geologicznych o atrybuty takie jak: pole, tonaż, średni upad, zasiarczenie itp.
Rozwój technologii informatycznych spowodował upowszechnienie sposobu prezentacji obiektów inżynierskich w formie przestrzennych wizualizacji. Dotyczy to przede wszystkim obiektów zabytkowych udostępnionych dla ruchu turystycznego, co w praktyce zwiększa ich atrakcyjność także w sferze odbioru. Znane z literatury fachowej opracowania pseudoprzestrzenne (na płaszczyźnie) zabytkowej Kopalni Soli „Wieliczka” stanowią swego rodzaju arcydzieła grafiki inżynierskiej, ale są to opracowania jednorazowe z uwagi na technikę budowy modelu, a także złożoność modelu oraz liczebność prezentowanych szczegółów (komór poeksploatacyjnych i chodników). Dziś programy środowiska CAD (AutoCAD, Microstation), pozwalają na generowanie modeli wszelkiego rodzaju obiektów na podstawie dokumentacji archiwalnej i aktualnej lub danych pochodzących z pomiarów geodezyjnych oraz fotogrametrycznych. Stopień generalizacji modelu uzależniony jest od liczebności i szczegółowości wykorzystanych źródeł danych. Jednym z popularnych programów z zakresu grafiki inżynierskiej jest program AutoCAD firmy Autodesk, który stanowił narzędzie opracowania na podstawie dokumentacji kartograficznej modelu przestrzennego Kopalni Soli „Bochnia” według aktualnego stanu.
Ocena możliwości prowadzenia eksploatacji górniczej, szczególnie z naruszeniem filarów ochronnych, stanowi często podstawowe zagadnienie w praktyce inżynierskiej. Szczególne znaczenie tego zagadnienia występuje w przypadku dokonanej wieloletniej eksploatacji górniczej, która już spowodowała zmiany naprężeniowo-odkształceniowe w chronionych obiektach, a których stan techniczny powinien zapewnić bezpieczeństwo użytkowania. Wpływ eksploatacji górniczej na górotwór i powierzchnię terenu najbardziej wiarygodnie można określić na podstawie wyników pomiarów geodezyjnych, jednakże w praktyce w warunkach, gdy eksploatacja górnicza była prowadzona przez wiele lat, brak jest wyników pomiarów geodezyjnych, które rejestrowały zachodzące deformacje w takim rejonie. Wówczas dla potrzeb oceny wpływu dotychczasowej eksploatacji górniczej pozostaje tylko możliwość wykorzystania dostępnych cząstkowych wyników pomiarów geodezyjnych. Taka sytuacja występuje przy ocenie możliwości prowadzenia eksploatacji górniczej szczególnie z naruszeniem filara ochronnego dla szybów górniczych, które posiadają podstawowe znaczenie dla działalności górniczej. W artykule przedstawiono przykładową ocenę możliwości prowadzenia eksploatacji górniczej z zawałem stropu w filarze ochronnym dla szybów w świetle wyników reprognozy dotychczasowych wpływów eksploatacji górniczej na powierzchnię terenu i górotwór. W zastosowanej metodyce oceny możliwości prowadzenia dalszej eksploatacji górniczej w rejonie filara ochronnego szybów głównych uwzględniono, że w świetle wyników wykonanej reprognozy, wieloletnia eksploatacja górnicza prowadzona do granic filara ochronnego spowodowała w miejscu szybów stosunkowo duże przemieszczenia poziome, przy jednocześnie mniejszych przemieszczeniach pionowych. Stan taki pozwolił na skorzystanie z ostatnich pomiarów przemieszczeń poziomych umożliwiających wnioskowanie o aktualnej krzywiźnie osi pionowej szybu nr 1, położonego najbliżej parcel dokonanej eksploatacji górniczej. Obliczeniowo ocenę możliwości prowadzenia dalszej eksploatacji górniczej w zasięgu oddziaływania na chronione szyby nr 1 i nr 2, określono porównując obliczony dopuszczalny promień krzywizny osi szybu, wynikający ze zdolności odkształceniowej obudowy z obliczonym promieniem krzywizny osi pionowej obudowy szybu spowodowanej poziomymi przemieszczeniami górotworu.
Zagadnienia dotyczące struktury przestrzennej miasta zaczęto ostatnio dokładniej badać z uwagi na wzrost zainteresowania autentycznym dziedzictwem kulturowym i turystyką oraz poszukiwanie zakorzenionych w kulturze, więc bardziej zrównoważonych, zasad planowania przestrzeni miejskiej. W aspekcie poprawy potencjału miejskiego w rejonach tropikalnych, w tym w rejonie Nusantara, szczególne zainteresowanie budzą przedkolonialne „oryginalne” układy urbanistyczne miast nadrzecznych lub nadmorskich Azji Południowo-Wschodniej, powstające od XV do XVIII wieku na Półwyspie Malajskim i Borneo. Praca ta rzuca światło na tego rodzaju badania, a skupia się przede wszystkim na takich miastach, jak: Alor Setar (zlokalizowane na północy Półwyspu Malajskiego), Kuala Kangsar (na północnym wschodzie, ale skierowane bardziej w stronę lądu), Malaka (nadmorskie miasto na południu) oraz Pontianak, Kalimantan (zachodnia część Borneo). Podjęto próbę odtworzenia ery zwanej ‘przedkolonialną’ w realiach Malajów, które są ściśle związane z rzekami i morzem. Podjęto próbę utworzenia ramowej koncepcji projektowania urbanistycznego, którego cechy są silnie związane z klimatem tropikalnym. Chodzi więc o wzmocnienie typowych zasad bioklimatycznych, w oparciu o które stworzono wizualizacje inspirowane rodzimymi formami dawnego osadnictwa. Zanim pojawiły się obce wpływy, malajskie centra miast w przeszłości związane były z wybrzeżem i nadbrzeżami rzek, później kolonizacja doprowadziła do rozerwania i fragmentacji. Ponieważ wiele z tych miejsc pokryły osady (sedymentacja), praca dokonuje rekonstrukcji w oparciu o dane historyczne, mapy i dokumenty, a następnie porównuje te rekonstrukcje z formami i układami urbanistycznymi z czasów kolonialnych. Wykazano, że malajski rdzeń miasta w czasach przedkolonialnych wyróżnia się naturalnym wzrostem oraz dostosowaniem do warunków ekologicznych i klimatycznych, dzięki układowi i spójności, podczas gdy wzory postkolonialne są bardziej rozprzestrzenione i tracą oryginalną przejrzystość.
Lasy Państwowe w Polsce utrzymują dokładną przestrzenną bazę danych obejmującą około 80% powierzchni lasów w Polsce. Jednakże pozostałe 20% lasów, głównie prywatnych, jest kartowane ze znacznie mniejszą dokładnością. W ostatnich latach w Polsce zrealizowane zostały różne projekty pozyskiwania danych przestrzennych o zasięgu krajowym, jednakże integracja ich wyników w celu uzyskania wartości lesistości nie jest łatwa, z uwagi na niespójności w przyjętych definicjach lasu. Na przykład, w niektórych zbiorach danych nie uwzględnia się obszarów, które prawnie są lasami, natomiast chwilowo są wylesione wskutek uszkodzeń rzewostanów przez wiatry lub szkodniki. Niepewność w szacunkach powierzchni lasów wprowadza też sukcesja leśna na porzuconych gruntach rolnych, której zasięg przestrzenny jest na ogół nieznany. W naszej pracy zaproponowaliśmy więc półautomatyczny algorytm integrujący dane przestrzenne o lasach pochodzące z różnych współczesnych źródeł, który eliminuje występujące w tych danych niespójności. Badania przeprowadzone zostały w Karpatach polskich, gdzie, z uwagi na duży odsetek lasów prywatnych, rzetelne oszacowanie powierzchni lasów jest szczególnie trudne. Zastosowane podejście łączy informacje o rozmieszczeniu lasów z polskich danych topograficznych, zarówno historycznych (lata 70. XX wieku), jak i współczesnych, oraz z przestrzennych baz danych Lasów Państwowych. Inaczej niż współczesne dane topograficzne, opracowana mapa przedstawia lasy zgodnie z polską definicją prawną i jest w ten sposób porównywalna do wcześniejszych opracowań topograficznych. Nasze wyniki wskazują, że różne współczesne bazy danych zaniżają lesistość Karpat polskich, natomiast fuzja różnych zbiorów danych poparta wiedzą ekspercką pozwala na uzyskanie kompletnej i rzetelnej informacji o współczesnym rozmieszczeniu lasów w tym regionie.
Cykl artykułów zawiera porównanie możliwości wykorzystania do dazymetrycznego szacowania rozmieszczenia ludności informacji przestrzennej o zabudowie z trzech źródeł, charakteryzujących się różną dokładnością przestrzenną, tematyczną i czasową: dane z projektów Corine Land Cover (CLC) i Urban Atlas (UA) oraz klasyfikacji obiektowej (OBIA) danych RapidEye. Eksperyment przeprowadzono na obszarze Krakowa, wykorzystując dane statystyczne ze 141 jednostek urbanistycznych miasta. W pierwszych dwóch częściach cyklu zaprezentowano przeliczanie populacji w oparciu o CLC, UA (Pirowski i Timek, 2018) oraz OBIA, w tym jej skorygowany wynik poprzez połączenie z UA (Pirowski i in., 2018). Łącznie uzyskano 12 map zaludnienia Krakowa. Poddano dyskusji obliczone błędy średnie RMSE i MAPE oraz wagi zagęszczenia ludności dla każdej kategorii zabudowy mieszkalnej. W trzeciej części cyklu uzyskane wyniki poddane zostały szczegółowej analizie dzięki specjalnie przygotowanej przez autorów, wysokorozdzielczej referencyjnej mapie ludności dzielnicy Bronowice (północno-zachodni obszar miasta). Szczegółowo opisano przyjętą metodykę jej opracowania, w tym komplementarne wykorzystanie interpretacji ortofotomapy ze zdjęć lotniczych oraz ogólnodostępnych baz danych (Geoportal, OpenStreetMap, GoogleStreetView). Zaproponowano autorski parametr MMAPE, analizujący podobieństwo mapy referencyjnej Bronowic z mapami dazymetrycznymi, pozwalający statystycznie opisać ich wiarygodność i wykluczyć zjawisko ekwifinalności. W wyniku przeprowadzonych badań wykryto błędny rozkład ludności dla wariantu opartego o klasyfikację obiektową z ustalaniem wag na drodze minimalizacji błędu MAPE. Spośród pozostałych eksperymentów trzy najlepsze wyniki uzyskały mapy wykorzystujące informacje o zabudowie z Urban Atlas (MMAPE100m = 19,3–22,1%). Komplementarne wykorzystanie OBIA i UA nie przyniosło efektu synergii – wyniki są gorsze niż dla UA (21,6–24,3%). Wysokie błędy odnotowano dla OBIA – warto jedynie odnotować lepszy wynik dla metody binarnej OBIA (MMAPE100m = 22,8%) niż dla metody binarnej CLC (MMAPE100m = 24,3%). Na tym etapie badań rekomenduje się do przeliczania ludności stosować dane UA. Metody klasyfikacji obiektowej nie są wiarygodnym źródłem danych o rodzajach zabudowy, niezbędnym dla metod powierzchniowo-wagowych. Stosowanie OBIA jest możliwe w metodzie binarnej i daje rezultaty zbliżone do korzystania z CLC. W czwartej części planuje się weryfikację map zaludnienia wykorzystując siatkę kilometrową GUS, udostępnioną przez urząd w 2017 roku, dla całej Polski. Na bazie wielowariantowych testów i dwuetapowej weryfikacji autorzy planują podać ograniczenia proponowanej metody przeliczania ludności oraz opracować ranking map.
Artykuł jest kontynuacją i podsumowaniem cyklu publikacji związanych z dazymetrycznym szacowaniem rozmieszczenia ludności Krakowa. Przeliczanie ludności z pierwotnych jednostek spisowych oparto na danych o zabudowie z trzech źródeł, z projektu Corine Land Cover (CLC), z projektu Urban Atlas (UA) oraz z klasyfikacji obiektowej (OBIA) danych RapidEye. Eksperyment przeprowadzono wykorzystując archiwalne dane statystyczne z roku 2009 ze 141 jednostek urbanistycznych (j.u.) miasta. W pierwszych dwóch częściach cyklu (Pirowski i Timek, 2018; Pirowski i in., 2018) zaprezentowano przeliczanie populacji na bazie map CLC, UA oraz OBIA, łącznie uzyskując 12 map zaludnienia Krakowa. Przedstawiono uzyskane rozkłady błędów, poddano dyskusji obliczone wagi zagęszczenia ludności dla każdej kategorii zabudowy mieszkalnej. W trzeciej części cyklu (Pirowski i Berka, 2019) opracowane wyniki poddane zostały szczegółowej analizie poprzez odniesienie się do referencyjnej, wysokorozdzielczej mapy zaludnienia dzielnicy Bronowice (północno-zachodni obszar miasta). W niniejszej publikacji, kończącej cykl, zweryfikowano mapy zaludnienia w oparciu o siatkę kilometrową GUS, będącą agregacją danych Narodowego Spisu Powszechnego Ludności i Mieszkań z 2011, udostępnioną przez Urząd w 2017 roku. Porównano wyniki weryfikacji wysokorozdzielczej prowadzonej na dzielnicy Bronowice z weryfikacją na danych GUS. W siatce GUS uzyskano najlepsze wyniki dla metod powierzchniowo-wagowych UA (RMSE 908–917 osób; MAPE 42–46%). Za błędne uznano szacowanie rozmieszczenia ludności przy użyciu danych OBIA (RMSE 1115–2073 os.; MAPE 121–184%). Po korekcie OBIA poprzez dane UA uzyskano znaczącą poprawę wyników dla metod powierzchniowo-wagowych (RMSE 930–1067 osób; MAPE 53–68%), jednak poziom błędów był nadal wyższy niż dla samej UA, co eliminuje metodę OBIA z zastosowań praktycznych w tym obszarze. Stwierdzono zależność pomiędzy notowanymi błędami RMSE i MAPE w j.u. na etapie doboru wag a notowanymi błędami RMSE i MAPE w siatce GUS, odpowiednio R2(RMSE) = 91%, R2(MAPE) = 65%. Zatem wykryta korelacja wskazuje, że niskie błędy uzyskane na etapie doboru wag przekładają się na wiarygodne szacowanie liczby ludności. Proponowana metodyka doboru wag ogranicza subiektywizm metody, opierając się na minimalizacji RMSE i MAPE w pierwotnych jednostkach spisowych. Wadą metody jest konieczność definiowania warunków brzegowych doboru wag, w przypadku uzyskiwania nierzeczywistych wag oraz możliwość wystąpienia ekwifinalności, trudnej do wykrycia przy braku dodatkowych danych referencyjnych.
W niniejszym artykule przedstawiono metodologię stosowania podejścia GIS do analizy transformacji spółdzielni rolniczych w ramach wietnamskiej ustawy spółdzielczej z 2012 roku. Dzięki ankietom przeprowadzonym w 90 spółdzielniach, w 9 prowincjach oraz w 7 regionach gospodarczych Wietnamu dokonano oceny poziomu przekształconej z sukcesem grupy, przekształconej nieudanie grupy i nieprzekształconej grupy spółdzielni rolniczych. Dzięki narzędziom analitycznym GIS przeprowadzono analizę przestrzenną, wykorzystując dane z badań terenowych. Na tej podstawie menedżerowie mogą określić poziom i jakość przekształcania spółdzielni rolniczych w ramach Wietnamskiej Ustawy Spółdzielczej 2012 zgodnie z czterema wybranymi kryteriami.
Odkrywkowa eksploatacja kruszyw naturalnych (piasku i żwiru) niesie ze sobą zmiany w krajobrazie, przyczyniając się również do powstawania antropogenicznych zbiorników wodnych. Badania zostały przeprowadzone w wybranych kopalniach kruszyw w południowej Polsce z zastosowaniem autorskiego. zdalnie sterowanego urządzenia batymetrycznego Smart-Sonar-Boat. Pierwszym celem badań była weryfikacja metody pomiarowej w ściśle określonych warunkach, jakie występowały w kopalniach odkrywkowych kruszyw naturalnych. Cykl badań miał przede wszystkim na celu sprawdzenie, w jakim stopniu zdalna batymetria mogła być pomocna do ochrony środowiska wodnego.
charakterystyka uzyskanych danych batymetrycznych,
badania batymetryczne przy zastosowaniu zdalnie sterowanego zestawu batymetrycznego, jakie zostały przeprowadzone przez autora w kopalniach odkrywkowych,
wkład, jaki może być wniesiony w wiedzę o środowisku wodnym w kopalniach odkrywkowych stosując tego typu obserwacje.
Pomiary badawcze przeprowadzono w południowej Polsce w następujących obiektach:
Kopalnia Kruszywa „Zator – Podolsze-Nowe” w miejscowości Zator, gdzie gniazdowały rzadko występujące kolonie ślepowronów (Nycticorax nycticorax),
Kopalnia Kruszywa „Dwory” w Oświęcimiu, w której prowadzono eksploatację surowca w bliskim sąsiedztwie linii wysokiego napięcia oraz linii kolejowej,
Kopalnia Kruszywa „Brzegi” w Krakowie, gdzie prowadzone były prace rekultywacyjne dla zagospodarowania terenu poeksploatacyjnego w celu utworzenia obiektu rekreacyjnego „Przystań Brzegi”,
Otwarty zbiornik rekreacyjny Bagry Wielkie w Krakowie, gdzie wykonane zostały pomiary badawcze trudnodostępnego obszaru wodnego.
Wyniki wykazały, że zastosowana metoda zdalnej batymetrii była w kopalniach odkrywkowych praktyczna, skuteczna i dokładna. Badania potwierdziły możliwość znacznego wkładu takich obserwacji w ochronę środowiska wodnego. Poszczególne etapy badań zostały szeroko opisane w osobnych artykułach. Szczegółowe wyniki planowanych zadań zostaną opisane po zakończeniu obserwacji.
Tradycja sypania kopców i kurhanów na ziemiach polskich sięga czasów prehistorycznych. Kurhany pełniły funkcję mogilną pochówków szkieletowych i ciałopalnych oraz miejsc kultu. Późniejsze kopce spełniały m.in. funkcje: punktów orientacyjnych, sygnalizacyjnych, strażniczych i granicznych, sztucznych wyniosłości terenu pod zabudowę, elementów wystroju ogrodów i parków dworskich, mogilne, pomników ku czci ważnych osobistości i wydarzeń państwowych. Właściwe ich udokumentowanie poprzez charakterystykę opisowo-graficzną może stanowić cenne źródło informacji o lokalizacji, historii oraz stanie technicznym budowli. W artykule przedstawiono propozycję karty naukowo-dokumentacyjnej kopca lub kurhanu na przykładzie kopca Krakusa. Na podstawie przeprowadzonej kwerendy literatury naukowej, materiałów kartograficznych, wykazów PTTK oraz wywiadów terenowych zilustrowano na mapie lokalizację 1111 kopców i kurhanów (w tym 85 zniszczonych), które stanowią otwartą bazę danych.
Lokalizacja znacznej liczby kościołów i klasztorów krakowskich wyznacza linie o charakterze astronomiczno-kalendarzowym. Opisano dwie linie, które są ściśle związane z kierunkiem kopiec Krakusa – kopiec Wandy. Wykazano korzystne warunki, w aspekcie astronomicznym lokalizacji: kościoła św. Benedykta, kościoła św. Wojciecha na Rynku Głównym, kościoła Mariackiego oraz kopca Esterki. Szczegółowo opisano linię kierunku zachodu Słońca w dniu przesilenia letniego na tle Wzgórza Wawelskiego oraz dwie linie południkowe.
Drążenie wyrobisk w podziemnych zakładach górniczych realizowane jest przy ścisłej współpracy górników oraz mierniczych górniczych. Prowadzenie wyrobisk w określonym kierunku poziomym i pionowym bazuje na wykorzystaniu osnowy, której charakterystyka dokładnościowa określona jest obowiązującymi przepisami. Spełnienie wymagań dokładnościowych dotyczących błędu położenia punktu oraz błędu azymutu boku niejednokrotnie nie jest możliwe bez wykorzystania przyrządów giroskopowych. Wdrożenie pomiarów giroskopowych w podziemnym zakładzie górniczym uwarunkowane jest, przede wszystkim: lepszym dostosowaniem się do obowiązujących przepisów dotyczących wykonywania pomiarów w wyrobiskach górniczych, szczególnie w ciągach jednostronnie nawiązanych, odtworzeniem pomiarów giroskopowych na istniejących bokach na powierzchni i wyrobiskach udostępniających, wykonywaniem orientacji wyrobisk przy budowie nowych poziomów wydobywczych lub nowych kopalń. Proces wdrażania pomiarów giroskopowych został podzielony na kilka etapów, tj.: rozbudowę bazy giro na powierzchni Ruchu „Borynia” o nowo zastabilizowane punkty, na których wykonano pomiar statyczny GPS w dowiązaniu do stacji referencyjnych sieci ASG-EUPOS, wykonanie transformacji współrzędnych z układu 2000 do układu kopalnianego SG-ROW i obliczenie azymutu boków w lokalnym układzie geodezyjnym, przeprowadzenie pomiarów giroskopowych na kilku bokach bazy na powierzchni w Ruchu „Borynia”, wyznaczenie azymutów giroskopowych w wyrobiskach górniczych. W artykule przedstawiono również wyniki uzyskane z pierwszych pomiarów wykonanych w wyrobiskach górniczych, tj. z jednego pomiaru w Ruchu „Zofiówka” oraz dwóch pomiarów w Ruchu „Borynia”, gdzie przy odległości ok. 3,5 km pomiędzy bokami giro dokonano pomiaru ciągu poligonowego metodą trzech statywów. W podsumowaniu artykułu zawarto wnioski z pierwszych doświadczeń z pomiarów giroskopowych wykonywanych przez dział mierniczy Ruchu „Borynia” JSW S.A. oraz przeprowadzono wstępną ocenę dokładności giroteodolitu Sokkia GYRO X1 II.
W każdym zakładzie górniczym w procesie wydobywania złóż występuje konieczność ponownego przeliczenia zasobów, a co za tym idzie aktualizacji dokumentacji mierniczo-geologicznej. Dokumentacja ta jest niezbędna m.in. do wprowadzenia zmian w projekcie zagospodarowania złoża, planie ruchu zakładu górniczego i w końcu do poprawnego zaplanowania działań w zakresie przeróbki (usuwania zanieczyszczeń urobku), transportu i sprzedaży. Opracowano oprogramowanie, które pozwala na tworzenie modeli przestrzennych złóż. Są to modele interaktywne i numeryczne. W artykule przedstawiono rozwiązania w tym zakresie stosowane w większości przedsiębiorstw górniczych prowadzących podziemną eksploatację węgla kamiennego w rejonie GZW. Zastosowany system, o nazwie Numeryczny Model Złoża, wykorzystuje programy Oracle Spatial, AutoCAD Civil 3D, GEONET, GEOLISP, EDBJ. W artykule skupiono się na możliwościach systemu w aspekcie oceny jakości węgla w oparciu o metody chemiczne, fizykochemiczne, fizyczne i petrograficzne. Przedstawiono podstawowe funkcjonalności wykorzystujące jakościowy model złoża. Wykonane przez laboratorium analizy chemiczne węgla zapisywane są na bieżąco do relacyjnej bazy danych. Następnie, po weryfikacji przez uprawnionego geologa, trafiają na mapę numeryczną, co dalej pozwala na uzupełnienie danych parcel geologicznych o atrybuty takie jak: pole, tonaż, średni upad, zasiarczenie itp.
Rozwój technologii informatycznych spowodował upowszechnienie sposobu prezentacji obiektów inżynierskich w formie przestrzennych wizualizacji. Dotyczy to przede wszystkim obiektów zabytkowych udostępnionych dla ruchu turystycznego, co w praktyce zwiększa ich atrakcyjność także w sferze odbioru. Znane z literatury fachowej opracowania pseudoprzestrzenne (na płaszczyźnie) zabytkowej Kopalni Soli „Wieliczka” stanowią swego rodzaju arcydzieła grafiki inżynierskiej, ale są to opracowania jednorazowe z uwagi na technikę budowy modelu, a także złożoność modelu oraz liczebność prezentowanych szczegółów (komór poeksploatacyjnych i chodników). Dziś programy środowiska CAD (AutoCAD, Microstation), pozwalają na generowanie modeli wszelkiego rodzaju obiektów na podstawie dokumentacji archiwalnej i aktualnej lub danych pochodzących z pomiarów geodezyjnych oraz fotogrametrycznych. Stopień generalizacji modelu uzależniony jest od liczebności i szczegółowości wykorzystanych źródeł danych. Jednym z popularnych programów z zakresu grafiki inżynierskiej jest program AutoCAD firmy Autodesk, który stanowił narzędzie opracowania na podstawie dokumentacji kartograficznej modelu przestrzennego Kopalni Soli „Bochnia” według aktualnego stanu.
Ocena możliwości prowadzenia eksploatacji górniczej, szczególnie z naruszeniem filarów ochronnych, stanowi często podstawowe zagadnienie w praktyce inżynierskiej. Szczególne znaczenie tego zagadnienia występuje w przypadku dokonanej wieloletniej eksploatacji górniczej, która już spowodowała zmiany naprężeniowo-odkształceniowe w chronionych obiektach, a których stan techniczny powinien zapewnić bezpieczeństwo użytkowania. Wpływ eksploatacji górniczej na górotwór i powierzchnię terenu najbardziej wiarygodnie można określić na podstawie wyników pomiarów geodezyjnych, jednakże w praktyce w warunkach, gdy eksploatacja górnicza była prowadzona przez wiele lat, brak jest wyników pomiarów geodezyjnych, które rejestrowały zachodzące deformacje w takim rejonie. Wówczas dla potrzeb oceny wpływu dotychczasowej eksploatacji górniczej pozostaje tylko możliwość wykorzystania dostępnych cząstkowych wyników pomiarów geodezyjnych. Taka sytuacja występuje przy ocenie możliwości prowadzenia eksploatacji górniczej szczególnie z naruszeniem filara ochronnego dla szybów górniczych, które posiadają podstawowe znaczenie dla działalności górniczej. W artykule przedstawiono przykładową ocenę możliwości prowadzenia eksploatacji górniczej z zawałem stropu w filarze ochronnym dla szybów w świetle wyników reprognozy dotychczasowych wpływów eksploatacji górniczej na powierzchnię terenu i górotwór. W zastosowanej metodyce oceny możliwości prowadzenia dalszej eksploatacji górniczej w rejonie filara ochronnego szybów głównych uwzględniono, że w świetle wyników wykonanej reprognozy, wieloletnia eksploatacja górnicza prowadzona do granic filara ochronnego spowodowała w miejscu szybów stosunkowo duże przemieszczenia poziome, przy jednocześnie mniejszych przemieszczeniach pionowych. Stan taki pozwolił na skorzystanie z ostatnich pomiarów przemieszczeń poziomych umożliwiających wnioskowanie o aktualnej krzywiźnie osi pionowej szybu nr 1, położonego najbliżej parcel dokonanej eksploatacji górniczej. Obliczeniowo ocenę możliwości prowadzenia dalszej eksploatacji górniczej w zasięgu oddziaływania na chronione szyby nr 1 i nr 2, określono porównując obliczony dopuszczalny promień krzywizny osi szybu, wynikający ze zdolności odkształceniowej obudowy z obliczonym promieniem krzywizny osi pionowej obudowy szybu spowodowanej poziomymi przemieszczeniami górotworu.
Podstawowym celem niniejszej pracy jest przeprowadzenie testu procesu harmonizacji krajowego schematu danych o terenach chronionych przyrodniczo w systemie Natura2000, zgodnie z europejskim schematem danych Protected Sites opracowanym w ramach dyrektywy INSPARE. Analizę procesu harmonizacji wykonano przy pomocy otwartego programowania Humboldt Alignment Editor (HALE) oraz otwartej aplikacji QGIS. W wyniku wykonanej analizy zidentyfi kowano te elementy krajowego schematu danych systemu Natura2000, które wymagają uzupełnienia w ramach udostępnionych zbiorów danych przez Generalną Dyrekcję Ochrony Środowiska. Ostatnim etapem pracy było sformułowanie odpowiednich wniosków i podsumowanie wyników.
W granicach miasta Krakowa zlokalizowanych jest kilka ważnych i wartościowych pod względem przyrodniczo-krajobrazowym, gospodarczym oraz rekreacyjnym akwenów wodnych. Jednym z nich jest Zalew Bagry zwany Bagrami Wielkimi, położony w Płaszowie, w sąsiedztwie strefy przemysłowej, magazynowej, komunikacyjnej (linii kolejowej nr 91) oraz mieszkalnej. W całym okresie jego istnienia i użytkowania, akwen ulegał częstym zmianom geometrycznym. Przeobrażenia wynikały głównie z zapotrzebowania okolicznych cegielni na glinę oraz żwirów i piasków eksploatowanych na potrzeby prowadzonych inwestycji w rejonie Płaszowa, zwłaszcza w okresie okupacji hitlerowskiej oraz etapu pierwszej fazy industrializacji socjalistycznej Polski przypadającej na lata 1950–1970. Zakończenie eksploatacji w 1972 roku i pozostawienie wyrobiska bez przeprowadzenia procesu rekultywacji, spowodowało powrót wód gruntowych do stanu równowagi hydrogeologicznej (samoistna likwidacja leja depresji). Zmiana poziomu zwierciadła wody oraz bardzo urozmaicona linia brzegowa, charakterystyczna dla tego typu wyrobisk pogórniczych, powoduje często separację peryferyjnych fragmentów wyrobiska od części głównej akwenu. To z kolei ogranicza możliwości zastosowania popularnych zestawów batymetrycznych, tj. echosond montowanych na pokładach łodzi lub innych jednostek pływających w procesie sondowania akustycznego takich stref wodnych. Zlokalizowane w części południowo-zachodniej oczko wodne, które jeszcze w 1999 roku stanowiło integralną część Zalewu Bagry, dziś oddzielone jest od części głównej akwenu wąskim pasem terenu. Stąd uzupełnienie dokumentacji hydrografi cznej wymagało zastosowania automatycznych narzędzi pomiarowych. W artykule przedstawiono wyniki zastosowania hydrodrona Smart-Sonar-Boat w opracowaniu mapy batymetrycznej trudnodostępnego fragmentu Bagrów, co stanowi uzupełnienie opracowania kartograficznego części głównej sporządzonego przez R. Gawałkiewicza (Gawałkiewicz R., 2017).
Rozpoznanie geomorfologiczne oraz przyrodnicze akwenu pozwala na prowadzenie skutecznych działań zmierzających do właściwego zagospodarowania zbiornika lub jego części oraz przypisanie mu właściwej funkcji. Od lat w Krakowie istnieje szereg koncepcji zagospodarowania wielu akwenów pogórniczych w ramach Miejscowych Planów Zagospodarowania Przestrzennego. W granicach miasta Krakowa zlokalizowanych jest kilka ważnych i wartościowych pod względem przyrodniczo-krajobrazowym, gospodarczym oraz rekreacyjnym akwenów wodnych. Jednym z nich jest Zalew Bagry zwany Bagrami Wielkimi. Obecnie składa się on z dwóch rozdzielonych wąską groblą części: większej o powierzchni 30,03 ha pełniącej funkcję rekreacyjno-sportową i gospodarczą (Łowisko Specjalne „Wspólnota” będące pod opieką Zarządu Okręgowego Polskiego Związku Wędkarskiego Z.O. PZW Kraków) oraz mniejszej o powierzchni 0,57 ha, która stanowi od lat miejsce lęgowe kilku chronionych gatunków ptaków oraz tarlisko ryb. Znajomość geometrii misy zbiornika, charakterystyki powierzchni dna (rodzaj powierzchni, zamulnie) oraz lokalizacji roślinności wodnej, stanowi podstawę i składową wiarygodnej oceny stanu środowiska wodnego oraz podjęcie właściwych decyzji w zakresie ochrony zasobów przyrodniczych lub rewitalizacji akwenu. W artykule przedstawiono możliwości systemu pomiarowego Lowrence Mark-4, który poza danymi hydrografi cznymi, dzięki specjalistycznym algorytmom interpretacyjnym sygnału powrotnego, dostarcza ponadto informacje w formie liczbowej o twardości dna oraz miąższości masy roślinnej zalegającej na jego powierzchni. Pomiary wykonane przy wykorzystaniu zdalnie sterowanej jednostki pływającej Smart-Sonar-Boat wyposażonej w sonar Lowrence Mark-4 oraz odbiornika GPS R8s Trimble’a dostarczyły istotnych danych, które dają podstawę wstępnej oceny kondycji oraz wartości przyrodniczej trudnodostępnej części Zalewu Bagry.
Procesy zachodzące w górotworze wymagają, aby każdy podziemny obiekt podlegał inwentaryzacji i kontroli. Na szczególną uwagę zasługują przede wszystkim historyczne i zabytkowe obiekty wydrążone pod ziemią, które powinny być objęte ochroną i działaniami umożliwiającymi ich rewitalizację, czy udostępnienie dla turystów. Ochrona tego typu abytków wymusza kompleksowe podejście do problemów ich zabezpieczania i stosowanie różnego rodzaju metod inwentaryzacji, przede wszystkim ze względu na ich zazwyczaj i niepowtarzalny charakter. W Polsce znajduje się kilka podziemnych kopalni wpisanych na listę Światowego Dziedzictwa UNESCO oraz obiektów ważnych pod względem historycznym, np. wybudowanych przez Niemców w czasie drugiej wojny światowej. Proces inwentaryzacyjny takich obiektów opiera się na kilku ważnych aspektach, m.in.: rozpoznaniu warunków geotechnicznych i hydrogeologicznych otaczającego obiekt górotworu, badaniu konwergencji i deformacji, przy dokładnej analizie zależności geometrycznych obiektu. Inwentaryzacja oraz badania deformacji górotworu i powierzchni terenu prowadzone są na podstawie obserwacji wykonanych metodami geodezyjnymi. Podstawowymi pomiarami stosowanymi pod ziemią są: precyzyjna niwelacja geometryczna oraz metody precyzyjnej poligonizacji, zazwyczaj wzmacniane pomiarem giroskopowym. Ważnym aspektem jest wykorzystanie technologii naziemnego skaningu laserowego w inwentaryzacji obiektów podziemnych oraz pomiary wspomagające tę technologie, takie jak: ALS, statyczne pomiary GNSS, klasyczna tachimetria czy badania geofizyczne. Dzięki pomiarom inwentaryzacyjnym wizualizacji podziemnych obiektów kompleksu „Riese” w Górach Sowich, opartych głównie na technologii skaningu laserowego, zebrano potężny materiał do analizy. Pomiary zostały wykonane zarówno w sztolniach ogólnodostępnych lub częściowo dostępnych dla ruchu turystycznego (Osówka, Rzeczka, podziemia Zamku Książ), jak i niedostępnych (Jugowice, Soboń). W ramach prac kameralnych dokonano przede wszystkim rewizji zależności geometrycznych wyrobisk w Podziemnym Mieście Osówka (największym z kompleksów Riese) oraz okolicznych obiektach naziemnych, stworzono liczne plany, rzuty i przekroje każdego z inwentaryzowanych obiektów, które porównano i zweryfikowano z materiałami archiwalnymi. Ponadto stworzono trójwymiarowe modele Kasyna oraz Siłowni (naziemne obiekty Osówki).
Cykl artykułów zawiera porównanie możliwości wykorzystania do kartowania ludności danych z trzech źródeł, o różnej dokładności przestrzennej, tematycznej i czasowej: dane z projektów Corine Land Cover (CLC) i Urban Atlas (UA) oraz wynik klasyfikacji obiektowej (OBIA) danych RapidEye. Zawarta na mapach pokrycia i użytkowania terenu nformacja o występowaniu zabudowy stanowiła zmienną ograniczającą w dazymetrycznej metodzie kartowania ludności. Kategorie związane z typami zabudowy pozwoliły na wprowadzenie zmiennych powiązań, różnicujących zagęszczenie ludności. Te zabiegi umożliwiły wielowariantowe opracowanie map przestrzennego występowania ludności na poziomie wyższym niż pierwotne jednostki spisowe. Eksperyment przeprowadzono na obszarze Krakowa, wykorzystując dane statystyczne ze 141 jednostek urbanistycznych (j.u.) miasta. Generowanie map ludności przeprowadzono w kilku wariantach, dokonując podziałów zabudowy w zależności od jej charakterystyki i funkcji. Wyniki przeliczania ludności na nowe jednostki przestrzenne odniesiono na etapie weryfikacji do danych o ludności podanych przez GUS w siatce kilometrowej oraz do specjalnie przygotowanej przez autorów szczegółowej mapy ludności obejmującej fragment Krakowa. Zastosowana podwójna weryfikacja pozwoliła na uszeregowanie według jakości uzyskanych map populacji oraz podanie granicznych dokładności przestrzennych ich komórkowej reprezentacji. W pierwszej części cyklu zaprezentowano zarys stanu wiedzy o kartowaniu ludności i zasadach przeliczania populacji metodą dazymetryczną. Opisano obszar badań, scharakteryzowano wykorzystane w badaniach dane przestrzenne i statystyczne. Przedstawiono prace związane z przeliczeniem populacji w oparciu o CLC i UA, uzyskując łącznie 6 map rozkładu ludności Krakowa. Wielowariantowy proces przeliczania i ustalania poprawnych wag dla różnych typów zabudowy scharakteryzowano poprzez podanie dla jednostek urbanistycznych, sprzed realizacji warunku Toblera, wartości średniego błędu kwadratowego (RMSE) oraz średniego absolutnego błędu procentowego (MAPE). W oparciu o te parametry kartowanie ludności metodą powierzchniowo-wagową, bazującą na danych UA, uznano za najlepszą (MAPE 66%, RMSE 3442os./j.u.), podczas gdy na danych CLC błędy te wyniosły: MAPE 168%, RMSE 5690 os./j.u. W kolejnych częściach cyklu przedstawione zostanie przeliczanie populacji z zastosowaniem klasyfikacji obiektowej. Opisana zostanie metodyka weryfikacji wyników w oparciu o fotointepretacyjną mapę ludności oraz siatkę kilometrową GUS. Przeprowadzona będzie dyskusja nad zasadnością stosowania miar optymalizacyjnych RMSE i MAPE. Podany zostanie ranking metod oraz rekomendacje poprawiające wyniki redystrybucji ludności w oparciu o CLC, UA i OBIA.
Cykl artykułów zawiera porównanie możliwości wykorzystania do kartowania ludności informacji o strefach zabudowy z trzech źródeł: z projektu Corine Land Cover (CLC), z projektu Urban Atlas (UA) oraz z wyniku klasyfikacji obiektowej (OBIA) danych RapidEye. Źródła te charakteryzują się różną dokładnością przestrzenną i tematyczną oraz różną metodologią wyodrębniania zabudowy. Eksperyment przeprowadzono na obszarze Krakowa, wykorzystując dane statystyczne ze 141 jednostekurbanistycznych miasta. W pierwszej części cyklu zaprezentowano przeliczanie populacji w oparciu o bazy danych Corine Land Cover (CLC) oraz Urban Atlas (UA). W drugiej części przedstawiono metodykę kartowania stref zabudowy, z podziałem na kilka jej kategorii, za pomocą klasyfikacji obiektowej (OBIA). Klasyfikacje przeprowadzono na czterech zmozaikowanych obrazach satelitarnych RapidEye. Opracowana mapa stanowi podstawę do dazymetrycznego przeliczenia ludności w trzech wariantach: binarnym, oraz dwóch powierzchniowo-wagowych, gdzie proporcje zagęszczenia ludności dla różnych kategorii zabudowy obliczane są poprzez minimalizację błędu kwadratowego (RMSE) i procentowego (MAPE) w jednostkach spisowych. Uzyskane wyniki rozkładu ludności wskazują na potrzebę określenia funkcji zabudowy. Dlatego dodatkowo wykonano eksperymenty łączące wyniki OBIA z mapą LULC projektu UA. Z eksperymentów wynika, że z testowanych sześciu wariantów kartowania ludności najlepszym jest metoda powierzchniowo-wagowa oparta o OBIA+UA (RMSE=4270os., MAPE=75%.). Metoda binarna oparta o OBIA+UA notuje wyniki na poziomie RMSE=4540os., MAPE =108% Wyniki z zastosowaniem OBIA, bez korekcji funkcji zabudowy przy pomocy UA, są błędne (RMSE: od 5958–7987os., MAPE: 2262%–6612%). W kolejnych częściach cyklu publikacji zostaną porównane dotychczas uzyskane wyniki: trzy mapy oparte o CLC, trzy mapy oparte o UA, sześć map opartych o OBIA/ OBIA+UA. Do weryfikacji map populacji zostanie użyta szczegółowa mapa referencyjna dzielnicy Bronowice oraz kilometrowa siatka GUS. Przeprowadzona będzie dyskusja związana ze stosowaniem parametrów RMSE i MAPE w procesie optymalizacji wyników. Opracowany zostanie ranking metod oraz rekomendacje zmierzające do uzyskania poprawy wyników przeliczania ludności w oparciu o CLC, UA i OBIA.
Kraje rozwijające się stają przed problemem zatłoczonych ulic. Jest to spowodowane gwałtownymi procesami urbanizacyjnymi, którym nie towarzyszy równie szybki rozwój transportu publicznego. Miasta Azji Południowo-Wschodniej inwestują w budowę systemów szybkiej kolei miejskiej. Budowa systemu metra wymaga jednak dużych nakładów finansowych. Obecnie autobusy korzystają z istniejących ulic, ale podróżowanie nimi jest wolne i uzależnione od natężenia ruchu ulicznego, szczególnie w godzinach szczytu. Dlatego też należy skupić się na budowie wzajemnie uzupełniającego się systemu autobusów i kolei. Artykuł prezentuje analizę istniejącej sieci autobusowej w mieście Hanoi (Wietnam). Podczas gdy dwie pierwsze linie metra są nadal w budowie, autobusy pozostają jedynym transportem publicznym w mieście. W publikacji przeanalizowano przebieg tras autobusów oraz rozmieszczenie przystanków. Wyznaczono pokrycie stref zamieszkania przez istniejącą sieć tras oraz określono „martwe punkty”. Położenie istniejących przystanków autobusowych porównano z położeniem budowanych stacji metra. W oparciu o analizy omówiono mocne i słabe strony istniejącego i powstającego systemu transportu publicznego.
Artykuł dotyczy oceny możliwości zastosowania danych z lotniczego skanowania laserowego (ALS) do monitorowania pokrycia terenu, głównie w aspekcie detekcji zmiany użytkowania rolniczego gruntów i postępującego procesu sukcesji leśnej. Metoda zautomatyzowana została opracowana w oparciu o produkt przetwarzania danych ALS − znormalizowany Numeryczny Model Pokrycia (zNMPT). Wyniki porównano z danymi ewidencyjnymi oraz wynikiem fotointerpretacji i wektoryzacji ortofotomapy. Jako obszar testowy wybrano teren w powiecie wielickim (woj. małopolskie). Obszar badań obejmował kilkadziesiąt działek wyszczególnionych w ewidencji gruntów jako tereny rolnicze, łąki lub pastwiska Większość analizowanych działek nie była użytkowana rolniczo, lecz objęta procesem wtórnej sukcesji leśnej. Szczegółowe informacje o aktualnym pokryciu terenu określono na rok 2012 w oparciu o dane ALS z projektu ISOK (Główny Urząd Geodezji i Kartografii). W wyniku opracowania wskazano rozbieżności pomiędzy danymi katastralnymi a stanem rzeczywistym. Wykorzystując dane ALS, w zautomatyzowany sposób można było potwierdzić postępujący proces sukcesji leśnej na analizowanym obszarze w odniesieniu do wyników wektoryzacji ortofotomapy.
Współcześnie istnieje na rynku wiele programów umożliwiających przeprowadzenie analiz przestrzennych. Coraz częściej analizy wykonywane są iteracyjnie oraz na masową skalę a przetwarzane dane mają większe rozmiary. Ponadto tworzy się rozbudowane modele rzeczywistości składające się z wielu pojedynczych analiz przestrzennych. Z tego powodu czas wykonania takiej pojedynczej analizy jest istotny. Celem badania jest porównanie czasu wykonania wybranych przekształceń geometrycznych między dwoma programami systemu informacji geograficznej, tj. ArcGIS Desktop 10.5.1 oraz QGIS 2.18.20 „Las Palmas”. Jako przekształcenia wybrano ekwidystantę, otoczkę wypukłą i nakładanie. Pomiary przeprowadzono na specjalnie przygotowanym reprezentatywnym w analizach przestrzennych zbiorze danych. Na etapie eksploracji danych sprawdzono wpływ rozmiaru, typu geometrii, liczby wierzchołków i liczby obiektów danych wejściowych oraz charakterystykę danych wyjściowych na uzyskany w pomiarze czas analizy. Dodatkowo dla warstw punktowych zbadano złożoność obliczeniową. Wyniki eksperymentu mogą być brane pod uwagę podczas wyboru programu, który będzie najbardziej odpowiedni dla konkretnego użytkownika GIS.
W artykule podaje się argumenty uzasadniające tezę, że położenie kopców Krakusa i Wandy nie jest przypadkowe, lecz ściśle związane z wyróżnionym kierunkiem wschodu i zachodu Słońca. Linia wyznaczona przez kopiec Krakusa i kopiec Wandy wyznacza dwie daty wschodu Słońca i dwie daty jego zachodu. Daty te dzielą rok na cztery – w przybliżeniu – równe części. Wypadają one w połowie okresu między przesileniami i momentami równonocy oraz są zgodne z datami świąt celtyckich. Okazuje się, że przedstawiona wyżej wiedza astronomiczna została zakodowana we wnętrzu kopca Kraka. W latach 1934–1937 przeprowadzono na kopcu Krakusa wykopaliska archeologiczne. Jednym z najbardziej interesujących odkryć w aspekcie astronomicznym było znalezienie i udokumentowanie śladów drewnianego słupa centralnego znajdującego się w pobliżu osi kopca oraz śladów linii kołków (płotów) biegnących promieniście od osi kopca. W pracy opisano zastosowaną metodę umożliwiającą odczytanie znacznego zakresu wiedzy astronomicznej zakodowanej we wnętrzu kopca Krakusa.
Podstawowym celem niniejszej pracy jest przeprowadzenie testu procesu harmonizacji krajowego schematu danych o terenach chronionych przyrodniczo w systemie Natura2000, zgodnie z europejskim schematem danych Protected Sites opracowanym w ramach dyrektywy INSPARE. Analizę procesu harmonizacji wykonano przy pomocy otwartego programowania Humboldt Alignment Editor (HALE) oraz otwartej aplikacji QGIS. W wyniku wykonanej analizy zidentyfi kowano te elementy krajowego schematu danych systemu Natura2000, które wymagają uzupełnienia w ramach udostępnionych zbiorów danych przez Generalną Dyrekcję Ochrony Środowiska. Ostatnim etapem pracy było sformułowanie odpowiednich wniosków i podsumowanie wyników.
W granicach miasta Krakowa zlokalizowanych jest kilka ważnych i wartościowych pod względem przyrodniczo-krajobrazowym, gospodarczym oraz rekreacyjnym akwenów wodnych. Jednym z nich jest Zalew Bagry zwany Bagrami Wielkimi, położony w Płaszowie, w sąsiedztwie strefy przemysłowej, magazynowej, komunikacyjnej (linii kolejowej nr 91) oraz mieszkalnej. W całym okresie jego istnienia i użytkowania, akwen ulegał częstym zmianom geometrycznym. Przeobrażenia wynikały głównie z zapotrzebowania okolicznych cegielni na glinę oraz żwirów i piasków eksploatowanych na potrzeby prowadzonych inwestycji w rejonie Płaszowa, zwłaszcza w okresie okupacji hitlerowskiej oraz etapu pierwszej fazy industrializacji socjalistycznej Polski przypadającej na lata 1950–1970. Zakończenie eksploatacji w 1972 roku i pozostawienie wyrobiska bez przeprowadzenia procesu rekultywacji, spowodowało powrót wód gruntowych do stanu równowagi hydrogeologicznej (samoistna likwidacja leja depresji). Zmiana poziomu zwierciadła wody oraz bardzo urozmaicona linia brzegowa, charakterystyczna dla tego typu wyrobisk pogórniczych, powoduje często separację peryferyjnych fragmentów wyrobiska od części głównej akwenu. To z kolei ogranicza możliwości zastosowania popularnych zestawów batymetrycznych, tj. echosond montowanych na pokładach łodzi lub innych jednostek pływających w procesie sondowania akustycznego takich stref wodnych. Zlokalizowane w części południowo-zachodniej oczko wodne, które jeszcze w 1999 roku stanowiło integralną część Zalewu Bagry, dziś oddzielone jest od części głównej akwenu wąskim pasem terenu. Stąd uzupełnienie dokumentacji hydrografi cznej wymagało zastosowania automatycznych narzędzi pomiarowych. W artykule przedstawiono wyniki zastosowania hydrodrona Smart-Sonar-Boat w opracowaniu mapy batymetrycznej trudnodostępnego fragmentu Bagrów, co stanowi uzupełnienie opracowania kartograficznego części głównej sporządzonego przez R. Gawałkiewicza (Gawałkiewicz R., 2017).
Rozpoznanie geomorfologiczne oraz przyrodnicze akwenu pozwala na prowadzenie skutecznych działań zmierzających do właściwego zagospodarowania zbiornika lub jego części oraz przypisanie mu właściwej funkcji. Od lat w Krakowie istnieje szereg koncepcji zagospodarowania wielu akwenów pogórniczych w ramach Miejscowych Planów Zagospodarowania Przestrzennego. W granicach miasta Krakowa zlokalizowanych jest kilka ważnych i wartościowych pod względem przyrodniczo-krajobrazowym, gospodarczym oraz rekreacyjnym akwenów wodnych. Jednym z nich jest Zalew Bagry zwany Bagrami Wielkimi. Obecnie składa się on z dwóch rozdzielonych wąską groblą części: większej o powierzchni 30,03 ha pełniącej funkcję rekreacyjno-sportową i gospodarczą (Łowisko Specjalne „Wspólnota” będące pod opieką Zarządu Okręgowego Polskiego Związku Wędkarskiego Z.O. PZW Kraków) oraz mniejszej o powierzchni 0,57 ha, która stanowi od lat miejsce lęgowe kilku chronionych gatunków ptaków oraz tarlisko ryb. Znajomość geometrii misy zbiornika, charakterystyki powierzchni dna (rodzaj powierzchni, zamulnie) oraz lokalizacji roślinności wodnej, stanowi podstawę i składową wiarygodnej oceny stanu środowiska wodnego oraz podjęcie właściwych decyzji w zakresie ochrony zasobów przyrodniczych lub rewitalizacji akwenu. W artykule przedstawiono możliwości systemu pomiarowego Lowrence Mark-4, który poza danymi hydrografi cznymi, dzięki specjalistycznym algorytmom interpretacyjnym sygnału powrotnego, dostarcza ponadto informacje w formie liczbowej o twardości dna oraz miąższości masy roślinnej zalegającej na jego powierzchni. Pomiary wykonane przy wykorzystaniu zdalnie sterowanej jednostki pływającej Smart-Sonar-Boat wyposażonej w sonar Lowrence Mark-4 oraz odbiornika GPS R8s Trimble’a dostarczyły istotnych danych, które dają podstawę wstępnej oceny kondycji oraz wartości przyrodniczej trudnodostępnej części Zalewu Bagry.
Procesy zachodzące w górotworze wymagają, aby każdy podziemny obiekt podlegał inwentaryzacji i kontroli. Na szczególną uwagę zasługują przede wszystkim historyczne i zabytkowe obiekty wydrążone pod ziemią, które powinny być objęte ochroną i działaniami umożliwiającymi ich rewitalizację, czy udostępnienie dla turystów. Ochrona tego typu abytków wymusza kompleksowe podejście do problemów ich zabezpieczania i stosowanie różnego rodzaju metod inwentaryzacji, przede wszystkim ze względu na ich zazwyczaj i niepowtarzalny charakter. W Polsce znajduje się kilka podziemnych kopalni wpisanych na listę Światowego Dziedzictwa UNESCO oraz obiektów ważnych pod względem historycznym, np. wybudowanych przez Niemców w czasie drugiej wojny światowej. Proces inwentaryzacyjny takich obiektów opiera się na kilku ważnych aspektach, m.in.: rozpoznaniu warunków geotechnicznych i hydrogeologicznych otaczającego obiekt górotworu, badaniu konwergencji i deformacji, przy dokładnej analizie zależności geometrycznych obiektu. Inwentaryzacja oraz badania deformacji górotworu i powierzchni terenu prowadzone są na podstawie obserwacji wykonanych metodami geodezyjnymi. Podstawowymi pomiarami stosowanymi pod ziemią są: precyzyjna niwelacja geometryczna oraz metody precyzyjnej poligonizacji, zazwyczaj wzmacniane pomiarem giroskopowym. Ważnym aspektem jest wykorzystanie technologii naziemnego skaningu laserowego w inwentaryzacji obiektów podziemnych oraz pomiary wspomagające tę technologie, takie jak: ALS, statyczne pomiary GNSS, klasyczna tachimetria czy badania geofizyczne. Dzięki pomiarom inwentaryzacyjnym wizualizacji podziemnych obiektów kompleksu „Riese” w Górach Sowich, opartych głównie na technologii skaningu laserowego, zebrano potężny materiał do analizy. Pomiary zostały wykonane zarówno w sztolniach ogólnodostępnych lub częściowo dostępnych dla ruchu turystycznego (Osówka, Rzeczka, podziemia Zamku Książ), jak i niedostępnych (Jugowice, Soboń). W ramach prac kameralnych dokonano przede wszystkim rewizji zależności geometrycznych wyrobisk w Podziemnym Mieście Osówka (największym z kompleksów Riese) oraz okolicznych obiektach naziemnych, stworzono liczne plany, rzuty i przekroje każdego z inwentaryzowanych obiektów, które porównano i zweryfikowano z materiałami archiwalnymi. Ponadto stworzono trójwymiarowe modele Kasyna oraz Siłowni (naziemne obiekty Osówki).
Cykl artykułów zawiera porównanie możliwości wykorzystania do kartowania ludności danych z trzech źródeł, o różnej dokładności przestrzennej, tematycznej i czasowej: dane z projektów Corine Land Cover (CLC) i Urban Atlas (UA) oraz wynik klasyfikacji obiektowej (OBIA) danych RapidEye. Zawarta na mapach pokrycia i użytkowania terenu nformacja o występowaniu zabudowy stanowiła zmienną ograniczającą w dazymetrycznej metodzie kartowania ludności. Kategorie związane z typami zabudowy pozwoliły na wprowadzenie zmiennych powiązań, różnicujących zagęszczenie ludności. Te zabiegi umożliwiły wielowariantowe opracowanie map przestrzennego występowania ludności na poziomie wyższym niż pierwotne jednostki spisowe. Eksperyment przeprowadzono na obszarze Krakowa, wykorzystując dane statystyczne ze 141 jednostek urbanistycznych (j.u.) miasta. Generowanie map ludności przeprowadzono w kilku wariantach, dokonując podziałów zabudowy w zależności od jej charakterystyki i funkcji. Wyniki przeliczania ludności na nowe jednostki przestrzenne odniesiono na etapie weryfikacji do danych o ludności podanych przez GUS w siatce kilometrowej oraz do specjalnie przygotowanej przez autorów szczegółowej mapy ludności obejmującej fragment Krakowa. Zastosowana podwójna weryfikacja pozwoliła na uszeregowanie według jakości uzyskanych map populacji oraz podanie granicznych dokładności przestrzennych ich komórkowej reprezentacji. W pierwszej części cyklu zaprezentowano zarys stanu wiedzy o kartowaniu ludności i zasadach przeliczania populacji metodą dazymetryczną. Opisano obszar badań, scharakteryzowano wykorzystane w badaniach dane przestrzenne i statystyczne. Przedstawiono prace związane z przeliczeniem populacji w oparciu o CLC i UA, uzyskując łącznie 6 map rozkładu ludności Krakowa. Wielowariantowy proces przeliczania i ustalania poprawnych wag dla różnych typów zabudowy scharakteryzowano poprzez podanie dla jednostek urbanistycznych, sprzed realizacji warunku Toblera, wartości średniego błędu kwadratowego (RMSE) oraz średniego absolutnego błędu procentowego (MAPE). W oparciu o te parametry kartowanie ludności metodą powierzchniowo-wagową, bazującą na danych UA, uznano za najlepszą (MAPE 66%, RMSE 3442os./j.u.), podczas gdy na danych CLC błędy te wyniosły: MAPE 168%, RMSE 5690 os./j.u. W kolejnych częściach cyklu przedstawione zostanie przeliczanie populacji z zastosowaniem klasyfikacji obiektowej. Opisana zostanie metodyka weryfikacji wyników w oparciu o fotointepretacyjną mapę ludności oraz siatkę kilometrową GUS. Przeprowadzona będzie dyskusja nad zasadnością stosowania miar optymalizacyjnych RMSE i MAPE. Podany zostanie ranking metod oraz rekomendacje poprawiające wyniki redystrybucji ludności w oparciu o CLC, UA i OBIA.
Cykl artykułów zawiera porównanie możliwości wykorzystania do kartowania ludności informacji o strefach zabudowy z trzech źródeł: z projektu Corine Land Cover (CLC), z projektu Urban Atlas (UA) oraz z wyniku klasyfikacji obiektowej (OBIA) danych RapidEye. Źródła te charakteryzują się różną dokładnością przestrzenną i tematyczną oraz różną metodologią wyodrębniania zabudowy. Eksperyment przeprowadzono na obszarze Krakowa, wykorzystując dane statystyczne ze 141 jednostekurbanistycznych miasta. W pierwszej części cyklu zaprezentowano przeliczanie populacji w oparciu o bazy danych Corine Land Cover (CLC) oraz Urban Atlas (UA). W drugiej części przedstawiono metodykę kartowania stref zabudowy, z podziałem na kilka jej kategorii, za pomocą klasyfikacji obiektowej (OBIA). Klasyfikacje przeprowadzono na czterech zmozaikowanych obrazach satelitarnych RapidEye. Opracowana mapa stanowi podstawę do dazymetrycznego przeliczenia ludności w trzech wariantach: binarnym, oraz dwóch powierzchniowo-wagowych, gdzie proporcje zagęszczenia ludności dla różnych kategorii zabudowy obliczane są poprzez minimalizację błędu kwadratowego (RMSE) i procentowego (MAPE) w jednostkach spisowych. Uzyskane wyniki rozkładu ludności wskazują na potrzebę określenia funkcji zabudowy. Dlatego dodatkowo wykonano eksperymenty łączące wyniki OBIA z mapą LULC projektu UA. Z eksperymentów wynika, że z testowanych sześciu wariantów kartowania ludności najlepszym jest metoda powierzchniowo-wagowa oparta o OBIA+UA (RMSE=4270os., MAPE=75%.). Metoda binarna oparta o OBIA+UA notuje wyniki na poziomie RMSE=4540os., MAPE =108% Wyniki z zastosowaniem OBIA, bez korekcji funkcji zabudowy przy pomocy UA, są błędne (RMSE: od 5958–7987os., MAPE: 2262%–6612%). W kolejnych częściach cyklu publikacji zostaną porównane dotychczas uzyskane wyniki: trzy mapy oparte o CLC, trzy mapy oparte o UA, sześć map opartych o OBIA/ OBIA+UA. Do weryfikacji map populacji zostanie użyta szczegółowa mapa referencyjna dzielnicy Bronowice oraz kilometrowa siatka GUS. Przeprowadzona będzie dyskusja związana ze stosowaniem parametrów RMSE i MAPE w procesie optymalizacji wyników. Opracowany zostanie ranking metod oraz rekomendacje zmierzające do uzyskania poprawy wyników przeliczania ludności w oparciu o CLC, UA i OBIA.
Kraje rozwijające się stają przed problemem zatłoczonych ulic. Jest to spowodowane gwałtownymi procesami urbanizacyjnymi, którym nie towarzyszy równie szybki rozwój transportu publicznego. Miasta Azji Południowo-Wschodniej inwestują w budowę systemów szybkiej kolei miejskiej. Budowa systemu metra wymaga jednak dużych nakładów finansowych. Obecnie autobusy korzystają z istniejących ulic, ale podróżowanie nimi jest wolne i uzależnione od natężenia ruchu ulicznego, szczególnie w godzinach szczytu. Dlatego też należy skupić się na budowie wzajemnie uzupełniającego się systemu autobusów i kolei. Artykuł prezentuje analizę istniejącej sieci autobusowej w mieście Hanoi (Wietnam). Podczas gdy dwie pierwsze linie metra są nadal w budowie, autobusy pozostają jedynym transportem publicznym w mieście. W publikacji przeanalizowano przebieg tras autobusów oraz rozmieszczenie przystanków. Wyznaczono pokrycie stref zamieszkania przez istniejącą sieć tras oraz określono „martwe punkty”. Położenie istniejących przystanków autobusowych porównano z położeniem budowanych stacji metra. W oparciu o analizy omówiono mocne i słabe strony istniejącego i powstającego systemu transportu publicznego.
Artykuł dotyczy oceny możliwości zastosowania danych z lotniczego skanowania laserowego (ALS) do monitorowania pokrycia terenu, głównie w aspekcie detekcji zmiany użytkowania rolniczego gruntów i postępującego procesu sukcesji leśnej. Metoda zautomatyzowana została opracowana w oparciu o produkt przetwarzania danych ALS − znormalizowany Numeryczny Model Pokrycia (zNMPT). Wyniki porównano z danymi ewidencyjnymi oraz wynikiem fotointerpretacji i wektoryzacji ortofotomapy. Jako obszar testowy wybrano teren w powiecie wielickim (woj. małopolskie). Obszar badań obejmował kilkadziesiąt działek wyszczególnionych w ewidencji gruntów jako tereny rolnicze, łąki lub pastwiska Większość analizowanych działek nie była użytkowana rolniczo, lecz objęta procesem wtórnej sukcesji leśnej. Szczegółowe informacje o aktualnym pokryciu terenu określono na rok 2012 w oparciu o dane ALS z projektu ISOK (Główny Urząd Geodezji i Kartografii). W wyniku opracowania wskazano rozbieżności pomiędzy danymi katastralnymi a stanem rzeczywistym. Wykorzystując dane ALS, w zautomatyzowany sposób można było potwierdzić postępujący proces sukcesji leśnej na analizowanym obszarze w odniesieniu do wyników wektoryzacji ortofotomapy.
Współcześnie istnieje na rynku wiele programów umożliwiających przeprowadzenie analiz przestrzennych. Coraz częściej analizy wykonywane są iteracyjnie oraz na masową skalę a przetwarzane dane mają większe rozmiary. Ponadto tworzy się rozbudowane modele rzeczywistości składające się z wielu pojedynczych analiz przestrzennych. Z tego powodu czas wykonania takiej pojedynczej analizy jest istotny. Celem badania jest porównanie czasu wykonania wybranych przekształceń geometrycznych między dwoma programami systemu informacji geograficznej, tj. ArcGIS Desktop 10.5.1 oraz QGIS 2.18.20 „Las Palmas”. Jako przekształcenia wybrano ekwidystantę, otoczkę wypukłą i nakładanie. Pomiary przeprowadzono na specjalnie przygotowanym reprezentatywnym w analizach przestrzennych zbiorze danych. Na etapie eksploracji danych sprawdzono wpływ rozmiaru, typu geometrii, liczby wierzchołków i liczby obiektów danych wejściowych oraz charakterystykę danych wyjściowych na uzyskany w pomiarze czas analizy. Dodatkowo dla warstw punktowych zbadano złożoność obliczeniową. Wyniki eksperymentu mogą być brane pod uwagę podczas wyboru programu, który będzie najbardziej odpowiedni dla konkretnego użytkownika GIS.
W artykule podaje się argumenty uzasadniające tezę, że położenie kopców Krakusa i Wandy nie jest przypadkowe, lecz ściśle związane z wyróżnionym kierunkiem wschodu i zachodu Słońca. Linia wyznaczona przez kopiec Krakusa i kopiec Wandy wyznacza dwie daty wschodu Słońca i dwie daty jego zachodu. Daty te dzielą rok na cztery – w przybliżeniu – równe części. Wypadają one w połowie okresu między przesileniami i momentami równonocy oraz są zgodne z datami świąt celtyckich. Okazuje się, że przedstawiona wyżej wiedza astronomiczna została zakodowana we wnętrzu kopca Kraka. W latach 1934–1937 przeprowadzono na kopcu Krakusa wykopaliska archeologiczne. Jednym z najbardziej interesujących odkryć w aspekcie astronomicznym było znalezienie i udokumentowanie śladów drewnianego słupa centralnego znajdującego się w pobliżu osi kopca oraz śladów linii kołków (płotów) biegnących promieniście od osi kopca. W pracy opisano zastosowaną metodę umożliwiającą odczytanie znacznego zakresu wiedzy astronomicznej zakodowanej we wnętrzu kopca Krakusa.
Naukowcy podjęli znaczny wysiłek, mający na celu rozwój technik oceny i monitoringu tempa zmian wegetacji w skali globalnej, regionalnej oraz lokalnej. Wskaźniki wegetacji stanowią pomiary teledetekcyjne, używane do ilościowej oceny pokrycia wegetacją, wigoru wegetacji lub biomasy, dla każdego piksela w zobrazowaniu. Oprócz tego, że nie ma jednej metody, która może być zastosowana we wszystkich przypadkach i regionach, istnieje szereg czynników, które determinują wybór metod teledetekcyjnych do zastosowania w badaniach nad zmianami zachodzącymi w środowisku. Należą do nich uwarunkowania przestrzenne, czasowe, rozdzielczość spektralna i radiometryczna zobrazowań satelitarnych oraz czynniki środowiskowe. Podstawowe pytanie, które przychodzi na myśl badaczom środowiska w dowolnym przedsięwzięciu związanym z teledetekcją to: Która metoda teledetekcyjna powinna zostać użyta do rozwiązania problemu badawczego? Tak więc, artykuł ten stanowi przegląd metod używanych w literaturze do oceny, monitoringu i modelowania zmian środowiskowych, które wyznaczają wybór poszczególnych metod. Przegląd pokazuje ponad czterdzieści wskaźników wegetacji, spośród których tylko trzy (proporcjonalny wskaźnik wegetacji – RVI, transformowany wskaźnik wegetacji – TVI i znormalizowany różnicowy wskaźnik wegetacji – NDVI) są powszechnie używane do oceny wegetacji. Badania pokazują, że spośród wszystkich wskaźników wegetacji, w monitoringu zmian wegetacji w skali regionalnej i lokalnej, najczęściej stosuje się NDVI.
Rozwój wolontariackiej informacji geograficznej otworzył nowe możliwości partycypacji społecznej obywateli w kształtowaniu polityki przestrzennej miasta. Dane umieszczane są na mapach za pomocą aplikacji, do których dostęp jest możliwy poprzez powszechnie dostępne przeglądarki internetowe. Kolebką wykorzystania internetowych danych społecznościowych w planowaniu przestrzennym jest Finlandia. To tu opracowana została metoda softGIS, polegająca na pozyskiwaniu danych geograficznych od mieszkańców i użytkowników przestrzeni za pomocą geoankiet, czyli kwestionariuszy umieszczonych na mapach. Aktualnie w Polsce potencjał tego rodzaju praktyk dostrzega coraz więcej instytucji i organizacji. Artykuł prezentuje przesłanki (problematykę społecznego kształtowania przestrzeni) oraz aspekt metodyczny i technologiczny badania, dotyczącego problematyki projektowania i rewitalizacji zielonej przestrzeni miejskiej Olsztyna przy zastosowaniu metody GIS’u partycypacyjnego (softGIS). Na potrzeby badania została zaprojektowana i utworzona aplikacja internetowa w postaci geoankiety. Badanie internetowe, pod hasłem promocyjnym „Wpłyń na zielony Olsztyn!” przeprowadzono od połowy października 2014 r. do końca stycznia 2015 r. Na stronie geoankietaolsztyn.pl respondenci (mieszkańcy Olsztyna i okolic) wyrażali swoje opnie i oceny odnośnie zielonej przestrzeni i miejsc rekreacji w mieście. Na podstawie wolontariackiej informacji geograficznej zostały dokonane analizy przestrzenne percepcji zieleni miejskiej na poziomie trzech skal: miasto, osiedle, najbliższa okolica. Badanie służy w znacznej mierze kształtowaniu znaczenia społecznego terenów zieleni w mieście. Zgodnie z zasadą duńskiego architekta Jana Gehla “najpierw my kształtujemy miasta – potem one kształtują nas” – przestrzeń publiczna powinna być dla ludzi przyjazna, ma ich przyciągać i zatrzymać na dłużej. Powinna zapraszać do różnego rodzaju aktywności. Mieszkańcy mogą dostarczyć cennych informacji na temat przestrzeni miejskiej, które w połączeniu z wiedzą ekspercką mogą zaowocować bardzo dobrze zaprojektowanym otoczeniem.
Na potrzeby badania została zaprojektowana i utworzona aplikacja internetowa w postaci geoankiety. Badanie internetowe, pod hasłem promocyjnym „Wpłyń na zielony Olsztyn!”, przeprowadzono od połowy października 2014 r. do końca stycznia 2015 r. Na stronie geoankietaolsztyn.pl respondenci (mieszkańcy Olsztyna i okolic) wyrażali swoje opnie i oceny odnośnie do zielonej przestrzeni i miejsc rekreacji w mieście. Na podstawie wolontariackiej informacji geograficznej zostały dokonane analizy przestrzenne percepcji zieleni miejskiej na poziomie trzech skali: miasto, osiedle, najbliższa okolica. Artykuł prezentuje schemat procesu badawczego dotyczącego problematyki projektowania i rewitalizacji zielonej przestrzeni miejskiej Olsztyna przy zastosowaniu metody GIS’u partycypacyjnego (softGIS). Zaproponowane etapy postępowania badawczego to: 1) Rozpoznanie ogólnej opinii i oceny respondentów względem terenów zieleni. 2) Społeczna waloryzacja przestrzeni miejskiej na podstawie percepcji okolicy miejsca zamieszkania. 3) Analiza szczegółowych danych przestrzennych – wskazań respondentów w zakresie propozycji zmian. 4) Identyfikacja i waloryzacja miejsc pozytywnych, przyjaznych i ważnych w skali miasta lub osiedla. 5) Próba sformułowania wytycznych projektowych. W poszczególnych częściach artykułu zostały przedstawione wybrane wyniki badań. Wyniki etapu pierwszego służą zwróceniu ogólnej uwagi na obszary działania, które według mieszkańców nie funkcjonują wystarczająco dobrze i wymagają udoskonalenia. Etap drugi ukazuje uśrednioną ocenę przestrzeni pod względem danego czynnika determinującego jej społeczny odbiór. Jego efektem jest waloryzacja badanej przestrzeni, będąca obrazem stopnia jej akceptacji społecznej. Etap trzeci to główny i najważniejszy etap w procesie postępowania badawczego. Jego realizacja może stanowić uzupełnienie dwóch poprzednich etapów, służąc do opracowania kierunków działań projektowych i rewitalizacyjnych oraz diagnozowania obszarów najbardziej problemowych w skali miasta, bądź też może być prowadzona niezależnie, w ramach diagnozy lokalnych potrzeb mieszkańców. Społeczna ocena obiektów pod względem przyjętych czynników w etapie czwartym, w zestawieniu z oceną ekspercką, może być z powodzeniem wykorzystywana podczas sporządzania programów kształtowania terenów zieleni miejskiej. Obiekty najbardziej wartościowe wymagają odmiennych wytycznych dotyczących ich utrzymania i użytkowania w celu ich ochrony. Podsumowaniem procesu badawczego była próba sformułowania wytycznych projektowych (założeń) ogólnych w skali całego miasta oraz wytycznych szczegółowych dla wybranych obiektów zieleni miejskiej, w postaci tzw. kart terenów, jako kart wzorcowych.
Metoda radarowej interferometrii powtórnego przelotu staje się coraz bardziej popularna w monitoringu powierzchni Ziemi i jej deformacji. Wykorzystuje ona co najmniej 2 obrazy radarowe zarejestrowane dla tego samego obszaru, w pewnym odstępie czasu. W wyniku zastosowania tej metody wygenerowany zostaje raster pionowych zmian terenu (interferogram). W szczególności umożliwia on interpretację oraz obliczenie wartości obniżeń w rejonie terenów górniczych. Jako obszar badań wybrano północno-zachodnią część Górnośląskiego Okręgu Przemysłowego w Polsce. Razem z interferogramem obliczony zostaje obraz koherencji. Dla każdego z wybranych terenów górniczych stworzono mapę uśrednionej koherencji. Pozwoliło to ocenić, na których terenach górniczych monitoring z wykorzystaniem metody InSAR może być efektywny.
AutoCAD Civil3D wraz z nakładką Geolisp jest jednym z najpopularniejszych programów wykorzystywanych w systemach klasy GIS w polskim górnictwie. W artykule opisano kilka interesujących, a mało znanych możliwości programów w zakresie importu danych. W szczególności przedstawiono problematykę korzystania z danych w udostępnianych w Internecie w formatach WMS oraz WFS. Zagadnienie omówiono na przykładzie danych pozyskanych ze strony geoportal.gov.pl. Wspomniano o możliwości dwukierunkowej łączności z relacyjnymi bazami danych i popularnym w programach GIS formatem shapefile. Wymieniono możliwości wczytania danych przy pomocy oprogramowania Geolisp.
W artykule poruszono problematykę wpływu dodatkowo pomierzonych giroazymutów na dokładność osnowy podziemnej. Omówiono w nim takie zagadnienia jak: sposób pomiaru giroazimutu, poprawki wprowadzane do pomierzonych giroazymutów, wpływ ekscentrów stanowiska instrumentu i sygnału oraz długości boku na dokładność pomiaru giroazymutu, podstawy prawne takiego pomiaru w wyrobiskach górniczych oraz sposób projektowania ilości i miejsca pomiaru giroazymutu w sieci dołowej pozwalający uzyskać podwyższenie dokładności sieci dołowej. Podstawy teoretyczne zilustrowane zostały przykładem z pomiaru giroazymutów na pięciu bokach istniejącej sieci dołowej głównie pod kątem uzyskanego podwyższenia tym dodatkowym pomiarem jej parametrów dokładnościowych.
W pracy scharakteryzowano problematykę związaną z wyznaczaniem tła geochemicznego. Trzy wybrane metody: [Av±2ơ], [Me±2MAD] oraz Tukey Box plot zostały zastosowane do wyznaczenia tła geochemicznego gleb pochodzących z obszaru Beskidu Sądeckiego, dla następujących pierwiastków: Mg, Ca, Mn, Pb, Cd and As, dla 2 zbiorów danych, różniących się stopniem antropopresji oraz powierzchnią obszaru opróbowania. Najbardziej odpowiednie do wyznaczania tła geochemicznego dla dużych obszarów wydają się wyniki uzyskane na podstawie zbioru próbek pobranych ze stabilnego ekosystemu leśnego, który miał charakter regionalny. W pracy potwierdzono, że w żadnym wypadku nie należy stosować metody [Av±2ơ] do danych charakteryzujących się skośnym rozkładem oraz dużym stopniem zanieczyszczenia. Przeanalizowanie wielu zestawów danych i wybranych metod, pozwala także wnioskować, że dobór jednej uniwersalnej metody do wyznaczenia zakresu tła jest niemożliwy. Przy doborze metody (pośredniej, bezpośredniej czy zintegrowanej) powinno się uwzględniać np. stopień zanieczyszczenia badanego obszaru, zmienność zawartości badanego składnika i jego charakterystykę geochemiczną oraz rozkład danych. Metoda wykorzystująca wykres pudełkowy (Box plot), prowadzi do eliminacji mniejszej liczby wartości odstających i zazwyczaj przy jej użyciu otrzymywany jest szerszy zakres tła. To właśnie ta metoda powinna być stosowana przede wszystkim do obszarów charakteryzujących się niewielkim zanieczyszczeniem oraz znacznym zróżnicowaniem zawartości pierwiastków.
W artykule przedstawiono analizę przepisów prawnych, które regulują zasady prowadzenia katastru nieruchomości w Polsce oraz prowadzenia bazy danych obiektów topograficznych, ewidencji podatkowej i systemu ksiąg wieczystych, w aspekcie budynków jako obiektów tych baz. Szczególną uwagę poświęcono atrybutom opisowym budynków, takim jak: identyfikator budynku, status budynku, rodzaj budynku, klasa budynku i funkcja budynku w aspekcie możliwości ich pozyskania i referencyjnych źródeł danych. Ocenie poddano, które z nich wynikają wprost z przepisów Unii Europejskiej (w tym najważniejszy – zewnętrzny identyfikator obiektu oraz geometria obiektu), a które z polskich przepisów prawa. Kolejnym aspektem analizy było określenie atrybutów, które powinny zasilać pozostałe omawiane bazy, dla których kataster nieruchomości jest bazą referencyjną. Poprzez porównanie atrybutów budynku, gromadzonych w każdej z wymienionych baz danych, zostało określone, które z atrybutów budynku są niezbędne, a które nie są wykorzystywane jednolicie w bazach danych i mogłyby zostać usunięte z bazy katastru nieruchomości, bez szkody dla jego jakości.
W obecnych granicach miasta Krakowa zlokalizowanych jest wiele wyrobisk pogórniczych, często nazywanych „ranami” w krajobrazie. Stanowią niecki poeksploatacyjne po złożach: gliny, piasku, żwiru, wapienia, dziś wypełnione wodami opadowymi, roztopowymi i gruntowymi. Niegdyś obiekty górnicze, w chwili obecnej pełnią wielorakie funkcje: sportowo-rekreacyjne, przyrodniczo-kulturowe, gospodarcze i edukacyjne. Jednym z największych i najpiękniejszych akwenów wodnych miasta pod względem przyrodniczo-krajobrazowym (dzięki oddziaływaniu sił przyrody), funkcjonującym jako teren nieurządzony jest Zalew Bagry. Mimo iż zlokalizowany jest w pobliżu ścisłego centrum miasta i należy do grupy najmłodszych tego typu obiektów (eksploatacja zakończona w 1972 roku), dotychczas nie doczekał się pełnej inwentaryzacji. Połączenie danych hydrograficznych, pozyskanych przez autora, oraz kwerenda bibliograficzna danych literaturowo-archiwalnych, pozwoliły na pełne zilustrowanie etapów kształtowania zbiornika oraz opis charakterystyki wyrobiska.
Jednym z największych i najbardziej wartościowych pod względem przyrodniczo-krajobrazowym, gospodarczym oraz rekreacyjnym akwenów wodnych zlokalizowanych w granicach miasta Krakowa jest Zalew Bagry. Pomimo niegórniczego użytkowania już od lat 70. XX wieku, zbiornik nie doczekał się gruntownej inwentaryzacji (w tym opracowania hydrograficznego) i nie został poddany szczegółowym interdyscyplinarnym badaniom naukowym. Mimo iż jest on względnie młodym obiektem, z zachowanych publikacji i artykułów prasowych lokalnych wydawnictw trudno doszukać się historii powstania i opisu etapów jego rozwoju. Analiza archiwalnych materiałów kartograficznych oraz dokonane przez autora pomiary hydrograficzne, stanowią doskonały materiał uzupełniający dla poznania historii tworzenia tak szczególnego pod względem krajobrazowo-przyrodniczym akwenu miejskiego.
W naziemnej technologii InSAR prawidłowe ustalenie warunków pomiaru jest czynnikiem fundamentalnym. Obserwator decyduje o lokalizacji radaru zarówno w płaszczyźnie poziomej, jak i pionowej, a także pionowym kącie pochylenia wiązki emitowanej przez radar oraz formie stanowiska pomiarowego, które należy samodzielnie wykonać lub zaadaptować. W zależności od prawidłowości i optymalizacji procedur pomiarowych podjętych przez obserwatora wyniki pomiaru mogą być obarczone większymi lub mniejszymi błędami. W artykule przedstawiono czynniki zależne od obserwatora, ich wpływ na dokładność pomiaru wraz z jego analizą dokładności oraz opracowanymi przez autora poprawkami geometrycznymi wartości przemieszczeń. Omówiono także wpływ wyboru pozycji (dystansu) radaru na rozdzielczość uzyskiwanego radarogramu. Przeanalizowano wpływ zastosowanych anten oraz długości celowej na dokładność pomiaru oraz określono potencjalne pole powierzchni możliwe do pomiaru z jednego stanowiska radaru. Ze względu na fakt uzyskiwania wartości przemieszczeń na kierunku emisji fali, przedstawiono wzory pozwalające na zredukowanie uzyskanych wartości do wartości przemieszczeń poziomych, które wyprowadzono w oparciu o wszystkie możliwe konfiguracje radaru względem monitorowanej powierzchni. W celu uzyskiwania koherentnych obrazów konieczne jest zapewnienie stabilnego stanowiska. W tym celu przedstawiono procedurę pomiarową i obliczeniową takiej kontroli. Zastosowanie się do wniosków przedstawionych w artykule pozwoli na uzyskanie zobrazowania radarometrycznego o najwyższej możliwej dokładności.
Jednym z najważniejszych zadań w działalności górniczej jest kontrola prowadzonej eksploatacji, przede wszystkim w celu zagwarantowania bezpieczeństwa i właściwego prowadzenia akcji ratunkowych. Istotny element stanowią także działania dotyczące przebiegu eksploatacji oraz związki pomiędzy pracami podziemnymi i powierzchnią oraz ich wzajemne oddziaływanie. Bez wątpienia ważnymi narzędziami do poprawnej realizacji wymienionych zadań są plany i mapy
Naukowcy podjęli znaczny wysiłek, mający na celu rozwój technik oceny i monitoringu tempa zmian wegetacji w skali globalnej, regionalnej oraz lokalnej. Wskaźniki wegetacji stanowią pomiary teledetekcyjne, używane do ilościowej oceny pokrycia wegetacją, wigoru wegetacji lub biomasy, dla każdego piksela w zobrazowaniu. Oprócz tego, że nie ma jednej metody, która może być zastosowana we wszystkich przypadkach i regionach, istnieje szereg czynników, które determinują wybór metod teledetekcyjnych do zastosowania w badaniach nad zmianami zachodzącymi w środowisku. Należą do nich uwarunkowania przestrzenne, czasowe, rozdzielczość spektralna i radiometryczna zobrazowań satelitarnych oraz czynniki środowiskowe. Podstawowe pytanie, które przychodzi na myśl badaczom środowiska w dowolnym przedsięwzięciu związanym z teledetekcją to: Która metoda teledetekcyjna powinna zostać użyta do rozwiązania problemu badawczego? Tak więc, artykuł ten stanowi przegląd metod używanych w literaturze do oceny, monitoringu i modelowania zmian środowiskowych, które wyznaczają wybór poszczególnych metod. Przegląd pokazuje ponad czterdzieści wskaźników wegetacji, spośród których tylko trzy (proporcjonalny wskaźnik wegetacji – RVI, transformowany wskaźnik wegetacji – TVI i znormalizowany różnicowy wskaźnik wegetacji – NDVI) są powszechnie używane do oceny wegetacji. Badania pokazują, że spośród wszystkich wskaźników wegetacji, w monitoringu zmian wegetacji w skali regionalnej i lokalnej, najczęściej stosuje się NDVI.
Rozwój wolontariackiej informacji geograficznej otworzył nowe możliwości partycypacji społecznej obywateli w kształtowaniu polityki przestrzennej miasta. Dane umieszczane są na mapach za pomocą aplikacji, do których dostęp jest możliwy poprzez powszechnie dostępne przeglądarki internetowe. Kolebką wykorzystania internetowych danych społecznościowych w planowaniu przestrzennym jest Finlandia. To tu opracowana została metoda softGIS, polegająca na pozyskiwaniu danych geograficznych od mieszkańców i użytkowników przestrzeni za pomocą geoankiet, czyli kwestionariuszy umieszczonych na mapach. Aktualnie w Polsce potencjał tego rodzaju praktyk dostrzega coraz więcej instytucji i organizacji. Artykuł prezentuje przesłanki (problematykę społecznego kształtowania przestrzeni) oraz aspekt metodyczny i technologiczny badania, dotyczącego problematyki projektowania i rewitalizacji zielonej przestrzeni miejskiej Olsztyna przy zastosowaniu metody GIS’u partycypacyjnego (softGIS). Na potrzeby badania została zaprojektowana i utworzona aplikacja internetowa w postaci geoankiety. Badanie internetowe, pod hasłem promocyjnym „Wpłyń na zielony Olsztyn!” przeprowadzono od połowy października 2014 r. do końca stycznia 2015 r. Na stronie geoankietaolsztyn.pl respondenci (mieszkańcy Olsztyna i okolic) wyrażali swoje opnie i oceny odnośnie zielonej przestrzeni i miejsc rekreacji w mieście. Na podstawie wolontariackiej informacji geograficznej zostały dokonane analizy przestrzenne percepcji zieleni miejskiej na poziomie trzech skal: miasto, osiedle, najbliższa okolica. Badanie służy w znacznej mierze kształtowaniu znaczenia społecznego terenów zieleni w mieście. Zgodnie z zasadą duńskiego architekta Jana Gehla “najpierw my kształtujemy miasta – potem one kształtują nas” – przestrzeń publiczna powinna być dla ludzi przyjazna, ma ich przyciągać i zatrzymać na dłużej. Powinna zapraszać do różnego rodzaju aktywności. Mieszkańcy mogą dostarczyć cennych informacji na temat przestrzeni miejskiej, które w połączeniu z wiedzą ekspercką mogą zaowocować bardzo dobrze zaprojektowanym otoczeniem.
Na potrzeby badania została zaprojektowana i utworzona aplikacja internetowa w postaci geoankiety. Badanie internetowe, pod hasłem promocyjnym „Wpłyń na zielony Olsztyn!”, przeprowadzono od połowy października 2014 r. do końca stycznia 2015 r. Na stronie geoankietaolsztyn.pl respondenci (mieszkańcy Olsztyna i okolic) wyrażali swoje opnie i oceny odnośnie do zielonej przestrzeni i miejsc rekreacji w mieście. Na podstawie wolontariackiej informacji geograficznej zostały dokonane analizy przestrzenne percepcji zieleni miejskiej na poziomie trzech skali: miasto, osiedle, najbliższa okolica. Artykuł prezentuje schemat procesu badawczego dotyczącego problematyki projektowania i rewitalizacji zielonej przestrzeni miejskiej Olsztyna przy zastosowaniu metody GIS’u partycypacyjnego (softGIS). Zaproponowane etapy postępowania badawczego to: 1) Rozpoznanie ogólnej opinii i oceny respondentów względem terenów zieleni. 2) Społeczna waloryzacja przestrzeni miejskiej na podstawie percepcji okolicy miejsca zamieszkania. 3) Analiza szczegółowych danych przestrzennych – wskazań respondentów w zakresie propozycji zmian. 4) Identyfikacja i waloryzacja miejsc pozytywnych, przyjaznych i ważnych w skali miasta lub osiedla. 5) Próba sformułowania wytycznych projektowych. W poszczególnych częściach artykułu zostały przedstawione wybrane wyniki badań. Wyniki etapu pierwszego służą zwróceniu ogólnej uwagi na obszary działania, które według mieszkańców nie funkcjonują wystarczająco dobrze i wymagają udoskonalenia. Etap drugi ukazuje uśrednioną ocenę przestrzeni pod względem danego czynnika determinującego jej społeczny odbiór. Jego efektem jest waloryzacja badanej przestrzeni, będąca obrazem stopnia jej akceptacji społecznej. Etap trzeci to główny i najważniejszy etap w procesie postępowania badawczego. Jego realizacja może stanowić uzupełnienie dwóch poprzednich etapów, służąc do opracowania kierunków działań projektowych i rewitalizacyjnych oraz diagnozowania obszarów najbardziej problemowych w skali miasta, bądź też może być prowadzona niezależnie, w ramach diagnozy lokalnych potrzeb mieszkańców. Społeczna ocena obiektów pod względem przyjętych czynników w etapie czwartym, w zestawieniu z oceną ekspercką, może być z powodzeniem wykorzystywana podczas sporządzania programów kształtowania terenów zieleni miejskiej. Obiekty najbardziej wartościowe wymagają odmiennych wytycznych dotyczących ich utrzymania i użytkowania w celu ich ochrony. Podsumowaniem procesu badawczego była próba sformułowania wytycznych projektowych (założeń) ogólnych w skali całego miasta oraz wytycznych szczegółowych dla wybranych obiektów zieleni miejskiej, w postaci tzw. kart terenów, jako kart wzorcowych.
Metoda radarowej interferometrii powtórnego przelotu staje się coraz bardziej popularna w monitoringu powierzchni Ziemi i jej deformacji. Wykorzystuje ona co najmniej 2 obrazy radarowe zarejestrowane dla tego samego obszaru, w pewnym odstępie czasu. W wyniku zastosowania tej metody wygenerowany zostaje raster pionowych zmian terenu (interferogram). W szczególności umożliwia on interpretację oraz obliczenie wartości obniżeń w rejonie terenów górniczych. Jako obszar badań wybrano północno-zachodnią część Górnośląskiego Okręgu Przemysłowego w Polsce. Razem z interferogramem obliczony zostaje obraz koherencji. Dla każdego z wybranych terenów górniczych stworzono mapę uśrednionej koherencji. Pozwoliło to ocenić, na których terenach górniczych monitoring z wykorzystaniem metody InSAR może być efektywny.
AutoCAD Civil3D wraz z nakładką Geolisp jest jednym z najpopularniejszych programów wykorzystywanych w systemach klasy GIS w polskim górnictwie. W artykule opisano kilka interesujących, a mało znanych możliwości programów w zakresie importu danych. W szczególności przedstawiono problematykę korzystania z danych w udostępnianych w Internecie w formatach WMS oraz WFS. Zagadnienie omówiono na przykładzie danych pozyskanych ze strony geoportal.gov.pl. Wspomniano o możliwości dwukierunkowej łączności z relacyjnymi bazami danych i popularnym w programach GIS formatem shapefile. Wymieniono możliwości wczytania danych przy pomocy oprogramowania Geolisp.
W artykule poruszono problematykę wpływu dodatkowo pomierzonych giroazymutów na dokładność osnowy podziemnej. Omówiono w nim takie zagadnienia jak: sposób pomiaru giroazimutu, poprawki wprowadzane do pomierzonych giroazymutów, wpływ ekscentrów stanowiska instrumentu i sygnału oraz długości boku na dokładność pomiaru giroazymutu, podstawy prawne takiego pomiaru w wyrobiskach górniczych oraz sposób projektowania ilości i miejsca pomiaru giroazymutu w sieci dołowej pozwalający uzyskać podwyższenie dokładności sieci dołowej. Podstawy teoretyczne zilustrowane zostały przykładem z pomiaru giroazymutów na pięciu bokach istniejącej sieci dołowej głównie pod kątem uzyskanego podwyższenia tym dodatkowym pomiarem jej parametrów dokładnościowych.
W pracy scharakteryzowano problematykę związaną z wyznaczaniem tła geochemicznego. Trzy wybrane metody: [Av±2ơ], [Me±2MAD] oraz Tukey Box plot zostały zastosowane do wyznaczenia tła geochemicznego gleb pochodzących z obszaru Beskidu Sądeckiego, dla następujących pierwiastków: Mg, Ca, Mn, Pb, Cd and As, dla 2 zbiorów danych, różniących się stopniem antropopresji oraz powierzchnią obszaru opróbowania. Najbardziej odpowiednie do wyznaczania tła geochemicznego dla dużych obszarów wydają się wyniki uzyskane na podstawie zbioru próbek pobranych ze stabilnego ekosystemu leśnego, który miał charakter regionalny. W pracy potwierdzono, że w żadnym wypadku nie należy stosować metody [Av±2ơ] do danych charakteryzujących się skośnym rozkładem oraz dużym stopniem zanieczyszczenia. Przeanalizowanie wielu zestawów danych i wybranych metod, pozwala także wnioskować, że dobór jednej uniwersalnej metody do wyznaczenia zakresu tła jest niemożliwy. Przy doborze metody (pośredniej, bezpośredniej czy zintegrowanej) powinno się uwzględniać np. stopień zanieczyszczenia badanego obszaru, zmienność zawartości badanego składnika i jego charakterystykę geochemiczną oraz rozkład danych. Metoda wykorzystująca wykres pudełkowy (Box plot), prowadzi do eliminacji mniejszej liczby wartości odstających i zazwyczaj przy jej użyciu otrzymywany jest szerszy zakres tła. To właśnie ta metoda powinna być stosowana przede wszystkim do obszarów charakteryzujących się niewielkim zanieczyszczeniem oraz znacznym zróżnicowaniem zawartości pierwiastków.
W artykule przedstawiono analizę przepisów prawnych, które regulują zasady prowadzenia katastru nieruchomości w Polsce oraz prowadzenia bazy danych obiektów topograficznych, ewidencji podatkowej i systemu ksiąg wieczystych, w aspekcie budynków jako obiektów tych baz. Szczególną uwagę poświęcono atrybutom opisowym budynków, takim jak: identyfikator budynku, status budynku, rodzaj budynku, klasa budynku i funkcja budynku w aspekcie możliwości ich pozyskania i referencyjnych źródeł danych. Ocenie poddano, które z nich wynikają wprost z przepisów Unii Europejskiej (w tym najważniejszy – zewnętrzny identyfikator obiektu oraz geometria obiektu), a które z polskich przepisów prawa. Kolejnym aspektem analizy było określenie atrybutów, które powinny zasilać pozostałe omawiane bazy, dla których kataster nieruchomości jest bazą referencyjną. Poprzez porównanie atrybutów budynku, gromadzonych w każdej z wymienionych baz danych, zostało określone, które z atrybutów budynku są niezbędne, a które nie są wykorzystywane jednolicie w bazach danych i mogłyby zostać usunięte z bazy katastru nieruchomości, bez szkody dla jego jakości.
W obecnych granicach miasta Krakowa zlokalizowanych jest wiele wyrobisk pogórniczych, często nazywanych „ranami” w krajobrazie. Stanowią niecki poeksploatacyjne po złożach: gliny, piasku, żwiru, wapienia, dziś wypełnione wodami opadowymi, roztopowymi i gruntowymi. Niegdyś obiekty górnicze, w chwili obecnej pełnią wielorakie funkcje: sportowo-rekreacyjne, przyrodniczo-kulturowe, gospodarcze i edukacyjne. Jednym z największych i najpiękniejszych akwenów wodnych miasta pod względem przyrodniczo-krajobrazowym (dzięki oddziaływaniu sił przyrody), funkcjonującym jako teren nieurządzony jest Zalew Bagry. Mimo iż zlokalizowany jest w pobliżu ścisłego centrum miasta i należy do grupy najmłodszych tego typu obiektów (eksploatacja zakończona w 1972 roku), dotychczas nie doczekał się pełnej inwentaryzacji. Połączenie danych hydrograficznych, pozyskanych przez autora, oraz kwerenda bibliograficzna danych literaturowo-archiwalnych, pozwoliły na pełne zilustrowanie etapów kształtowania zbiornika oraz opis charakterystyki wyrobiska.
Jednym z największych i najbardziej wartościowych pod względem przyrodniczo-krajobrazowym, gospodarczym oraz rekreacyjnym akwenów wodnych zlokalizowanych w granicach miasta Krakowa jest Zalew Bagry. Pomimo niegórniczego użytkowania już od lat 70. XX wieku, zbiornik nie doczekał się gruntownej inwentaryzacji (w tym opracowania hydrograficznego) i nie został poddany szczegółowym interdyscyplinarnym badaniom naukowym. Mimo iż jest on względnie młodym obiektem, z zachowanych publikacji i artykułów prasowych lokalnych wydawnictw trudno doszukać się historii powstania i opisu etapów jego rozwoju. Analiza archiwalnych materiałów kartograficznych oraz dokonane przez autora pomiary hydrograficzne, stanowią doskonały materiał uzupełniający dla poznania historii tworzenia tak szczególnego pod względem krajobrazowo-przyrodniczym akwenu miejskiego.
W naziemnej technologii InSAR prawidłowe ustalenie warunków pomiaru jest czynnikiem fundamentalnym. Obserwator decyduje o lokalizacji radaru zarówno w płaszczyźnie poziomej, jak i pionowej, a także pionowym kącie pochylenia wiązki emitowanej przez radar oraz formie stanowiska pomiarowego, które należy samodzielnie wykonać lub zaadaptować. W zależności od prawidłowości i optymalizacji procedur pomiarowych podjętych przez obserwatora wyniki pomiaru mogą być obarczone większymi lub mniejszymi błędami. W artykule przedstawiono czynniki zależne od obserwatora, ich wpływ na dokładność pomiaru wraz z jego analizą dokładności oraz opracowanymi przez autora poprawkami geometrycznymi wartości przemieszczeń. Omówiono także wpływ wyboru pozycji (dystansu) radaru na rozdzielczość uzyskiwanego radarogramu. Przeanalizowano wpływ zastosowanych anten oraz długości celowej na dokładność pomiaru oraz określono potencjalne pole powierzchni możliwe do pomiaru z jednego stanowiska radaru. Ze względu na fakt uzyskiwania wartości przemieszczeń na kierunku emisji fali, przedstawiono wzory pozwalające na zredukowanie uzyskanych wartości do wartości przemieszczeń poziomych, które wyprowadzono w oparciu o wszystkie możliwe konfiguracje radaru względem monitorowanej powierzchni. W celu uzyskiwania koherentnych obrazów konieczne jest zapewnienie stabilnego stanowiska. W tym celu przedstawiono procedurę pomiarową i obliczeniową takiej kontroli. Zastosowanie się do wniosków przedstawionych w artykule pozwoli na uzyskanie zobrazowania radarometrycznego o najwyższej możliwej dokładności.
Jednym z najważniejszych zadań w działalności górniczej jest kontrola prowadzonej eksploatacji, przede wszystkim w celu zagwarantowania bezpieczeństwa i właściwego prowadzenia akcji ratunkowych. Istotny element stanowią także działania dotyczące przebiegu eksploatacji oraz związki pomiędzy pracami podziemnymi i powierzchnią oraz ich wzajemne oddziaływanie. Bez wątpienia ważnymi narzędziami do poprawnej realizacji wymienionych zadań są plany i mapy
Technologia laserowa jest stosunkowo młoda i dopiero się rozwija, pomimo to znalazła szerokie zastosowanie w różnych dziedzinach geodezji. W niniejszym artykule przedstawiono szerzej sposób wykorzystania pomiarów z zastosowaniem lotniczego skaningu laserowego do opracowania zasięgu powstałych ciągłych deformacji terenu (niecki obniżeniowej) wywołanych na skutek podziemnej eksploatacji złoża węgla kamiennego. Po krótkim wstępie teoretycznym, wprowadzającym w tematykę skaningu laserowego, zaprezentowano etapy pozyskiwania danych i obróbki chmury punktów. Następnie przedstawiono sposoby prezentacji uzyskanych wyników i możliwości jakie daje. W podsumowaniu określono zalety i wady przeprowadzonego pomiaru za pomocą lotniczego skaningu laserowego.
W ciągu ostatnich lat problemy szkód poeksploatacyjnych na terenie górniczym Quang Ninh stają się coraz poważniejsze. W artykule zastosowano pewne metody prognozowania wpływów eksploatacji w tym funkcję wpływów Budryka-Knothego. Na przykładzie podziemnej kopalni węgla Thong Nhat (Wietnam) przeanalizowano wyniki i dokonano porównania wartości wskaźników deformacji zaprognozowanych i uzyskanych z pomiarów terenowych w świetle funkcji czasu według teorii S. Knothego.
Wyznaczanie charakterystyk dokładnościowych instrumentów geodezyjnych stanowi w odniesieniu do wymogów prawnych obowiązek służb geodezyjnych wykonujących wszelkiego rodzaju prace geodezyjne. Świadectwo atestacji wydają upoważnione do tego celu jednostki wyposażone w specjalne bazy komparacyjne. Specyfiika nowoczesnych instrumentów skanujących wymaga szerszego zakresu prac badawczych dla uzyskania pełnej informacji o rzeczywistej dokładności instrumentu. Szerokie zastosowanie pomiarów bezzwierciadlanych w pracach inwentaryzacyjnych i monitoringu obiektów naturalnych i pochodzenia antropogenicznego wymaga rozpoznana parametrów dokładnościowych określonego instrumentu. Dotyczy to zarówno pozycjonowania głowicy w oparciu o punkty referencyjne, ale także składowe błędu położenia punktu w chmurze. Istotną składową błędu położenia punktów jest błąd pomiaru odległości w opcji pełnej automatyzacji. Automatyzm i prędkość pomiaru zbioru punktów wymaga specyfiicznego podejścia do sposobu wyznaczenia charakterystyki dalmierza. Można wykorzystać do tego celu bazy już istniejące. W artykule przedstawiono algorytm wykorzystania istniejącej bazy komparacyjnej Geodezyjnego Laboratorium Metrologicznego AGH dla potrzeb testowania dalmierzy bezzwierciadlanych tachimetrów skanujących i skanerów laserowych w zakresie obecnej długości bazy w trybie ciągłym.
Pomiary geodezyjne, wykonywane seryjnie na terenie podlegającym deformacjom, pozwalają na wyznaczenie wskaźników deformacji, z których najbardziej istotnym dla większości obiektów budowlanych jest odkształcenie poziome. Wyróżniamy odkształcenia poziome rozciągające oraz ściskające. Odkształcenia rozciągające terenu powodują największe uszkodzenia w obiektach budownictwa mieszkaniowego, prowadząc do powstania rys, pęknięć a w skrajnym przypadku nawet katastrofy budowlanej. W zależności od przyjętej geodezyjnej technologii pomiaru możliwe jest wyznaczenie wartości odkształceń z mniejszą lub większą dokładnością. Dla odkształceń o małych wartościach konieczne jest wyznaczanie długości w sposób bezpośredni (z pomiaru tachimetrycznego), natomiast dla odkształceń o wartościach dużych możliwe jest wykorzystanie wyników pomiarów GPS. W artykule przedstawiono metodę i wyniki pomiaru deformacji fragmentów osuwiska. Zastabilizowano punkty geodezyjne w formie sieci pomiarowej zwanej prostokątną rozetą geodezyjną. Wykonano pomiary rozety i obliczono na ich podstawie odkształcenia poziome na kierunkach zastabilizowanych boków. W dalszym etapie wyznaczono składowe powierzchniowego tensora odkształceń, z których możliwe jest wyznaczenie kierunku i wartości występującego odkształcenia ekstremalnego.
Artykuł porusza wybrane zagadnienia związane z tworzeniem dokumentacji kartografi cznej w działach mierniczo-geologicznych kopalni. Zwrócono w nim uwagę na problem tworzenia trójwymiarowych modeli z płaskich map cyfrowych. W niniejszym artykule zaprezentowano nowe rozwiązanie tego problemu bazujące na platformie AutoCAD. Środowisko visual lisp pozwoliło na zbudowanie pakietu MapDraw, który wykorzystuje atrybuty niejawne obiektów, dzięki czemu możliwe stało się pozyskanie dodatkowych informacji niezbędnych do przeprowadzenia transformacji płaskiej mapy cyfrowej do w pełni kwalifi kowanego modelu trójwymiarowego. Bazą rozwiązania są badania nad generalizacją mapy górniczej w środowisku MapDraw, opublikowane w dysertacji D. Bieguna. Artykuł przedstawia metodologię pozyskiwania wymaganych informacji z płaskiej mapy cyfrowej z wykorzystaniem grupy procedur o nazwie „Mini GIS”. W kolejnych krokach prezentowana jest metoda tworzenia powierzchni TIN z uzyskanych danych pierwotnych oraz narzędzie do optymalizacji uzyskanej powierzchni. Następnie prezentowane są narzędzia wykorzystujące powstały model do tworzenia profi li oraz generowania warstwic na powstałej powierzchni. Program pozwala na wygładzanie powstałych warstwic wykorzystując do tego celu autorski algorytm w połączeniu z aproksymacją wielomianem trzeciego stopnia. Dzięki tym zabiegom przebieg powstałych warstwic jest bardzo naturalny. Dodatkowo zaprezentowano różnorakie metody etykietowania warstwic automatyczne i manualne oraz wykorzystanie gradientowego wypełnienia powierzchni w celu poprawy efektu wizualizacji 3D. Opracowana metodyka generowania warstwic pozwoliła w środowisku nakładki MapDraw programu AutoCAD na implementację jednej z typowych funkcji dla programów GIS bez wykorzystywania zaawansowanych mechanizmów jakie oferuje na przykład AutoCAD Civil. Prezentowane rozwiązanie zwiększa zarówno komfort, jakość jak i możliwości pozyskiwania nowych informacji z zasobu mapowego przy minimalnym nakładzie pracy ze strony użytkownika.
W chwili obecnej rynek sprzętu geodezyjnego uzupełniła bardzo liczna grupa instrumentów skanujących, które wykorzystuje się masowo z racji ograniczenia do minimum roli użytkownika oraz szybkości i ilości danych we wszelkiego rodzaju pracach inwentaryzacyjnych oraz monitoringu geodezyjnym na całym świecie. Także w Polsce nowe przepisy geodezyjne określają warunki stosowalności tego typu zestawów pomiarowych w podstawowych pracach służb geodezyjnych. Dziś odpowiednio przetworzone dane mogą stanowić element zasobu geodezyjnego. Powszechność stosowania skaningu laserowego w pracach inwentaryzacyjnych ogromnej liczby obiektów powierzchniowych i podziemnych, często o skomplikowanej geometrii i trudnodostępnych oraz braku możliwości realizacji pomiaru według przyjętych powszechnie zasad, wymusza szukanie optymalnych rozwiązań pomiarowych gwarantujących wykonanie roboty z należytą dokładnością. Szereg prowadzonych na świecie przez placówki naukowo – badawcze szczegółowych testów technologii geodezyjnych, pozwala wnioskować o możliwości zastosowania ich w określonej sytuacji terenowej lub geometrii obiektu. W artykule przeanalizowano przydatność i dokładność dotychczas stosowanych do transformacji chmur punktów sygnałów referencyjnych oraz wpływ niedokładności rozpoznania środka sygnału (jako procesu w pełni automatycznego) na wielkość skręcenia skanu oraz zmianę wartości mierzonej długości z tytułu skręcenia płaszczyzny odbijającej.
W artykule omówiono badania pól losowych jednorodnych w czasie o wartościach rzeczywistych oraz izotropowych w zmiennych przestrzennych. Przedstawiono analog twierdzenia Kotelnikowa-Szannona dla pól losowych o ograniczonym widmie. Dla takich pól losowych skonstruowano model bazowany na sumach częściowych szeregu stochastycznego. W ramach badanego modelu otrzymano oszacowania ich aproksymacji średnio-kwadratowej. Zaproponowano też algorytmy modelowania statystycznego procesu realizacji pola losowego z rozkładem Gaussa. Ponadto, wobec zbadanego modelu w ramach zaproponowanych algorytmów, przedstawiono ich zastosowanie do generowania komputerowego realizacji odpowiednich pól Gaussa o zadanych funkcjach korelacji. W artykule rozpatrzono również rozkład spektralny generowanych szumów.
Problemem poruszanym w niniejszym artykule jest czas, w jakim obliczana jest kompletna mapa czasów dojazdów pojazdów ratunkowych (ambulansów) dla zadanej siatki. Znalezienie optymalnej (najszybszej) trasy między dwoma punktami jest problemem złożonym i czasochłonnym. Co więcej, poruszane zagadnienia wynikają z potrzeb i problemów, z którymi zmagają się dyspozytorzy Małopolskiego Ratownictwa Medycznego. Wobec tego, intencją autorów było opracowanie metod pozwalających na skrócenie czasu wykonywania obliczeń, bazując na redukcji ich liczby wyłącznie do punktów, do których ambulans jest w stanie dotrzeć w zadanym czasie. Porównano trzy typy algorytmów, uwzględniając ich złożoność czasową i obliczeniową. W rezultacie wskazano metody, które – w zależności od przyjętego kryterium – pozwalają osiągnąć optymalne wyniki.
W artykule przedstawiono aktualny stan usług geoinformatycznych w Polsce, dedykowanych dla obiektów zabytkowych. Omówiono zagadnienie pozyskiwania danych, a następnie ich opracowania. Kolejnym opisanym zagadnieniem jest dystrybucja i promocja samych portali, a także promocja obiektów, możliwa dzięki ciągłemu poszerzaniu oferty poprzez udostępnianie nowych informacji. Autor wskazuje również na możliwości wykorzystania usług przeznaczonych dla turystów przez osoby z branży turystycznej oraz naukowców. Jako przykłady opracowań najnowszych technologii przedstawiono: geoportal (Szlaku Naftowego) i usługi wirtualnego zwiedzania zabytków (Muzeum Podziemnego Miasta Osówka w Górach Sowich oraz klasztoru benedyktyńskiego w Jarosławiu), stworzone przez studentów koła naukowego KNGK Geoinformatyka oraz jego opiekunów.
Rektyfikacja obiektu budowlanego to jego obrót (rotacja) oraz przesunięcie (translacja) w żądanym kierunku tak, aby zajął on prawidłowe usytuowanie w przestrzeni. Sprawdzona w ponad 500 przypadkach metoda, polega na użyciu układu kilkudziesięciu podnośników ulokowanych we wnękach ścian fundamentowych budowli. Proces rektyfikacji jest sterowany komputerowo. W artykule przedstawiono proces rektyfikacji kościoła przy ul. Matki Ewy w Bytomiu Miechowicach. Jest to obiekt murowany z cegły, o układzie dwunawowym, częściowo podpiwniczony, który wzniesiono w stylu neogotyckim w roku 1896. Eksploatacje górnicze, które oddziaływały na obiekt, prowadzono od lat 30. XX wieku, ostatnie prace – prowadzone bezpośrednio pod nim – miały miejsce w latach 2008–2012. Skutkiem dokonanej eksploatacji były uszkodzenia budowli objawiające się licznymi pęknięciami ścian i sklepień oraz pochyleniem bryły rzędu 30 mm/m. Opisano metodę pomiaru pochylenia budowli i rejestracji pęknięć przed procesem rektyfikacji oraz po jego zakończeniu. Przeprowadzono pomiary budynku kościoła przed i po rektyfikacji, przy wykorzystaniu skanera laserowego 3D Trimble TX5. Uzyskiwane z pomiarów chmury punktów posłużyły do opracowania modelu 3D obiektu. Zrealizowane pomiary stanowią przykład wykorzystania nowego narzędzia, jakim jest skanowanie laserowe 3D do rejestrowania, przetwarzania i wizualizacji informacji 3D o obiekcie.
Artykuł przedstawia analizę dna zbiornika poeksploatacyjnego kruszywa naturalnego (eksploatacja spod lustra wody) do określenia najlepszego możliwego kierunku jego rekultywacji. Celem badań jest przeanalizowanie czy możliwa jest rekultywacja w kierunku wodno-rekreacyjnym oraz który wariant jest bardziej korzystny: wodno-rekreacyjny jako kąpielisko czy wodno-rekreacyjny jako łowisko rybne dla wędkarzy.
Odpowiedzi poszukano, analizując następujące trzy parametry:
nachylenie skarp podwodnych przybrzeżnych,
stopień zamulenia dna w strefi e brzegowej (struktura powierzchni dna),
stopień pokrycia roślinnością dna w strefi e brzegowej (wegetacja).
W celu przeanalizowania opisanych parametrów, wykonana została mapa batymetryczna zbiornika, mapa twardości struktury powierzchni dna oraz mapa pokrycia roślinnością. Do obliczenia nachylenia skarp przybrzeżnych wykonano pomiar batymetryczny, aby określić stopień zamulenia zbiornika, sporządzono pomiar twardości powierzchni dna, natomiast w celu analizy wegetacji, pomierzono ilość roślin znajdujących się na dnie akwenu. Zbiornik znajduje się na granicy Krakowa z Wieliczką w Kopalni Kruszywa „Brzegi”, która należy do Krakowskich Zakładów Eksploatacji Kruszywa S.A. (rys. 1). Pomiar wykonano skonstruowanym przez autora zdalnym zestawem batymetrycznym Smart SonarBoat, umożliwiającym jego sterowanie z linii brzegowej (rys. 3). Opisano sposób pozyskania informacji geoprzestrzennych dla dna i skarp podwodnych oraz możliwości ich analizy i interpretacji, z wykorzystaniem dostępnych technologii geoinformatycznych. Przeprowadzone badania oraz analizy wyników umożliwiły stwierdzenie, który kierunek rekultywacji jest bardziej korzystny.
Kopalnia Soli „Wieliczka” ma specyficzne cechy, związane zarówno z budową geologiczną złoża, geomechanicznymi właściwościami górotworu, sposobami eksploatacji, wpływem wyrobisk na powierzchnię i górotwór, jak również z rolą, jaką odgrywa w kulturze i turystyce. Oparcie zarządzania kopalnią o system informatyczny wymaga uwzględnienia w nim wspomnianej specyfiki, co eliminuje możliwość implementacji innych systemów do potrzeb Wieliczki. W artykule omówiono metodykę tworzenia części takiego systemu w postaci bazy danych o wyrobiskach górniczych, która stanowić może podstawę całego systemu. Bazę oparto na oprogramowaniu dostępnym w kopalni. Podano możliwości praktycznych zastosowań bazy do rozwiązywania zagadnień inżynieryjno-górniczych.
Artykuł prezentuje koncepcję metodyki inwentaryzacji małych zbiorników wodnych na terenach zurbanizowanych. W przepisach brak jednoznacznej definicji powyższych zbiorników. Najczęściej przyjmuje się, iż są to obiekty o powierzchni nieprzekraczającej 1 ha. Oprócz naturalnych zagrożeń, akweny na terenach miejskich, poddane są szczególnej presji antropogenicznej, która prowadzi do szybkiej degradacji lub nawet całkowitej likwidacji. Ponieważ obszary miejskie charakteryzują się niskim wskaźnikiem różnorodności biologicznej, stąd też dążenie do zachowania powierzchni wodnych ma zasadnicze znaczenie dla jej utrzymania oraz podniesienia walorów estetyczno-krajobrazowych. Dlatego obiekty te powinny zostać objęte ochroną, której pierwszym etapem jest przeprowadzenie inwentaryzacji. W propozycji inwentaryzacji uwzględniono szereg parametrów przyrodniczych i hydrologicznych a także potencjalne zagrożenia. Zaproponowana metodyka ujęta została w formie karty inwentaryzacyjnej obejmującej zarówno dokumentację fotograficzną i kartograficzną oraz dane opisowe charakteryzujące zbiornik i fragment jego zlewnii w bezpośrednim sąsiedztwie akwenu.
Technologia laserowa jest stosunkowo młoda i dopiero się rozwija, pomimo to znalazła szerokie zastosowanie w różnych dziedzinach geodezji. W niniejszym artykule przedstawiono szerzej sposób wykorzystania pomiarów z zastosowaniem lotniczego skaningu laserowego do opracowania zasięgu powstałych ciągłych deformacji terenu (niecki obniżeniowej) wywołanych na skutek podziemnej eksploatacji złoża węgla kamiennego. Po krótkim wstępie teoretycznym, wprowadzającym w tematykę skaningu laserowego, zaprezentowano etapy pozyskiwania danych i obróbki chmury punktów. Następnie przedstawiono sposoby prezentacji uzyskanych wyników i możliwości jakie daje. W podsumowaniu określono zalety i wady przeprowadzonego pomiaru za pomocą lotniczego skaningu laserowego.
W ciągu ostatnich lat problemy szkód poeksploatacyjnych na terenie górniczym Quang Ninh stają się coraz poważniejsze. W artykule zastosowano pewne metody prognozowania wpływów eksploatacji w tym funkcję wpływów Budryka-Knothego. Na przykładzie podziemnej kopalni węgla Thong Nhat (Wietnam) przeanalizowano wyniki i dokonano porównania wartości wskaźników deformacji zaprognozowanych i uzyskanych z pomiarów terenowych w świetle funkcji czasu według teorii S. Knothego.
Wyznaczanie charakterystyk dokładnościowych instrumentów geodezyjnych stanowi w odniesieniu do wymogów prawnych obowiązek służb geodezyjnych wykonujących wszelkiego rodzaju prace geodezyjne. Świadectwo atestacji wydają upoważnione do tego celu jednostki wyposażone w specjalne bazy komparacyjne. Specyfiika nowoczesnych instrumentów skanujących wymaga szerszego zakresu prac badawczych dla uzyskania pełnej informacji o rzeczywistej dokładności instrumentu. Szerokie zastosowanie pomiarów bezzwierciadlanych w pracach inwentaryzacyjnych i monitoringu obiektów naturalnych i pochodzenia antropogenicznego wymaga rozpoznana parametrów dokładnościowych określonego instrumentu. Dotyczy to zarówno pozycjonowania głowicy w oparciu o punkty referencyjne, ale także składowe błędu położenia punktu w chmurze. Istotną składową błędu położenia punktów jest błąd pomiaru odległości w opcji pełnej automatyzacji. Automatyzm i prędkość pomiaru zbioru punktów wymaga specyfiicznego podejścia do sposobu wyznaczenia charakterystyki dalmierza. Można wykorzystać do tego celu bazy już istniejące. W artykule przedstawiono algorytm wykorzystania istniejącej bazy komparacyjnej Geodezyjnego Laboratorium Metrologicznego AGH dla potrzeb testowania dalmierzy bezzwierciadlanych tachimetrów skanujących i skanerów laserowych w zakresie obecnej długości bazy w trybie ciągłym.
Pomiary geodezyjne, wykonywane seryjnie na terenie podlegającym deformacjom, pozwalają na wyznaczenie wskaźników deformacji, z których najbardziej istotnym dla większości obiektów budowlanych jest odkształcenie poziome. Wyróżniamy odkształcenia poziome rozciągające oraz ściskające. Odkształcenia rozciągające terenu powodują największe uszkodzenia w obiektach budownictwa mieszkaniowego, prowadząc do powstania rys, pęknięć a w skrajnym przypadku nawet katastrofy budowlanej. W zależności od przyjętej geodezyjnej technologii pomiaru możliwe jest wyznaczenie wartości odkształceń z mniejszą lub większą dokładnością. Dla odkształceń o małych wartościach konieczne jest wyznaczanie długości w sposób bezpośredni (z pomiaru tachimetrycznego), natomiast dla odkształceń o wartościach dużych możliwe jest wykorzystanie wyników pomiarów GPS. W artykule przedstawiono metodę i wyniki pomiaru deformacji fragmentów osuwiska. Zastabilizowano punkty geodezyjne w formie sieci pomiarowej zwanej prostokątną rozetą geodezyjną. Wykonano pomiary rozety i obliczono na ich podstawie odkształcenia poziome na kierunkach zastabilizowanych boków. W dalszym etapie wyznaczono składowe powierzchniowego tensora odkształceń, z których możliwe jest wyznaczenie kierunku i wartości występującego odkształcenia ekstremalnego.
Artykuł porusza wybrane zagadnienia związane z tworzeniem dokumentacji kartografi cznej w działach mierniczo-geologicznych kopalni. Zwrócono w nim uwagę na problem tworzenia trójwymiarowych modeli z płaskich map cyfrowych. W niniejszym artykule zaprezentowano nowe rozwiązanie tego problemu bazujące na platformie AutoCAD. Środowisko visual lisp pozwoliło na zbudowanie pakietu MapDraw, który wykorzystuje atrybuty niejawne obiektów, dzięki czemu możliwe stało się pozyskanie dodatkowych informacji niezbędnych do przeprowadzenia transformacji płaskiej mapy cyfrowej do w pełni kwalifi kowanego modelu trójwymiarowego. Bazą rozwiązania są badania nad generalizacją mapy górniczej w środowisku MapDraw, opublikowane w dysertacji D. Bieguna. Artykuł przedstawia metodologię pozyskiwania wymaganych informacji z płaskiej mapy cyfrowej z wykorzystaniem grupy procedur o nazwie „Mini GIS”. W kolejnych krokach prezentowana jest metoda tworzenia powierzchni TIN z uzyskanych danych pierwotnych oraz narzędzie do optymalizacji uzyskanej powierzchni. Następnie prezentowane są narzędzia wykorzystujące powstały model do tworzenia profi li oraz generowania warstwic na powstałej powierzchni. Program pozwala na wygładzanie powstałych warstwic wykorzystując do tego celu autorski algorytm w połączeniu z aproksymacją wielomianem trzeciego stopnia. Dzięki tym zabiegom przebieg powstałych warstwic jest bardzo naturalny. Dodatkowo zaprezentowano różnorakie metody etykietowania warstwic automatyczne i manualne oraz wykorzystanie gradientowego wypełnienia powierzchni w celu poprawy efektu wizualizacji 3D. Opracowana metodyka generowania warstwic pozwoliła w środowisku nakładki MapDraw programu AutoCAD na implementację jednej z typowych funkcji dla programów GIS bez wykorzystywania zaawansowanych mechanizmów jakie oferuje na przykład AutoCAD Civil. Prezentowane rozwiązanie zwiększa zarówno komfort, jakość jak i możliwości pozyskiwania nowych informacji z zasobu mapowego przy minimalnym nakładzie pracy ze strony użytkownika.
W chwili obecnej rynek sprzętu geodezyjnego uzupełniła bardzo liczna grupa instrumentów skanujących, które wykorzystuje się masowo z racji ograniczenia do minimum roli użytkownika oraz szybkości i ilości danych we wszelkiego rodzaju pracach inwentaryzacyjnych oraz monitoringu geodezyjnym na całym świecie. Także w Polsce nowe przepisy geodezyjne określają warunki stosowalności tego typu zestawów pomiarowych w podstawowych pracach służb geodezyjnych. Dziś odpowiednio przetworzone dane mogą stanowić element zasobu geodezyjnego. Powszechność stosowania skaningu laserowego w pracach inwentaryzacyjnych ogromnej liczby obiektów powierzchniowych i podziemnych, często o skomplikowanej geometrii i trudnodostępnych oraz braku możliwości realizacji pomiaru według przyjętych powszechnie zasad, wymusza szukanie optymalnych rozwiązań pomiarowych gwarantujących wykonanie roboty z należytą dokładnością. Szereg prowadzonych na świecie przez placówki naukowo – badawcze szczegółowych testów technologii geodezyjnych, pozwala wnioskować o możliwości zastosowania ich w określonej sytuacji terenowej lub geometrii obiektu. W artykule przeanalizowano przydatność i dokładność dotychczas stosowanych do transformacji chmur punktów sygnałów referencyjnych oraz wpływ niedokładności rozpoznania środka sygnału (jako procesu w pełni automatycznego) na wielkość skręcenia skanu oraz zmianę wartości mierzonej długości z tytułu skręcenia płaszczyzny odbijającej.
W artykule omówiono badania pól losowych jednorodnych w czasie o wartościach rzeczywistych oraz izotropowych w zmiennych przestrzennych. Przedstawiono analog twierdzenia Kotelnikowa-Szannona dla pól losowych o ograniczonym widmie. Dla takich pól losowych skonstruowano model bazowany na sumach częściowych szeregu stochastycznego. W ramach badanego modelu otrzymano oszacowania ich aproksymacji średnio-kwadratowej. Zaproponowano też algorytmy modelowania statystycznego procesu realizacji pola losowego z rozkładem Gaussa. Ponadto, wobec zbadanego modelu w ramach zaproponowanych algorytmów, przedstawiono ich zastosowanie do generowania komputerowego realizacji odpowiednich pól Gaussa o zadanych funkcjach korelacji. W artykule rozpatrzono również rozkład spektralny generowanych szumów.
Problemem poruszanym w niniejszym artykule jest czas, w jakim obliczana jest kompletna mapa czasów dojazdów pojazdów ratunkowych (ambulansów) dla zadanej siatki. Znalezienie optymalnej (najszybszej) trasy między dwoma punktami jest problemem złożonym i czasochłonnym. Co więcej, poruszane zagadnienia wynikają z potrzeb i problemów, z którymi zmagają się dyspozytorzy Małopolskiego Ratownictwa Medycznego. Wobec tego, intencją autorów było opracowanie metod pozwalających na skrócenie czasu wykonywania obliczeń, bazując na redukcji ich liczby wyłącznie do punktów, do których ambulans jest w stanie dotrzeć w zadanym czasie. Porównano trzy typy algorytmów, uwzględniając ich złożoność czasową i obliczeniową. W rezultacie wskazano metody, które – w zależności od przyjętego kryterium – pozwalają osiągnąć optymalne wyniki.
W artykule przedstawiono aktualny stan usług geoinformatycznych w Polsce, dedykowanych dla obiektów zabytkowych. Omówiono zagadnienie pozyskiwania danych, a następnie ich opracowania. Kolejnym opisanym zagadnieniem jest dystrybucja i promocja samych portali, a także promocja obiektów, możliwa dzięki ciągłemu poszerzaniu oferty poprzez udostępnianie nowych informacji. Autor wskazuje również na możliwości wykorzystania usług przeznaczonych dla turystów przez osoby z branży turystycznej oraz naukowców. Jako przykłady opracowań najnowszych technologii przedstawiono: geoportal (Szlaku Naftowego) i usługi wirtualnego zwiedzania zabytków (Muzeum Podziemnego Miasta Osówka w Górach Sowich oraz klasztoru benedyktyńskiego w Jarosławiu), stworzone przez studentów koła naukowego KNGK Geoinformatyka oraz jego opiekunów.
Rektyfikacja obiektu budowlanego to jego obrót (rotacja) oraz przesunięcie (translacja) w żądanym kierunku tak, aby zajął on prawidłowe usytuowanie w przestrzeni. Sprawdzona w ponad 500 przypadkach metoda, polega na użyciu układu kilkudziesięciu podnośników ulokowanych we wnękach ścian fundamentowych budowli. Proces rektyfikacji jest sterowany komputerowo. W artykule przedstawiono proces rektyfikacji kościoła przy ul. Matki Ewy w Bytomiu Miechowicach. Jest to obiekt murowany z cegły, o układzie dwunawowym, częściowo podpiwniczony, który wzniesiono w stylu neogotyckim w roku 1896. Eksploatacje górnicze, które oddziaływały na obiekt, prowadzono od lat 30. XX wieku, ostatnie prace – prowadzone bezpośrednio pod nim – miały miejsce w latach 2008–2012. Skutkiem dokonanej eksploatacji były uszkodzenia budowli objawiające się licznymi pęknięciami ścian i sklepień oraz pochyleniem bryły rzędu 30 mm/m. Opisano metodę pomiaru pochylenia budowli i rejestracji pęknięć przed procesem rektyfikacji oraz po jego zakończeniu. Przeprowadzono pomiary budynku kościoła przed i po rektyfikacji, przy wykorzystaniu skanera laserowego 3D Trimble TX5. Uzyskiwane z pomiarów chmury punktów posłużyły do opracowania modelu 3D obiektu. Zrealizowane pomiary stanowią przykład wykorzystania nowego narzędzia, jakim jest skanowanie laserowe 3D do rejestrowania, przetwarzania i wizualizacji informacji 3D o obiekcie.
Artykuł przedstawia analizę dna zbiornika poeksploatacyjnego kruszywa naturalnego (eksploatacja spod lustra wody) do określenia najlepszego możliwego kierunku jego rekultywacji. Celem badań jest przeanalizowanie czy możliwa jest rekultywacja w kierunku wodno-rekreacyjnym oraz który wariant jest bardziej korzystny: wodno-rekreacyjny jako kąpielisko czy wodno-rekreacyjny jako łowisko rybne dla wędkarzy.
Odpowiedzi poszukano, analizując następujące trzy parametry:
nachylenie skarp podwodnych przybrzeżnych,
stopień zamulenia dna w strefi e brzegowej (struktura powierzchni dna),
stopień pokrycia roślinnością dna w strefi e brzegowej (wegetacja).
W celu przeanalizowania opisanych parametrów, wykonana została mapa batymetryczna zbiornika, mapa twardości struktury powierzchni dna oraz mapa pokrycia roślinnością. Do obliczenia nachylenia skarp przybrzeżnych wykonano pomiar batymetryczny, aby określić stopień zamulenia zbiornika, sporządzono pomiar twardości powierzchni dna, natomiast w celu analizy wegetacji, pomierzono ilość roślin znajdujących się na dnie akwenu. Zbiornik znajduje się na granicy Krakowa z Wieliczką w Kopalni Kruszywa „Brzegi”, która należy do Krakowskich Zakładów Eksploatacji Kruszywa S.A. (rys. 1). Pomiar wykonano skonstruowanym przez autora zdalnym zestawem batymetrycznym Smart SonarBoat, umożliwiającym jego sterowanie z linii brzegowej (rys. 3). Opisano sposób pozyskania informacji geoprzestrzennych dla dna i skarp podwodnych oraz możliwości ich analizy i interpretacji, z wykorzystaniem dostępnych technologii geoinformatycznych. Przeprowadzone badania oraz analizy wyników umożliwiły stwierdzenie, który kierunek rekultywacji jest bardziej korzystny.
Kopalnia Soli „Wieliczka” ma specyficzne cechy, związane zarówno z budową geologiczną złoża, geomechanicznymi właściwościami górotworu, sposobami eksploatacji, wpływem wyrobisk na powierzchnię i górotwór, jak również z rolą, jaką odgrywa w kulturze i turystyce. Oparcie zarządzania kopalnią o system informatyczny wymaga uwzględnienia w nim wspomnianej specyfiki, co eliminuje możliwość implementacji innych systemów do potrzeb Wieliczki. W artykule omówiono metodykę tworzenia części takiego systemu w postaci bazy danych o wyrobiskach górniczych, która stanowić może podstawę całego systemu. Bazę oparto na oprogramowaniu dostępnym w kopalni. Podano możliwości praktycznych zastosowań bazy do rozwiązywania zagadnień inżynieryjno-górniczych.
Artykuł prezentuje koncepcję metodyki inwentaryzacji małych zbiorników wodnych na terenach zurbanizowanych. W przepisach brak jednoznacznej definicji powyższych zbiorników. Najczęściej przyjmuje się, iż są to obiekty o powierzchni nieprzekraczającej 1 ha. Oprócz naturalnych zagrożeń, akweny na terenach miejskich, poddane są szczególnej presji antropogenicznej, która prowadzi do szybkiej degradacji lub nawet całkowitej likwidacji. Ponieważ obszary miejskie charakteryzują się niskim wskaźnikiem różnorodności biologicznej, stąd też dążenie do zachowania powierzchni wodnych ma zasadnicze znaczenie dla jej utrzymania oraz podniesienia walorów estetyczno-krajobrazowych. Dlatego obiekty te powinny zostać objęte ochroną, której pierwszym etapem jest przeprowadzenie inwentaryzacji. W propozycji inwentaryzacji uwzględniono szereg parametrów przyrodniczych i hydrologicznych a także potencjalne zagrożenia. Zaproponowana metodyka ujęta została w formie karty inwentaryzacyjnej obejmującej zarówno dokumentację fotograficzną i kartograficzną oraz dane opisowe charakteryzujące zbiornik i fragment jego zlewnii w bezpośrednim sąsiedztwie akwenu.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 7 - 18
W artykule przedstawiono analizę przydatności przetworzeń obrazów satelitarnych WorldView-2 uwypuklających informacje na temat występowania obiektów dziedzictwa kulturowego. Obrazy WorldView-2 charakteryzują się bardzo wysoką rozdzielczością przestrzenną i dużą rozdzielczością spektralną, dzięki czemu stwarzają nowe możliwości w wielu zastosowaniach, w tym także w badaniach zasobów dziedzictwa kulturowego. Obszarem testowym dla prezentowanych badań są okolice Iłży. Przedstawiane rezultaty prac są wynikiem zadań badawczych realizowanych w ramach projektu naukowego pt. „Zastosowanie skaningu laserowego oraz teledetekcji w ochronie, badaniu i inwentaryzacji dziedzictwa kulturowego. Opracowanie nieinwazyjnych, cyfrowych metod dokumentacji i rozpoznawania zasobów dziedzictwa architektonicznego i archeologicznego” w ramach programu Ministra Nauki i Szkolnictwa Wyższego pod nazwą „Narodowy Program Rozwoju Humanistyki” w latach 2012–2015.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 19 - 28
W pracy przedstawiono możliwość wykorzystania pakietów GIS w tworzeniu systemów informacji o budynkach. Na przykładzie budynku Wydziału Inżynierii Środowiska i Geodezji Uniwersytetu Rolniczego w Krakowie pokazano możliwości wykorzystania i integracji danych przestrzennych pochodzących z Zasobu Geodezyjnego i Kartografi cznego z danymi z inwentaryzacji architektoniczno-budowlanej, danymi branżowymi oraz uzupełnienie tych danych atrybutami i informacjami opisowymi. Praca prezentuje analizę możliwości wykorzystania tak budowanego systemu i dostępnych funkcjonalności dla użytkownika końcowego
Vaidehi Chhajer,
Sumati Prabhakar,
P. Rama Chandra Prasad
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 29 - 39
Okręg Jaisalmer w indyjskiej prowincji Radżasthan znany był z częstych susz, spowodowanych słabymi i pojawiającymi się zbyt późno opadami monsunowymi, wyjątkowo wysokimi temperaturami w lecie i niewystarczającą ilością zasobów wodnych. Jednakże ostatnio, w podatnym na suszę okręgu Jaisalmer w Radżasthanie, częstsze jest zagrożenie ze strony powodzi, spowodowanych ulewnymi deszczami. W niniejszej pracy przedstawiono szczegółową analizę danych meteorologicznych, hydrologicznych i satelitarnych z okręgu Jaisalmer, zgromadzonych w latach 2006−2008. Aby ilościowo opisać deficyt opadów, użyto następujących wskaźników: standaryzowany wskaźnik opadów (Standardized Precipitation Index – SPI), ciągły wskaźnik dni suchych (Consecutive Dry Days – CDD) oraz efektywny wskaźnik suszy (Effective Drought Index – EDI). Aby ocenić deficyt wód gruntowych, opracowano standaryzowany wskaźnik poziomu wód (Standardized Water-Level Index – SWI). Obliczono wskaźniki suszy wegetacyjnej takie jak: wskaźnik stanu wegetacji (Vegetation Condition Index – VCI), wskaźnik stanu temperatury (Temperature Condition Index – TCI), wskaźnik zdrowia wegetacji (Vegetation Health Index – VHI), znormalizowany różnicowy wskaźnik wegetacji (Normalized Difference Vegetation Index – NDVI) oraz zmodyfikowany wskaźnik wegetacji z uwzględnieniem poprawki na glebę – wskaźnik wegetacji 2 (Vegetation Index 2). Wprowadzono również dwa nowe wskaźniki: oparty na glebie wskaźnik stanu wegetacji (Soil based Vegetation Condition Index – SVCI) i złożony wskaźnik suszy (Composite Drought Index – CDI), uwzględniając specyfikę dla regionów takich jak Jaisalmer, gdzie suchość w glebie ma wpływ na wegetację i poziom wód.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 41 - 49
Głównym celem niniejszej publikacji była prezentacja dwuetapowego algorytmu modelowania zjawisk losowych, opartego na wielowymiarowym modelowaniu funkcyjnym, na przykładzie modelowania rynku nieruchomości na potrzeby szacowania wartości nieruchomości oraz estymacji parametrów modelu przemieszczeń pionowych fundamentów. Dobór odpowiedniej postaci modelu funkcyjnego to pierwszy etap prezentowanego algorytmu. W klasycznych algorytmach, bazujących na modelowaniu funkcyjnym, prognozą zmiennej zależnej jest jej wartość uzyskana wprost z modelu. Im model lepiej odzwierciedla relacje między zmiennymi niezależnymi i ich wpływ na zmienną zależną, tym wartość modelowa jest bardziej wiarygodna. W niniejszej pracy zaproponowano algorytm postępowania polegający na skorygowaniu wartości uzyskanej z modelu, poprawką losową, wyznaczoną z odchyłek modelu dla tych przypadków, które w osobnej analizie uznano za najbardziej zbliżone do obiektu, dla którego chcemy zamodelować zmienną zależną. Wpływ zastosowania opracowanych procedur ilościowych obliczania poprawki oraz metod jakościowych oceny podobieństwa na ostateczny wynik prognozy oraz jej dokładność, został zbadany metodami statystycznymi, głównie za pomocą stosownych parametrycznych testów istotności. Idea zaprezentowanego algorytmu została tak opracowana, by zbliżyć wartość zmiennej zależnej badanego zjawiska do jej wartości występującej w rzeczywistości, a jednocześnie uzyskać pewne jej „wygładzenie” poprzez dobrze dopasowaną funkcję modelującą.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 51 - 58
Proces planowania przestrzennego i przestrzeganie zawartych w Miejscowym Planie Zagospodarowania Przestrzennego (MPZP) warunków jest ważny ze względu na aktualnie dynamiczny rozwój gmin wiejskich i miejskich. Weryfikacja dokumentacji projektowej pod względem zachowania stałych i obowiązujących w całym kraju norm, aktów prawnych i przepisów prawa miejscowego jest oparta na pewnych standardach. W celu usprawnienia procesu weryfikacji dokonywanej przez odpowiednie organy administracji publicznej konieczne jest zbudowanie algorytmów formalnych, które zautomatyzują dotychczasowy sposób kontroli dokumentacji architektoniczno-budowlanej. Przedmiotem niniejszej pracy jest algorytmizacja procesu weryfikacji dokumentacji projektowej dla usprawnienia i w dalszej kolejności automatyzacji tego procesu.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 57 - 74
W pracy przedstawiono losy najstarszego z istniejących krakowskich kopców, kopca Krakusa. Pracę wykonano na przykładzie wybranych dokumentów ikonografi cznych, kartograficznych i geodezyjnych. Na przykładzie dawnych widoków, panoram miasta i map pokazano różne funkcje, jakie kopiec Krakusa pełnił w swojej wieloletniej historii. Podjęto próbę udokumentowania militarnego znaczenia tego kopca i okalającego go wzgórza. Szeroko omówiono szczególne znaczenie astro-geodezyjne kopca Krakusa, w skali miasta i regionu południowej Polski. Kopiec wpisał się także w historię stosowania techniki GPS na obszarze Krakowa i w badania dotyczące lokalnych wyznaczeń kształtu geoidy.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 75 - 83
W artykule przedstawiono wyniki opracowań pomiarów satelitarnych wykorzystujących sygnały GPS i GLONASS. Celem pracy było określenie wpływu dołączenia sygnałów GLONASS na dokładność wyznaczenia pozycji, szczególnie na terenach o dużych przysłonięciach horyzontu. Przedmiotem badań była analiza wartości współczynników DOP, rozwiązań kodowych i RTK oraz wykorzystania technik satelitarnych w pomiarach niwelacyjnych. Przeprowadzone badania i analizy wykazały, iż zintegrowane pomiary satelitarne GPS-GLONASS dają możliwość uzyskania rozwiązań lepszej jakości w stosunku do pomiarów z wykorzystaniem sygnałów pojedynczego systemu nawigacji satelitarnej (GPS).
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 85 - 94
W artykule przedstawiono metodę porównania metod szkieletyzacji obiektów powierzchniowych. Szkielet obiektu powierzchniowego jako jego liniowa reprezentacja wykorzystywany jest m.in. w wizualizacji kartograficznej. Metoda pozwala na porównanie dowolnych metod szkieletyzacji pod względem odchyłek różnic odległości szkieletu obiektu od jego granicy oraz zniekształceń szkieletyzacji. W pracy porównano 5 metod: diagramy Voronoia, zagęszczone diagramy Voronoia, ograniczoną triangulację Delaunaya, Straight Skeleton i Medial Axis (Transform). Wyniki porównania zaprezentowano na przykładzie kilku obiektów powierzchniowych. Porównanie metod wykazało, że we wszystkich analizowanych obiektach najmniejsze wartości zniekształceń i odchyłek posiada szkielet wyznaczony metodą Medial Axis (Transform), co pozwoliło zalecić ją do stosowania.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 95 - 107
Istnieje szereg geodezyjnych metod pomiaru wychylenia komina przy wykorzystaniu klasycznych instrumentów kątomierczych (Theo 010A/B, T2 Wild), teodolitów elektronicznych (TC2002 Wild-Leica), tachimetrów elektronicznych, w tym bezzwierciadlanych, które pozwalają zdefi niować w sposób pośredni przebieg osi budowli na wybranych poziomach obserwacyjnych. Należą do nich metody: wcięć, bezpośredniego rzutowania, dwusiecznych kierunków stycznych, biegunowa z opcją pomiaru bezzwierciadlanego. W chwili obecnej bardzo praktyczną i szybką technologią pomiarową, eliminującą w sposób znaczący wpływ błędów ludzkich na wyniki obserwacji jest skanowanie laserowe. W artykule przedstawiono wyniki skanowania 120 metrowego żelbetowego komina przemysłowego Cementowni „Ożarów” przy wykorzystaniu nowoczesnego tachimetru skanującego VX Spatial Station firmy Trimble, jako przykład alternatywy dla metod dotychczas stosowanych. Zaletą skanowania jest uzyskiwanie chmury punktów, która poza informacjami o przebiegu osi komina w przestrzeni, dostarcza także szczegółowych informacji o rzeczywistym kształcie i deformacji płaszcza trzonu budowli.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 7 - 18
W artykule przedstawiono analizę przydatności przetworzeń obrazów satelitarnych WorldView-2 uwypuklających informacje na temat występowania obiektów dziedzictwa kulturowego. Obrazy WorldView-2 charakteryzują się bardzo wysoką rozdzielczością przestrzenną i dużą rozdzielczością spektralną, dzięki czemu stwarzają nowe możliwości w wielu zastosowaniach, w tym także w badaniach zasobów dziedzictwa kulturowego. Obszarem testowym dla prezentowanych badań są okolice Iłży. Przedstawiane rezultaty prac są wynikiem zadań badawczych realizowanych w ramach projektu naukowego pt. „Zastosowanie skaningu laserowego oraz teledetekcji w ochronie, badaniu i inwentaryzacji dziedzictwa kulturowego. Opracowanie nieinwazyjnych, cyfrowych metod dokumentacji i rozpoznawania zasobów dziedzictwa architektonicznego i archeologicznego” w ramach programu Ministra Nauki i Szkolnictwa Wyższego pod nazwą „Narodowy Program Rozwoju Humanistyki” w latach 2012–2015.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 19 - 28
W pracy przedstawiono możliwość wykorzystania pakietów GIS w tworzeniu systemów informacji o budynkach. Na przykładzie budynku Wydziału Inżynierii Środowiska i Geodezji Uniwersytetu Rolniczego w Krakowie pokazano możliwości wykorzystania i integracji danych przestrzennych pochodzących z Zasobu Geodezyjnego i Kartografi cznego z danymi z inwentaryzacji architektoniczno-budowlanej, danymi branżowymi oraz uzupełnienie tych danych atrybutami i informacjami opisowymi. Praca prezentuje analizę możliwości wykorzystania tak budowanego systemu i dostępnych funkcjonalności dla użytkownika końcowego
Vaidehi Chhajer,
Sumati Prabhakar,
P. Rama Chandra Prasad
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 29 - 39
Okręg Jaisalmer w indyjskiej prowincji Radżasthan znany był z częstych susz, spowodowanych słabymi i pojawiającymi się zbyt późno opadami monsunowymi, wyjątkowo wysokimi temperaturami w lecie i niewystarczającą ilością zasobów wodnych. Jednakże ostatnio, w podatnym na suszę okręgu Jaisalmer w Radżasthanie, częstsze jest zagrożenie ze strony powodzi, spowodowanych ulewnymi deszczami. W niniejszej pracy przedstawiono szczegółową analizę danych meteorologicznych, hydrologicznych i satelitarnych z okręgu Jaisalmer, zgromadzonych w latach 2006−2008. Aby ilościowo opisać deficyt opadów, użyto następujących wskaźników: standaryzowany wskaźnik opadów (Standardized Precipitation Index – SPI), ciągły wskaźnik dni suchych (Consecutive Dry Days – CDD) oraz efektywny wskaźnik suszy (Effective Drought Index – EDI). Aby ocenić deficyt wód gruntowych, opracowano standaryzowany wskaźnik poziomu wód (Standardized Water-Level Index – SWI). Obliczono wskaźniki suszy wegetacyjnej takie jak: wskaźnik stanu wegetacji (Vegetation Condition Index – VCI), wskaźnik stanu temperatury (Temperature Condition Index – TCI), wskaźnik zdrowia wegetacji (Vegetation Health Index – VHI), znormalizowany różnicowy wskaźnik wegetacji (Normalized Difference Vegetation Index – NDVI) oraz zmodyfikowany wskaźnik wegetacji z uwzględnieniem poprawki na glebę – wskaźnik wegetacji 2 (Vegetation Index 2). Wprowadzono również dwa nowe wskaźniki: oparty na glebie wskaźnik stanu wegetacji (Soil based Vegetation Condition Index – SVCI) i złożony wskaźnik suszy (Composite Drought Index – CDI), uwzględniając specyfikę dla regionów takich jak Jaisalmer, gdzie suchość w glebie ma wpływ na wegetację i poziom wód.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 41 - 49
Głównym celem niniejszej publikacji była prezentacja dwuetapowego algorytmu modelowania zjawisk losowych, opartego na wielowymiarowym modelowaniu funkcyjnym, na przykładzie modelowania rynku nieruchomości na potrzeby szacowania wartości nieruchomości oraz estymacji parametrów modelu przemieszczeń pionowych fundamentów. Dobór odpowiedniej postaci modelu funkcyjnego to pierwszy etap prezentowanego algorytmu. W klasycznych algorytmach, bazujących na modelowaniu funkcyjnym, prognozą zmiennej zależnej jest jej wartość uzyskana wprost z modelu. Im model lepiej odzwierciedla relacje między zmiennymi niezależnymi i ich wpływ na zmienną zależną, tym wartość modelowa jest bardziej wiarygodna. W niniejszej pracy zaproponowano algorytm postępowania polegający na skorygowaniu wartości uzyskanej z modelu, poprawką losową, wyznaczoną z odchyłek modelu dla tych przypadków, które w osobnej analizie uznano za najbardziej zbliżone do obiektu, dla którego chcemy zamodelować zmienną zależną. Wpływ zastosowania opracowanych procedur ilościowych obliczania poprawki oraz metod jakościowych oceny podobieństwa na ostateczny wynik prognozy oraz jej dokładność, został zbadany metodami statystycznymi, głównie za pomocą stosownych parametrycznych testów istotności. Idea zaprezentowanego algorytmu została tak opracowana, by zbliżyć wartość zmiennej zależnej badanego zjawiska do jej wartości występującej w rzeczywistości, a jednocześnie uzyskać pewne jej „wygładzenie” poprzez dobrze dopasowaną funkcję modelującą.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 51 - 58
Proces planowania przestrzennego i przestrzeganie zawartych w Miejscowym Planie Zagospodarowania Przestrzennego (MPZP) warunków jest ważny ze względu na aktualnie dynamiczny rozwój gmin wiejskich i miejskich. Weryfikacja dokumentacji projektowej pod względem zachowania stałych i obowiązujących w całym kraju norm, aktów prawnych i przepisów prawa miejscowego jest oparta na pewnych standardach. W celu usprawnienia procesu weryfikacji dokonywanej przez odpowiednie organy administracji publicznej konieczne jest zbudowanie algorytmów formalnych, które zautomatyzują dotychczasowy sposób kontroli dokumentacji architektoniczno-budowlanej. Przedmiotem niniejszej pracy jest algorytmizacja procesu weryfikacji dokumentacji projektowej dla usprawnienia i w dalszej kolejności automatyzacji tego procesu.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 57 - 74
W pracy przedstawiono losy najstarszego z istniejących krakowskich kopców, kopca Krakusa. Pracę wykonano na przykładzie wybranych dokumentów ikonografi cznych, kartograficznych i geodezyjnych. Na przykładzie dawnych widoków, panoram miasta i map pokazano różne funkcje, jakie kopiec Krakusa pełnił w swojej wieloletniej historii. Podjęto próbę udokumentowania militarnego znaczenia tego kopca i okalającego go wzgórza. Szeroko omówiono szczególne znaczenie astro-geodezyjne kopca Krakusa, w skali miasta i regionu południowej Polski. Kopiec wpisał się także w historię stosowania techniki GPS na obszarze Krakowa i w badania dotyczące lokalnych wyznaczeń kształtu geoidy.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 75 - 83
W artykule przedstawiono wyniki opracowań pomiarów satelitarnych wykorzystujących sygnały GPS i GLONASS. Celem pracy było określenie wpływu dołączenia sygnałów GLONASS na dokładność wyznaczenia pozycji, szczególnie na terenach o dużych przysłonięciach horyzontu. Przedmiotem badań była analiza wartości współczynników DOP, rozwiązań kodowych i RTK oraz wykorzystania technik satelitarnych w pomiarach niwelacyjnych. Przeprowadzone badania i analizy wykazały, iż zintegrowane pomiary satelitarne GPS-GLONASS dają możliwość uzyskania rozwiązań lepszej jakości w stosunku do pomiarów z wykorzystaniem sygnałów pojedynczego systemu nawigacji satelitarnej (GPS).
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 85 - 94
W artykule przedstawiono metodę porównania metod szkieletyzacji obiektów powierzchniowych. Szkielet obiektu powierzchniowego jako jego liniowa reprezentacja wykorzystywany jest m.in. w wizualizacji kartograficznej. Metoda pozwala na porównanie dowolnych metod szkieletyzacji pod względem odchyłek różnic odległości szkieletu obiektu od jego granicy oraz zniekształceń szkieletyzacji. W pracy porównano 5 metod: diagramy Voronoia, zagęszczone diagramy Voronoia, ograniczoną triangulację Delaunaya, Straight Skeleton i Medial Axis (Transform). Wyniki porównania zaprezentowano na przykładzie kilku obiektów powierzchniowych. Porównanie metod wykazało, że we wszystkich analizowanych obiektach najmniejsze wartości zniekształceń i odchyłek posiada szkielet wyznaczony metodą Medial Axis (Transform), co pozwoliło zalecić ją do stosowania.
Geoinformatica Polonica,
Vol. 14 (2015),
2015, s. 95 - 107
Istnieje szereg geodezyjnych metod pomiaru wychylenia komina przy wykorzystaniu klasycznych instrumentów kątomierczych (Theo 010A/B, T2 Wild), teodolitów elektronicznych (TC2002 Wild-Leica), tachimetrów elektronicznych, w tym bezzwierciadlanych, które pozwalają zdefi niować w sposób pośredni przebieg osi budowli na wybranych poziomach obserwacyjnych. Należą do nich metody: wcięć, bezpośredniego rzutowania, dwusiecznych kierunków stycznych, biegunowa z opcją pomiaru bezzwierciadlanego. W chwili obecnej bardzo praktyczną i szybką technologią pomiarową, eliminującą w sposób znaczący wpływ błędów ludzkich na wyniki obserwacji jest skanowanie laserowe. W artykule przedstawiono wyniki skanowania 120 metrowego żelbetowego komina przemysłowego Cementowni „Ożarów” przy wykorzystaniu nowoczesnego tachimetru skanującego VX Spatial Station firmy Trimble, jako przykład alternatywy dla metod dotychczas stosowanych. Zaletą skanowania jest uzyskiwanie chmury punktów, która poza informacjami o przebiegu osi komina w przestrzeni, dostarcza także szczegółowych informacji o rzeczywistym kształcie i deformacji płaszcza trzonu budowli.