Modele pogodowe a smog: jak numerycznie prognozuje się zanieczyszczenie powietrza

0
9
Rate this post

Z tej publikacji dowiesz się:

Dlaczego do prognoz smogu potrzebne są modele pogodowe

Zależność między warunkami meteorologicznymi a stężeniami zanieczyszczeń

Numeryczne prognozy smogu nie powstają w oderwaniu od atmosfery. Smog nie „pojawia się” znikąd – jest efektem emisji, ale też tego, co dalej zrobi z nimi pogoda. Dwie miejscowości o podobnej liczbie mieszkańców i podobnej liczbie „kopciuchów” mogą mieć zupełnie inny poziom zanieczyszczeń tylko dlatego, że różni je wiatr, ukształtowanie terenu czy zachmurzenie.

Podstawowe elementy meteorologiczne, które sterują stężeniami, to co do zasady:

  • wiatr – decyduje, czy zanieczyszczenia są wywiewane, czy stoją nad miastem;
  • temperatura – wpływa na intensywność ogrzewania (emisje) i na pionowe mieszanie powietrza;
  • wilgotność i zachmurzenie – sterują promieniowaniem słonecznym, powstawaniem mgieł i chmur, a więc i stabilnością atmosfery;
  • opady – „wypłukują” część zanieczyszczeń (szczególnie pył);
  • ciśnienie – pośrednio, poprzez związany z wyżami i niżami charakter pogody.

Prognoza jakości powietrza musi mieć więc w tle pełną prognozę pogody. Modele jakości powietrza biorą z nich pola wiatru w trzech wymiarach, temperaturę, wilgotność, chmury, parametry turbulencji i grubość warstwy mieszania. Na tej podstawie liczą, jak cząsteczki pyłu PM2.5, PM10 czy gazowe NO2, SO2, O3 będą się rozchodziły i akumulowały.

Stabilność atmosfery i inwersja temperatury jako „nakrywa” na smog

Kluczowym, ale często pomijanym parametrem jest stabilność atmosfery. Mówiąc nieformalnie: czy powietrze chętnie się miesza w pionie, czy raczej „stoi warstwami”. Kiedy atmosfera jest niestabilna (mocne nagrzanie podłoża, rozwinięta konwekcja), zanieczyszczenia unoszą się i mieszają w grubą warstwę powietrza – stężenia przy gruncie spadają.

Gdy jest stabilnie – szczególnie nocą i przy pogodnej, mroźnej pogodzie zimą – tworzy się inwersja temperatury. Oznacza to, że w pewnej wysokości powietrze jest cieplejsze niż tuż przy ziemi. Taka warstwa działa jak pokrywka od garnka: ogranicza unoszenie się zanieczyszczeń, które zaczynają kumulować się w cienkiej przyziemnej warstwie. Numeryczne modele pogodowe muszą tę inwersję poprawnie wyliczyć (wraz z jej wysokością), bo od niej zależy, czy smog „przygniecie” miasto, czy zostanie rozcieńczony wyżej.

W prognozach smogu ogromne znaczenie ma także grubość warstwy mieszania (PBL – Planetary Boundary Layer). Gdy PBL ma kilkaset metrów lub kilka kilometrów, zanieczyszczenia rozpraszają się w dużej objętości powietrza. Gdy ma kilkadziesiąt metrów, ta sama ilość emisji skutkuje wielokrotnie większym stężeniem przy powierzchni.

Dlaczego same emisje nie wystarczą bez pola wiatru i pionowego mieszania

Inwentaryzacja emisji mówi, skąd i ile zanieczyszczeń jest „wpuszczane” do atmosfery. Jednak bez informacji o tym, co zrobi z nimi atmosfera, taka wiedza ma ograniczony sens. To trochę jak znajomość mocy pieca bez znajomości wielkości i wentylacji pomieszczenia.

Numeryczne prognozy smogu łączą więc dane o emisjach z:

  • polem wiatru 3D – kierunek, prędkość, zmienność w pionie i poziomie;
  • parametryzacją turbulencji – opis drobnych ruchów powietrza, których model nie rozwiązuje bezpośrednio;
  • warstwą graniczną – jej wysokością i dynamiką w czasie;
  • informacją o opadach – intensywności i typie (deszcz, śnieg), które wpływają na depozycję.

Modele, które „widzą” tylko emisje, nie odtworzą właściwego rozmieszczenia zanieczyszczeń w przestrzeni i czasie. Stężenia są efektem konkurencji między dostarczaniem zanieczyszczeń (emisją) i ich rozcieńczaniem / usuwaniem przez atmosferę.

Przykład: bezwietrzny mróz kontra wietrzna odwilż

Prosty przykład pokazuje, dlaczego modele pogodowe są konieczne. Załóżmy, że w pewnym mieście:

  • emisje z pieców domowych, transportu i przemysłu są w przybliżeniu stałe przez tydzień,
  • nie zmienia się liczba mieszkańców ani struktura zabudowy.

Pierwsze trzy dni to bezwietrzny mróz z wyżem barycznym, silną inwersją i brakiem opadów. Modele dyspersji, „podpięte” pod pogodę, pokażą:

  • wąską, niską warstwę mieszania,
  • prawie zerowy wiatr przy powierzchni,
  • gwałtowną kumulację pyłów PM2.5 i PM10 w godzinach wieczornych i nocnych,
  • lokalne „kieszenie smogu” w obniżeniach terenu i miedzy gęstą zabudową.

Kolejne dni przynoszą wietrzną odwilż z chmurami i okresowymi opadami deszczu. Emisje są podobne, ale prognoza jakości powietrza jest zupełnie inna:

  • większa grubość warstwy mieszania,
  • silniejszy wiatr, który „rozciąga” i wywiewa zanieczyszczenia,
  • opad, który ogranicza poziom pyłu dzięki depozycji mokrej.

Na wykresie stężeń model pokaże wyraźne epizody smogowe w pierwszej sytuacji i dużo niższe wartości w drugiej – mimo takich samych emisji. To ilustracja praktyczna, dlaczego numeryczne modele pogodowe są fundamentem każdej sensownej prognozy smogu.

Z czego „składa się” prognoza zanieczyszczenia powietrza

Trzy filary: emisje, meteorologia, chemia i fizyka zanieczyszczeń

Numeryczne prognozy smogu zwykle opierają się na trzech głównych filarach:

  • emisje – ile i jakich zanieczyszczeń trafia do powietrza z różnych sektorów;
  • meteorologia – co z tymi zanieczyszczeniami dalej robi atmosfera;
  • chemia i fizyka – jak zanieczyszczenia zmieniają się w czasie (tworzą nowe związki, osiadają, łączą się).

Modele jakości powietrza muszą reprezentować wszystkie te elementy choćby w uproszczonej formie. Jeśli któryś jest zbyt prymitywny, prognoza może „przechodzić” test ogólnego trendu, ale zawodzić w szczegółach – np. nie doszacowywać poziomu NO2 przy ruchliwej arterii albo przeceniać czyszczącą rolę opadów.

Źródła danych o emisjach: inwentaryzacje, profile dobowe i sezonowe

Podstawą jest tzw. inwentaryzacja emisji, czyli szacunek, ile zanieczyszczeń w danym roku trafiło do atmosfery z różnych źródeł. Opracowują je instytucje krajowe (np. KOBiZE w Polsce), agencje europejskie (EEA) i lokalne władze. Inwentaryzacje obejmują zwykle:

  • emisje punktowe – duże kominy, elektrownie, zakłady przemysłowe;
  • emisje liniowe – główne drogi, autostrady, linie kolejowe;
  • emisje powierzchniowe – rozproszone ogrzewanie domów, drobny przemysł, rolnictwo.

Dla modeli dyspersji takie roczne sumy trzeba rozbić na bardziej szczegółowe profile. Stosuje się:

  • profile sezonowe – np. zimą większa emisja z sektora komunalno-bytowego;
  • profile dobowe – szczyt poranny i popołudniowy w transporcie, wieczorny wzrost węgla i drewna w piecach;
  • profile tygodniowe – niższe emisje przemysłowe i transportowe w weekendy.

Te profile są zwykle oparte na badaniach statystycznych, czasem są kalibrowane na bazie pomiarów godzinowych. Modele prognoz jakości powietrza przeliczają roczne emisje na emisje godzinowe w poszczególnych komórkach siatki.

Dane meteorologiczne jako „serce” prognozy jakości powietrza

Drugi filar to dane meteorologiczne z klasycznych modeli pogody. Modele jakości powietrza nie liczą atmosfery od zera – korzystają z wyników takich modeli jak WRF, COSMO, AROME, ICON czy IFS. Pola wiatru, temperatury, ciśnienia, wilgotności i turbulencji z modeli pogodowych są przekazywane do modeli dyspersji.

W praktyce wygląda to tak, że:

  • model pogodowy generuje prognozę dla siatki np. 2 km × 2 km z 50 warstwami w pionie,
  • co 1 godzinę (lub częściej) „podaje” stan atmosfery modelowi jakości powietrza,
  • model jakości powietrza w każdej komórce siatki i na każdej wysokości liczy transport, mieszanie i chemię zanieczyszczeń.

Jeśli prognoza pogody jest błędna (np. za słaby wiatr, zbyt mała grubość warstwy mieszania), nawet bardzo dobry model dyspersji wygeneruje deformację poziomów smogu. Dlatego tak istotna jest wspólna kalibracja całego łańcucha: od meteorologii po chemię.

Transport, dyspersja, depozycja, przemiany chemiczne – podstawowe pojęcia

Prognoza jakości powietrza musi opisać kilka kluczowych procesów:

  • transport (adwekcja) – przenoszenie zanieczyszczeń przez wiatr z jednego miejsca do drugiego;
  • dyspersja – rozpraszanie i rozcieńczanie zanieczyszczeń w trzech wymiarach;
  • depozycja – usuwanie zanieczyszczeń z powietrza (osadzanie na powierzchniach, wypłukiwanie przez deszcz);
  • przemiany chemiczne – np. przekształcanie NO na NO2, formowanie ozonu, tworzenie wtórnych aerozoli (PM2.5).

Każdy z tych procesów opisuje się równaniami różniczkowymi (w czasie i przestrzeni), które modele rozwiązują numerycznie. To, jak szczegółowo zostaną policzone, zależy od przeznaczenia modelu: inne uproszczenia stosuje się w modelu globalnym, a inne w miejskim modelu ulicznym.

Kominy przemysłowe emitujące dym o zachodzie słońca
Źródło: Pexels | Autor: Andy Chi

Podstawy modeli pogodowych używanych do prognoz smogu

Modele numeryczne: równania, siatka, krok czasowy

Modele pogodowe to w gruncie rzeczy numeryczne rozwiązanie równań fizyki atmosfery. Opisują:

  • ruch powietrza (równania Naviera–Stokesa w atmosferze),
  • bilans energii (temperatura, promieniowanie słoneczne i długofalowe),
  • bilans wilgoci (chmury, opady, para wodna),
  • turbulencję i warstwę graniczną.

Ponieważ nie da się rozwiązać równań w każdym punkcie przestrzeni, wprowadza się siatkę obliczeniową. Atmosfera jest dzielona na trójwymiarowe komórki (węzły) o określonej rozdzielczości poziomej (np. 1–7 km) i pionowej (kilkadziesiąt poziomów). Dla każdej komórki i każdego kroku czasowego (np. kilka–kilkanaście sekund w modelu) model liczy jak zmieniają się wielkości meteorologiczne.

Dla prognoz smogu istotne jest, że modele pogodowe:

  • opisują rozwój warstwy granicznej i struktury wiatru w pierwszych kilometrach nad ziemią,
  • zawierają schematy turbulencji – uproszczone opisy drobnych wirów mieszających powietrze,
  • odtwarzają inwersje, mgły i zachmurzenie, które warunkują kumulację zanieczyszczeń.

Modele mezoskalowe jako dostawcy pola meteorologicznego

Do prognoz jakości powietrza najczęściej wykorzystuje się modele mezoskalowe, pracujące w skali kilku–kilkudziesięciu kilometrów. Przykładowe systemy to:

  • WRF (Weather Research and Forecasting) – bardzo popularny, otwartoźródłowy model używany w wielu projektach naukowych i operacyjnych;
  • COSMO – używany m.in. w Europie Środkowej, następcą jest ICON;
  • AROME, ALADIN – francuskie/środkowoeuropejskie modele wysokiej rozdzielczości;
  • Modele zagnieżdżone i lokalne „dostrzykiwanie” szczegółów

    Jednym z kluczowych rozwiązań jest tzw. zagnieżdżanie domen. Chodzi o to, że:

  • duży model pogodowy pracuje na siatce kilkunastu–kilkudziesięciu kilometrów i obejmuje znaczną część kontynentu,
  • w jego wnętrzu definiuje się mniejszy obszar (np. państwo lub region) z rozdzielczością 2–7 km,
  • czasem dodaje się jeszcze gęstszą siatkę nad jednym miastem (1 km lub mniej).

Dane z zewnętrznej, „grubszej” siatki stanowią warunki brzegowe dla wewnętrznych domen. Dzięki temu:

  • zachowuje się wpływ dużej skali (niże, wyże, fronty),
  • a jednocześnie uzyskuje się lokalny szczegół – doliny, zbocza, bryłę miasta,
  • model jakości powietrza ma spójne tło meteorologiczne na wszystkich poziomach zagęszczenia.

Dalsze zwiększanie rozdzielczości nie zawsze poprawia wynik. Przy siatce poniżej 1 km pojawia się problem z parametryzacjami turbulencji i chmur, bo model „widzi” już pojedyncze wzgórza czy części miasta, ale nie wszystkie procesy są w stanie być opisane explicite. Dlatego konfiguracja domen jest dobierana ostrożnie, często po serii testów porównawczych z pomiarami.

Znaczenie warstwy granicznej i inwersji dla prognoz smogu

Dla jakości powietrza kluczowe są pierwsze kilometry nad powierzchnią, a w praktyce jeszcze mniej: pierwsze kilkaset metrów. Tę część atmosfery opisuje się jako planetarną warstwę graniczną (PBL). Modele pogodowe stosują różne schematy PBL, które:

  • szacują wysokość warstwy mieszania,
  • opisują intensywność turbulencji w pionie,
  • uwzględniają wpływ podłoża (miasto, las, woda, śnieg) na wymianę ciepła i pędu.

Niedoszacowanie wysokości warstwy mieszania o kilkadziesiąt procent potrafi zmienić prognozę stężenia PM10 o czynnik rzędu dwóch. Jeżeli model zbyt łatwo „przebija” inwersje, otrzymuje się pozornie korzystne prognozy – zanieczyszczenia są zbyt dobrze wymieszane w pionie. Z drugiej strony, model, który utrzymuje inwersję zbyt długo, może generować dramatyczne, a w praktyce nieobserwowane epizody.

W miastach dochodzi jeszcze tzw. miejska wyspa ciepła. Zabudowa, asfalt i mała ilość zieleni zmieniają bilans energetyczny podłoża. W nocy centrum miasta jest cieplejsze niż otoczenie, co może częściowo osłabiać inwersję. Modele pogodowe uwzględniają to poprzez specjalne schematy miejskie, które odróżniają powierzchnię zabudowaną od pól czy lasów.

Specjalistyczne modele dyspersji: jak „podpina się” je pod pogodę

Modele Eulera vs. modele cząsteczkowe (Lagrange’a)

Modele jakości powietrza można podzielić na dwie główne klasy, zależnie od sposobu opisu transportu.

Modele Eulera (np. CMAQ, CAMx, CHIMERE, LOTOS-EUROS):

  • dzielą przestrzeń na stałą siatkę komórek,
  • w każdej komórce liczą stężenie zanieczyszczeń,
  • transport opisują w kategoriach przepływów między sąsiadującymi komórkami.

Są one dobrze dostosowane do symulowania rozległych pól zanieczyszczeń i skomplikowanej chemii. Sprawdzają się w skali regionalnej i krajowej, a także w miejskich prognozach „tła”.

Modele Lagrange’a (np. FLEXPART, HYSPLIT, CALPUFF) śledzą ruch „cząstek” lub pakietów powietrza:

  • każda cząstka reprezentuje porcję masy zanieczyszczeń,
  • model oblicza jej tor na podstawie wiatru i turbulencji,
  • ze zbioru cząstek odtwarza się pole stężeń.

Taka technika jest szczególnie użyteczna przy:

  • analizie śledzenia źródeł (source apportionment),
  • emisjach epizodycznych – awarie przemysłowe, pożary, wybuchy wulkanów,
  • długodystansowym transporcie zanieczyszczeń.

W praktyce systemy prognoz smogu często łączą oba podejścia: model Eulera zapewnia tło chemiczne i dynamiczne, a model Lagrange’a – dokładne śledzenie wybranych źródeł lub substancji.

Sposoby sprzęgania: off-line, on-line i one-way vs. two-way

Relacja między modelem pogodowym a modelem dyspersji może być zorganizowana na kilka sposobów.

W sprzęganiu off-line:

  • model pogody wykonuje prognozę jako pierwszy,
  • wyniki zapisuje się do plików w regularnych odstępach czasu (np. co godzinę),
  • model jakości powietrza wczytuje te pliki jako dane wejściowe.

Taka architektura jest prostsza w utrzymaniu i pozwala niezależnie rozwijać oba modele, lecz ma wadę: brak sprzężenia zwrotnego. Skład chemiczny powietrza nie wpływa bezpośrednio na pola meteorologiczne (np. na promieniowanie czy temperaturę).

W sprzęganiu on-line (np. WRF-Chem, COSMO-ART):

  • chemia i dyspersja są rozwiązywane w tym samym kodzie,
  • ta sama siatka i ten sam krok czasowy służą do meteorologii i zanieczyszczeń,
  • aerozole i gazy mogą wpływać na promieniowanie, a tym samym na temperaturę i chmury.

Pozwala to badać złożone sprzężenia (np. wpływ smogu na powstawanie mgły lub chmur konwekcyjnych), ale koszty obliczeniowe i złożoność konfiguracji są znacznie wyższe. W zastosowaniach czysto operacyjnych częściej wybiera się układy off-line.

Niezależnie od wersji on/off-line, rozróżnia się jeszcze:

  • sprzęganie jednostronne (one-way) – meteorologia steruje jakością powietrza, ale nie odwrotnie;
  • sprzęganie dwustronne (two-way) – zanieczyszczenia (np. aerozole) modyfikują parametry meteorologiczne.

Two-way coupling jest szczególnie istotne w regionach z silnym zanieczyszczeniem aerozolowym, gdzie cząstki istotnie zmieniają budżet promieniowania i rozwój warstwy granicznej. W miejskich prognozach dobowych stosuje się je rzadziej, raczej w badaniach i symulacjach epizodów.

Zastosowania miejskie: modele uliczne i efekt kanionu

Modele mezoskalowe, nawet o rozdzielczości 1 km, nie są w stanie rozróżnić pojedynczych ulic ani budynków. Z punktu widzenia komórki siatki całe śródmieście jest uśrednioną powierzchnią miejską. Tymczasem mieszkańców interesuje często, co dzieje się przy konkretnej ulicy.

Do tego służą modele tzw. mikroskali (street canyon models), takie jak OSPM, SIRANE, ADMS-Urban czy różne modele CFD. Wykorzystują one:

  • lokalne dane o geometrii ulic i wysokości budynków,
  • emisje liniowe z ruchu drogowego wzdłuż konkretnej trasy,
  • wiatr i warunki warstwy granicznej z modelu mezoskalowego jako warunki brzegowe.

Efekt „kanionu ulicznego” polega na tym, że budynki ograniczają przepływ powietrza, tworząc wiry i strefy recyrkulacji. Zanieczyszczenia z rur wydechowych mogą kumulować się po zawietrznej stronie ulicy, podczas gdy po drugiej stronie stężenia są zauważalnie niższe. Modele uliczne próbują ten efekt opisać w sposób uproszczony, ale zgodny z obserwacjami.

Typowy łańcuch obliczeniowy wygląda wówczas tak:

  1. model mezoskalowy liczy wiatr, turbulencję, warstwę graniczną (np. w skali 2 km),
  2. model regionalny jakości powietrza oblicza tło stężeń (np. PM2.5, NOx),
  3. model uliczny „dokłada” efekt lokalnych emisji i geometrii ulic,
  4. końcowa prognoza dla punktów przyulicznych powstaje jako suma tła i nadwyżki ulicznej.
Komin przemysłowy emitujący gęsty dym na tle błękitnego nieba
Źródło: Pexels | Autor: MAN ON EARTH

Emisje: skąd model „wie”, ile dymu i spalin trafi do powietrza

Emisje wysokie, niskie i rozproszone – różne zachowanie w atmosferze

Z punktu widzenia dyspersji istotna jest nie tylko ilość zanieczyszczeń, ale także wysokość i charakter emisji.

  • Emisje wysokie – z wysokich kominów elektrowni i dużych zakładów. Dym jest zwykle gorący i rozpędzony, unoszony ponad dachy budynków (tzw. „plume rise”). Taki strumień może ominąć bezpośrednio najbliższą okolicę, a problem pojawia się w kilkunastu–kilkudziesięciu kilometrach od źródła.
  • Emisje niskie – z przydomowych kominów, małych kotłowni, niskich wylotów przemysłowych. Często wchodzą bezpośrednio w przyziemną warstwę, w której oddychają ludzie.
  • Emisje liniowe – ruch drogowy, kolej, czasem żegluga śródlądowa. Rozkładają się wzdłuż tras, są silnie zależne od pory dnia i warunków ruchu.
  • Emisje powierzchniowe – rozproszone spalanie w sektorze komunalnym, rolnictwo (np. amoniak z nawozów), drobny przemysł. Model „rozlewa” je równomiernie w obrębie komórki siatki.

Różne typy emisji wymagają odmiennych parametrów w modelu: wysokości wylotu, temperatury gazów, prędkości początkowej, rozkładu pionowego. Błędne założenia (np. traktowanie wysokiego komina jak źródła przyziemnego) prowadzą do poważnych przekłamań przestrzennych stężeń.

Dynamiczne emisje z transportu: zależność od natężenia ruchu

Emisje transportowe w modelach prognoz smogu są w znacznej części wyprowadzane z danych o:

  • natężeniu ruchu na poszczególnych odcinkach dróg,
  • udziale typów pojazdów (osobowe, ciężarowe, autobusy),
  • średniej prędkości i płynności ruchu,
  • strukturze wiekowej i technologicznej floty (normy emisji EURO, rodzaje paliwa).

Stosuje się bazy emisji jednostkowych (emisja na 1 km przejechanej drogi) zależne od prędkości i typu pojazdu. Następnie mnoży się je przez natężenie ruchu, aby uzyskać emisję liniową [g/s] dla danego odcinka. Te dane są potem agregowane do siatki modelu jakości powietrza.

W nowocześniejszych systemach prognoz włącza się do tego:

  • informacje z inteligentnych systemów transportowych (ITS),
  • dane o korkach z nawigacji i aplikacji mobilnych,
  • zniżkę ruchu w weekendy i święta,
  • epizodyczne ograniczenia – zamknięcia ulic, zakazy wjazdu ciężarówek.

W okresach smogowych decyzje administracyjne (np. wyłączenie strefy centrum dla pojazdów niespełniających określonej normy) powinny być możliwie szybko odzwierciedlane w scenariuszach emisji, jeśli prognoza ma wiernie odzwierciedlać skutki działań.

Emisje komunalne: ogrzewanie domów i sezon grzewczy

Emisje z sektora komunalno-bytowego są w wielu polskich miastach głównym źródłem pyłów zawieszonych. Ich poprawne opisanie jest trudne, bo:

  • piece są rozproszone, często nielegalne lub nieujęte w rejestrach,
  • paliwa są zróżnicowane (węgiel, drewno, odpady),
  • użytkowanie jest silnie zależne od pogody i zachowań mieszkańców.

Typowa procedura wygląda następująco:

  1. Na podstawie spisów budynków, danych o źródłach ciepła i zapotrzebowaniu energetycznym buduje się mapę mocy grzewczej.
  2. Do poszczególnych typów źródeł ciepła przypisuje się emisje jednostkowe (g/GJ), różne dla np. nowoczesnego kotła gazowego, kotła na węgiel, „kopciucha”.
  3. Wykorzystuje się profile sezonowe i dzienne – intensywniejsze ogrzewanie w mroźne wieczory, niemal zerowe w okresach letnich.
  4. Uzyskane emisje są rozdzielane po siatce modelu, zwykle jako emisje powierzchniowe lub z niskich punktów.

Emisje przemysłowe i epizody awaryjne

Emisje z zakładów przemysłowych są zwykle lepiej zinwentaryzowane niż te z gospodarstw domowych, ale mają własną specyfikę. Model musi uwzględniać zarówno emisje stałe (ciągłe procesy technologiczne), jak i zmienne w czasie (praca w systemie zmianowym, rozruchy, wyłączenia).

Do opisu wykorzystuje się:

  • rejestry KOBiZE i raporty środowiskowe,
  • dane o mocy zainstalowanej i obciążeniu produkcyjnym,
  • charakterystyki techniczne instalacji oczyszczania spalin,
  • czasem bezpośrednie pomiary z automatów pomiarowych na kominach.

Od strony modelu kluczowe są parametry „geometrii” emisji: wysokość komina, średnica, temperatura spalin, prędkość wylotowa. To one, w połączeniu z meteorologią, wyznaczają wstępne unoszenie pióropusza. Zbyt optymistyczne założenie o skuteczności filtrów czy zaniżona wysokość efektywna komina potrafią całkowicie zmienić rozkład stężeń w najbliższym otoczeniu zakładu.

Osobnym zagadnieniem są emisje incydentalne – awarie, rozszczelnienia instalacji, pożary, tzw. blow-downy w rafineriach. Trudno je ująć w standardowym, dobowym scenariuszu. W praktyce stosuje się dwa podejścia:

  • symulacje scenariuszowe – uruchamiane po wystąpieniu zdarzenia, aby oszacować zasięg oddziaływania i możliwe przekroczenia,
  • „bufor” w inwentaryzacji – ostrożne zawyżenie emisji w porównaniu do przeciętnego roku, aby częściowo „wchłonąć” rzadkie epizody.

Prognozy operacyjne smogu zazwyczaj nie obejmują scenariuszy awaryjnych, chyba że dotyczą one powtarzalnych zjawisk (np. sezonowych wypałów, kontrolowanych zrzutów gazu). W takich przypadkach można zbudować osobny moduł emisji uruchamiany w konkretnych oknach czasowych.

Emisje naturalne: pył, biogeny i pożary

Choć w miejskich epizodach smogowych dominuje działalność człowieka, modele jakości powietrza uwzględniają także tzw. emisje naturalne lub półnaturalne:

  • unos pyłu z suchych powierzchni glebowych i nieutwardzonych dróg,
  • emisję lotnych związków organicznych z roślin (tzw. BVOC),
  • pył i gazy z pożarów lasów, łąk lub torfowisk,
  • pył saharyjski lub morski (drobne cząstki soli morskiej).

W przeciwieństwie do emisji przemysłowych, tutaj pogoda jest jednym z głównych sterowników. Dla przykładu:

  • unos pyłu rośnie przy silnym wietrze i długich okresach bez opadów,
  • emisja biogenna zależy od temperatury, nasłonecznienia i typu szaty roślinnej,
  • intensywność pożarów koreluje z suszą, upałem i wiatrem.

Dlatego moduły naturalnych emisji są ściśle sprzężone z modelem meteorologicznym. Korzystają z pól wiatru, opadów, wilgotności gleby, indeksów sucha. Dla transportu pożarowego stosuje się często oddzielne systemy (np. GFAS, FINN), które szacują emisje na podstawie satelitarnych obserwacji ognisk pożarów i mocy promieniowania.

W europejskich warunkach wpływ naturalnych emisji na stężenia w miastach jest zróżnicowany. Epizody napływu pyłu saharyjskiego potrafią na kilka dni podnieść tło PM10 w całym kraju, co w połączeniu z lokalnym smogiem skutkuje znacznymi przekroczeniami norm.

Inwentaryzacje emisji: bazy roczne, godzinowe i scenariusze

Sercem modułu emisji jest inwentaryzacja – uporządkowany zbiór danych o źródłach i wielkości zanieczyszczeń. Wyróżnić można kilka poziomów szczegółowości:

  • inwentaryzacje krajowe i europejskie (np. EMEP, CAMS),
  • bazy regionalne – wojewódzkie, aglomeracyjne,
  • inwentaryzacje miejskie, często łączone z bazą adresową budynków.

Większość publicznych inwentaryzacji ma charakter roczny. Zawierają one sumaryczne emisje [t/rok] w siatce o rozdzielczości od kilku do kilkudziesięciu kilometrów. Dla potrzeb prognoz konieczne jest rozbicie ich na:

  • profil sezonowy (miesiące lub pory roku),
  • profil tygodniowy (dni robocze vs. weekendy),
  • profil dobowy (godziny szczytu, nocne minimum).

Takie czasowe „krojenie” emisji wykorzystuje wzorce zachowań (ruch drogowy, ogrzewanie, produkcja przemysłowa). Część profili ma charakter uniwersalny, część jest kalibrowana lokalnie, np. na podstawie danych z liczników ruchu czy miejskich systemów ciepłowniczych.

Prognozy jakości powietrza wykorzystują także scenariusze emisji – alternatywne wersje bazy, które odzwierciedlają wprowadzane lub rozważane regulacje. Można wówczas numerycznie porównać:

  • obecną sytuację („business as usual”),
  • scenariusz z zakazem spalania węgla w określonej strefie,
  • scenariusz z ograniczeniem prędkości na głównych arteriach,
  • scenariusz z masową wymianą kotłów w wybranej dzielnicy.

Z punktu widzenia technicznego oznacza to „podmianę” odpowiednich sektorów emisji w bazie wejściowej i przeliczenie całego łańcucha prognozy.

Chemia i fizyka w modelach jakości powietrza

Mechanizmy chemiczne: od prostych schematów do rozbudowanych mechanizmów

Gazy i cząstki w atmosferze nie są trwałe. Utleniają się, reagują ze sobą, tworzą wtórne zanieczyszczenia. Dlatego modele jakości powietrza zawierają moduły chemiczne, które opisują ewolucję składu powietrza w czasie.

Trzon stanowią mechanizmy fotochemiczne ozonu i tlenków azotu (NO–NO2–O3). W bardziej rozbudowanych konfiguracjach opisuje się również:

  • reakcje lotnych związków organicznych (LZO/VOC),
  • powstawanie nadtlenków (np. PAN),
  • przemiany siarki (SO2 → siarczany),
  • przemiany azotu (NOx → azotany).

Stosowane mechanizmy różnią się poziomem szczegółowości. Prostsze (np. CB05, RACM w wersjach zredukowanych) agregują całe grupy związków w kilka „reprezentantów”, co pozwala zmniejszyć liczbę równań i przyspieszyć obliczenia. Bardziej złożone (np. SAPRC w pełnej wersji) opisują dziesiątki lub setki reakcji, co zwiększa realizm, ale dramatycznie podnosi koszt numeryczny.

Dobór mechanizmu jest kompromisem. W prognozie dobowej dla jednego miasta zwykle wystarczy schemat średniej złożoności. W badaniach naukowych dotyczących chemii ozonu lub aerozolu organicznego sięga się po mechanizmy szczegółowe, czasem kosztem zasięgu przestrzennego lub długości symulacji.

Równania reakcji i ich numeryczne rozwiązywanie

Z punktu widzenia matematycznego chemia w modelu to układ równań różniczkowych zwyczajnych, opisujących zmianę stężenia każdego związku w czasie pod wpływem reakcji. Mają one charakter tzw. równań sztywnych – część reakcji jest bardzo szybka, część powolna.

Bezpośrednie, proste metody numeryczne (np. jawna metoda Eulera) są tutaj niestabilne lub wymagałyby ekstremalnie małego kroku czasowego. Stosuje się więc:

  • metody niejawne (implicit),
  • schematy typu Geara,
  • specjalistyczne solvery sztywnych układów ODE,
  • operator splitting – rozdzielenie chemii i transportu na osobne „półkroki”.

W praktyce każdy krok modelu jakości powietrza przebiega w kilku etapach: najpierw liczy się transport i mieszanie, potem dla każdej komórki rozwiązuje równania chemiczne, następnie dodaje się depozycję. Taki podział upraszcza konstrukcję kodu, ale wymaga dbałości o stabilność i zachowanie masy.

Aerozol: frakcje, skład i procesy mikro-fizyczne

Pył zawieszony (aerozol) jest w modelach reprezentowany na kilka sposobów. Najczęściej stosuje się:

  • podejście modalne – aerozol dzieli się na kilka „modów” (np. nuklearny, drobny, gruby), każdy opisany przez średnią średnicę i odchylenie logarytmiczne,
  • podejście sekcyjne – rozkład wielkości dzieli się na sekcje (przedziały średnic), w każdej liczone są oddzielne stężenia.

W nowoczesnych modelach aerozol ma także skład chemiczny: siarczany, azotany, amon, węgiel organiczny, węgiel elementarny (sadza), część mineralna. Dla każdej frakcji liczy się:

  • emisję pierwotną (bezpośrednio do atmosfery),
  • tworzenie wtórne z gazów prekursorowych (SO2, NOx, NH3, VOC),
  • koagulację (zderzenia cząstek i łączenie się),
  • kondensację i parowanie związków półlotnych,
  • depozycję na podłożu.

Część z tych procesów jest bardzo szybka, część rozciągnięta w czasie. Opis w pełni zgodny z rzeczywistością byłby trudny nawet do fizycznego zrozumienia, nie mówiąc o numerycznej realizacji. Dlatego stosuje się uproszczenia, np. założenie równowagi termodynamicznej między gazową i cząsteczkową fazą amonu, azotanów i siarczanów w wybranych warunkach.

Sposób reprezentacji aerozolu ma bezpośredni wpływ na prognozowane stężenia PM2.5 i PM10. Modele modalne zwykle dobrze odtwarzają ogólny poziom i dynamikę epizodów, ale mogą mieć problemy z odwzorowaniem szczegółów rozkładu wielkości. Modele sekcyjne są dokładniejsze, lecz kosztowniejsze obliczeniowo.

Depozycja suchej i mokrej: usuwanie zanieczyszczeń z atmosfery

Zanieczyszczenia są nie tylko emitowane i przenoszone, lecz także usuwane z atmosfery. W modelach wyróżnia się dwa główne mechanizmy:

  • depozycję suchą – bezpośredni osad gazów i cząstek na powierzchniach (grunt, roślinność, budynki),
  • depozycję mokrą – wymywanie przez opad deszczu lub śniegu.

Depozycja sucha jest zwykle opisywana w kategoriach prędkości depozycji, która zależy od:

  • charakteru podłoża (las, woda, miasto, gleba),
  • wysokości i rodzaju roślinności,
  • stanu aktywności stomat roślin (światło, wilgotność, pora dnia),
  • wielkości i gęstości cząstek.

Depozycja mokra wymaga informacji z modelu meteorologicznego o intensywności i rodzaju opadu. Rozróżnia się dwa procesy:

  • scavenging poniżej chmury – krople deszczu „zmiatają” aerozol po drodze do powierzchni,
  • scavenging w chmurze – włączenie aerozolu do kropel chmurowych i ich późniejsze opadanie.

W obu przypadkach stosuje się schematy parametryczne oparte na współczynnikach wypłukiwania, kalibrowanych na obserwacjach. Silny, długotrwały deszcz jest jednym z najskuteczniejszych naturalnych „oczyszczaczy” atmosfery – modele odzwierciedlają to przez gwałtowny spadek stężeń w trakcie i tuż po opadzie.

Komin fabryczny emitujący gęsty dym jako źródło zanieczyszczeń powietrza
Źródło: Pexels | Autor: Ion Ceban @ionelceban

Jak numerycznie liczy się transport, mieszanie i kumulację smogu

Adwekcja: przenoszenie zanieczyszczeń przez wiatr

Adwekcja to uporządkowany transport substancji przez wiatr. Matematycznie opisuje ją część równania adwekcji-dyfuzji. W praktyce numerycznej głównym wyzwaniem jest zachowanie:

  • stabilności obliczeń przy rozsądnym kroku czasowym,
  • nieujemności stężeń (brak „ujemnych” wartości),
  • ostrości frontów – bez nadmiernego rozmywania pióropusza.

Najważniejsze wnioski

  • Prognoza smogu jest nierozerwalnie związana z prognozą pogody – te same emisje mogą dawać zupełnie inne stężenia zanieczyszczeń w zależności od wiatru, temperatury, zachmurzenia, opadów i ukształtowania terenu.
  • Stabilność atmosfery i inwersja temperatury działają jak „pokrywka”: przy silnej inwersji zanieczyszczenia zamykają się w cienkiej warstwie przy gruncie, co prowadzi do wysokich stężeń mimo braku wzrostu emisji.
  • Kluczowym parametrem jest grubość warstwy mieszania (PBL) – gdy ma tylko kilkadziesiąt metrów, ta sama ilość emisji powoduje wielokrotnie wyższe stężenia niż przy PBL sięgającej kilkuset metrów lub więcej.
  • Sama inwentaryzacja emisji nie pozwala wiarygodnie przewidzieć poziomu smogu; konieczne jest połączenie danych o emisjach z trójwymiarowym polem wiatru, parametrami turbulencji, wysokością warstwy granicznej i informacją o opadach.
  • Na praktycznym przykładzie: bezwietrzny mróz z wyżem i inwersją prowadzi do silnych epizodów smogowych, podczas gdy wietrzna odwilż z opadami – przy zbliżonych emisjach – skutkuje znacznie niższymi stężeniami pyłów.
  • Numeryczna prognoza jakości powietrza opiera się na trzech filarach: emisjach, meteorologii oraz chemii i fizyce zanieczyszczeń; osłabienie któregokolwiek z nich powoduje, że model może oddawać ogólny trend, ale myli się w szczegółach czasowych i przestrzennych.