W1 Definicja usług, modele warstwowe, architektura klient-serwer, monolity vs mikroserwisy, SOA.
Celem projektu jest opisanie ewolucji architektur systemów informatycznych, ze szczególnym uwzględnieniem przejścia od tradycyjnych aplikacji monolitycznych do rozproszonych systemów mikroserwisowych. Student powinien wyjaśnić fundamentalne różnice między modelem monolitycznym opartym na ścisłej integracji wszystkich komponentów w jednej jednostce wdrożeniowej a architekturą mikroserwisową, w której każda usługa stanowi niezależny, autonomiczny moduł możliwy do samodzielnego rozwoju i skalowania. Projekt ma na celu wskazanie zalet i wad obu podejść w kontekście utrzymania usług sieciowych, ze szczególnym uwzględnieniem wpływu architektury na ciągłość działania, łatwość aktualizacji oraz złożoność zarządzania rozproszonego systemu.
Przedsiębiorstwo "TechCorp" planuje modernizację swojego głównego systemu sprzedażowego, który obecnie funkcjonuje jako monolityczna aplikacja o nazwie "Wielka Kula Błota", charakteryzująca się ścisłym powiązaniem wszystkich modułów biznesowych w jednym wdrożeniu. Zarząd potrzebuje opracowania, które wyjaśni, dlaczego przejście na architekturę mikroserwisową może (ale nie musi) pomóc w stabilności i skalowalności systemu. Kluczowym problemem do rozstrzygnięcia jest to, czy firma posiada wystarczająco duże zespoły developerów (minimum 5-6 niezależnych teamów), aby uzasadnić koszty operacyjne rozproszonego systemu. Należy wziąć pod uwagę, że w 2026 roku według raportu CNCF około 42% organizacji, które wcześniej wdrożyły mikroserwisy, wraca do modelu modularnego monolitu ze względu na złożoność zarządzania rozproszonym systemem. Projekt powinien wskazać konkretne kryteria decyzyjne: czy zespół jest w stanie operować niezależnie, czy istnieją wyraźne domeny biznesowe (płatności, użytkownicy, magazyn), czy potrzeba niezależnego skalowania poszczególnych komponentów, oraz czy firma może pozwolić sobie na 2-3x wyższe koszty infrastruktury i operacyjne.
W2 Protokół DNS (hierarchia, rekordy), DHCP (proces DORA), NTP (synchronizacja czasu), Directory Services.
Celem projektu jest szczegółowe przedstawienie roli fundamentalnych usług infrastrukturalnych w sieciach LAN i WAN, ze szczególnym uwzględnieniem mechanizmów działania protokołów DNS, DHCP oraz NTP. Student powinien wyjaśnić, w jaki sposób system nazw domenowych umożliwia translację symbolicznym adresów na numeryczne adresy IP, jak protokół DHCP automatyzuje proces przydzielania adresacji IP oraz konfiguracji sieciowych, a także dlaczego precyzyjna synchronizacja czasu za pomocą NTP jest krytyczna dla prawidłowego funkcjonowania logów systemowych, mechanizmów uwierzytelniania i ważności certyfikatów SSL/TLS. Projekt koncentruje się na technicznych aspektach konfiguracji i wzajemnych interakcjach tych usług oraz ich wpływie na spójność i stabilność całej infrastruktury IT przedsiębiorstwa.
W nowo otwartym oddziale firmy dochodzi do częstych problemów z logowaniem do systemów korporacyjnych i dostępem do zasobów WWW, co powoduje przestoje w pracy operacyjnej pracowników. Administratorzy sieciowi zauważają, że stacje robocze otrzymują adresy IP z różnych zakresów, a uwierzytelnianie w Active Directory kończy się niepowodzeniem w losowych momentach. Twoim zadaniem jest przygotowanie opracowania opisującego, jak poprawnie skonfigurować fundamenty sieci (DNS, DHCP i NTP), aby uniknąć problemów z uwierzytelnianiem i dostępnością usług. Kluczowym aspektem jest wyjaśnienie, dlaczego niewłaściwie skonfigurowany serwer NTP powoduje problemy z ważnością certyfikatów SSL/TLS (czas wystawienia certyfikatu musi być wcześniejszy niż czas systemowy), co skutkuje błędami "certyfikat nie jest zaufany" w przeglądarkach. Należy opisać hierarchię serwerów NTP (stratum) oraz proces DORA (Discover, Offer, Request, Acknowledge) realizowany przez protokół DHCP, wraz z mechanizmem rezerwacji adresów MAC dla serwerów krytycznych, aby zapewnić im stałe adresy IP niezbędne do poprawnego działania usług infrastrukturalnych.
W3 Serwery Apache/Nginx, protokół HTTP/HTTPS, certyfikaty SSL/TLS, Reverse Proxy, WAF.
Celem projektu jest szczegółowa analiza technologii serwowania treści WWW w środowisku korporacyjnym, ze szczególnym uwzględnieniem różnic architektonicznych między serwerem Apache a Nginx oraz mechanizmów zapewniających bezpieczeństwo i wydajność publikacji internetowej. Student powinien opisać rolę serwera WWW jako front-endu obsługującego żądania HTTP/HTTPS od klientów, wyjaśnić funkcję reverse proxy w odciążaniu serwerów aplikacyjnych oraz omówić zasady działania mechanizmów szyfrowania SSL/TLS i firewalla aplikacyjnego (WAF) chroniącego przed atakami typu SQL Injection, XSS i innymi zagrożeniami warstwy aplikacji. Projekt ma na celu przedstawienie kompletnej architektury bezpiecznego portalu WWW z punktu widzenia utrzymania usługi w środowisku korporacyjnym.
Twoja firma chce wystawić publiczny portal e-commerce dla klientów z możliwością składania zamówień online. Jako konsultant IT masz opisać bezpieczną architekturę publikacji treści WWW, uwzględniającą terminację SSL/TLS na reverse proxy (np. Nginx lub HAProxy) oddzielającą ruch zewnętrzny od serwerów aplikacyjnych, co ukrywa wewnętrzną strukturę sieci przed atakującymi. Kluczowym elementem jest wyjaśnienie, w jaki sposób Web Application Firewall (WAF) chroni przed atakami warstwy aplikacji, takimi jak SQL Injection (wstrzyknięcie kodu SQL przez formularze), XSS (Cross-Site Scripting — wstrzyknięcie skryptów JavaScript), czy CSRF (Cross-Site Request Forgery). Należy opisać różnice między Apache HTTP Server a Nginx pod kątem modelu przetwarzania żądań (threaded vs event-driven), co wpływa na wydajność przy dużym obciążeniu. Projekt powinien zawierać wyjaśnienie, dlaczego Nginx często pełni rolę reverse proxy przed Apache jako backend, oraz omówienie mechanizmów cache'owania treści statycznych (CDN, Varnish) redukujących obciążenie serwerów źródłowych.
W4 SMTP, IMAP, POP3, mechanizmy SPF, DKIM, DMARC, systemy antyspamowe.
Celem projektu jest wyjaśnienie zasad działania profesjonalnego systemu poczty elektronicznej w infrastrukturze sieciowej przedsiębiorstwa, ze szczególnym uwzględnieniem protokołów przesyłania (SMTP), odbierania (IMAP, POP3) oraz mechanizmów uwierzytelniania i zabezpieczenia komunikacji. Student powinien opisać strukturę współczesnego systemu pocztowego składającą się z serwera pocztowego (MTA), agenta dostarczania (MDA) oraz klienta pocztowego (MUA), a także wyjaśnić nowoczesne mechanizmy ochrony przed spamem i phishingem, takie jak rekordy SPF weryfikujące autoryzowane serwery wysyłające dla domeny, DKIM podpisujący cyfrowo wiadomości oraz DMARC definiujący politykę postępowania z wiadomościami niezweryfikowanymi. Projekt ma na celu przedstawienie kompletnej architektury bezpiecznego systemu pocztowego od punktu widzenia utrzymania usługi w sieci korporacyjnej LAN.
Dyrektor operacyjny narzeka na dużą ilość spamu i phishingu obierającego pracowników, a także obawia się o bezpieczeństwo korespondencji biznesowej, która może zawierać poufne dane finansowe i kontrakty. Przygotuj opracowanie opisujące, jak nowoczesne standardy uwierzytelniania domeny (SPF, DKIM i DMARC) chronią wizerunek firmy przed podszywaniem się, oraz jakie elementy musi posiadać profesjonalny system pocztowy w środowisku korporacyjnym. Kluczowym aspektem jest wyjaśnienie, że rekord SPF definiuje listę serwerów upoważnionych do wysyłania wiadomości w imieniu domeny, DKIM używa kryptografii asymetrycznej do podpisywania nagłówków i treści wiadomości, a DMARC definiuje politykę postępowania z wiadomościami, które nie przechodzą weryfikacji. Należy opisać architekturę systemu pocztowego składającą się z serwera MTA (Mail Transfer Agent, np. Postfix lub Exim), agenta dostarczania MDA (np. Dovecot), oraz interfejsu webmail, a także omówić różnice między protokołami IMAP (synchronizacja folderów między urządzeniami) a POP3 (pobieranie i usuwanie).
W5 Systemy plików (NFS, SMB/CIFS), iSCSI, Fibre Channel, macierze dyskowe, RAID, kopie zapasowe.
Celem projektu jest szczegółowe przedstawienie technologii przechowywania danych w sieciach lokalnych i rozległych, ze szczególnym uwzględnieniem różnic między dostępem plikowym a blokowym do zasobów dyskowych. Student powinien wyjaśnić zasady działania systemów NAS (Network Attached Storage) wykorzystujących protokoły SMB/CIFS i NFS do udostępniania plików w sieci LAN oraz technologii SAN (Storage Area Network) bazującej na protokołach iSCSI i Fibre Channel umożliwiającej bezpośredni dostęp blokowy do macierzy dyskowych. Projekt ma na celu omówienie zasad ochrony danych przed utratą poprzez zastosowanie poziomów macierzowych RAID oraz mechanizmy backupu i replikacji, a także wskazanie kryteriów wyboru odpowiedniej technologii składowania w zależności od wymagań przedsiębiorstwa dotyczących wydajności, pojemności i ciągłości działania usługi.
Firma projektowa generuje terabajty danych rocznie (rysunki CAD, symulacje CFD, materiały wideo z budowy), co powoduje, że lokalne dyski serwerów szybko się zapełniają, a kopie zapasowe na taśmach magnetofonowych wymagają manualnej obsługi. Potrzebuje centralnego systemu składowania danych z szybkim dostępem przez sieć LAN. Opisz dla nich, kiedy lepszym wyborem będzie serwer NAS (Network Attached Storage) działający na protokołach SMB/CIFS (Windows) lub NFS (Linux/Unix), oferujący prostą integrację jako kolejny dysk sieciowy w systemie plików, a kiedy powinni zainwestować w sieć SAN (Storage Area Network) z macierzą iSCSI lub Fibre Channel zapewniającą dostęp blokowy (block-level) o wydajności porównywalnej z lokalnym dyskiem SATA/SAS. Kluczowym kryterium wyboru jest to, czy aplikacje wymagają szybkiego, random I/O (bazy danych = SAN), czy tylko przechowywania plików (archiwa = NAS). Należy omówić poziomy macierzowe RAID: RAID 5/6 (parzystość, oszczędność pojemności), RAID 10 (lustrzane kopie, wysoka wydajność i odporność na awarie), oraz wyjaśnić różnicę między backupem (odtwarzanie pojedynczych plików) a replikacją (ciągłe kopiowanie na lokację zapasową w celu Disaster Recovery).
W6 SNMP, Syslog, NetFlow, Prometheus, Grafana, logowanie zdarzeń, KPI usług.
Celem projektu jest wyjaśnienie roli systemów monitorowania i obserwowalności w utrzymaniu ciągłości działania usług sieciowych, ze szczególnym uwzględnieniem metody zbierania informacji o stanie infrastruktury IT. Student powinien opisać fundamentalne techniki monitorowania obejmujące pasywne nasłuchiwanie zdarzeń za pomocą protokołów Syslog i SNMP oraz aktywne sprawdzanie dostępności usług przez periodyczne testy HTTP i pingi, a także koncepcję trzech filarów obserwowalności, czyli metryk numerycznych mierzących wydajność, logów tekstowych dokumentujących zdarzenia oraz śladów (traces) śledzących przepływ żądań przez rozproszony system. Projekt ma na celu przedstawienie architektury nowoczesnego systemu monitoringu opartego na narzędziach takich jak Prometheus do zbierania metryk i Grafana do wizualizacji danych, wraz z mechanizmami alertowania umożliwiającymi proaktywne reagowanie na incydenty przed ich eskalacją do poziomu krytycznego.
Systemy firmy działają "w czarnej skrzynce" — nikt nie widzi przeciążeń infrastruktury ani nietypowych wzorców ruchu, dopóki serwer nie padnie i klienci nie zaczną dzwonić z reklamacjami. Zespół IT dowiaduje się o awariach post factum, a próby włączenia monitoringu kończą się chaotycznym zbieraniem logów bezcentralizowanej agregacji. Opracuj plan wdrożenia systemu monitoringu i obserwowalności, który pozwoli proaktywnie reagować na incydenty, zanim eskalują do poziomu krytycznego. Kluczowym elementem jest opis trzech filarów obserwowalności: metryki (Prometheus, InfluxDB — wartości numeryczne jak CPU, RAM, licznik zapytań HTTP), logi (Syslog, ELK Stack — zdarzenia tekstowe z timestampami do analizy przyczyn awarii) oraz tracing rozproszony (Jaeger, Zipkin — ścieżka żądania przez wszystkie mikrousługi przy debugowaniu). Należy wyjaśnić różnicę między modelem push (Zabbix, Nagios — agent wysyła dane do serwera) a modelem pull (Prometheus — serwer okresowo pobiera metryki z endpoint /metrics), oraz omówić konfigurację progów alertów (warning/critical) w Grafana dla wskaźników KPI usług (SLA, czas odpowiedzi, dostępność).
W7 Triada CIA, zarządzanie tożsamością (IAM), VPN, segmentacja sieci, analiza ryzyka, aktualizacje (Patch Management).
Celem projektu jest szczegółowa analiza zagrożeń bezpieczeństwa usług sieciowych oraz metod ich ochrony w środowisku LAN przedsiębiorstwa, ze szczególnym uwzględnieniem podejścia wielowarstwowego (defense in depth). Student powinien wyjaśnić fundamentalne zasady triady CIA obejmujące poufność ( Confidentiality ), integralność ( Integrity ) i dostępność ( Availability ) danych oraz omówić mechanizmy ich egzekwowania poprzez zarządzanie tożsamością i dostępem (IAM), wieloskładnikowe uwierzytelnianie (MFA), virtualne sieci prywatne (VPN) i segmentację sieci na strefy o różnym poziomie zaufania. Projekt ma na celu przedstawienie procesu zarządzania ryzykiem w usługach sieciowych, obejmującego identyfikację podatności, ocenę zagrożeń, wdrożenie środków zaradczych oraz zarządzanie aktualizacjami bezpieczeństwa (Patch Management), co umożliwia utrzymanie usług w stanie akceptowalnego ryzyka dla organizacji.
W audycie bezpieczeństwa przeprowadzonym przez zewnętrzną firmę wykazano poważne braki: brak kontroli nad tym, kto i skąd łączy się z zasobami firmy (brak logowania połączeń VPN), pracownicy używają tych samych haseł do wielu systemów (brak MFA), a segmentacja sieci jest płaska — dział finansów i produkcja są w tej samej sieci LAN bez firewalla między nimi. Opisz system bezpiecznego dostępu zdalnego opartego na VPN z uwierzytelnianiem wieloskładnikowym (MFA) oraz zasady segmentacji sieci na strefy o różnym poziomie zaufania zgodnie z modelem Zero Trust. Wyjaśnij, dlaczego tradycyjny model "castle and moat" (zaufaj wszystkiemu wewnątrz sieci korporacyjnej) jest przestarzały — atakujący, który raz przedostanie się przez firewall, ma dostęp do wszystkiego. Opisz implementację sieci DMZ (Demilitarized Zone) wydzielonej jako strefy pośredniej między Internetem a LAN, zawierającej serwery WWW dostępne publicznie, ale odizolowane od wewnętrznych baz danych. Omów zasady triady CIA ( Poufność, Integralność, Dostępność ) oraz proces zarządzania poprawkami bezpieczeństwa (Patch Management) — dlaczego aktualizacje systemów produkcyjnych muszą być testowane przed wdrożeniem, ale opóźnienia powyżej 30 dni od wydania poprawki krytycznej znacząco zwiększają ryzyko ataku.
W8 Narzędzia IaC (Ansible, Terraform), orkiestracja (Kubernetes), potoki CI/CD, konteneryzacja (Docker).
Celem projektu jest przedstawienie metodyki Infrastructure as Code (IaC) jako fundamentalnej zmiany paradygmatu zarządzania infrastrukturą sieciową, odechodzącej od ręcznej konfiguracji serwerów poprzez interfejsy graficzne na rzecz zdeklaratywnego opisu infrastruktury w plikach tekstowych wersjonowanych w systemie kontroli wersji. Student powinien wyjaśnić różnicę między narzędziami do konfiguracji systemów operacyjnych (takimi jak Ansible) a narzędziami do provisionowania infrastruktury chmurowej (takimi jak Terraform), omówić koncepcję konteneryzacji za pomocą Dockera jako nowoczesnego standardu pakowania i dystrybucji usług oraz wprowadzić podstawy orkiestracji kontenerów w Kubernetes. Projekt ma na celu wyjaśnienie korzyści płynących z automatyzacji powtarzalnych zadań administratora, w tym powtarzalności wdrożeń, łatwości odtwarzania środowisk, możliwości śledzenia zmian w historii repozytorium oraz implementacji potoków CI/CD automatyzujących proces od commitu kodu do wdrożenia produkcyjnego.
Dział IT poświęca 70% swojego czasu na proste, powtarzalne zadania konfiguracyjne: ręczne stawianie nowych serwerów według checklist w Wordzie, instalowanie aplikacji przez RDP na każdą maszynę z osobna, oraz reagowanie na "a czemu nie działa?" po nieudanych zmianach konfiguracji. Każda zmiana infrastruktury wymaga ręcznej edycji kilkunastu plików konfiguracyjnych, a dokumentacja opisowa jest nieaktualna od momentu napisania. Zaproponuj zmianę podejścia — opisz, jak narzędzia takie jak Ansible czy Terraform mogą zautomatyzować stawianie nowych serwerów i ich konfigurację w sposób powtarzalny i udokumentowany w kodzie. Wyjaśnij różnicę między podejściem imperatywnym (Ansible — opisuj "jak" wykonać kroki: apt install nginx, service nginx start) a deklaratywnym (Terraform — opisuj "jaki" ma być stan końcowy: resource "aws_instance" "web" { ami = "..." }, a narzędzie samo wylicza różnice). Omów, jak Docker konteneryzuje aplikacje ze wszystkimi zależnościami (OS, biblioteki, kod), umożliwiając uruchomienie na dowolnym Linuxie bez "to u mnie działa" problemów. Należy opisać przepływ CI/CD (Continuous Integration/Continuous Deployment): od commitu developera przez automatyczne testy, build obrazu Docker, do wdrożenia na produkcji — w pełni automatycznie i z możliwością natychmiastowego roll-back w przypadku błędów.
W9 Logi systemowe, narzędzia diagnostyczne (MTR, Wireshark), procesy ITIL, zarządzanie incydentem i problemem.
Celem projektu jest szczegółowe opisanie metodyki diagnozowania awarii i procesu utrzymania ciągłości działania usług sieciowych w środowisku korporacyjnym, ze szczególnym uwzględnieniem systematycznego podejścia do rozwiązywania problemów. Student powinien wyjaśnić hierarchiczny model rozwiązywania problemów rozpoczynający się od weryfikacji warstwy fizycznej (kable, przełączniki), przez warstwę sieciową (łączność IP, routing), warstwę transportową (porty TCP/UDP) aż po warstwę aplikacyjną (usługi i procesy), a także przedstawić warsztat administratora obejmujący analizę logów systemowych i aplikacyjnych, narzędzia diagnostyczne (ping, traceroute, MTR, nslookup) oraz techniki zaawansowanej analizy ruchu sieciowego w Wiresharku. Projekt ma na celu wyjaśnienie procesu Root Cause Analysis (RCA) służącego do identyfikacji fundamentalnej przyczyny incydentu oraz przedstawienie zasad dokumentowania awarii i tworzenia procedur zapobiegających ich ponownemu wystąpieniu.
W firmie wystąpiła awaria krytycznej bazy danych Oracle/PostgreSQL — systemy sprzedażowe stanęły, kasjerzy nie mogą obsłużyć klientów, a menedżerowie dzwiąą z pytaniami "kiedy będzie działać?". Przygotuj procedurę opisową dla młodszych administratorów: jak systematycznie zbierać dowody (evidencję), gdzie szukać logów (systemowe /var/log, aplikacyjne, bazy danych), i jakich narasieciowych narzędzi użyć, by zlokalizować warstwę, na której leży problem. Wyjaśnij hierarchiczny model diagnozowania rozpoczynający od warstwy fizycznej (kable sieciowe, diody na przełącznikach — czy link jest UP?), przez warstwę IP (ping, traceroute — czy路由owanie działa?), warstwę transportową (telnet/nc na port TCP 1433 — czy firewall blokuje?), aż po warstwę aplikacyjną (logi bazy danych, czy serwer nasłuchuje na wskazanym adresie IP). Omów narzędzia diagnostyczne: ping (łączność ICMP), traceroute/MTR (śledzenie hopów), dig/nslookup (rozwiązywanie DNS), netstat/ss (aktywne połączenia i nasłuchiwanie na portach), oraz Wireshark jako ostateczność przy trudnych do powtórzenia problemach z transmisją danych. Należy opisać proces Root Cause Analysis (RCA) — pytanie "dlaczego" powtarzane 5 razy (metoda 5 dlaczegoch), które prowadzi do fundamentalnej przyczyny, a nie tylko objawu awarii, oraz dlaczego dokumentowanie incydentów w systemie zarządzania problemami (ITIL) jest kluczowe dla zapobieżenia nawrotom.
W10 Failover, Cluster, Load Balancing, replikacja baz danych, odzyskiwanie po awarii (Disaster Recovery).
Celem projektu jest szczegółowe przedstawienie architektury systemów wysokiej dostępności (High Availability, HA) i mechanizmów skalowania usług sieciowych w środowisku korporacyjnym, ze szczególnym uwzględnieniem eliminacji pojedynczych punktów awarii (SPOF). Student powinien wyjaśnić koncepcję wskaźnika dostępności wyrażanego w liczbie dziewiątek (np. 99,999% oznacza maksymalnie 5 minut i 15 sekund przestoju rocznie), omówić mechanizmy równoważenia obciążenia (Load Balancing) działające na warstwie 4 (TCP) i warstwie 7 (HTTP) protokołu OSI, przedstawić tryby pracy klastrów serwerowych Active-Active i Active-Passive oraz wyjaśnić zasady replikacji baz danych jako metody ochrony stanu aplikacji. Projekt ma na celu przedstawienie strategii Disaster Recovery obejmującej utrzymywanie zapasowego centrum danych (DR Site) zdolnego do przejęcia funkcji produkcyjnych w przypadku awarii głównej serwerowni, co zapewnia ciągłość działania usług krytycznych dla funkcjonowania przedsiębiorstwa.
Firma świadczy usługi ciągłe 24/7/365 (np. sklep internetowy, system bankowy, platforma gier online) i każda minuta przestoju kosztuje setki tysięcy złotych strat w przychodach oraz utratę zaufania klientów. Masz opracować koncepcję klastra wysokiej dostępności (High Availability, HA) dla serwera WWW i bazy danych, uwzględniając mechanizmy automatycznego przełączania awaryjnego (failover) w przypadku awarii jednego węzła. Kluczowym aspektem jest wskaźnik dostępności wyrażany w liczbie dziewiątek (SLA): 99% (2 x 365 = 17,5h przestoju rocznie), 99,9% ("trzy dziewiątki" = 8,7h), 99,99% ("cztery dziewiątki" = 52 minuty), 99,999% ("pięć dziewiątek" = 5 minut 15 sekund) — każda dziewiątka to 10x wyższy koszt infrastruktury. Omów różnicę między trybem Active-Active (oba węzła obsługują ruch równolegle, przy awarii jeden przejmuje 100% bez przerwywania sesji) a Active-Passive (drugi węzeł czuwa w standby, przełączenie trwa kilka-kilknaście sekund), oraz zasadę eliminacji SPOF (Single Point of Failure) — każdy element infrastruktury musi mieć rezerwę: dwie karty sieciowe (bonding/team), dwa zasilacze (redundancja PSU), dwa łącza ISP (dwa dostawcy). Należy opisać mechanizm Load Balancer (L4 TCP/Haproxy vs L7 HTTP/Nginx) rozkładającego ruch między węzłami, replication bazy danych (synchronous — gwarancja spójności, asynchroniczna — wydajność), oraz Disaster Recovery Site jako oddzielną lokację geograficzną z repliką danych zdolną do przejęcia funkcji produkcyjnych w ciągu RTO (Recovery Time Objective) i RPO (Recovery Point Objective) zdefiniowanych w umowie SLA.