S1. Modelowanie sieci komputerowych z wykorzystaniem przepływów wieloskładnikowych
Rozwiązywanie problemu optymalizacji sieci polega na: sformułowaniu problemu, jego zmodelowaniu (stworzeniu opisu matematycznego) oraz jego optymalizacji.
Topologia sieci komputerowej zazwyczaj modelowana jest w postaci grafu, którego wierzchołkami są urządzenia sieciowe (routery, przełączniki, komputery, etc.), a krawędziami media transmisyjne. Grafy te posiadają ograniczenia zarówno na węzłach, jak i na krawędziach – np. przepustowość.
Topologię sieci optymalizuje się zgodnie z funkcją celu, którą może być np.: minimalizacja kosztów budowy sieci albo zwiększenie niezawodności sieci.
Przepływy wieloskładnikowe (multicommodity flows) to sposób modelowania przepływu danych w sieci definiowany jako średni przepływ informacji w danym okresie czasu pomiędzy wieloma węzłami – wiele składników.
Przepływy dzielą się na dwie grupy:
- Rozgałęziające się (bifurcated) – wszystkie pakiety trasowane są indywidualnie – np. pakiety IP
- Nierozgałęziające się (non-bifurcated) – mamy do czynienia z połączeniami/obwodami – trasowanymi tak samo np. protokoły połączeniowe: MPLS, Frame Relay
Możliwe notacje:
- Węzeł-łuk (node-link) – indeksujemy węzły sieci i łącza (łuki) pomiędzy nimi. Dla każdego pojedynczego żądania spełnione musi być prawo Kirchoffa.
- Łuk-ścieżka (link-path) – dla każdego żądania indeksujemy ścieżki kandydujące, oprócz tego potrzebna jest macierz zmiennych, które określają czy dany łuk należy do danej ścieżki. Dotyczy to tylko przepływów nierozgałęziających się.
S2. Modelowanie i optymalizacji przeżywalnych sieci komputerowych
Mówimy o sieci że jest przeżywalna, jeśli jest w stanie funkcjonować w przypadku pewnej awarii (np. 1 lub 2 urządzeń sieciowych, funkcjonując z ograniczoną przepustowością).
Stopień przeżywalności mówi nam o tym, w jakim stopniu jest ona odporna na awarie i jak szybko może się zrekonfigurować po awarii – self-healing.
Do zapewnienia przeżywalności, stosuje się dwie metody:
- ochrona – zapewnienie redundantnych zasobów (czas rekonfiguracji po awarii w tej metodzie jest najszybszy)
- odbudowa – sieć rekonfiguruje się po awarii dynamicznie alokując zasoby (czas rekonfiguracji jest dłuższy)
Sieci przeżywalne modeluje się tak samo jak każde inne sieci – w postaci grafu i zapisu matematycznego, jednak stosuje się dodatkowe ograniczenia – np. zapewnienie co najmniej dwóch połączeń, etc.
Modelując przeżywalność sieci stosuje się wektor zmiennych z wartościami <0,1>, oznaczającymi stany poszczególnych łączy/krawędzi grafu. Po uszkodzeniu węzła, zapisuje się dla wszystkich przyłączonych do niego łączy wartość 0.
S3. Planowanie eksperymentów symulacyjnych i analiza wyników badań symulacyjnych (na podstawie przykładowego zadania projektowego)
Symulacja pozwala określić/przewidzieć typowe zachowanie systemu, czyli takie zachowanie, które ma największą szansę zaistnienia.
Symulacje można podzielić na pulsacyjne (terminating simulations) – posiadające stany rozpoczęcia i kończenia eksperymentu oraz niezmiennicze (steady-sate simulations) badające systemy pracujące (teoretycznie) przez nieskończony czas.
Moja praca magisterska…
S4. Zarządzanie użytkownikami i grupami w systemie Linux
System Linux jest Unixowym systemem wielozadaniowym, pozwalającym na pracę wielu użytkowników w jednym czasie.
Każdy z użytkowników loguje się na swoje konto np. poprzez terminal korzystając z jakiejś metody uwierzytelnienia. Każdy użytkownik przynależy co najmniej do jednej grupy użytkowników. Grupy są mechanizmem pozwalającym na współdzielenie uprawnień do danych zasobów.
Informacje o użytkownikach zapisane są w pliku /etc/passwd
, o ich hasłach w postaci zaszyfrowanej w /etc/shadow
oraz o grupach użytkowników i użytkownikach do nich należących w /etc/group
.
W systemach Unixowych, do każdego pliku i katalogu przypisane są pewne atrybuty dostępu: identyfikator użytkownika – właściciela i grupy oraz prawa dostępu dla właściciela, przypisanej grupy oraz pozostałych użytkowników systemu. Na prawa te składają się: odczyt, zapis oraz uruchomienie/wejście do katalogu.
Wszystkie procesy w systemach Unixowych uruchamiane są z prawami pewnego użytkownika (często są to konta przeznaczone tylko do tego celu), przez co procesy mają pewne prawa dostępu zależna od atrybutów plików i grup w których znajduje się “ich” użytkownik.
W systemach Unixowych również urządzenia, czy procesy systemowe przestawiane są abstrakcyjnie w formie plików (katalogi /dev, /proc, czy /sys). Przez co dostęp do nich następuje na podobnej zasadzie.
S5. Usługi katalogowe systemu Windows 200x Serwer
Usługa katalogowa to baza danych zawierająca hierarchię obiektów – użytkowników, grup, urządzeń, udostępnionych katalogów, itp. Pozwalająca na centralne i łatwe zarządzanie nimi.
Przykładem takiej usługi może być Active Directory Microsoftu. Active Directory jest usługą sieciową bazującą na protokole LDAP identyfikującą wszystkie zasoby w sieci oraz zapewniającą centralne logowanie (poprzez protokół Kerberos) użytkowników i komputerów.
Struktura Active Directory składa się z:
- lasów,
- drzew,
- oraz domen bazujących na systemie DNS (dawniej nazwach NetBIOS) i mogących wchodzić w skład innych domen).
Wewnątrz domeny mamy do czynienia z obiektami różnego typu – użytkownikami, grupami użytkowników, zasadami grup, udostępnionymi katalogami, urządzeniami (drukarkami), itp.
Każdy obiekt zawiera pewne atrybuty – np. dla użytkownika będą to jego dane – imię, nazwisko, adres e-mail, itp.
Oprócz tego, w Active Directory istnieją logiczne kontenery – Jednostki Administracyjne, pozwalające nam delegować zarządzanie nad obiektami do pewnych jednostek (np. działów firmy).
S6. Sposoby zarządzania informacją i pamięciami masowymi
Sama informacja przetwarzana przez komputery może mieć wiele postaci, może być ustrukturyzowana – jak rekordy w bazie danych bądź może być to zapis w dowolnej postaci np. plik dźwiękowy, grafika. Informatyka jest nauką zajmującą się przetwarzaniem informacji.
Pamięć masowa to z kolei pamięć trwała w której możemy przez długi okres czasu przechowywać informacje w różnej postaci.
Najczęściej służą do tego systemy plików lub bazy danych. W systemach plików mamy do czynienia np. z hierarchiczną lub obiektową strukturą elementów – plików. W bazach danych, z tabelami i rekordami w tych tabelach, przechowującymi pewne ustrukturyzowane dane.
W serwerowniach często wykorzystuje się macierze dyskowe RAID podłączone do serwerów sieciami SAN lub lokalne (w serwerach).
Macierze RAID to grupy działających wspólnie dysków HDD/SDD, połączonych w celu zapewnienia wyższych transferów danych (RAID 0) bądź uzyskania odporności na awarie poszczególnych fizycznych nośników (RAID 1+).
Zgromadzone dane powinno się backupować.
S7. Metody i narzędzia programistyczne stosowane w symulacji komputerowej
Symulacje komputerowe dzielimy ze względu na:
- przewidywalność zdarzeń – deterministyczne / zawierające generator liczb pseudolosowych
- sposób upływu czasu – ciągły / dyskretny
- formę danych wyjściowych – statyczne – zbiór danych / dynamiczne – proces
- liczbę użytych komputerów – lokalne / rozproszne
Metody:
- Metody symulacji ciągłej, zmienne ciągłe, np. różne zjawiska fizyczne: metoda krokowa, metoda dynamiki systemów (stałe przyrosty czasowe, z możliwie najmniejszym krokiem)
- Metody symulacji dyskretnej, zmienne dyskretne, zmiany stanu symulacji następują w dyskretnych momentach, np. systemy wieloagentowe: metoda planowania zdarzeń (kalendarz zdarzeń), metoda przeglądu i wyboru działań (rozpatrywanie wszystkich działań celem określenia kiedy się rozpoczną i zakończą), metoda interakcji procesów (grupowanie działań w procesy na pojedynczych obiektach)
- Metody symulacji mieszanej (zmienne ciągłe i dyskretne): połączenie symulacji i sztucznej inteligencji i gry symulacyjne
Narzędzia:
- Extendsim
- AnyLogic
- Matlab Simulink
S8. Charakterystyka modeli logicznych stosowanych w hurtowniach danych
Najpopularniejszym modelem jest DDM (Dimensional Data model) – przechowuje dane w postaci wartości pewnych faktów w wymiarze
Pojęcia:
- wymiar – np. czas
- atrybut – unikalny poziom znajdujący się w wymiarze – np. dzień
- hierarchia – poziomy atrybutów np. tydzień
- fakt – np. sprzedaż
- granulacja – poziom szczegółowości – np. sprzedaż w pojedynczym sklepie, całej sieci itp.
- tabela odnośników – np. lista lat dla atrybutu “rok”
OLAP (On-line Analytical Processing) – oprogramowanie pozwalające na analizowanie wielowymiarowych danych i wykonywanie zapytań, korzysta z silnika baz danych
Model gwiazdy – W centrum układu znajduje się tabela faktów, wymiary i atrybuty zapisywane są w tabelach pomocniczych, za pomocą relacji klucz główny – klucz obcy
Model płatka śniegu – rozszerzenie modelu gwiazdy w którym tabele wymiarów przechowywane są w wielu tabelach odnośników
S9. Porównanie podejścia strukturalnego i obiektowego do tworzenia oprogramowania
Podejście strukturalne powstało w latach 60, kiedy najpopularniejszymi językami programowania były FORTRAN I COBOL, korzystające w dużej mierze ze skoków – GOTO.
Podejście to zakłada istnienie:
- instrukcji warunkowych,
- różnego rodzaju pętli,
- bloków kodu (w C zamkniętych w klamerki),
- czy funkcji realizujących pewne “podzadania”, zwracając wynik i przyjmując pewne argumenty.
Przykładem języka strukturalnego jest język C. Podejście to pozwoliło na tworzenie bardziej rozbudowanych programów i ograniczyło ryzyko związane z wykonywaniem mniej bezpiecznych skoków.
Podejście obiektowe zakłada istnienie klas oraz obiektów tych klas. Klasy składają się z pól danych – zmiennych oraz metod operujących na tych danych. Obiekt jest natomiast instancją klasy – wypełnioną danymi.
To podejście jeszcze bardziej uczyniło kod czytelnym i pozwoliło na łatwe tworzenie jeszcze bardziej rozbudowanych programów.
S10. Mechanizm dynamicznego partycjonowania logicznego (DLPAR) na platformie Power IBM
Technologia dynamicznego partycjonowanie logicznego polega na wydzielaniu zasobów sprzętowych wielu instancjom systemów operacyjnych uruchomionych na platformie (partycjonowanie logiczne) w sposób pozwalający na zmianę tego przydziału w trakcie pracy komputera (dynamiczne).
Systemy w partycjach logicznych są od siebie odizolowane.
Działa to na podobnej zasadzie jak maszyny wirtualne, z tym że funkcję hypervisora/zarządcy/gospodarza pełni tutaj oprogramowanie układowe komputera – firmware/”BIOS”.
Rozwiązanie to wspierane jest przez systemy IBM AIX oraz IBM i – systemy te mają możliwość zarządzania zasobami przydzielonymi partycjom.
S11. Etapy tworzenia systemów analityki biznesowej
Analityka biznesowa to proces przekształcania danych w informacje, a informacji w wiedzę, która pozwli zwiększyć konkurencyjność przedsiębiorstwa.
Wdrożenie BI polega na utworzenia hurtowni danych pozwalającej na jednolite zarządzanie danymi przedsiębiorstwa.
Etapy tworzenia systemów BI:
- Analiza wymagań klienta
- identyfikacja wymagań klienta
- potwierdzenie wymagań z klientem
- grupowanie i segregowanie zebranych wymagań
- ustalenie priorytetów
- przemapowanie wymagań biznesowych na wymagania systemowe
- zatwierdzenie dokumentu analizy wymagań przez klienta
- Wybór modelu danych/architektury systemu – metdologia Kimabla (wielowymiarowa) lub Inmna (bardziej znormalizowana), wypisanie wymagań funkcjonalnych (możliwości systemu) i pozafunkcjonalnych (wydajność, jakość)
- Opis schematu logicznego hurtowni danych
- Projekt i implementacja hurtowni danych – identyfikacja źródeł, proces ETL
- Integracja nowej hurtowni danych z narzędziami analitycznymi i raportowymi
S12. Charakterystyka przykładowej platformy programowosprzętowej do zastosowań biznesowych
Wybrana platforma: IBM System i, z systemem operacyjnym: IBM i.
Platforma ta bazuje na RISC-owych procesorach IBM POWER, wywodzących się z architektury PowerPC stworzonej przez IBM oraz Motorolę.
IBM System i wspiera “dynamiczne partycje logiczne”, pozwalając na uruchomienie na raz wielu systemów operacyjnych i przydzielenie im wydzielonej części zasobów sprzętowych. Hypervisorem jest tutaj oprogramowanie układowe komputera – firmware.
Na platformie tej uruchomić można różne systemy operacyjne, z czego najczęściej wykorzystywane to IBM AIX oraz IBM i. IBM i omawiany był w trakcie studiów.
Cechy systemu IBM i:
- Jest systemem wieloużytkownikowym – wielu użytkowników loguje się przez terminale (sprzętowe lub częściej wirtualne).
- Jest jedną wielką bazą danych.
- Zawiera hierarchiczny system plików, zawierający jeden poziom katalogów – bibliotek, w których umieszczone są pliki.
- Jego interfejs tesktowy zbudowany jest z wielopoziomowego menu, w którym wybiera się (lub wpisuje) polecenia i podaje kolejne parametry w odpowiednich formularzach.
- System posiada implementację Java VM.
K1. Metody uwierzytelniania użytkowników w systemach komputerowych – sposoby, wady, zalety
- Uwierzytelnienie jednokierunkowe – np. gdy serwer uwierzytelnia klienta, klient przesyła dane do serwera (najczęściej login i hasło)
- Uwierzytelnienie dwukierunkowe – w sytuacji gdy obie strony połączenia są uwierzytelniane – np. klient i serwer (po kolei – dwuetapowo lub równocześnie)
- Uwierzytelnienie z wykorzystaniem zaufanej trzeciej strony – klient przedstawia się (np. loginem i hasłem) zaufanej trzeciej stronie, w odpowiedzi otrzymuje poświadczenie, którym przedstawia się właściwemu serwerowi oferującemu dostęp do zasobów (np. Kerberos i Active Directory)
- Podpis cyfrowy – dla dokumentu generowany jest skrót, następnie skrót ten podpisywany jest przy pomocy funkcji kryptograficznej – najczęściej szyfrowany kluczem publicznym. Każdy posiadacz dokumentu oraz klucza publicznego może odszyfrować skrót i porównać go z nowo wygenerowanym. Zapewnia to: autentyczność, niezaprzeczalność i integralność.
- Dowód z wiedzą zerową – strona nie legitymuje się drugiej przy pomocy loginu i hasła, a poprzez rozwiązanie pewnego problemu – challange-response. Obie strony posiadają współdzielony tajny klucz i jedna/obie z nich wykorzystują go do rozwiązania zadania zadanego przez stronę przeciwną, następnie przeciwna strona porównuje odpowiedź i sprawdza czy zgadza się ona, pośrednio (bez przesyłania przez sieć) weryfikując czy druga strona również posiada tajny klucz.
K2. Mechanizmy ochrony danych w systemach operacyjnych
Mechanizmy te mogą służyć różnym celom – np. ochronie przed niepowołanym dostępem do danych, czy przez ich utratom.
Na pierwszy z tych celów składa się:
- Ochrona pamięci operacyjnej przed dostępem i ingerencją ze strony innych procesów – kernel systemu operacyjnego, z pomocą jednostki MMU procesora przydziela procesom wirtualną przestrzeń adresową, której wirtualne adresy tłumaczone są na adresy fizyczne przez MMU. Proces ma dostęp jedynie do swojej wirtualnej pamięci i nie może wyjść poza nią.
- Ochrona dostępu do plików (a także urządzeń itp. w systemach Unixowych) – współczesne systemy obsługują uprawnienia do plików/katalogów i dostęp do tych systemów wymaga zalogowania/uwierzytelnienia. Przykładowo, w systemach Unixowych lub Windowsowych, każdy użytkownik dysponuje bezpośrednio lub pośrednio (poprzez grupy użytkowników lub atrybut dostępu dla wszystkich/pozostałych) pewne prawa dostępu do każdego pliku w systemie plików. Nie może on uzyskać dostępu do plików i katalogów do których nie ma uprawnień. Uprawnienia te zazwyczaj dzielą się na: dostęp do odczytu, zapisu, wykonywania (plików wykonywalnych) czy przeglądania/wejścia do (katalogu).
Drugi z tych celów realizowany jest np. przez programową realizacje macierzy dyskowych RAID 1+, pozwalających na rozproszenie danych na wielu dyskach HDD/SSD w taki sposób, aby po uszkodzeniu jednego z nich, dane te nie były tracone.
K3. Problem komputerowo wspomaganej diagnostyki medycznej i metody budowy algorytmów diagnostycznych
Diagnostyka medyczna służy rozpoznawaniu chorób. Algorytmu diagnostyczne budowane są na podstawie zbioru sklasyfikowanych danych/próbek, bądź bazy wiedzy.
Do najprostszych systemów/algorytmów zaliczamy systemy eksperckie, które na podstawie bazy wiedzy o chorobach i ich objawach (budując drzewa decyzyjne), zadają użytkownikowi pytania dotyczące symptomów znanych chorób i na podstawie zebranych odpowiedzi z pewnym prawdopodobieństwem są w stanie postawić diagnozę.
Innymi systemami/algorytmami są klasyfikatory, które często bazują na sieciach neuronowych i są stosowane do klasyfikacji/rozpoznawania zobrazowań medycznych np. zdjęć, RTG, tomogramów itp. Klasyfikator – sieć neuronowa uczy się przy pomocy bazy danych wejściowych wraz z przypisanymi im etykietami np. zdjęć zmian skórnych i wartości binarnej – czy jest to nowotwór złośliwy, czy też nie. Dane poddawane klasyfikacji muszą być wstępnie przetworzone, w taki sposób aby klasyfikator mógł być możliwie jak najprostszy, gdyż jego skomplikowanie przekłada się na długi czas uczenia się oraz złożoność obliczeniową każdej operacji klasyfikacji. Przetworzenie to polega np. na zamianie kolorowego zdjęcia zmiany skórnej, na jej obrys w kolorze białym, na czarnym tle.
K4. Zadania komputerowego przetwarzania biosygnałów na wybranym przykładzie (EKG)
FILTRACJA, ANALIZA, INTERPRETACJA, PQRST
Główne zadania/etapy to:
- filtracja – odebrane sygnały posiadają zakłócenia których trzeba się pozbyć,
- analiza – segmentyzacja, parametryzacja, pozyskanie cech
- interpretacja – diagnostyka/klasyfikacja zebranych danych
Wybrany przykład: EKG – elektrokardiograf
EKG jest to badanie polegające na zbieraniu informacji o napięciach pomiędzy różnymi punktami na powierzchni klatki piersiowej pacjenta przy pomocy elektrod. Sygnały te generowane są poprzez skurcze mięśnia sercowego i informują nas o pracy serca.
Na etapie filtracji odsiewane są sygnały składowe o częstotliwościach poniżej 0,2-0,5 Hz oraz powyżej 25-35 Hz.
Następnie z wykresu wyodrębniane są poszczególne okresy – “bicia” serca i oznaczane są kolejne punkty charakterystyczne – PQRST.
Dalej bazując na amplitudach i czasach oznaczonych punktów, sygnał jest interpretowany i wykrywane są w nim anomalie.
K5. Metody i narzędzie wykorzystywane w opisywaniu procesów biznesowych
Proces biznesowy – seria zaplanowanych działań, prowadzących do rozwiązania problemu bądź osiągnięcia określonego celu.
Typy: zarządczy, operacyjny (produkcja) i pomocniczy (np. księgowość)
Metody:
- BPMN (Business Process Modeling Notation) – graficzna notacja do przedstawiania i opisywania procesów biznesowych. Wspierana przez większość systemów ERP i WorkFlow.
- BPEL (Business Process Execution Language for Web Services) – język oparty na XLM-u do opisu procesów biznesowych. Istnieje możliwość zapisu BPMN do BPEL.
- UML (Unified Modeling Language) – formalny język do modelowania różnego rodzaju systemów, z nastawieniem na systemy informatyczne i oprogramowanie
Narzędzia:
- Microsoft Visio
- BPEL Designer Project
K6. Bezpieczeństwo komunikacji bezprzewodowej i transakcji sieciowych
Jest to bardzo szeroki temat, przedstawione zatem zostaną najpopularniejsze ataki na sieci bezprzewodowe:
- Atak Denial of Service (DoS) – atak uniemożliwiający skorzystanie z usługi, w przypadku sieci bezprzewodowych może to być zwykłe zakłócanie pasma częstotliwości, bądź też UDP flood, TCP syn flood.
- Evil Twin Attack – atak dla otwartych sieci Wi-Fi, polegający na podstawieniu fałszywego punktu dostępowego sieci ofiary, nadającego z większą mocą w danym punkcie niż istniejący AP, tak aby ofiara przełączyła się do niego
- Cracking szyfrowania WEP – potrzebne jest przechwycenie niewielkiej ilości pakietów – wystarczy kilka minut. Każde dwa pakiety szyfrowane tym samym kluczem pozwalają na odkrycie 1 bitu z 24 bitowego klucza sieciowego.
- Łamanie WPA2-PSK – Samo złamanie szyfrowania WPA2-PSK nie jest jeszcze możliwe, jednak istnieje możliwość przechwycenia bardzo dużej ilości pakietów korzystających z tego samego klucza i łamanie go metodą brute force. Łamanie w ten sposób WPA2-Enterprise nie jest możliwe, gdyż klucze generowane są per użytkownik per sesje, podczas logowania z wykorzystaniem loginu i hasła oraz serwera RADIUS.
K7. Analiza systemów informatycznych z użyciem sieci Petriego
Sieci Petriego to MATEMATYCZNA PREZENTACJA SYSTEMÓW ROZPROSZONYCH. Pozwala ona na badanie zjawisk wspóbieżnych.
Składają się one z:
- miejsc
- przejść
- łuków/krawędzi
Do opisania stanu sieci potrzebne są markery umieszczone w miejscach.
Działanie sieci polega na przesuwaniu się markerów pomiędzy miejscami (wejściami, a wyjściami). Następuje to w momencie odpalenia przejścia, a to może nastąpić tylko jeśli we wszystkich miejscach wejściowych umieszczone są markery. Odpalenie przejścia powoduje usunięcie po jednym (lub wielokrotność) markerze z miejsca wejściowego i umieszczeniu po jednym (lub wielokrotność) w miejscu wyjściowym.
Właściwości sieci:
- osiągalność – istnieje skończona liczba przejść
- ograniczoność – liczba markerów w danym miejscu jest ograniczona
- zachowawczość – stała liczba markerów w sieci
- żywotność – z każdego ustawienia markerów można przejść do innego
- odwracalność – możliwy jest powrót do konfiguracji początkowej
Do analizy sieci wykorzystuje się min. drzewa osiągalności (grafy pokrycia oraz metodę algebraiczną) – rysuje się drzewo kolejnych możliwych stanów sieci po odpaleniu różnych sekwencji przejść.
K8. Weryfikacja modelowa z zastosowaniem logiki temporalnej
Logika temporalna jest rozszerzeniem logiki tradycyjnej o symbole określające upływ czasu.
Zastosowanie logiki temporalnej:
- Głównie modelowanie i weryfikacja systemów współbieżnych – składających się z jednocześnie wykonywanych procesów działających na tych samych danych
- Także Modelowanie i weryfikacja systemów reaktywnych – działających na zasadzie akcja-reakcja, wobec pojawiających się okoliczności.
W wariancie LTL (Linear Temporal Logic) mamy do czynienia z dyskretnym czasem liniowym – nierozgałęziającym się. Oprócz standardowych operatorów logicznych (negacja, koniunkcja czy alternatywa) mamy do czynienia z następującymi operatorami:
- U – “dopóki” – pUq – q jest prawdziwe w pewnym momencie (p jest prawdziwe wcześniej)
- X – “następnie” – Xp – p jest prawdziwe w następnym momencie
- G – “zawsze” – Gp – p jest zawsze prawdziwe
- F – “dopóki” – Fp – p jest prawdziwe w pewnym momencie
W wariancie CTL (Computation Tree Logic) mamy doczynienia z dyskretnym czasem rozgałęzionym. Dochodzą następujące operatory:
- A – dla każdej możliwej ścieżki
- E – dla pewnej możliwej ścieżki