Difference between revisions of "Lezioni Anno Accademico 2017/18 II semestre"
Line 176: | Line 176: | ||
neg.P() | neg.P() | ||
pos.V() | pos.V() | ||
+ | </syntaxhighlight> | ||
+ | Soluzione alternativa, meno di stile ma ugualmente funzionante | ||
+ | <syntaxhighlight lang=c> | ||
+ | class ternarySemaphore | ||
+ | |||
+ | semaphore queue | ||
+ | semaphore mutex | ||
+ | int value | ||
+ | |||
+ | void ternarySemaphore(int init) | ||
+ | void P(void) | ||
+ | void V(void) | ||
+ | |||
+ | void ternarySemaphore(void init) | ||
+ | mutex = new semaphore(1) | ||
+ | value = init | ||
+ | queue = new sem_queue | ||
+ | |||
+ | void P(void) | ||
+ | mutex.P() | ||
+ | if(value == 1 && !queue.empty()){ | ||
+ | s = queue.dequeue() | ||
+ | s.V() | ||
+ | }else{ | ||
+ | if(value == -1){ | ||
+ | s = new semaphore(0) | ||
+ | queue.enqueue(s) | ||
+ | mutex.V() | ||
+ | s.P() | ||
+ | }else{ | ||
+ | value-- | ||
+ | mutex.V() | ||
+ | } | ||
+ | } | ||
+ | |||
+ | void V(void) | ||
+ | mutex.P() | ||
+ | if(value == -1 && !queue.empty()){ | ||
+ | s = queue.dequeue() | ||
+ | s.V() | ||
+ | }else{ | ||
+ | if(value == -1){ | ||
+ | s = new semaphore(0) | ||
+ | queue.enqueue(s) | ||
+ | mutex.V() | ||
+ | s.P() | ||
+ | free(s) | ||
+ | }else{ | ||
+ | value++ | ||
+ | mutex.V() | ||
+ | } | ||
+ | } | ||
</syntaxhighlight> | </syntaxhighlight> | ||
Revision as of 22:37, 20 March 2018
Lezione del 28 febbraio 2018
Inizia oggi la seconda parte del corso di Sistemi Operativi che si terrà dal 28/02/18 al 25/05/18.
Le lezioni si svolgeranno, il mercoledì e il giovedì, in aula E1. Il venerdì invece ci sposteremo in M1.
La suddivisione degli argomenti trattati sarà: mercoledì teoria, giovedì tendenzialmente parte progettuale (potrebbe iniziare con un po' di teoria) e venerdì, data la scarsa dotazione dell'aula assegnataci, verranno svolti esercizi scritti in preparazione all'esame.
Nel corso della lezione ci siamo chiesti, riprendendo un po' il filo logico delle lezioni dello scorso semestre, quali siano i servizi che ci aspettiamo da un sistema operativo.
Questa volta, tuttavia, non li analizzeremo dal punto di vista dell'utilizzatore, ma da un punto di vista interno al sistema stesso.
I servizi elencati sono stati:
- Scheduling (Gestione CPU)
- Gestione dei processi
- Gestione della memoria primaria
- Gestione dei device di I/O
- Gestione della memoria secondaria
- Filesystem
- Networking
- Protezione
- Shell
Come in tutta l'informatica spesso succede, la complessità di questi servizi viene gestita tramite la creazione di livelli di astrazione.
Il livello zero di astrazione, quello più basso, sarà l'hardware che noi dovremo considerare come un linguaggio (l'ISA del processore).
Seguito poi da due blocchi:
- Kernel
- Utente
Cosa va incluso nel kernel di un S.O.? Cosa nella parte utente? Meglio massimizzare o minimizzare le operazioni nello livello kernel?
KERNEL MONOLITICO O MICRO-KERNEL?
I kernel monolitici (tipo Linux) hanno il vantaggio di essere leggermente più performanti, mentre i microkernel (che presentano più livelli di astrazione) sono molto più flessibili e facili da manutenere. Ad esempio, nei microkernel un bug non obbliga necessariamente a riavviare la macchina perché è possibile riavviare il singolo "modulo" che presenta l'errore.
Lezione del 1 marzo 2018
La lezione tace come concordato con gli studenti.
Lezione del 2 marzo 2018
La lezione tace causa chiusura dell'intero Ateneo per condizioni climatiche avverse.
Lezione del 7 marzo 2018
Tutto incomincia dal boot, la fase che carica il kernel, la quale termina subito dopo la creazione del primo processo (init) tramite la compilazione della tabella (come si vede sotto) che verrà passata allo scheduler. Una volta caricato, il kernel ha davanti una gradissima diversità di modelli hardware, ma come utilizzare tutti questi dispositivi hardware? Una prima soluzione sarebbe quella di includere nel kernel tutti i relativi device driver, tuttavia il kernel diventerbbe davvero corposo, a meno che non si crei un kernel ad hoc per una specifica macchina. Un'altra soluzione (quella comunemente adottata) utilizza i moduli. I moduli vengono caricati dal kernel all'occorrenza senza essere inseriti direttamente in esso (non è quindi necessaria la ricompilazione).
Tuttavia con quest'ultima soluzione si viene a creare un dilemma, ovvero:
Chi carica i moduli? Il kernel.
Chi carica il kernel? Il boot tramite moduli.
In verità non esiste solo il kernel ma anche un filesystem che contiene i moduli chiamato "init.rd" (inutile se il kernel è configurato per una specifica macchina). Arrivati a questo punto ci si chiede: come si compila un kernel? Prima di tutto occorrono i sorgenti (quelli di linux sono reperibili su https://www.kernel.org). Una volta scaricati, si deve configurare il file “.config” che sostanzialmente descrive le specifiche del kernel. Questo file lo si può configurare a mano o tramite il “menuconfig” che dovrà essere prima di tutto opportunatamente compilato. All'interno del menuconfig tra le altre cose c'è una lista di tutti i device driver supportati e possono essere spuntati con: * (driver inserito nel kernel) o M (creazione del relativo modulo). Una volta configurato il “.config” non resta che compilare il kernel per la macchina ospite o per una specifica architettura. Ad esempio:
wget link_of_kernel_source #scarica i sorgenti
tar xf source_compressed_file # decomprime i relativi sorgenti, in questo caso dal file.tar.xz
cd linux #entra nella directory dei sorgenti
(Di regola esiste già un .config standard ma per configurarlo)
make menuconfig
make #compila il kernel per la macchina ospite
(make -arch=armhf, compila secondo l'architettura dei processori armhf)
( make -j n, compila il kernel per la macchina ospite utilizzando i suoi n-1 core)
Una volta compilato l'immagine del kernel si troverà in arch/nome_architettura/boot/bzImage.
Ora si ricordi la differenza tra processo e thread: Il processo è l'entità titolare delle risorse, mentre il thread è la componente sequenziale dell'elaborazione. Nei sistemi monothread il concetto di thread si sovrappone al concetto di processo ma in linea generale un processo può avere anche più di un thread. Ma quali sono le caratteristiche principali dei processi e dei thread?
Processo (PCB) | Thread (TCB) |
---|---|
ID (self, parent,child etc) | ID |
Info sulla memoria (puntatore alla tabella dei segmenti) | Stato del processore |
File aperti | Stato: Ready, Running,Block |
Ownership | Puntatori |
Interprocess comunication | |
Informazioni sull'accounting |
Modo Kernel e Modo User
Si definisce Mode Switch il passaggio da Kernel Mode a User Mode e viceversa (esiste tale differenza per motivi di sicurrenzza). Attenzione però a non confondere la kernel mode con i permessi di root (root è l'utente con più permessi in assoluto ma è comunque gestito in user mode).
Si definisce Context Switch il passaggio di processi. Ad esempio un processo A in user mode si ferma e passa il controllo al trap che tramite lo scheduler chiama un altro processo.
Da qui si capische che è lo scheduler a decidere il prossimo processo da mandare avanti (tramite la Ready Queue). Un tipico scheduler è lo scheduler FIFO non preemptive (ossia il processo in esecuzione utilizzerà il processore finché non passerà allo stato di wait o termina l'esecuzione) per sistemi batch.
I thread posso essere creati sia in modo kernel che in modo user.
Lezione del 8 marzo 2018
Lo scheduler è quella parte del sistema operativo che si occupa di assegnare le risorse (specialmente il processore) ai vari processi, decidendone l'ordine e il tempo di esecuzione. Di scheduler ne esistono di 2 tipi; quelli non-preemptive (o cooperative) dove il context switch avviene solo se il processo in esecuzione fa I/O o una system call bloccante passando allo stato di wait o termina e quelli preemptive quando il processo in esecuzione può passare allo stato ready mediante un interrupt.
I criteri con cui vengono scelti gli scheduler sono:
- Throughput: la quantità di processi completati per unità di tempo
- Turnaround: il tempo che intercorre da quando un processo entra nella coda ready fino alla fine della sua esecuzione
- Percentuale di utilizzo del processore
- Tempo di attesa: quanto tempo tempo un processo rimane nella coda ready prima di iniziare la sua esecuzione
Partendo dal più semplice da realizzare, troviamo lo scheduler FCFS (First Come, First Served), il quale usa una politica FIFO quindi i processi vengono eseguiti in ordine di arrivo, è cooperative e non è per nulla efficiente.
Uno scheduler più avanzato, ma sempre cooperative, è lo SJF (Shortest Job First) che da la priorità ai processi con meno tempo di CPU burst (tempo di utilizzo del processore). Il tempo di utilizzo della CPU viene stimato basandosi sulle precedenti esecuzioni e calcolato mediante la media esponenziale dando maggior peso alle esecuzioni più recenti. Una variante preemptive del SJF è lo Shortest-Remeaning-Time First il quale fa passare dallo stato running a ready un processo se nel frattempo arriva nella coda ready un altro processo con un tempo di CPU burst più breve. Il problema principale però è che entrambi possono generare starvation.
Lo scheduler Round-Robin, di tipo preemptive, fa uso della Time-Slice (ovvero un quanto di tempo). I processi vengono eseguiti in ordine di arrivo ma possono rilasciare il processore anticipatamente nel caso in cui finisca la time-slice a loro disposizione. Per implementare questo scheduler, tuttavia, è necessario un supporto hardware chiamato "interval time", il quale non fa altro che generare un input ogni tot tempo scelto dal sistema operativo, questo input non ha nessuno scopo se non quello di generare un interrupt che possa interrompere l'esecuzione di un processo. La time-slice non piò essere troppo breve perché il context-switch ha un costo, non è istantaneo, ma nemmeno un troppo lunga altrimenti non si avrebbe l'idea di un sistema fluido ed istantaneo.
Esistono anche gli scheduler che assegnano una priorità ai processi ed eseguono prima quelli con priorità più elevata. Questi scheduler esistono sia con priorità statica, che con priorità dinamica, ma potendo generare starvation, quelli con priorità dinamica possono utilizzare l'aging, ossia un processo con priorità bassa aumenta di volta in volta la sua priorità fino a diventare massima per poi, una volta eseguito, tornare alla priorità originaria. Un po' più complessi sono gli scheduler con classi di priorità, in cui la coda ready è divisa in diverse sottocode, una per ogni classe di processi. Gli scheduler multilivello utilizzano sempre le classi di priorità ma assegnano ad ogni classe delle politiche diverse, adatte per i processi che contiene.
Per applicazioni particolari, in cui la correttezza del programma dipende da tempo entro i quale viene data la risposta, esistono gli scheduler real-time.
Lezione del 9 marzo 2018
Esercizi su monitor e semafori degli esami di gennaio e febbraio 2018.
Testo:
Monitor bridge
boolean bridge_is_down
int crossingCars
int crossingBoat
int waitingCars
int waitingBoats
condition ok2cars
condition ok2boats
procedure_entry car_enter(direction)
if(crossingBoat || waitingBoats > 0){
waitingCars++
ok2cars.wait()
waitingCars--
}
bridge_is_down = true
crossingCars++
ok2cars.signal()
procedure_entry car_exit(direction)
crossingCars--
if(crossingCars == 0) ok2boat.signal()
procedure_entry boat_enter(direction)
if(crossingCars > 0 || crossingBoat > 0){
waitingBoats++
ok2boat.wait()
waitingBoats--
}
bridge_is_down = false
crossingBoat++
procedure_entry boat_exit(direction)
crossingBoat--
ok2cars.signal()
if(crossingCars == 0) ok2boat.signal()
Testo: implementare, utilizzando semafori ordinari, i semafori ternari
class ternarySemaphore
semaphore pos
semaphore neg
void ternarySemaphore(int init)
void P(void)
void V(void)
void ternarySemaphore(void init)
// init is -1 or 1
pos = new semaphore(1 + init)
neg = new semaphore(1 - init)
void P(void)
pos.P()
neg.V()
void V(void)
neg.P()
pos.V()
Soluzione alternativa, meno di stile ma ugualmente funzionante
class ternarySemaphore
semaphore queue
semaphore mutex
int value
void ternarySemaphore(int init)
void P(void)
void V(void)
void ternarySemaphore(void init)
mutex = new semaphore(1)
value = init
queue = new sem_queue
void P(void)
mutex.P()
if(value == 1 && !queue.empty()){
s = queue.dequeue()
s.V()
}else{
if(value == -1){
s = new semaphore(0)
queue.enqueue(s)
mutex.V()
s.P()
}else{
value--
mutex.V()
}
}
void V(void)
mutex.P()
if(value == -1 && !queue.empty()){
s = queue.dequeue()
s.V()
}else{
if(value == -1){
s = new semaphore(0)
queue.enqueue(s)
mutex.V()
s.P()
free(s)
}else{
value++
mutex.V()
}
}
Lezione del 14 marzo 2018
Lezione del 15 marzo 2018
Nessuna lezione.