Indice degli argomenti



Scaricare 446 b.
03.06.2018
Dimensione del file446 b.



Indice degli argomenti













La rete GARR



La Comunità GARR

  • Università ed Enti impegnati nella realizzazione del progetto: CNR, ENEA, INFN, INAF

  • Organismi di ricerca: ASI, INFM, INGV, …

  • Consorzi per il Calcolo: CASPUR, CILEA, CINECA, …





Il GARR negli anni



Algoritmi di routing



Un algoritmo di routing statico (Dijkstra – 1959)



Altro esempio di algoritmo di routing statico, il flooding e il flooding selettivo:



Un algoritmo di routing dinamico (distance vector routing)



Routing basato sullo stato dei canali (link state routing)



I sistemi autonomi: AS



Un interior gateway protocol: l’OSPF Open Shortest Path First)



Un esterior gateway protocol: il BGP (Border Gateway Protocol)



BGP: esempio di calcolo di una rotta



Gli indirizzi IP e lo spazio dei nomi



Gli indirizzi IP



Gli indirizzi IP



Gli indirizzi IP



Gli indirizzi IP



Collegamento tra calcolatori: sessioni remote



Associazione nome-indirizzo IP



Esplodono le tabelle di routing: il CIDR (Classless InterDomain Routing)



Esplodono le tabelle di routing: il CIDR (Classless InterDomain Routing)



Dall’IPV4 all’IPV6



Nasce l’IPV6



Confronto IPV4 - IPV6



La sicurezza con IPV6



la migrazione da IPv4 a IPv6



Lo Spazio dei Nomi



Ditributed Information Tree



Root Server



Protocolli di Rete



Protocolli di rete orientati alla connessione



Protocolli di rete non orientati alla connessione



I MODELLI DI RIFERIMENTO OSI E TCP/IP



COMUNICAZIONE TRA I LIVELLI



I – Il livello fisico



II – Il livello coollegamento dati (data link)



III – Il livello di rete



IV – Il livello di trasporto



V – Il livello di sessione



VI – Il livello di presentazione



VII – Il livello di applicazione



Confronto OSI – TCP/IP



Trasmissione dati in TCP/IP



Trasmissione dati in TCP/IP



Cosa devono fare i livelli III e IV (rete e trasporto) ?



Cosa devono fare i livelli III e IV (rete e trasporto) ?



Un esempio reale: TCP su ATM



Un esempio reale: TCP su ATM



I progetti del GARR



Il problema dell’archiviazione e della distribuzione dei dati



Floppy disk anni 80-90: da 80 KB a 1,44 MB



Hard Disk dei anni 80-90



Hard Disk odierni

  • Hard disk da 250 GByte



Memorie flash di oggi



Distribuzione delle risorse NFS (Network File System) AFS (Andrew File System)



Condivisione dischi: NFS

  • anni 80: la Sun Microsystem propone NFS (Network File System)

  • soddisfa le esigenze solo su lan

  • non gestisce molto bene la sicurezza

  • non ci sono grossi accorgimenti per limitare il traffico di rete



Con NFS i “file system” NON si ereditano



Condivisione dischi: AFS

  • Verso la fine degli anni 80 nasce AFS, Andrew File System, distribuito dalla Transarc Corporation (verrà assorbita dall’IBM)

  • Soddisfa le esigenze su wan

  • Gestisce abbastanza bene la sicurezza (kerberos)

  • Prevede alcuni accorgimenti per limitare il traffico di rete



Con AFS i “file system” SI ereditano



“Albero” di AFS



Caratteristiche di AFS



Soluzioni troppo complesse!

  • Ciò che abbiamo visto sono soluzioni tecnicamente complesse destinate ad essere utilizzate solo dagli addetti ai lavori,

  • ma …



Al CERN di Ginevra (Centro Europeo Ricerche Nucleari), nel 1989 …



… al Cern nasce il WWW (World Wide Web)



Problemi di compatibilità risolti



Il WWW (World Wide Web)

  • 1991 - si ha la prima dimostrazione al pubblico del web alla conferenza Hypertext a S. Antonio nel Texas

  • 1993 - fu creata la prima interfaccia grafica denominata Mosaic presso l’NCSA (National Center for Supercomputing Applications)



Il WWW a Napoli il 23 novembre 1993

  • Il primo server WWW ufficiale dell’Italia meridionale fu realizzato presso la

  • Sezione di Napoli

  • dell’Istituto Nazionale di Fisica Nucleare (INFN)

  • ed il

  • Dipartimento di Scienze Fisiche dell’ Università di Napoli Federico II

  • ad opera di

  • Luca Lista

  • Leonardo Merola



Esigenze dei fisici

  • Archiviazione

  • di grandi quantità di dati

  • Elaborazione

  • di grandi quantità di dati



Un po’ di nomenclatura



Le onde gravitazionali



L’esperimento Virgo a Cascina (Pisa)



Osservatorio astronomico di La Silla in Cile



Immagini dallo spazio



Ginevra Centro Europeo Ricerche Nucleari







L’acceleratore sarà pronto nel 2007; vi lavorano 6000 persone; produrrà circa 12 PetaBytes di dati all’anno cioè: 12.000.000.000.000.000 Byte pari a circa 20 milioni di CD ! L’analisi dei dati richiederà una potenza di calcolo pari a 70.000 PC !!! Da dove prenderemo tutte queste risorse di calcolo ?



Condor High Throughput Computing



L’esigenza: grandi potenze di calcolo per lunghi periodi di tempo



La soluzione Condor

  • Un sistema di calcolo distribuito sviluppato presso l’Università del Wisconsin

  • l’INFN collabora allo sviluppo e alla configurazione di tool su wide area network e all’adattabilità alle proprie esigenze di calcolo



L’idea di Condor

  • poter sfruttare macchine inattive facendoci girare programmi che hanno bisogno di un elevato tempo di cpu

  • poter restituire immediatamente la macchina al proprietario e continuare con un sistema automatico i propri job altrove senza perdere i calcoli già effettuati



Come funziona Condor

  • S’individuano le macchine che adersicono all’iniziativa formando quello che viene detto un Pool di Condor

  • tra le macchine del Pool s’individuano quelle che faranno da Central Manager e da Checkpoint Server



Cosa fa il Central Manager

  • individua nel pool una macchina idle che risponda ai requisiti richiesti dal job che deve essere lanciato (ram, clock, sistema operativo, distanza ecc.)



A cosa serve il Checkpoint Server

  • Importa periodicamente dalle macchine su cui girano i job le immagini dei processi

  • qualora la macchina su cui gira un job dovesse andare in crash, verrà recuperata l’ultima immagine del processo presente sul Checkpoint Server e verrà fatta girare sulla nuova macchina individuata dal Central Manager



Cosa fa il Checkpoint Server (continua)

  • qualora la macchina su cui gira un job non sia più disponibile, vuoi perché serve al suo proprietario vuoi perché sia andata in crash, allora il Checkpoint preleverà l’immagine del processo e la sposterà su un’altra macchina indicata dal Central Manager; il job ripartirà dal punto dove si era fermato



Come si fa a eliminare un job di Condor dalla propria macchina?



Cos’è un sub-pool?

  • È un pool inserito nel pool nazionale di Condor che dà la massima priorità alle macchine locali

  • la sua implementazione è trasparente all’utente



Schema di funzionamento di Condor



Un’applicazione pratica: LinuXTerminal



Risultati del Pool di Condor nell’ INFN





La rete e il Calcolo Parallelo

  • Con l’introduzione delle reti il calcolo parallelo non si basa più soltanto su macchine multiprocessore ma vengono sempre più spesso usate farm di workstation.



Intel-Linux-Farm

  • Offre agli utenti un ambiente di calcolo e sviluppo ad alte prestazioni;

  • è allineata con gli attuali orientamenti in materia di sistema operativo e piattaforma di sviluppo;

  • ha un basso costo d’implementazione;

  • si può disporre di tool OpenSource all’avanguardia (MOSIX, PVM, MPI);

  • si possono creare nodi diskless che richiedono manutenzione minima;



Farm su Switch Ethernet



Stato dell’arte

  • Attualmente quasi tutti i tool utilizzati per il calcolo parallelo non prevedono la migrazione dei processi verso le workstation più scariche; l’allocazione processo-CPU è di tipo statico.



Mosix

  • MOSIX é un’estensione dei kernel Unix-like, come Linux, ed è formato da una serie di algoritmi per la condivisione adattiva delle risorse. Questi algoritmi sono progettati in modo da rispondere, in tempo breve, alle variazioni di utilizzo delle risorse all'interno di un cluster di workstation.



L’architettura di Mosix

  • un meccanismo per la migrazione automatica dei processi (Preemptive Process Migration)

  • un set di algoritmi per la condivisione adattiva delle risorse.



Preemptive Process Migration

  • Il modulo PPM consente la migrazione di qualsiasi processo verso uno dei nodi disponibili. La migrazione viene determinata in modo automatico dalle informazioni fornite dagli algoritmi per la condivisione adattiva delle risorse, oppure manualmente degli utenti.



Ottimizzazione della memoria.

  • A seguito di un paging causato da poca memoria disponibile da parte di un nodo, questo algoritmo fa migrare il processo verso un nodo con memoria libera sufficiente. Questa ottimizzazione è prioritaria e viene effettuata anche a scapito del corretto bilanciamento del carico all’interno della farm.



Algoritmo di load-balancing dinamico

  • Questo algoritmo cerca continuamente di ridurre le differenze di carico tra coppie di nodi, migrando i processi dal nodo più carico verso quello più scarico. L’esecuzione è totalmente decentralizzata: ciascun nodo esegue lo stesso algoritmo e la riduzione di carico è effettuata in maniera indipendente per coppie di workstation. Il numero di processori di ciascun nodo e la loro velocità sono dei fattori presi in considerazione nelle scelte che vengono effettuate da questo algoritmo.





Esempio reale: test algoritmi Esperimento Virgo



Mosix: sintesi caratteristiche

  • Attualmente quasi tutti i tool utilizzati per il calcolo parallelo non prevedono la migrazione dei processi verso le workstation più scariche.

  • MOSIX é un’estensione dei kernel Unix-like ed è in grado di rispondere, in tempo breve, alle variazioni di utilizzo delle risorse all'interno di un cluster di workstation

  • Migrazione dei processi: Mosix consente la migrazione automatica dei processi da un nodo all’altro in funzione del carico delle CPU; il numero di processori di ciascun nodo e la loro velocità sono alcuni dei fattori presi in considerazione

  • Ottimizzazione della memoria: a seguito di un paging causato da poca memoria, i processi possono migrare automaticamente verso un nodo con memoria libera sufficiente

  • openMosix File System (MFS): l’algoritmo di bilanciamento del carico consente ai processi di migrare verso i nodi su cui si devono fare operazioni di I/O su disco

  • Tool di sviluppo: Mosix si presta perfettamente all’utilizzo di librerie per il calcolo parallelo e scientifico (PVM, MPI, NAG, CERNLIB, …)



Dal WEB …



… alla GRID



L’ambizione:

  • Creare una

  • WWG,

  • ovvero una

  • World Wide Grid



Macchine e Servizi GRID



Stato della Grid


















©astratto.info 2017
invia messaggio

    Pagina principale