Le but est d’introduire aux étudiants les technologies logicielles permettant le déploiement et l’exécution de calculs dans des infrastructures de type cluster (grappes de machines). De telles infrastructures sont très largement utilisées dans les domaines du cloud computing où des datacenters permettent l’hébergement externalisés de services, du big data et du machine learning pour le traitement et l’exploitation de grands volumes de données.
La première partie aborde les concepts et outils liés au cloud computing tels que la virtualisation (KVM), les conteneurs (Docker), les outils d’administration (OpenStack, Kubertenes) et les principaux services fournis par les opérateurs du cloud (AWS).
La seconde partie aborde les concepts et outils liés au big data tels que le traitement parallèle de données massives (Hadoop, Spark) et le traitement temps réel de données (Spark-streaming, Storm).












