Vous découvrirez le paradigme de distribution MapReduce, qui est à la base de la majorité des outils estampillés Hadoop et Big Data. Vous seront ensuite présentés le framework Apache Spark, qui se libère de l'aspect "Big Data" pour offrir un modèle de distribution de calculs beaucoup plus générique, ainsi qu'un retour d'expérience de l'utilisation de Spark en laboratoire. Des retours d'expériences vous seront donnés sur les architectures matérielles, l'écosystème (vendeurs commerciaux qui distribuent la solution Open-Source, projets apache connexes et grands acteurs du milieu), l'utilisation des librairies de Machine learning ainsi que sur l'application de Spark pour résoudre une problématique en astrophysique.