Apache Spark & Big Data / Metrics at scale
Détails :
OVH Analytics Data Compute powered by Apache Spark and OVH Cloud
Speaker: Mojtaba Imani @ OVH
DevOps – Data Convergence Team
https://www.linkedin.com/in/mojtabaimani
https://twitter.com/smojtabaimani
90% of the data in the world today has been created in the last two years. The world will be creating 163 zettabytes of data a year by 2025. So how do we want to process this volume of data?
Apache Spark is an open-source distributed general-purpose cluster computing framework that is trending today. But the problem is that how to create a computing cluster fast and efficient? Should I do all network configuration and cluster management myself? What should I do with my cluster if I don’t need it anymore? Is my cluster secure?
After discovering Apache Spark principles and use cases, you will discover OVH Analytics Data Compute. A fast, secure, and efficient Spark Cluster as a Service which is going to give answers to all these questions.
——————————————————-
Monitoring OVH: 300k serveurs, 27DCs, une plateforme de metric
Speaker: Horacio Gonzalez @ OVH
Dev- Plateform Team
Tweets by LostInBrittany
Comment faire quand on doit faire le suivi de toute l’infrastructure du plus grand fournisseur de cloud Européen ? Comment choisir un outil quand les plus populaires ne tient pas la marée à cette échèle ? Comment construire une plateforme Metrics/Observability pour unifier, concilier et remplacer des années de legacy fragmenté et des solutions partielles ?
Dans ce talk nous racontons notre expérience sur la construction et la maintenance d’OVH Metrics/Observability, la plateforme utilisée pour monitorer toute l’infrastructure OVH. Nous avions besoin d’aller à des endroits ou la plupart de solutions de monitoring ne sont jamais allées, opérer à l’échelle du plus grand fournisseur Européen de cloud et hosting : 27 data centers, plus de 300k serveurs (physiques !) et des centaines de produits pour accomplir notre mission avec nos 1,3 millions de clients.
Venez pour entendre cette histoire de séries temporelles, de solutions open-sources poussées à l’extreme, de clusters HBase opérés en limite de capacité, et de comment une petite équipe s’est appuyé sur une poignée de solutions open-source et une bonne dose de code maison pour construire une des solutions de monitoring les plus performantes au monde.