Scalabilité des ressources Cloud dans un environnement Big Data

Comment libérer le potentiel du Big Data dans un environnement Cloud ?

Image encart

Lorsque l’on parle de scalabilité, il est courant d’opposer deux approches :

  • la scalabilité horizontale, qui consiste en l’ajout de ressources semblables à celles déjà en place dans le pool utilisé ou en la suppression d’unités de ressources au sein de ce pool.
    • ajouter de nouveaux volumes de stockage sur une machine virtuelle est de la scalabilité horizontale
  • la scalabilité verticale, qui consiste en la modification des caractéristiques de la ressource.
    • remplacer un volume de stockage par un volume plus gros est de la scalabilité horizontale

Bien que le Cloud offre des possibilités de scalabilité horizontale comme verticale, il est préférable de capitaliser sur la scalabilité horizontale, plus simple à mettre en place et moins intrusive. Il est à noter que les problématiques de scalabilité ne concernent pas exclusivement le stockage, mais également les capacités de calcul, au travers de la RAM et des CPUs dans le cadre du Cloud.

 

Hadoop Hardware Configuration Priorities By Workload

En fonction de la typologie des données à analyser, de la complexité des filtres et des algorithmes qui vont être appliqués pour créer de la valeur, il va être nécessaire de dimensionner correctement les machines utilisées dans le cadre de l’architecture Big Data mise en place.

  • Plus les traitements à effectuer seront complexe, plus les CPUs seront sollicités.
  • Plus les algorithmes devront traiter des sources de données diverses et nombreuses simultanément, plus il sera nécessaire de doter les machines de RAM et d’utiliser des disques de stockage véloces.

Prendre en compte ces besoins permet d’optimiser le coût de la solution tout en étant sûr de traiter de manière optimale les données dont la valeur doit être extraite. C’est l’expérience qui permet de juger quelle est la quantité de RAM, de CPU et de stockage qui sera optimale pour une utilisation donnée d’une plateforme Big Data. Grâce aux capacités de scalabilité du Cloud, il est cependant simple de construire une architecture Big Data qui ne sera pas spécialement optimisée, et d’adapter la consommation des différents types de ressources au cours de son utilisation.

En fonction de l’usage et de la croissance des besoins de traitement, le Cloud permet également d’automatiser cette scalabilité des éléments, en ajoutant ou enlevant dynamiquement du stockage et de la puissance de calcul au sein de l’infrastructure Big Data.

Déployer une plateforme Big Data dans le Cloud au travers d’une distribution Hadoop permet de faire face aux enjeux présentés par le traitement des grands volumes de données, d’une manière performante et optimisée. En alliant une infrastructure flexible et des solutions de traitement des données, il est possible de tirer parti de sources de valeurs encore inexploitées. Cette association du Cloud et du Big Data offre ainsi des opportunités de transformation nouvelles et sont un véritable levier d’innovation.

Les modèles Cloud peuvent permettre d’exploiter plus rapidement le potentiel du Big Data, à travers un environnement scalable, flexible et efficace pour traiter la masse de données. Yannick Foeillet, Cloud Architect d’Outscale, fournisseur de Cloud, vous montrera  lors d’une conférence « Jems Data Connect » d’Alain Kervinio, Consultant Systems engineer – Data & Analytics lead -, de Cisco, la puissance du Cloud à travers un cas client, le 02 juin 2016 à partir de 16h, à la Grande Arche de la Défense. Venez nombreux !

 

Pour plus d’informations et vous inscrire gratuitement : 

Inscription Gratuite

Par Yannick Foeillet. Autodidacte et féru de langage informatique, il pilote l’avant-vente et l’automatisation des services Cloud auprès des utilisateurs d’Outscale. Une de ses principales missions, évangéliser les communautés techniques sur l’adoption du Cloud. Il a pour mission d’accompagner les DSI dans leur mutation « développement » vers l’infrastructure et s’empare de l’ensemble des débats et sujets liés au DevOps.

Partager :
Partager sur Twitter
Partager sur LinkedIn
Partager par email