TRANSFORM'IT
MENU

Cette analyse IDC est un guest blog par Eric Burgener, Directeur de recherche pour le marché du Stockage.

L’édification de la 3ème plateforme de l’informatique a entraîné l’émergence de nouvelles architectures de stockage. Ces architectures, comprenant des baies 100 % flash (AFA – All Flash Array) et des infrastructures hyperconvergées (HCI), étaient nécessaires pour résoudre un certain nombre de problèmes inhérents aux infrastructures de stockage classiques : Performances, augmentation des volumes de données (et donc des capacités d’expansion), productivité, fiabilité et efficacité (tant en termes de consommation énergétique que d’occupation d’espace). Aujourd’hui, certaines entreprises doivent prendre en charge leurs applications traditionnelles (bases de données relationnelles, plateformes de messagerie, de partage de fichiers) et intégrer les applications de nouvelle génération sur la même infrastructure virtualisée et consolidée. Portés par ces exigences, les marchés ont déjà atteint un niveau de maturité important. Et selon IDC, les AFA et HCI généreront respectivement des revenus de 5,5 et 4 milliards de dollars d’ici 2019. Une croissance importante quand on considère que ces produits ont été initialement introduits sur le marché il y a 5 ou 6 ans.

La 3ème plateforme, un changement d’échelle

Pour les dix prochaines années, IDC pense que la 3ème plateforme orientera les décisions en matière d’infrastructure informatique. Les applications de nouvelle génération dans les domaines de l’informatique mobile, des médias sociaux, du big data, de l’analytique et du cloud créent de plus en plus d’opportunités pour les entreprises avant-gardistes. En effet, ces dernières adressent de nouveaux clients et marchés avec des services inédits dont l’existence n’était pas envisageable il y a quelques années seulement.

Un des traits caractéristiques des nouvelles applications, c’est leur taille. Comme la plupart des nouvelles opportunités de marché reposent sur le traitement en temps réel de données brute en intelligence de marché, ces applications nécessitent des millions d’IOPS et travaillent avec des ensembles de données particulièrement importants. Conséquence : des besoins en bande passante énormes et des capacités se mesurant au moins en péta-octets (Po). Il faut donc ingérer des volumes de données colossaux, à l’échelle mondiale, et avec des latences inférieures à ce que les baies 100% flash peuvent fournir aujourd’hui.

L’IT en temps réel pour se démarquer

Le big data et l’analytique génèrent une source d’informations sans précédent pour les innovateurs, les développeurs et les spécialistes du marketing. Ils vont changer radicalement la façon dont les entreprises commercialisent leurs produits. Les entreprises doivent être capables de collecter et manipuler d’importants ensembles de données, incomparables à ceux qu’elles traitaient jusqu’à présent. Ici, la rapidité de traitement est critique. C’est ce qui fera la différence pour déceler les opportunités trop éphémères – et donc indétectables – pour les outils analytiques conventionnels.

Dans quelques années, les entreprises qui n’exploiteront pas le potentiel d’analyse en temps réel ou qui ne disposeront pas d’infrastructure informatique flexible seront pénalisées. Quand on voit comment le passage à la 3ème plateforme a porté les marchés du flash et de l’hyper-convergence, il est clair que l’analytique sera un des moteurs de la prochaine évolution de l’infrastructure de stockage.

Dépasser les limites des baies 100% flash

Pour prendre en charge les exigences d’analyse en temps réel au sein d’entrepôts de données en pleine évolution, les organisations ont essayé le 100% Flash. Malheureusement, ces systèmes ont été conçus pour des ensembles de données bien plus petits. Plus particulièrement, les AFA ont du mal à intégrer de nouvelles données tout en effectuant les analyses en temps réel. En conséquence, les AFA utilisées dans cette typologie d’environnements nécessitent un important travail de paramétrage manuel. Les workloads doivent être partitionnés et répartis sur plusieurs systèmes, à plusieurs reprises et avec plusieurs copies de ces ensembles de données partitionnés. De multiples copies sont nécessaires pour fournir les performances requises pour respecter les SLAs des différentes applications. Résultat : les capacités de stockage ne sont pas exploitées comme elles le devraient.

Par ailleurs, les AFA n’offrent pas la bande passante nécessaire pour faire face aux exigences des solutions d’ETL (extract, transformation & load) et aux solutions d’aide à la décision dans ces environnements Big Data. Les analystes et les administrateurs allouent donc beaucoup de temps au paramétrage des systèmes qui ne sont pas capables de s’adapter à ce type d’échelle.

Quatre facteurs de différenciation

Les nouvelles architectures de stockage, conçues pour faire face à ces exigences offriront probablement plusieurs éléments de différenciation.

  • Premièrement, pour fournir des performances élevées (à la fois en termes de latence et de débit élevé), la connexion hôte entre les serveurs et les baies doit évoluer et offrir des latences constantes inférieures aux 100 microsecondes. Une solution évidente à ce problème : étendre les bus internes du serveur et permettre le stockage mutualisé.
  • Deuxièmement, le système doit être construit autour de supports de stockage électroniques, sans contrainte de compatibilité par rapport à un quelconque type de disque rotatif. Les nouvelles technologies de mémoire offrent de nombreuses possibilités d’amélioration de la fiabilité, de diminution de la consommation d’énergie et d’amélioration de la densité de stockage (dans les limites de compatibilité avec des solutions existantes).
  • Troisièmement, la plateforme doit prendre en charge plusieurs types de données (structurées, non-structurées et semi-structurées) de manière simultanée et native. Et sans perte d’efficacité. Pas de préférence : les entreprises doivent savoir utiliser efficacement tous les types de données pour identifier les opportunités.
  • Quatrièmement, il faut s’éloigner des piles d’entrées/sorties actuelles relativement contraignantes au profit de piles spécifiquement développées pour cette nouvelle architecture du système. De nombreuses applications d’analytique ont été développées sur mesure. Imaginez une API tirant profit de cette pile d’entrées-sorties allégée (offrant une latence bien moindre). Quels atouts pour les développeurs qui cherchent à optimiser les performances, la fiabilité et l’efficacité du système de stockage !

IDC observe déjà les prémices de l’arrivée d’architectures de stockage de prochaine génération. Des architectures conçues spécifiquement pour répondre aux problématiques d’analyse de données à grande échelle. Compte tenu de la taille des marchés du big data et de l’analytique sur les prochaines années, les dépenses en infrastructures de stockage dédiées ne font que commencer. 2016 promet donc d’être une année charnière, alors que ces solutions de stockage commenceront à se faire connaître et à être disponibles sur le marché.



Eric Burgener

Eric Burgener est Directeur de recherche pour le marché du Stockage chez IDC.

COMMENTAIRES