Cette semaine, notre expert cloud Hugues Valentin nous parle hyperscale, le datacenter de demain.

On connaissait le monde du  HPC (High Performance Computing) caractérisé par des supercalculateurs très puissants. Voici venu le temps de l’hyperscale qui se caractérise par les ressources utilisées dans les data centers des géants du Web.

Entre les data-centers de Microsoft ou d’Amazon et ceux d’une entreprise traditionnelle, il y a sans doute autant de différence qu’entre une Formule 1 et une berline classique.

Les  entreprises comme Microsoft, Google, Facebook et Amazon, qui construisent des mégas datacenters, conçoivent leurs serveurs en interne et les font fabriquer en Chine ou à Taiwan. La plupart de ces machines sont personnalisées pour les environnements HyperScale dans lesquels les entreprises déploient des clouds publics et privés pour prendre en charge leurs énormes besoins de trafic Web. « Les sept plus importants fournisseurs de cloud public traitent directement avec les fabricants chinois et taïwanais », a déclaré Patrick Moorhead, analyste principal chez Moor Insights & Strategy.

Des configurations basiques et moins chères.

« Au final, ces entreprises ne passent plus par les fabricants de serveurs américains traditionnels comme Hewlett-Packard et Dell Enterprise » a ajouté l’analyste de Gartner. « Les acheteurs demandent aux entreprises asiatiques de réduire les configurations serveurs au strict minimum, ce que ne veulent pas faire les fournisseurs américains », a déclaré aussi Jeffrey Hewitt de Gartner. « Les configurations bare-bones n’offrent pas de fonctionnalités supplémentaires comme des puces de sécurité et des moteurs de gestion », a encore ajouté l’analyste. Facebook et Google peuvent également faire baisser leurs coûts en achetant des composants en volume.

Les architectures hyperscales sont caractérisées parmi les critères suivants :

  • Haut niveau de performance et scalabilité conduits par le besoin d’avoir accès à des niveaux de performance élevé aux évolutions imprévisibles.
  • Fiabilité et la reproductibilité des résultats.
  • Large utilisation des logiciels open source dont la maintenance et le support nécessaire sont amortis sur des coûts importants en matériel ;
  • Une automatisation à outrance de toutes les couches « hardware » du datacenter
  • L’innovation provient le plus souvent de ces quelques grands acteurs du Cloud ex : OCP (Open Compute Project).

Une révolution semble en marche, avec on peut l’imaginer une disparition des architectures classique de nos datacenter. Il se dit que 75 % des serveurs dans les entreprises auront disparu en 2020 !

L’hécatombe deviendrait une réalité

En juin 2016, le Laboratoire National de l’Université de Berkeley a publié une étude très instructive sur  «La consommation d’énergie des centres de calcul aux USA». Cette étude analyse les impacts de l’arrivée des acteurs «Hyperscale», en clair les industriels du Cloud Public, sur les serveurs, les outils de stockage, les outils de réseaux et la consommation d’énergie des centres de calcul aux USA, sur la période 2000 – 2020.

Peut-on alors dire Croissance du Cloud Public = disparition des serveurs d’entreprise

De nombreuses études prédisent que 50% des charges de travail (applications) s’exécuteront dans un cloud public en 2020 vs 15% environ en 2016. Il est donc clair que l’on est au début d’une véritable transformation.

Ce graphique est extrait de l’étude américaine il montre un changement de paradigme en 2014 et prévoit que d’ici 4 ans environ une chute de 75% de le vente de serveurs classiques au profit de solutions « hyperscale »

Quelques explications :

  • En ordonnée, le nombre de serveurs installés en datacenter.
  • Non Hyperscale : les «petits» datacenter, de moins de 10 000 serveurs, souvent dénommés «Clouds Privés».

D’ici 2020, ce basculement vers un scénario Hyperscale aura deux impacts majeurs :

  • Le nombre total de serveurs installés va légèrement baisser d’ici 2020, alors que la puissance informatique consommée va continuer à exploser. Ceci confirme la très forte amélioration de la performance des serveurs et leurs meilleures utilisations par les industriels du Cloud. Le nombre de serveurs sera en 2020 au même niveau qu’en 2010.
  • La part des serveurs dans les Cloud Privés va baisser de 75% entre 2014 et 2020. Si l’on fait part du principe que la durée de renouvellement d’un serveur est de 4 à 5 années, ceci signifie que l’immense majorité des serveurs en fin de vie ne seront pas remplacés.

De nouveaux acteurs devraient apparaitre pour fournir les matériels qui vont permettre de construire les Cloud de demain.

Ce schéma présente le fonctionnement de l’industrie de fabrication des serveurs.

 

tableau-2

 

Les seules entreprises qui fabriquent vraiment des serveurs sont des sociétés dites original design manufacturers (ODMs) de marque blanche, toutes situées en Asie. Ces entreprises gigantesques, telles que Foxconn, Pegatron ou Quantra, sont généralement inconnues des DSI.

    • Les grandes entreprises qui vendent des serveurs aux entreprises, Dell, HP, Lenovo, IBM… se fournissent aussi chez les mêmes «ODM», rajoutent leurs logos, leurs fortes marges, leurs coûts de marketing et de commercialisation. Ce sont ces marques qui ont la «confiance» des DSI des grandes entreprises.
    • Les industriels du Cloud Public, AWS, Azure, Google… font fabriquer directement leurs serveurs chez les mêmes fabricants que Dell ou HP, mais selon leurs propres spécifications. Ils n’ont aucun coût supplémentaire et obtiennent donc des serveurs 40 et 50 % moins chers que les entreprises qui achètent des marques classiques.

    En combinant le fait que les entreprises n’achètent plus de serveurs car basculant dans le cloud public et que les industriels du Cloud les font fabriquer directement, cela signifie une mort annoncée des fournisseurs historiques de serveurs auxquels les entreprises font encore confiance. Cela va également impacter tout l’écosystème associé : distributeurs, intégrateurs,…

    Ce graphique résume très bien l’évolution du marché des serveurs prévue d’ici 2020.

tableau-3

    • 100 % des industriels du Cloud Public se fourniront chez les «ODM» avec une approche Hyperscale.
    • Le marché des serveurs sera à 90% alimenté par les «ODM».

    Quel impact pour les entreprises et les cloud privés ?

    Un arrêt immédiat et définitif d’achat de serveurs et stockages externes classiques.

    Pourquoi cette décision devient de plus en plus évidente ?

    • Le besoin d’une scalabilité accrue,
    • La rationalisation des coûts,
    • Des infrastructures et des solutions éprouvées par les plus grands acteurs du cloud,
    • Des couts d’exploitation et de mise en œuvre optimisés,
    • La mise en place d’infrastructure Agile « DEVOPS ready » de type Infrastructure as Code.

    Sans pour autant vouloir partir sur des produits identiques à ceux des acteurs du cloud, il existe maintenant des solutions adaptées pour les entreprises et les Cloud Privés, solutions éprouvées et distribuées en France parmi celles-ci on peut citer :

    • SuperMicro
    • Quanta Cloud Technology

    On peut également acheter des équipements réseaux (switch datacenter en marque blanche) et y intégrer un système d’exploitation de type OpenSwitch ou Cumulus network.

    En termes de stockage il est possible de mettre dans son datacenter des solutions hyperscale ou hyperconvergé  parmi celles-ci on peut citer :

    • Scality
    • CEPH (RedHat)
    • Vmware Vsan

    Quelques acteurs plus innovants pure player de l’Hyperscale tels que

    • Datrium
    • Hedvig Storage
    • Igneous

    En 2017, lutter contre cette évolution voir révolution n’est plus possible. A partir d’aujourd’hui, un DSI ne peut plus autoriser l’achat d’un seul nouveau serveur sans se poser la question de sa réelle utilité.

Enregistrer