Les entreprises citent le cloud, la mobilité et la virtualisation comme facteurs augmentant la complexité des data centers


La dernière étude « State of the Data Center » de Symantec dresse l’état des lieux sur la complexité des data centers et présente les principales difficultés rencontrées par les entreprises

L’enquête 2012 State of the Data Center de Symantec a été réalisée en mars 2012 par ReRez Research. Elle donne un aperçu des principales difficultés rencontrées par les entreprises face à la transformation du data center, met l’accent sur les causes profondes et les implications de la complexité des data centers. Elle souligne également les nouvelles mesures prises par les départements informatiques pour limiter les problèmes. Divers facteurs sont à l’origine de la complexité des data centers, mais selon les réponses des personnes interrogées, la mise en œuvre d’une stratégie de gouvernance de l’information est la principale initiative adoptée par les entreprises pour résoudre ces problèmes sans cesse plus nombreux. Les résultats de cette enquête soulignent l’importance de l’application de mesures pour gérer intelligemment les ressources de l’entreprise afin de maîtriser les coûts d’exploitation et de contrôler l’augmentation des volumes de données.

Quels que soient leur taille, leur secteur d’activité et leur région, les entreprises signalent que leur data center est de plus en plus compliqué. Selon l’enquête, cette complexité a des répercussions sur tous les domaines de l’informatique, notamment la sécurité et les infrastructures, ainsi que la reprise après incident, le stockage et la conformité. Pour les personnes interrogées, le niveau de complexité dans tous ces domaines est à peu près le même (6,6 ou plus sur 10), la sécurité arrivant en tête (7,1 sur 10). Le niveau moyen de complexité pour les entreprises du monde entier est de 6,7. En moyenne, les entreprises du continent américain ont le niveau de complexité le plus élevé (7,8 sur 10) et celles d’Asie-Pacifique et du Japon, le moins élevé (6,2 sur 10).

Les répercussions de la complexité des data centers sont diverses et coûteuses

Plusieurs facteurs sont à l’origine de la complexité des data centers. Les entreprises interrogées indiquent qu’elles sont confrontées à l’augmentation du nombre d’applications qu’elles considèrent comme stratégiques. Dans le monde, 65 % des entreprises déclarent que le nombre de leurs applications critiques augmente ou explose. D’autres facteurs majeurs cités par les entreprises incluent le développement de tendances stratégiques telles que la virtualisation des serveurs (citée par 43 % des interrogés), les clouds publics (41 %) et l’informatique mobile (44 %).

L’enquête révèle que la complexité croissante des data centers a de profondes implications. Près de la moitié des entreprises mentionnent l’augmentation des coûts comme principale conséquence, suivie du manque d’agilité (39 %), des délais plus longs de migration du stockage (39 %) et des infractions à la sécurité (35 %).

En moyenne, l’entreprise « type » a subi 16 pannes de data center au cours des 12 derniers mois, le coût total s’élevant à 5,1 millions de dollars. Les causes les plus fréquentes sont les pannes de systèmes informatiques, suivie par les erreurs humaines et les catastrophes naturelles.

Les départements informatiques prennent des mesures pour réduire la complexité de leur data center

Selon l’enquête, les entreprises prennent différentes mesures pour réduire la complexité de leur data center, telles que la formation, la standardisation, la centralisation, la virtualisation et l’augmentation des budgets. 63 % des entreprises envisagent d’augmenter légèrement ou considérablement leur budget. Cependant, la principale mesure appliquée consiste à mettre en œuvre une stratégie complète de gouvernance de l’information, définie comme un programme formel qui permet de classer, conserver et rechercher proactivement des informations afin de réduire les risques pour les données et les coûts de gestion associés. Cette mesure permet aussi de mettre en place des règles de conservation et de rationaliser le processus d’e-discovery. 90 % des entreprises envisagent une stratégie de gouvernance de l’information ou ont effectué des tests et déployé des programmes concrets.

Les principales raisons qui incitent les entreprises à adopter une stratégie de gouvernance de l’information sont la sécurité (75 %), la disponibilité des nouvelles technologies qui facilitent la gouvernance de l’information (69 %), la complexité croissante des data centers (jugée comme une problématique relativement ou extrêmement importante pour 65 % d’entre elles), l’augmentation des volumes de données (65 %) ainsi que les contraintes réglementaires et juridiques (61 % et 56 %, respectivement).

Les entreprises ont plusieurs objectifs en ce qui concerne la gouvernance de l’information. Elles souhaitent renforcer la sécurité (jugée importante par 75 % des entreprises), trouver facilement les bonnes informations au moment opportun (70 %), réduire les coûts de la gestion (69 %) et du stockage des données (68 %), réduire les risques juridiques et de non-conformité (65 % et 64 %, respectivement), et passer au cloud computing (59 %).

Recommandations

Voici quelques recommandations qui permettront aux départements informatiques de limiter les répercussions de la complexité des data centers.

– Définir une stratégie de gouvernance de l’information en sensibilisant les cadres de l’entreprise. Commencer par des projets offrant un retour sur investissement élevé tels que la prévention des pertes de données, l’archivage et l’e-discovery pour protéger les informations critiques, trouver les informations utiles et supprimer le reste.
– Obtenir une visibilité au-delà des plates-formes. Connaître les services métier fournis par le département informatique et toutes les dépendances afin de réduire les interruptions de service et les problèmes de communication.
– Connaître les ressources informatiques de l’entreprise, savoir comment elles sont utilisées et par qui, afin de réduire les coûts et les risques. Ainsi, l’entreprise n’achète pas des serveurs et systèmes de stockage inutiles, les équipes sont tenues pour responsables des ressources qu’elles utilisent et l’entreprise est à l’abri du manque de capacité.
– Réduire le nombre d’applications de sauvegarde pour respecter les contrats de niveau de service en matière de restauration et réduire les dépenses d’investissement, les charges d’exploitation ainsi que les coûts de formation.
– Déployer une solution de déduplication à l’échelle de l’entreprise pour faire face à l’explosion des volumes de données et réduire les coûts croissants associés à la sauvegarde des données.
– Utiliser des appliances qui simplifient les opérations de sauvegarde et de restauration des machines physiques et virtuelles.

bookmark icon
%d blogueurs aiment cette page :