L’entrée en application de DORA (Digital Operational Resilience Act) marque un tournant majeur pour les DSI des banques et assurances. Longtemps perçue comme une contrainte réglementaire supplémentaire, DORA en banque et assurance impose en réalité un changement de posture : passer d’une logique de conformité ponctuelle à une résilience opérationnelle IT durable.
Pour les DSI BFA, l’enjeu est clair : sécuriser le système d’information, maîtriser les risques numériques et renforcer la continuité d’activité, tout en soutenant la transformation digitale. Bien adressée, DORA devient un levier stratégique au service de la gouvernance IT et de la confiance métier.
Les établissements BFA font face à une multiplication des cyberattaques, des incidents fournisseurs et des interruptions de services critiques. DORA impose un cadre commun pour anticiper ces risques, tester la résilience des systèmes et renforcer les dispositifs de sécurité.
Pour un DSI banque ou assurance, DORA permet de structurer une vision globale des risques IT, là où les approches étaient souvent fragmentées.
DORA ne se limite pas à la technique. Elle engage la responsabilité des instances dirigeantes, impose une meilleure traçabilité des décisions IT et renforce le rôle stratégique de la DSI.
👉 La conformité DORA devient ainsi un outil de pilotage : priorisation des investissements, arbitrage des risques et alignement IT–métier.
DORA exige une cartographie claire des risques numériques : dépendances critiques, scénarios d’incidents, plans de continuité et de reprise.
Pour la DSI, cela signifie :
Un point clé de DORA concerne la gestion des prestataires : cloud, infogérance, éditeurs, intégrateurs.
Les DSI doivent désormais :
Tests de résilience, simulations d’incidents majeurs, exercices de crise : DORA impose une approche proactive.
Résultat :
La réglementation DORA renforce les obligations de reporting des incidents IT majeurs. Pour les DSI BFA, cela implique des outils de pilotage fiables, des processus documentés et une capacité à produire rapidement une information exploitable pour les directions et les régulateurs.
Plutôt que de traiter DORA comme un projet isolé, les DSI peuvent l’utiliser pour élever le niveau global de maturité IT : gouvernance, sécurité, continuité, relation fournisseurs.
C’est l’occasion de rationaliser l’existant, de clarifier les responsabilités et d’aligner l’IT avec les enjeux business.
Une IT résiliente n’est pas une IT rigide. En structurant les processus autour de DORA, les banques et assurances gagnent en stabilité, agilité et confiance.
La conformité devient alors un levier de performance opérationnelle, au service de la transformation digitale et de l’innovation maîtrisée.
✔ Cartographier les actifs IT critiques et les dépendances
✔ Évaluer la criticité des prestataires et des services cloud
✔ Formaliser les plans de continuité et de reprise d’activité
✔ Mettre en place des tests réguliers de résilience
✔ Structurer un reporting IT clair et actionnable
✔ Impliquer les directions métiers et la gouvernance
DORA n’est pas une contrainte de plus : c’est une opportunité stratégique pour les DSI BFA de renforcer la résilience, la gouvernance et la maîtrise des risques numériques.
Les établissements qui abordent DORA en banque et assurance de manière proactive transforment la conformité en avantage compétitif durable.
👉 Engager dès maintenant une démarche structurée, outillée et accompagnée permet non seulement de répondre aux exigences réglementaires, mais surtout de bâtir une IT robuste, fiable et prête pour les défis futurs.
Besoin d’un audit DORA IT ou d’un accompagnement opérationnel ? Une approche pragmatique et orientée résilience peut faire toute la différence.
Acteur français de référence des services IT, du cloud privé souverain et de la cybersécurité, le Groupe Tenexa vient de nommer Eric FORESTIER au poste de Directeur Général afin d’accompagner la structuration et le développement de ses métiers dans un contexte de forte croissance et de transformation du marché IT.
Cette nomination vise ainsi à consolider la gouvernance, à structurer durablement les activités du Groupe et soutenir la montée en puissance de ses expertises clés : cloud privé et souverain, cybersécurité, services managés, infogérance et accompagnement des environnements IT critiques.
« Le marché IT traverse une phase de transformation profonde, portée par le cloud, la cybersécurité et l’essor de l’intelligence artificielle. Le Groupe Tenexa a tous les atouts pour s’imposer durablement comme un partenaire de confiance sur ces enjeux critiques. Mon ambition est de renforcer la gouvernance du Groupe, d’accompagner la structuration et la montée en puissance de ses métiers, de fédérer les équipes autour d’une vision claire et de traduire cette ambition en résultats concrets. » Eric Forestier, Directeur Général du Groupe Tenexa
Âgé de 52 ans et diplômé de l’INSEAD, Eric a démarré sa carrière à la Société Générale avec un parcours à l’international, avant de rejoindre l’univers opérationnel des services BtoB. Il a exercé des fonctions de Direction Générale depuis plus de 20 ans dans des contextes exigeants de croissance et de transformation, notamment au sein du groupe Petit Forestier, chez Cogepart et dernièrement en tant que CEO France de Seris Security. Son parcours s’est construit dans des secteurs à forts enjeux humains et opérationnels, où la qualité de service, la réactivité, la fiabilité des engagements et la proximité avec les clients sont essentielles.
Il travaillera en étroite collaboration avec le Président du groupe Stéphane Clément afin de déployer la vision stratégique du Groupe ainsi que son exécution opérationnelle.
« L’arrivée de Eric Forestier marque une étape structurante pour le Groupe Tenexa. Son expérience et sa vision seront des atouts clés pour m’accompagner dans notre développement, renforcer notre gouvernance et poursuivre la construction d’un acteur IT français de référence, souverain, au service de la performance et de la confiance numérique de nos clients », déclare Stéphane Clément, Président du Groupe Tenexa.
Fondée en 1985, Tenexa (ex Groupe Infodis) est une ESN qui se positionne vers l’avenir avec un accent marqué sur les services Cloud, la cybersécurité, et l’infogérance globale des services IT, couvrant du DataCenter jusqu’à l’utilisateur, pour répondre aux besoins diversifiés de ses clients dans le cadre d’une stratégie d’innovation permanente.
Le groupe propose des services de haute qualité, made-in France, à plus de 600 clients, incluant des ETI et de grands groupes de divers secteurs. Avec une équipe de management renforcée, près de 1050 collaborateurs et un CA supérieur à 100M€, le groupe a enregistré une forte croissance au cours des trois dernières années, soutenue par une politique commerciale ambitieuse et une culture opérationnelle solide.
Il y a quelques années, on parlait beaucoup de Shadow IT. Des outils installés en douce, des solutions “pratiques”, parfois brillantes, souvent hors radar… et qui finissaient par créer de vrais risques.
Aujourd’hui, le sujet revient. Mais avec un cran au-dessus. Parce que l’outil n’est plus seulement un logiciel : c’est un assistant qui écrit, résume, conseille, code, reformule… et qui, parfois, apprend ce qu’on lui confie. C’est ce que j’appelle la Shadow IA : une IA utilisée au quotidien, avec de bonnes intentions, mais sans cadre, sans traçabilité, sans filet.
Soyons honnêtes : je comprends parfaitement pourquoi elle s’installe. Les équipes veulent aller vite. Elles veulent gagner du temps, clarifier un mail, accélérer une note, préparer un support, défricher une idée. C’est humain, et c’est même souvent un signe de dynamisme. Le problème commence quand le geste devient automatique : copier-coller un extrait de contrat “juste pour résumer”, coller un incident “juste pour comprendre”, envoyer un bout de code “juste pour corriger”. En quelques secondes, ce qui était un petit service rendu peut devenir une fuite de données, un écart de conformité, ou une exposition inutile.
Le risque n’est pas théorique. Il est discret, diffus, presque invisible. Et c’est justement ce qui le rend dangereux : il se loge dans les usages, pas dans les intentions. Une extension navigateur non validée, un compte personnel, un modèle dont on ignore où passent les données, une absence de DLP, un manque de règles simples… et l’entreprise se retrouve à payer, plus tard, le prix d’un confort immédiat.
Pour autant, je suis convaincu qu’on se trompe de combat si l’on cherche à “interdire l’IA”. L’interdiction crée du contournement. Et le contournement crée de la Shadow IA. La bonne réponse, c’est celle qu’on connaît déjà dans l’IT : mettre de la méthode là où il y a de l’énergie. Autrement dit : reconnaître l’usage, l’accompagner, l’industrialiser. Offrir un chemin sûr plutôt que laisser chacun bricoler dans son coin.
Cela passe par un cadre très concret : des outils autorisés, des règles simples sur la donnée, de la formation courte mais efficace, une gouvernance claire, et surtout de la transparence. Et puis, à un moment, une question qui revient de plus en plus vite sur la table : celle de la souveraineté. Où sont traitées les données ? Sous quelle juridiction ? Avec quelles garanties ? Avec quelles traces ? Ce n’est pas une posture. C’est une exigence opérationnelle, et parfois même contractuelle.
Chez Tenexa, c’est exactement le sens de nos travaux : avancer vers une IA utilisable en entreprise sans perdre le contrôle. Avec une approche “hyper souveraine”, une trajectoire cloud Horizon en cours vers SecNumCloud (jalon J0), des collaborations comme celle menée avec Delos, Cellenza et Tenex-IA pour mettre l’IA au service des équipes tout en gardant la maîtrise des flux, des accès et des données. Pas comme un argument commercial : comme une réponse d’ingénieur à un sujet de dirigeant.
En 2026, les Directions des Systèmes d’Information (DSI) entrent dans une phase de maturité contrainte : plus de cloud, plus de données, plus de menaces… mais pas forcément plus de budget.
Les résolutions IT 2026 s’articulent donc autour d’un équilibre délicat entre sécurité, performance, conformité et maîtrise des risques.
Les DSI doivent répondre simultanément à plusieurs injonctions parfois contradictoires :
Selon Gartner [2025], plus de 70 % des DSI déclarent que la gestion des risques numériques est devenue leur priorité n°1, devant l’innovation pure.
Les priorités DSI cyber et cloud 2026 ne consistent plus à choisir entre sécurité et agilité, mais à concevoir les deux ensemble.
Les axes structurants observés chez les DSI
D’après ENISA [2024], les attaques ciblant les environnements cloud ont progressé de +38 % en un an, principalement via les identités et les mauvaises configurations.
En 2026, l’objectif n’est plus d’“éviter toute attaque” — ce qui est irréaliste — mais de limiter l’impact métier.
Les priorités cyber des DSI
Selon ANSSI [2024], un incident majeur sur deux aurait pu être évité ou fortement limité par des mesures de gouvernance et d’hygiène de sécurité déjà connues.
Après une phase d’adoption massive, 2026 marque le temps de la rationalisation cloud.
Les DSI cherchent à reprendre le contrôle sur :
Selon Forrester [2025], plus de 60 % des entreprises européennes réévaluent leur stratégie cloud pour intégrer des critères de confiance numérique et de conformité dès la conception.
La réalité budgétaire reste contraignante. Les résolutions IT 2026 passent donc par des arbitrages plus structurés.
Les tendances budgétaires clés
D’après Microsoft [2025], les organisations les plus matures en gouvernance IT réduisent jusqu’à 30 % leurs coûts liés aux incidents de sécurité.
Pour transformer ces enjeux en leviers, plusieurs bonnes pratiques s’imposent :
Les priorités DSI cyber et cloud 2026 reposent moins sur la technologie que sur la cohérence des choix stratégiques.
L’année 2026 marque un tournant :
la DSI devient pleinement garante de la confiance numérique, au cœur de la performance globale de l’entreprise.
Les organisations qui réussiront seront celles capables de sécuriser leur transformation cloud, tout en maîtrisant les risques, les coûts et la conformité.
Un enjeu stratégique… mais aussi une opportunité majeure de création de valeur pour les DSI.
Tenexa, une ESN en forte dynamique, fait évoluer son offre et annonce un partenariat structurant avec Delos, concepteur d’une suite bureautique augmentée par l’intelligence artificielle, intégrée au cœur des usages quotidiens des collaborateurs (emails, recherche web sécurisée, analyse et synthèse de documents, préparation de présentations et de réunions).
À travers ce partenariat, Tenexa pourra distribuer et intégrer dans ses offres la marketplace de Delos. La promesse de ce partenariat étant de proposer une alternative solide à Copilot et aux usages ChatGPT « stand-alone », avec un modèle souverain pensé pour l’entreprise. Dans ce contexte, une équipe dédiée sera mobilisée au sein de Tenexa pour diffuser ces nouvelles offres à grande échelle.
Au-delà du volet distribution, intégration et accompagnement à l’adoption des utilisateurs, Tenexa va également intégrer l’offre de Delos au sein de son écosystème souverain dont le cœur est son Cloud Privé HORIZON (ISO 27001, HDS et J0 SecNumCloud). La solution Delos sera aussi utilisée dans les centres de services de Tenexa. Ce partenariat stratégique est donc une nouvelle brique qui s’inscrit dans la vision de Tenexa : déployer largement l’IA au sein des entreprises, au service des utilisateurs, des métiers et de la souveraineté.
Stéphane Clément, Président chez Tenexa « Ce nouveau partenariat avec Delos nous permet de positionner l’IA souveraine au cœur de nos interventions, de booster l’expérience digitale des utilisateurs finaux et de renforcer notre offre Workplace & Support. »
Julien Rivière, Directeur associé chez Delos « Nous sommes ravis d’entamer ce partenariat guidé par Stéphane Clément et Caroline Secq. Ensemble, nous ouvrons la voie de l’IA souveraine et utile, au service des secteurs clés de notre économie. La confiance et l’innovation concrète sont au cœur de notre engagement commun. »
Le stockage de données n’est plus un simple sujet d’infrastructure. Il est aujourd’hui au cœur de la performance du système d’information, de la sécurité des données et de la maîtrise des coûts IT. Entre l’explosion des volumes, la multiplication des usages cloud, les contraintes réglementaires et les exigences de disponibilité, les DSI doivent faire des choix structurants.
Pourtant, de nombreuses organisations continuent de piloter leur stockage de manière réactive, sans réelle stratégie d’optimisation. Résultat : surcoûts, baisses de performance, risques de sécurité et dette technique croissante.
Dans cet article, nous passons en revue les erreurs les plus fréquentes en matière de stockage de données et les bonnes pratiques pour les éviter, avec une approche pragmatique orientée terrain.
L’une des erreurs les plus courantes consiste à raisonner uniquement en termes de capacité de stockage (To). Or, le stockage ne se résume pas à empiler des disques. Les performances (IOPS, latence, débit) ont un impact direct sur les applications métiers, les bases de données et l’expérience utilisateur.
Un stockage sous-dimensionné en performance peut devenir un goulot d’étranglement, même avec suffisamment d’espace disponible.
Analyser les profils d’usage (lecture, écriture, pics d’activité), segmenter les données selon leur criticité et adapter les technologies (flash, hybride, objet, NAS, SAN).
Les données non structurées, les sauvegardes, les logs, la vidéo ou encore les projets data font exploser les volumes. Sans anticipation, le stockage devient vite un poste de coûts incontrôlé.
Beaucoup de DSI découvrent trop tard que leur infrastructure de stockage n’est plus adaptée aux usages actuels.
Mettre en place une projection de croissance réaliste, intégrer les nouveaux projets dès la phase de conception et prévoir des mécanismes d’extension simples et maîtrisés.
Le coût du stockage ne se limite pas au matériel ou au service cloud. Il inclut également :
Dans le cloud, une mauvaise gestion du stockage peut générer des factures élevées sans création de valeur.
Adopter une approche FinOps appliquée au stockage, suivre les consommations, archiver les données froides et supprimer les données obsolètes.
Entre le stockage on-premise, le cloud public, le cloud privé et les solutions spécialisées, les silos se multiplient. Cette fragmentation complique l’exploitation, la sécurité et la gouvernance des données.
Elle rend également plus difficile la mise en œuvre de politiques de sauvegarde et de reprise d’activité cohérentes.
Privilégier une vision unifiée du stockage, avec des outils de pilotage centralisés et une architecture cohérente, capable de s’adapter aux différents environnements.
La sauvegarde reste trop souvent considérée comme un sujet secondaire. Pourtant, une stratégie de stockage sans sauvegarde fiable expose directement l’entreprise à des pertes de données, des interruptions d’activité et des risques juridiques.
La restauration est tout aussi critique : une sauvegarde inutilisable n’a aucune valeur.
Tester régulièrement les scénarios de restauration, définir des objectifs clairs (RPO, RTO) et adapter les solutions de sauvegarde aux volumes et aux usages réels.
Les systèmes de stockage sont devenus des cibles privilégiées, notamment lors d’attaques par ransomware. Un stockage mal sécurisé peut compromettre l’ensemble du SI.
Les accès, les droits et le chiffrement sont parfois mal maîtrisés, en particulier dans des environnements hybrides.
Intégrer la sécurité dès la conception : chiffrement des données, contrôle des accès, segmentation, journalisation et cohérence avec la politique de cybersécurité globale.
Opter pour une solution de stockage uniquement sur des critères de coût ou d’urgence peut créer une dette technique importante. Certaines technologies deviennent rapidement rigides, difficiles à faire évoluer ou à intégrer avec d’autres briques du SI.
Évaluer les solutions sur leur capacité d’évolution, leur compatibilité avec le cloud, leur écosystème et leur adéquation avec la stratégie IT globale.
Une optimisation du stockage efficace repose sur quelques principes clés :
Le stockage doit être pensé comme un levier de performance et de résilience, et non comme une simple contrainte technique.
L’optimisation du stockage de données est devenue un sujet central pour les DSI. Éviter les erreurs courantes permet non seulement de réduire les coûts, mais aussi d’améliorer la performance, la sécurité et l’agilité du système d’information.
Dans un contexte de transformation numérique accélérée, prendre du recul sur sa stratégie de stockage est souvent un excellent point de départ pour renforcer la maîtrise globale du SI.
👉 Se poser les bonnes questions aujourd’hui, c’est éviter des choix contraignants demain.
La période des fêtes de fin d’année est souvent perçue comme un moment plus calme pour les entreprises. Activité ralentie, effectifs réduits, priorités recentrées. Pourtant, du point de vue des systèmes d’information, c’est une phase particulièrement sensible.
Congés des équipes IT internes, moindre vigilance des utilisateurs, délais de réaction allongés en cas d’incident : autant de facteurs qui peuvent fragiliser la continuité de service. Pour les PME et ETI, un incident IT pendant cette période peut rapidement impacter la productivité, la relation client ou la sécurité des données.
Comment alors garantir un service IT fluide, sécurisé et disponible, même lorsque les équipes sont en effectif réduit ? C’est précisément là que les bonnes pratiques d’infogérance, de supervision et de support IT prennent tout leur sens.
Pendant les périodes de fêtes, les équipes informatiques internes fonctionnent souvent en mode dégradé : congés, astreintes limitées, priorisation des urgences uniquement.
Résultat :
• des délais de prise en charge plus longs,
• une résolution d’incident ralentie,
• une dépendance accrue à des prestataires externes non anticipée.
Contrairement aux idées reçues, les incidents IT ne prennent pas de congés. Pannes matérielles, problèmes de réseau, saturation de ressources ou dysfonctionnements applicatifs peuvent survenir à tout moment — y compris lorsque personne n’est disponible pour intervenir rapidement.
Sans supervision proactive, ces incidents peuvent passer inaperçus pendant plusieurs heures, voire plusieurs jours.
La période des fêtes est également propice aux risques cyber :
• utilisateurs moins vigilants,
• accès distants plus fréquents,
• supervision de sécurité parfois allégée.
Un système mal surveillé ou des alertes ignorées peuvent exposer l’entreprise à des incidents de sécurité évitables.
La supervision IT est un pilier fondamental pour assurer la continuité de service, surtout en période de congés. Elle permet de surveiller en temps réel :
• la disponibilité des serveurs et infrastructures,
• les performances réseau,
• les ressources critiques (CPU, stockage, mémoire),
• les services et applications métiers.
Un monitoring efficace permet d’anticiper les incidents avant qu’ils n’impactent les utilisateurs, et d’agir de manière proactive, même en dehors des heures ouvrées.
Disposer d’un support IT structuré, avec des processus clairs et une astreinte définie, est essentiel pendant les périodes sensibles. Cela inclut :
• un point de contact unique pour les utilisateurs,
• des niveaux de priorisation clairs,
• des délais d’intervention adaptés aux enjeux métiers.
L’objectif n’est pas d’avoir plus de ressources, mais les bonnes compétences disponibles au bon moment.
La meilleure gestion de crise reste celle qui n’a pas lieu. Avant les périodes de fêtes, il est recommandé de :
• vérifier l’état de santé des infrastructures,
• appliquer les mises à jour critiques,
• tester les sauvegardes et les procédures de restauration,
• documenter les accès et procédures clés.
Cette phase d’anticipation limite fortement les risques d’incidents critiques pendant les absences prolongées.
Garantir un service IT fluide passe aussi par la sécurité et la résilience. Cela implique :
• une surveillance des accès et des journaux,
• des sauvegardes régulières et vérifiées,
• des plans de continuité et de reprise d’activité adaptés à l’organisation.
En période de congés, ces dispositifs doivent être opérationnels, testés et supervisés en continu.
L’infogérance IT prend toute sa valeur lors des périodes de fêtes. Elle permet aux entreprises de s’appuyer sur un partenaire capable d’assurer :• la supervision continue des systèmes,
• le support utilisateurs et l’astreinte,
• la gestion proactive des incidents,
• la continuité de service, même en effectif réduit.
Pour les DSI et responsables IT, c’est un moyen de sécuriser l’exploitation sans surcharger les équipes internes, tout en conservant une vision claire et maîtrisée du SI.
Loin d’être une simple externalisation, l’infogérance devient un levier de sérénité opérationnelle, particulièrement lorsque les ressources internes sont moins disponibles.
Les périodes de congés ne devraient jamais être synonymes de stress pour les systèmes d’information. Avec une bonne anticipation, une supervision efficace et un support IT structuré, il est possible de garantir un service IT fluide, sécurisé et disponible, même en période creuse.
Pour les entreprises, c’est aussi l’occasion de prendre du recul sur leur organisation IT et d’évaluer si leurs dispositifs actuels sont réellement adaptés aux périodes sensibles.
Fin 2025, le stockage de données est au centre des enjeux de performance, de résilience, de sécurité et de maîtrise des coûts. Les entreprises doivent gérer des volumes croissants, un contexte cyber critique, et des obligations réglementaires de plus en plus strictes.
Aujourd’hui, comme demain, les DSI recherchent une infrastructure flexible, scalable et souveraine.
Les organisations combinent :
• stockage local (NAS / SAN)
• cloud privé (souvent souverain)
• cloud public/multi-cloud
Ce modèle équilibre performance, souveraineté, coûts et flexibilité opérationnelle.
On assiste à une bascule notable vers :
• le cloud souverain européen
• la réversibilité des données
• le contrôle juridique et géopolitique des environnements d’hébergement
Objectif : réduire la dépendance aux hyperscalers non-européens et renforcer la maîtrise du cycle de vie des données.
Fin 2025, la sécurité du stockage intègre désormais :
• stockage immuable (immutable data)
• stratégies de backup multi-sites
• PRA/PCA automatisés
• chiffrement systématique des données au repos et en transit
Les entreprises ne se contentent plus de sauvegarder : elles planifient la résilience face au scénario d’attaque.
Porté par IA, data lakes et archives massives, l’Object Storage gagne du terrain :
• scalabilité quasi infinie
• modèle économique optimisé
• compatibilité API-first
Les DSI adoptent une hiérarchisation intelligente selon l’usage et le niveau critique.
En 2026, on verra s’accentuer :
• l’automatisation dynamique du placement des données
• la détection comportementale des accès suspects
• la prédiction des défaillances matérielles
• l’auto-réparation et l’orchestration intelligente
Le stockage devient proactif et auto-optimisé.
Alors que les coûts énergétiques et réglementaires augmentent, 2026 verra :
• une consolidation des volumes (déduplication)
• nettoyage de données inutiles
• stockage hiérarchisé et tiers de froid optimisés
• équipements haute densité plus frugaux
Le bénéfice est double : performance + réduction CAPEX/OPEX + empreinte carbone réduite.
stockage ↔ cybersécurité ↔ conformité
Tendance 2026 :
• convergence entre SOC et stockage
• logs d’accès intelligents
• segmentation zéro-trust des espaces de stockage
• auditabilité native
Le stockage devient un composant actif de gouvernance des données.
Les questions clés à se poser :
• Quelles données doivent rester en environnement souverain ?
• Quels workloads nécessitent de la haute performance ?
• Quels environnements doivent intégrer un PRA/PCA automatisé ?
• Comment anticiper l’évolution des coûts de stockage en 2026 ?
• Quel niveau de résilience face au ransomware est réellement en place ?
Fin 2025 est le bon moment pour repenser le modèle et adopter une architecture agile.
👉 Besoin d’évaluer vos choix de stockage ? Échangez avec un architecte infrastructure.
Le Laboratoire Puressentiel, une entreprise familiale, indépendante et certifiée B Corp, leader sur le marché de l’aromathérapie en Europe, a fait le choix stratégique de regrouper ses infrastructures IT au sein d’un cloud privé souverain.
Fabien Cannevière, Responsable des Systèmes d’Information au sein du Laboratoire Puressentiel : « À l’époque, notre infrastructure reposait sur trois hébergeurs différents, ce qui compliquait la gestion globale. L’accompagnement était parcellaire, peu centralisé. Nous avons donc décidé de regrouper tous nos serveurs chez un seul hébergeur, français, et certifié HDS (Hébergement de Données de Santé), pour mieux anticiper les besoins futurs de l’entreprise et répondre à nos impératifs de sécurité et de conformité, tout en inscrivant cette évolution dans une démarche responsable, alignée avec nos engagements RSE et notre certification B Corp. »
Tenexa a proposé une offre solide, à la fois sur le plan technique et humain. Ce qui a véritablement fait la différence, c’est la volonté claire de Tenexa d’obtenir et de maintenir toutes les certifications nécessaires à l’évolution du secteur. Mais surtout, c’est la qualité de la relation humaine qui a été un véritable différenciateur. Dès le départ, la relation entre Puressentiel et Tenexa s’est construite sur une confiance réciproque.
Fabien Cannevière, Responsable des Systèmes d’Information précise « Ce que j’apprécie particulièrement chez Tenexa, c’est qu’on ne se retrouve pas seuls face à une interface ou à un portail distant. On échange avec de vraies personnes, compétentes et disponibles. Cette proximité humaine facilite énormément la communication et le pilotage de notre environnement cloud et fait partie des valeurs essentielles de notre entreprise »
En choisissant Tenexa et son cloud privé Horizon, Puressentiel a gagné en souveraineté, en simplicité et en qualité d’accompagnement. Un partenariat fondé sur la confiance et l’engagement, au service d’une IT sécurisée, agile et durable.
Longtemps centré sur les services informatiques, l’IT Service Management (ITSM) a permis aux DSI de structurer leurs processus, améliorer la qualité de service et industrialiser leur support. Aujourd’hui, les entreprises cherchent à étendre ces bonnes pratiques à l’ensemble des départements internes. C’est dans ce contexte que l’Enterprise Service Management (ESM) s’impose comme un nouveau modèle global de gestion des services pour toute l’organisation.
Mais en quoi l’ESM transforme-t-il réellement l’entreprise ? Pourquoi constitue-t-il un changement de paradigme majeur dans la manière de délivrer des services aux collaborateurs ? Et quels sont les défis à relever pour réussir cette transition ?
L’ITSM repose sur des bonnes pratiques standardisées, comme celles du framework ITIL, afin d’optimiser la gestion des services informatiques.
Les objectifs principaux de l’ITSM sont :
• Améliorer la qualité et la disponibilité des services IT
• Standardiser les processus (incident, demande, changement, problème, CMDB, etc.)
• Réduire les coûts opérationnels
• Améliorer l’expérience utilisateur des collaborateurs
La plupart des DSI ont aujourd’hui atteint un niveau de maturité suffisant sur l’ITSM. Cependant, limiter cette approche au périmètre IT ne répond plus aux attentes actuelles des collaborateurs, qui consomment de plus en plus les services internes comme des services digitaux.
L’Enterprise Service Management (ESM) consiste à appliquer les principes de l’ITSM à tous les services internes, au-delà de l’IT.
L’ESM permet à chaque département de délivrer ses services selon un modèle standardisé, mesurable et orienté expérience utilisateur.
RH : onboarding, demandes RH, gestion des congés, formation
Finance : demandes d’achats, remboursement de frais, comptabilité fournisseurs
Facilities / Services Généraux : réservation de salle, gestion du matériel, demandes de maintenance
Juridique : validation de contrats, suivi des dossiers, demandes de conformité
Sécurité / Conformité : demandes d’accès, audits, signalement d’incidents
Grâce à l’ESM, les entreprises mettent en place un portail unique, des workflows standardisés et un suivi centralisé des demandes internes.
Les collaborateurs accèdent à un point d’entrée unique pour toutes leurs demandes internes, avec une visibilité sur leur traitement.
Résultat :
• moins de mails non suivis
• plus d’autonomie
• une meilleure satisfaction et productivité
L’ESM encourage l’unification des pratiques :
• standardisation des workflows
• automatisation des services récurrents
• industrialisation de la gestion des demandes internes
Cela contribue à réduire les silos et à fluidifier la collaboration inter-équipes.
Grâce aux KPIs et reporting issus de l’ITSM, l’ESM permet aux directions de mesurer précisément :
• les délais de traitement
• la satisfaction des utilisateurs
• les coûts opérationnels
• la charge des équipes
Les organisations deviennent plus efficaces, plus agiles et plus orientées services.
Critère
Périmètre
Objectif principal
Portail utilisateur
Processus
Indicateurs
ITSM
DSI uniquement
Qualité des services IT
IT Self-Service
ITIL & IT-centric
KPIs IT
ESM
Toute l’entreprise
Excellence opérationnelle globale
Portail multiservices unifié
Transverses et inter-département
KPIs entreprise
Un outil unique ou intégré doit soutenir l’ESM : ITSM modernisé, ESM natif, plateforme low-code/no-code…
L’enjeu est de proposer une solution flexible, intuitive, modulaire et évolutive.
Passer d’un service IT à un modèle ESM implique :
• un changement culturel profond
• une vision orientée service
• une gouvernance transverse
Les équipes non IT doivent adopter une approche structurée de gestion de services, ce qui peut nécessiter un accompagnement.
La gouvernance ESM doit être portée au niveau global, souvent par la Direction générale, en collaboration avec la DSI.
Les enjeux de gouvernance incluent :
• définir des rôles et responsabilités
• harmoniser les processus
• partager la donnée entre services
L’ESM n’est plus un concept émergent : il devient une nécessité pour les organisations qui souhaitent améliorer l’efficacité opérationnelle, moderniser l’expérience collaborateur et casser les silos internes.
Là où l’ITSM a transformé la DSI, l’ESM transforme l’entreprise entière.
Il apporte une vision unifiée du service interne et pose les fondations d’une organisation plus agile, collaborative et orientée satisfaction utilisateur.
L’ESM remplace-t-il l’ITSM ?
Non, l’ESM s’appuie sur l’ITSM et l’étend à d’autres services de l’entreprise.
Quels sont les avantages principaux de l’ESM ?
Une meilleure expérience collaborateur, une réduction des coûts, des processus optimisés et une gouvernance globale.
L’ESM nécessite-t-il une plateforme dédiée ?
Oui, même si certaines solutions ITSM modernisées permettent d’intégrer d’autres services internes.