Des solutions customer driven

Le business model de l’éditeur repose sur une approche customer driven et le plan de développement est donc basé sur les besoins exprimés par nos clients.

Le business model de l’éditeur repose sur une approche customer driven et le plan de développement est donc basé sur les besoins exprimés par nos clients.
Tous les développements sont réalisés sans aucun coût pour le client car ils seront ensuite mis à disposition des autres clients, chaque client bénéficiant ainsi des idées de ses confrères.
Le prérequis à cette gratuité est que les besoins exprimés soient utiles et pas seulement intéressants, ce qui nécessite que les expressions de besoins soient documentées, chaque tableau de bord devant :

  • Avoir un propriétaire qui sera en charge de l’analyse
  • Répondre à des objectifs définis
  • Permettre de prendre des décisions qui doivent engendrer des gains

Cette démarche unique permet de vous garantir l’adéquation de notre solution à l’évolution de vos besoins dans le temps et de créer un cercle vertueux : la croissance de la base installée permet d’enrichir le produit et concourt ainsi au développement de la base installée qui génèrera inévitablement des besoins et des idées complémentaires.
Notre architecture ouverte et évolutive permet donc de développer des indicateurs à la demande, qu’ils soient à la destination des lignes de métiers ou des administrateurs techniques à la condition sine qua non que les données brutes nécessaires à la publication du tableau de bord existent et soient accessibles.
A titre d’exemple, nous avons développé à la demande du Parlement Européen des tableaux de bord sur la gestion de parc et la consommation de la téléphonie fixe et mobile, des équipements de visioconférence et de la messagerie.

Une architecture ouverte et évolutive

Nous avons développé une architecture ouverte et évolutive, totalement indépendante des constructeurs et des éditeurs, qui permet aux utilisateurs d’intégrer tout type de composant (physique et virtuel) ou de données dans un workflow de collecte industrialisé.

Nous avons développé une architecture ouverte et évolutive, totalement indépendante des constructeurs et des éditeurs, qui permet aux utilisateurs d’intégrer tout type de composant (physique et virtuel) ou de données dans un workflow de collecte industrialisé.

Notre positionnement consiste à collecter les nombreuses données brutes disponibles dans vos socles techniques et dans vos référentiels. Nous avons développé des collecteurs génériques dont la fonction est de récupérer des fichiers de données disponibles sur le réseau LAN ou d’exécuter des commandes/scripts pour interroger à distance des référentiels ou repository techniques où sont stockées ces données.

Ces collecteurs permettent d’intégrer dans le workflow de collecte tout type de données sans déployer d’agent sur l’ensemble des composants à intégrer au périmètre.

Les collecteurs génériques disposent d’interfaces graphiques entièrement personnalisables pour s’adapter à tout mode de collecte, permettant de rendre paramétrable la prise en compte de tout nouveau composant sans avoir à intégrer des lignes de commandes. Chaque paramètre devient un champ de saisie ou une option (case à cocher) dans l’interface du serveur de collecte K&D.

L’exemple ci-après illustre l’exécution sur un switch SAN de la commande :

mibbrowser\snmpwalk -c public SANSW012  .1.3.6.1.4.1.1588

hj

Les modes de collecte supportés pour interroger des référentiels en standard sont :

  • Exécution de lignes de commandes via des API ou système (shell, powershell, wmi, snmp, smi-s)
  • Exécution de batchs ou scripts (tout script système est supporté)

Les modes de collecte supportés pour récupérer des fichiers en standard sont :

  • Partages CIFS ou NFS sur le réseau LAN
  • ftp, ssh, sftp
  • Mails

Les sources de données supportées en standard sont : texte, csv, excel, xml, emails (avec ou sans pièces jointes) ou autres formats de fichiers textes structurés.

L’IHM de collecte des données, est une interface d’administration installée sur le serveur de collecte qui permet de gérer l’ensemble des opérations :

  • Configuration et planification des collectes
  • Consolidation et transfert des données
  • Monitoring des opérations
  • Arrêt/relance des services

Cette interface s’appuie sur un moteur d’ordonnancement de type « crontab » chargé de la planification des jobs. Chaque opération planifiée peut également être exécutée en ligne de commande, donc intégrée à un ordonnanceur externe.

La fréquence d’échantillonnage dépend directement du type de collecte et de KPI à produire ainsi que de l’historique disponible sur le composant ou le référentiel à interroger. Pour des rapports de capacity planning la fréquence sera hebdomadaire ou mensuelle, pour des rapports opérationnels elle sera journalière.

Positionnement

Notre solution de Capacity Management se distingue par son architecture agentless qui permet de collecter tout type de données et qui garantit une mise en œuvre très rapide (quelques jours seulement). Cette architecture, qui n’est pas intrusive, ne remet donc pas en cause votre existant et n’a aucun impact sur votre environnement de production.

Notre solution de Capacity Management se distingue par son architecture agentless qui permet de collecter tout type de données et qui garantit une mise en œuvre très rapide (quelques jours seulement). Cette architecture, qui n’est pas intrusive, ne remet donc pas en cause votre existant et n’a aucun impact sur votre environnement de production.

Les premiers tableaux de bord sont disponibles dans les jours qui suivent l’installation (plus de 300 tableaux de bord en standard) et le retour sur investissement est extrêmement rapide.

Notre solution se distingue également par sa capacité à consolider l’ensemble des composants de l’infrastructure, qu’ils soient techniques ou fonctionnels, physiques ou virtuels.
Les données brutes seront consolidées, normalisées et corrélées dans une base de données unique pour publier de nombreux indicateurs sur le taux d’utilisation de votre infrastructure technique et fonctionnelle ou sur les SLAs de vos infrastructures ou de vos fournisseurs.
Notre mécanisme de drill down permettra donc de visualiser chaque tableau de bord selon les différents critères de consolidation disponibles (géographiques, technologiques, applicatifs ou organisationnels).

Ce positionnement global et transverse nous permet de répondre à l’enjeu principal du décisionnel, la qualité de la donnée dont dépend totalement la qualité de la décision grâce au cross check des différentes sources de données :

  • Les données techniques issues de vos référentiels techniques
  • Les données fonctionnelles issues de votre CMDB
  • Les données financières issues de votre ERP ou de votre base ITAM

Lors des étapes d’injection et de traitement, nous allons :

  • Normaliser les métriques afin de consolider des composants hétérogènes
  • Valider à la fois le respect des règles et la cohérence de vos données :
    • Le nombre de serveurs est-il identique dans mon outil de supervision, ma CMDB, ma base ITAM et mon plan de sauvegarde ?

Nous allons dans le cas contraire éditer automatiquement des rapports d’anomalies qui prendront également en compte le taux de complétude de vos référentiels en identifiant par exemple le pourcentage de serveurs ne possédant pas de numéro de série ou auxquels aucune application n’est associée.

Seule la corrélation automatique et industrielle de vos différents référentiels vous permettra de garantir leur complétude et la qualité de la donnée. Dans le cas contraire, des opérations coup de poing ponctuelles permettront d’améliorer la situation mais celle-ci se dégradera chaque mois jusqu’à la prochaine opération coup de poing.

Il est fondamental de prendre conscience que la qualité de la donnée est un prérequis à tout projet de refacturation interne si l’on souhaite garantir l’exactitude des coûts.