Système de prévision flexible

Un SI de prévision intégré au SI opérationnel


Une activité opérationnelle, quelle qu’elle soit, est l’objet de prévisions, pour lui attribuer des ressources, anticiper des résultats, prendre à temps des mesures correctives,…
Ceci conduit à développer des systèmes de prévision, initialement rustiques, mais qui peuvent se complexifier par une algorithmique savante, et la mobilisation de Mega-données (Big Data).
Ces systèmes peuvent contribuer au coût du SI, à sa complexité, et s’avérer rigides face aux différents besoins d’évolution.

Simplifier, qualifier et être flexible pour les prévisions


Quelle soit la transformation réalisée par une entité, quel que soit le cycle opérationnel qui « produit » cette transformation, la question des prévisions est à traiter.
La tendance naturelle est d’obtenir ces prévisions par un système dédié, créant, à partir d’une ou plusieurs sources disponibles sur le périmètre, des agrégats « sur mesure ». Souvent on créera, par exemple par enquête auprès des parties prenantes, une source pré-agrégée (tableaux récapitulatifs).
L’architecture de tels systèmes de prévision est rigide et présente plusieurs inconvénients :
Changement de périmètre perturbant. En effet un changement de périmètre (évolution de l’organisation, externalisation vs internalisation, …) impacte fortement le système, remettant en cause ses entrées et ses sorties. De plus la traçabilité est problématique, voire impossible.
Changement d’horizon ou de rythme de prévision impliquant des adaptations.
Mise en qualité des données complexifiant le système.
Bien souvent, ce dispositif de prévision est inclus dans le périmètre d’un progiciel ou celui d’un développement spécifique, ce qui en augmente le coût (développement, acquisition, maintenance) et la rigidité.

Un sujet identique quel que soit le domaine de prévision


Un principe de base : prévisions de qualité impliquent informations détaillées de qualité.


Un des principes de construction de l’architecture flexible est de gérer l’information au niveau le plus « fin » : celui du grain. Par exemple, dans un Puits, on retrace les cycles de vie au niveau le plus fin de ce cycle. Ce niveau est en effet « objectif » car lié au cycle de l’objet, sans dépendre des péripéties organisationnelles ou autres particularismes (segmentation, redistribution de la chaîne de valeur), de la multiplicité des canaux, des acteurs, …
Un autre principe est de tendre vers un grain « tri-daté » : on peut ainsi à la fois gérer, en cohérence et sans confusions, les faits, les prévisions, et les mises en qualité.
Si ces informations détaillées sont de qualité, l’élaboration des prévisions de qualité est un simple calcul automatique.

Le rôle pivot des puits et référentiels pour ces calculs de prévisions


L’architecture de prévision est ainsi une architecture générique, une figure de style à adapter dans chaque cas d’espèce.
Elle utilise les puits soit comme source des informations, soit plutôt comme point de synchronisation pour accéder à des informations plus développées que celles qui sont tracées dans les puits.
Elle utilise les référentiels pour créer les niveaux d’agrégation. Ces référentiels étant historisés, il est possible de fournir les calculs à date de vision (prévisions, retro-visions), et à date de fait (résultats).
Alimentation des prévisions par simulation

Les prévisions sont en général élaborées selon un calendrier, en prenant pour base les prévisions lors de la « campagne » précédente, et les résultats observés. Ceci correspond au cas où il existe un cycle lent, à période de campagne, lié aux saisons, aux traditions, au marketing, à la climatologie, l’épidémiologie, …

Plutôt que de fonctionner par agrégat, il est plus simple de rechercher un moyen de disposer de visions détaillées, par la création de « grains simulés ». Le volume de ces données implique qu’elles soient créées par des algorithmes, en général à partir des données détaillées de la campagne précédente, et en y appliquant différentes hypothèses.
La méthode des « grains simulés » est très souple, car elle peut s’adapter aux changements de périmètre. Elle permet aussi un suivi continu de la prévision, et du delta de réalisation, les grains simulés pouvant, au fur et à mesure du passage au réel, être transformés en « grains réels ».

En complément, si les mêmes objets ou individus sont concernés par plusieurs campagnes, une méthode possible est de suivre des « cohortes » typiques de la population qui est concernée par le cycle, au travers des campagnes successives (suivi longitudinal). Les puits et référentiels par l’identification et l’historisation permettent de réaliser un tel suivi, et de simuler le « vieillissement » de la population.

Cas habituels de prévisions


On rencontre des problématiques de ce type pour :
Les prévisions budgétaires,
Les prévisions commerciales,
Les plans de fabrication,
Les campagnes marketing, …
Dans ces différents cas, la clé est dans le choix du « grain opérationnel » qui trace l’activité à prévoir, et ses « unités d’œuvre ».

Apports de l’Architecture Flexible


L’Architecture Flexible organise les systèmes d’information autour de « grains de référence » définis au niveau le plus fin. Ce niveau « atomique » est le seul qui permette la mise en cohérence des SI, et leur synchronisation, en se calant sur les « faits » élémentaires. Ainsi les flux opérationnels, les interactions, relient les différents SI, quelles que soient les modalités de transformation (processus, applicatifs, architectures technique) et en utilisant des standards fonctionnels spécifiques et adaptés à chaque puits de données.
La tri-datation, un des principes de base de l’Architecture, introduit, dans ces interactions, la date de vision qui permet de gérer les différentes perspectives de prévision.

No comments:

Post a Comment