Supply Chain

Évolution du forecasting : des méthodes statistiques vers le deep learning

Introduction

Le domaine du forecasting de la supply chain a connu une évolution significative au fil des années, passant des méthodes statistiques traditionnelles à des approches plus sophistiquées basées sur le deep learning.

Cette évolution a été motivée par la nécessité de mieux anticiper les variations complexes des demandes et des approvisionnements, tout en exploitant le potentiel des grandes quantités de données disponibles.

Dans cet article, nous allons explorer l’évolution des méthodes de forecasting en mettant l’accent sur les méthodes statistiques classiquesles réseaux de neurones et les avancées récentes en matière de deep learning.

Les méthodes statistiques (toujours viables, rapides, mais moins puissantes)

La problématique de prévision est ancienne et vaste, on retrouve des traces de forecast dans des journaux datant du milieu 1800. À cette époque, sans ordinateur, les approches étaient purement statistiques, méthodes qui ont été éprouvées et améliorées à travers le temps, tout en demeurant encore utiles.

Parmi les approches les plus couramment utilisées figurent les modèles (S)ARIMA ((Seasonal) AutoRegressive Integrated Moving Average), les méthodes de Holt et la variante Holt-Winters. 

Ces méthodes permettent, sur la base de formules mathématiques relativement simples, de calculer une prévision assez fiable sur la base des historiques de vente. Avec ce type de forecast, il est même possible d’exploiter la tendance et la saisonnalité.

Le principal avantage de ces méthodes réside dans leur simplicité et leur rapidité de mise en œuvre. Par ailleurs, ce sont aussi des méthodes spécialisées. Selon la structure des historiques de ventes (stationnaire, saisonale, intermittente, …), les prévisionnistes déterminent quelle est la méthode adéquate dans leur contexte particulier. Ces méthodes ont aussi évolué dans le temps en intégrant les avancées technologiques, notamment en matière de disponibilité et de traitement de la donnée.

Aujourd’hui encore, ces méthodes sont largement utilisées et, sur certains jeux de données, présentent des résultats comparables à ceux des algorithmes de machine learning, notamment dans le cas d’utilisation par ensembles. 

Cependant, les méthodes statistiques ont leurs limites. Pour la plupart, elles ne peuvent pas intégrer un grand nombre de facteurs d’influence externes, comme les données météorologiques, par exemple. Ces méthodes sont principalement univariées, c’est-à-dire qu’elles se fondent, dans notre cas, uniquement sur les données de vente sans considérer d’autres sources d’information.

Ainsi, bien que les méthodes statistiques traditionnelles restent largement utilisées et offrent des résultats satisfaisants pour certaines situations, elles ont progressivement été remplacées par des approches plus sophistiquées basées sur le deep learning, qui ont permis de relever des défis plus complexes de prévision dans la supply chain. 

Toutefois, ces méthodes statistiques restent pertinentes pour des prévisions rapides et simples lorsque la complexité des données est relativement faible.

L’avènement des réseaux de neurones (Long-Short-Term-Memory, Gated Recurrent Unit)

Les Long Short-Term Memory (LSTM) et les Gated Recurrent Units (GRU) reposent sur des architectures de réseaux de neurones. 

Un temps délaissés en raison d’un manque de puissance de calcul des machines, les réseaux de neurones connaissent un regain d’intérêt en 2016-2017, avec l’émergence des CNN. Un réseau neuronal convolutif (CNN) est une architecture de réseau de neurones, qui a d’abord été utilisée pour trouver des motifs dans les images afin de catégoriser ces dernières. Ils sont également utilisés dans le cadre des séries temporelles, ce qui explique leur utilisation pour le forecasting.

Les LSTM et les GRU peuvent prendre en compte les dépendances séquentielles à la fois des événements récents et des événements passés, permettant ainsi de capturer des motifs complexes dans les séries temporelles. 

Les deux technologies reposent sur l’apprentissage supervisé. Le réseau est entraîné sur un ensemble de séquences historiques pour prédire les valeurs futures. Lors de l’apprentissage, les réseaux de neurones sont évalués en fonction de leurs prévisions et ajustent les poids des connexions de leurs neurones pour minimiser les erreurs.

Les méthodes récentes (DeepAR, N-BEATS, ... )

Au fur et à mesure que le deep learning a gagné en popularité, de nouvelles approches se sont développées, notamment pour répondre à des enjeux de prévision plus complexes.

Parmi les méthodes récentes utilisées pour améliorer la précision des prévisions dans le domaine du forecasting de la supply chain, on trouve l’architecture appelée DeepAR, développée par Amazon en 2017. DeepAR est un modèle basé sur les réseaux de neurones récurrents (RNN) tout en employant une approche probabiliste pour estimer les distributions sur les valeurs futures. Cette approche permet de fournir des intervalles de confiance autour des prédictions, ce qui est très utile pour la prise de décision dans un environnement incertain.

Une caractéristique intéressante de DeepAR est qu’il peut être utilisé pour prédire la demande sans nécessiter une normalisation directe des données. Cela signifie qu’il peut gérer des séries temporelles avec des niveaux de magnitude et d’asymétrie très différents, ce qui est fréquent dans le contexte de la supply chain. Le modèle est capable de prédire avec précision même pour les produits ayant peu de données historiques disponibles.

DeepAR est un modèle global, ce qui signifie qu’il peut apprendre de plusieurs séries temporelles, améliorant ainsi la précision des prévisions en exploitant les similitudes et les structures communes. 

Le modèle a été évalué sur plusieurs jeux de données et a montré des résultats prometteurs, dépassant même les modèles de l’état de l’art à l’époque. De plus, il nécessite moins de prétraitement que certains autres modèles et peut être utilisé avec peu d’ajustements de paramètres pour différentes séries temporelles.

DeepAR est capable d’apprendre des structures complexes telles que la saisonnalité, ce qui en fait une méthode puissante pour améliorer la précision des prévisions dans le contexte de la supply chain.

Les méthodes à l'avant-garde (Temporal Fusion Transformers, Informer, Autoformer, …)

Les Transformers, une classe d’architectures de réseaux de neurones introduite en 2017, sont en train de révolutionner le domaine du forecasting de la supply chain. 

Tout comme les méthodes précédentes comme les LSTM et les GRU, les Transformers sont conçus pour traiter des données séquentielles. Pour ce faire, ils exploitent des mécanismes d’attention afin de modéliser les relations entre les différentes séquences temporelles.

Le fonctionnement des Transformers repose sur deux principaux blocs : l’encodeur et le décodeur. L’encodeur crée une représentation vectorielle de la série de ventes. Les vecteurs vont ensuite être transformés en prévisions par la partie décodeur, le tout sous la supervision de mécanismes d’attention qui aident à repérer quelles séquences d’entrée ont le plus d’importance pour la prévision.

La principale force des Transformers réside dans leur capacité à gérer efficacement les dépendances à long terme dans les séries temporelles. Grâce à l’utilisation de l’attention, ils peuvent détecter les relations complexes et les interactions entre différentes périodes temporelles, ce qui leur permet de capturer les tendances saisonnières, les modèles de croissance et les changements de comportement dans les données de la supply chain.

Les bénéfices des Transformers pour le forecasting de la supply chain sont multiples. Leurs capacités à modéliser les dépendances à long terme permettent d’améliorer la précision des prévisions, en particulier pour les séries temporelles avec des tendances non linéaires et des cycles irréguliers. 

Cependant, ils nécessitent souvent plus de puissance de calcul et de ressources de stockage que les méthodes plus traditionnelles. Pour autant, les Transformers sont en train de révolutionner de nombreux domaines et vous en avez sans doute entendu parler sans même le savoir, par exemple avec Generative Pre-trained Transformer 3 (GPT-3).

Conclusion

Le forecasting évolue en fonction de plusieurs critères : disponibilité de la donnée, capacité de calcul des machines, … Les approches statistiques traditionnelles sont toujours utilisées aujourd’hui, mais la recherche de gains de précision couplée à l’intégration de facteurs d’influence multiples soutiennent l’essor de nouveaux modèles de deep learning.

Les méthodes basées sur les réseaux de neurones tels que LSTM et GRU ont marqué un progrès significatif, mais les architectures plus récentes basées sur les Transformers repoussent les limites en offrant dans certains cas une meilleure interprétabilité, une plus grande capacité de traitement parallèle et une meilleure capture des dépendances à long terme.

Les défis futurs quant aux Transformers et aux modèles complexes de réseaux de neurones en général portent sur la minimisation des coûts en calculs et en mémoire. Cette problématique semble de plus en plus fréquente dans la littérature scientifique, notamment pour des problématiques récentes de génération d’images et de texte.

Découvrez nos solutions Pricing et Supply Chain