Algorithmes et Intelligence Artificielle : de nouveaux horizons pour la modélisation des coûts?
Insight 27 Sep. 2017

Algorithmes et Intelligence Artificielle : de nouveaux horizons pour la modélisation des coûts?

Les avancées réalisées ces 20 dernières années dans le domaine des statistiques ont permis de mettre au point des algorithmes prédictifs beaucoup plus performants notamment en termes de précision. 

Les modèles traditionnels de costing

Si les modèles analytiques traditionnels basés sur les processus de fabrication du produit ou du service, restent encore largement utilisés dans notre société cartésienne, les modèles statistiques s’imposent progressivement par leur redoutable efficacité. Mais plutôt qu’une opposition, ces différentes méthodes s’enrichissent et se complètent. Il existe aujourd’hui 3 grandes méthodes utilisées pour estimer le coût d’un produit que nous détaillerons ci-après.

1/ La méthode analogique

Cette méthode estime le coût d’un nouveau produit par comparaison avec des produits similaires produits ou achetés dans le passé. Cette méthode est peu fiable, mais peut être utilisée dans des phases extrêmement amont (étude d’opportunité) lorsque les caractéristiques du projet ou du service ne sont pas encore connues. Nous ne nous attarderons pas sur ce type d’estimation basique dans cet article.

2/ La méthode analytique

Elle estime le coût d’un produit par modélisation du processus de production industriel. Cette méthode se base sur la structure coût du produit dont elle estime chaque élément intermédiaire sur la base des matières & composants engagés, des coûts de process (machine et main d’œuvre), ainsi que les coûts annexes de structure.

Cette méthode présente plusieurs avantages :

  • Elle permet d’estimer un coût de production optimisé et théorique en modélisant une usine virtuelle sur la base des meilleurs ratio (coût main d’œuvre, TRS, Scraps, …).
  • Elle permet ainsi de donner une cible de coût ambitieuse et identifier le « Best Landed Cost » pour un produit donné.
  • Elle permet également d’identifier de manière concrète les sources de non performance des fournisseurs (sur quelle étape de process, quel poste de coût, quel indicateur…) et d’engager avec ces derniers une démarche d’amélioration continue pour capter des gains de productivité.
  • Cette méthode est donc particulièrement utile dans les phases aval du cycle de vie (production, amélioration continue, reconception produit…).

Cependant, la méthode analytique comporte quelques inconvénients ou freins à la mise en œuvre :

  • Elle nécessite une bonne compréhension des procédés de fabrication en jeu ainsi que des paramètres clé (TRS, Scraps, temps de cycle…). Autant d’informations pas toujours faciles à collecter et capitaliser auprès des fournisseurs.
  • La détermination du « Best Landed Cost » nécessite d’alimenter ces outils avec des données benchmarks sur les paramètres de production, et de maintenir ces benchmarks à jour
  • Si les processus standards peuvent être modélisés plus ou moins rapidement (injection, extrusion, fonderie, découpe, frappe, traitement de surface…), le chiffrage d’un produit complexe est souvent fastidieux. Il requiert une expertise pointue que seules quelques personnes maîtrisent dans l’entreprise.
  • En conséquence, les cellules de chiffrages connaissent vite des goulots d’étranglement, avec des délais de traitement incompatibles avec le développement agile et les contraintes de « time to market ».
  • Enfin, si ces modèles ont une vraie pertinence pour donner des cibles de coût, ils manquent souvent de précision, car ils ne prennent pas en compte les aléas ou certains facteurs externes (rapport de force, effets marché, ….), ce d’autant plus que beaucoup de fournisseurs ont un niveau de maturité très faible sur la maîtrise de leur prix de revient industriel (PRI).

Les solutions logicielles existantes sur le marché répondent à une partie de ces problèmes en proposant notamment des référentiels intégrés sur plusieurs procédés de fabrication avec des données benchmarks par pays. Certains éditeurs ont également développé des interfaces offrant une lecture des fichiers CAO, ce qui permet d’automatiser la proposition de procédés de fabrication (usine virtuelle). Cependant ces logiciels restent lourds et longs à paramétrer et sont utilisés par quelques experts.

3. La méthode paramétrique

Cette méthode estime le coût d’un produit ou service par modélisation statistique. Cette méthode utilise les historiques de produits ou de services similaires pour définir des équations ou lois statistiques qui permettent de modéliser l’évolution du coût en fonction de certains paramètres qualifiés d’« inducteurs de coût » («Cost Drivers »).

Ces modèles sont la plupart du temps basés sur des régressions linéaires, multilinéaires, polynomiales ou encore logarithmiques. Ces méthodes d’estimation présentent plusieurs avantages :

  • Elles permettent d’estimer le coût d’un nouveau produit/service sur la base de caractéristiques simples et connues de l’entreprise (le poids, la taille, les volumes, le pays de production, des éléments clé de la spécification….) sans nécessairement connaître le détail du processus de fabrication ou des benchmarks externes. Il s’agit donc d’une méthode très rapide et simple à mettre en œuvre.
  • D’autre part, se basant sur l’observation des produits/services réellement fabriqués ou achetés dans le passé, le coût estimé est potentiellement plus consistent et précis qu’un modèle analytique « théorique », sous condition bien entendu d’avoir suffisamment d’historique de qualité.
  • Ces méthodes statistiques sont particulièrement utiles dans les phases amont du cycle de vie (opportunité, faisabilité, conception détaillée…) car elles permettent de prendre rapidement les bonnes décisions pour une conception optimisée et donc de sécuriser la marge tout en accélérant le « time to market ».
  • Plus en aval, elles permettent également d’analyser rapidement la cohérence ou les incohérences dans les prix actuels, grâce aux analyses de dispersion par rapport au modèle prédictif. Ainsi elles révèlent des produits ou services aberrants, au coût anormalement élevé, par exemple, au regard du modèle prédictif. Cela donne des pistes d’optimisation pour les acheteurs (renégociation, changement de fournisseur) ou pour la R&D (reconception).

En revanche, ces méthodes présentent plusieurs limites:

  • Les modèles statistiques traditionnels (basés sur des régressions) prennent difficilement en compte les paramètres qualitatifs (sauf à réduire la taille de la base de données).
  • Ils gèrent mal les données manquantes et nécessitent donc d’avoir des bases de données très propres.
  • Ils gèrent mal les « ruptures » ou effets de seuil. Par exemple, le prix peut avoir un comportement linéaire sur une certaine plage, puis un comportement radicalement différent à partir d’un certain seuil (taille, poids, volume…) car le procédé de fabrication peut changer.
  • Tous ces éléments affectent directement la précision des modèles paramétriques traditionnels et donc leur utilisation.

L'Intelligence Artificielle, la voie vers une quatrième méthode de modélisation des coûts

Les progrès réalisés ces dernières années dans de domaine algorithmique et du machine learning solutionnent en grande partie les inconvénients des méthodes paramétriques traditionnelles et permettent d’en améliorer la performance ainsi que leur domaine d’application.

Parmi les méthodes statistiques récentes, l’algorithme des « forêts aléatoires », formellement proposé en 2001 par Leo Breiman et Adèle Cutler (Breiman, L., Random Forests. Machine Learning. 45, 5-32 (2001)) est une méthode statistique non paramétrique qui effectue un apprentissage sur de multiples arbres de décision entraînés sur des sous-ensembles de données légèrement différents, générés par les techniques de « Bootstrap ».

1) Quels sont les avantages?

Les principaux avantages de cet algorithme issu de l’intelligence artificielle sont les suivants :

  • Capacité à modéliser un nombre très important de paramètres (« cost drivers ») et notamment des paramètres qualitatifs ou « symboliques »
  • Capacité à traiter des bases de données pour lesquelles le nombre de variables dépasse largement le nombre d’observations
  • Capacité à identifier et pondérer automatiquement les paramètres les plus importants, et donc les « cost drivers » qui impactent le plus le coût du produit
  • Capacité à gérer les valeurs manquantes / bases de données incomplètes
  • Robustesse aux « outliers »
  • Capacité à identifier les ruptures de comportement des variables
  • Interprétabilité de l’arbre
  • Précision augmentée de 30 à 40% par rapports à des méthodes traditionnelles

2) Quelles sont les applications?

Les applications de ces algorithmes sont multiples, notamment dans le domaine médical, assuranciel, ou encore dans le ciblage des campagnes marketing (avec les méthodes d’uplift).

L’application des forêts aléatoires dans le domaine de l’estimation des coûts permet de solutionner une grande partie des inconvénients des approches paramétriques traditionnelles et ouvre ainsi de nouvelles opportunités pour les entreprises soucieuses de gagner en efficacité et en compétitivité.

En effet, une estimation précise des coûts est désormais possible, même avec un nombre limité d’observations (quelques dizaines), limitant ainsi les ressources engagées pour collecter et capitaliser les données. D’autre part le prix de systèmes complexes peut être modélisé à partir de « cost drivers » fonctionnels facilement accessibles rendant le chiffrage particulièrement simple et rapide. Ainsi, pour un fabriquant de bien d’équipements, nous avons pu modéliser le coût d’un système de climatisation quasi exclusivement à partir de paramètres fonctionnels ou d’environnement comme, le volume à climatiser, le nombre d’ouvertures, le nombre de personnes, le temps nécessaire pour atteindre la température cible, etc…

C’est pourquoi les forêts aléatoires ont commencé à être utilisées par certaines entreprises dans les phases amont du cycle de vie du produit, et notamment pour :

  • Gagner en productivité sur leurs activités de chiffrage (gain de temps et de ressources qu’elles peuvent focaliser sur des chiffrages d’innovation technologique)
  • Répondre plus vite aux appels d’offres de leur client et surtout utiliser ce gain de temps pour mieux optimiser leur proposition
  • Sécuriser et optimiser leur marge sur les nouveaux business

Il n’est pas étonnant de voir que les premiers utilisateurs ont été les secteurs ayant de fortes activités de chiffrage et de développement produit (automobile, biens d’équipement, biens de consommation…).

La seconde étape a ensuite été d’utiliser ces algorithmes pour réaliser les analyses de cohérence ou d’incohérence de prix en identifiant des produits présentant de gros écarts entre le prix réel et le prix estimé. Les propriétés explicatives de forêts aléatoires (classification avec des produits similaires) permettent d’argumenter vis-à-vis des fournisseurs lors de négociations et ainsi de dégager des économies d’achats.

Enfin, une fois le modèle parfaitement calibré, il devient un outil de « cost control » permettant de valider le juste prix proposé par le fournisseur. Les processus de négociation s’en trouvent allégés.

3) Quelles sont les opportunités?

Les opportunités offertes par les forêts aléatoires dans le domaine de l’estimation et de l’optimisation des coûts sont donc gigantesques et loin d’avoir été totalement exploitées. Au-delà de l’optimisation des coûts, l’auto apprentissage de l’algorithme sur les données des entreprises et de leurs fournisseurs permet d’envisager des apports intelligents tels que la préparation automatique de négociations (objectifs, leviers arguments…), la proposition de conceptions ou re-conceptions optimisées, la préconisation de stratégies d’achats les plus adaptées anticipant les comportements fournisseurs…

 

Deux approches complémentaires dans leur utilisation

Modèle analytique

Avantages
  • Modèle explicatif et centré opérations
  • Estimation « Best Landed Cost » et définition de prix cible
  • Permet d’optimiser les prix en production et de piloter les plans de progrès fournisseurs
Limites
  • Difficulté d’accès aux référentiels procédés et maintien dans le temps
  • Démarche intrusive vis-à-vis des fournisseurs
  • Modèle expert peu diffusable
  • Délai de paramétrage et de réalisation des chiffrages
  • Précision ?
Exemples de logiciels
  • Siemens PLM
  • Apriori
  • Facton

 

Modèle paramétrique statistique

 

Avantages
  • Facilité et rapidité d’utilisation
  • Cohérence du prix estimé, et précision (sous condition)
  • Démarche non intrusive vis-à-vis des fournisseurs
  • Application produit et services
  • Très pertinent dans les phases amont du cycle de vie et pour les analyses de cohérence
Limites
  • Nécessite un minimum d’historique de données et de qualité
  • Modèle peu « explicatif » pour animer les plans de progrès fournisseurs
  • Modèle moins pertinent pour définir des prix cible et « Best Landed Cost »
  • Difficulté à modéliser les paramètres qualitatifs
Exemples de logiciels
  • Seer
  • EstimFEC

 

Modèle statistique non-paramétrique

Les«Forêts aléatoires»

Avantages
  • Facilité et rapidité d’utilisation
  • Cohérence du prix estimé, et précision augmentée de 30% par rapport aux modèles paramétriques (sous condition)
  • Démarche non intrusive vis-à-vis des fournisseurs
  • Application produits et services
  • Très pertinent dans les phases amont du cycle de vie
  • Pertinent également dans les phases aval pour l’analyse de cohérences de prix et l’identification d’opportunités grâce aux propriétés explicatives des forêts
  • Intègre un grand nombre de cost drivers, y compris qualitatifs
  • Détecte les ruptures technologiques
  • Hiérarchise les cost drivers
  • Gère les valeurs manquantes et peut travailler avec un échantillon limité
Limites
  • Modèle moins pertinent pour définir des prix cibles et « Best Landed Cost »
Exemples de logiciels
  • easyKost

Conclusion

Il serait vain de vouloir opposer les méthodes analytiques et statistiques d’estimation des coûts. Elles se complètent dans leur usage et leur finalité.

La méthode statistique, plus consistante car basée sur l’observation des données réelles, permet d’obtenir une évaluation rapide et précise pour prendre les bonnes décisions dans les processus de conception ou de reconception produit. Simple à mettre en œuvre, elle permet de modéliser un grand nombre de familles de produits et de services de manière non intrusive et sans besoin d’acquérir une expertise technologique poussée.

La méthode analytique permet quant à elle d’obtenir un chiffrage reflétant précisément la réalité (ou la simulation) d’un procédé de fabrication. Plus fastidieuse à mettre en œuvre, elle permet en revanche de définir des cibles de coût à atteindre avec des facteurs explicatifs basés sur les paramètres industriels constatés et benchmarks. En ce sens, elle est plus appropriée pour chiffrer des ruptures technologiques et conduire les plans de progrès industriels fournisseurs afin de les amener à atteindre la cible visée. Elle est également plus pertinente pour chiffrer les innovations technologiques sur lesquelles l’entreprise ne dispose pas d’historique.

Néanmoins, les algorithmes autodidactiques et le deep learning ouvrent de nouveaux horizons et champs d’application pour l’utilisation des modèles statistiques, notamment grâce au partage d’informations entre les entreprises ou bien entre celles-ci et leurs fournisseurs.