5 solutions digitales au service de la production et maintenance chez Airbus

Airliner in motion on abstract background of highrise and binary code

Le trafic aérien mondial, catalysé par l’expansion des économies notamment en Inde, en Chine et au Moyen-Orient, connait une croissance sans précédent. Airbus projette une demande avoisinant les 37,400 aéronefs à horizon 2037, soit une évolution moyenne annuelle de +4,4%

En 2018, Airbus a fait preuve de cadences records sur ses chaines d’assemblages, avec en moyenne 66,8 modèles A320 produits chaque mois. Couplé à un carnet de commandes de 7525 appareils, soit 9,38 ans au rythme actuel de production, le constructeur cherche à intensifier encore ses cadences et compte y parvenir à l’aide d’outils digitaux.

Graphe

Solution 1

Chaque acteur du marché aéronautique ne possède qu’une fraction des données liées à son environnement. En partenariat avec Palantir, Airbus a déployé en 2017 sa nouvelle plateforme de donnée Skywise. Cette dernière a pour but d’accroître la chaine de valeur via le partage de données cruciales entre les acteurs de l’industrie aéronautique.

  • Fournisseurs : Détails et disponibilités des composants
  • Constructeurs : Design, production et MRO
  • Compagnies aériennes : Données de vol et comportements des passagers
  • Aéroports : Mouvement des avions, passagers et bagages

Skywise regroupe ainsi les données de 22 compagnies aériennes, 2 500 avions, 12 millions de vols et 25 millions dossiers de maintenance. Avec le digital, Airbus a divisé le temps de résolution des problèmes par 3 pour l’assemblage de l’A350 et a respecté la hausse des cadences de production de ce programme. Dans le futur, Airbus prévoit d’incorporer les données de fournisseurs (actuellement hébergées sur une plateforme séparée) ainsi que celles d’aéroports partenaires.

Solution 2

Airbus, en coopération avec un grand cabinet de conseil, a développé des lunettes intelligentes permettant d’améliorer la précision et de réduire la complexité des procédés d’aménagement des cabines. Le marquage des sièges est un procédé long car les spécificités entre familles d’avions et les aménagements selon les besoins des compagnies aériennes rendent impossible la standardisation. Cette technologie ‘wearable’ divise par 6 le temps nécessaire pour le marquage des sièges.

Solution 3

Un élément clé de la production aéronautique 4.0 est la création d’IoT ‘digital twins’. Ces copies virtuelles répliquent les caractéristiques d’un produit ou d’un processus physique. Le couplage des mondes virtuel et physique permet l’analyse de données et la surveillance de systèmes pour prévenir les problèmes avant même qu’ils ne surviennent, éviter les temps morts et planifier l’avenir en utilisant des simulations. CFM International, la joint-venture entre Safran et GE, jumèle chaque moteur LEAP fourni à Airbus avec un avatar digital, procurant un diagnostic en temps réel des moteurs en circulations et à l’arrêt.

Solution 4

Airbus équipe chacun de ses appareils avec en moyenne 20,000 capteurs MRO embarqués afin d’identifier les équipements défaillants et les pièces structurelles devant être changées. Ainsi, ce process contribue à optimiser l’exploitation et la longévité de l’avion.

Les anomalies identifiées par le Flight Data Monitoring (FDM) aboutissent à anticiper un changement de pièces ou d’équipements plutôt qu’une réparation – le Turn Around Time (TAT) du renouvellement d’un équipement étant généralement plus court que la réparation – et limitent le temps des AOG (Aircraft On Ground).

Parallèlement, les pièces destinées au parc de rechange sont produites de manière anticipée, réduisant stocks et délais de production. La demande des pièces dites « de rechange » est alors satisfaite sans entraver la production des pièces destinées à l’assemblage initial de l’appareil. 

Solution 5

En partenariat avec Dassault Systems, Airbus a annoncé le déploiement de la plateforme 3DEXPERIENCE pour accompagner sa transformation digitale. 3DEXPERIENCE posera les bases d’une continuité numérique, de la conception aux opérations, dans un seul modèle de données pour une expérience utilisateur unifiée à travers toutes les divisions et familles de produits. Avec cette implémentation, Airbus espère une configuration de production robuste couplée à une réduction du délai de développement de ses prototypes.

Avec ces outils, Airbus entend booster sa capacité à produire vite et bien. De la conception, avec 3DEXPERIENCE, en passant par la production, avec les lunettes intelligentes, jusqu’à la maintenance, à l’aide de capteurs et répliques virtuelles, les solutions digitales représentent un gisement de valeur déterminant pour Airbus, dont Skywise devient progressivement la colonne vertébrale. 

Schéma Directeur Logistique: les 5 bonnes questions à se poser

Nombre de nos clients s’interrogent sur la pertinence de leur schéma logistique et souhaitent challenger l’organisation de leur flux pour répondre aux enjeux de réactivité et d’efficience imposés par le marché. Cette réflexion est d’autant plus nécessaire que la plupart des distributeurs (plus de 80% selon les derniers sondages) et un nombre croissant d’industriels livrent désormais la bataille de l’omnicanal. Être au plus près du consommateur, le servir rapidement et à moindre coût, avec un service personnalisé… autant de défis qui exercent une pression forte sur les réseaux logistiques et qui contraignent les acteurs à repenser leur organisation. Combien d’entrepôts et où les positionner ? Quelle stratégie de stockage associée ? Quel mode de distribution ?  

Très souvent, les évolutions de réseau logistique sont réalisées sous contraintes, pour palier des déficits de surface de stockage par exemple. Sur la France, ce sont ainsi plus de 8 millions de m2 de surface de stockage additionnels qui ont été mis sur le marché en 2018 par une quarantaine d’acteurs logistiques. Cette démarche est poussée par une tendance globale à la régionalisation des flux tendus.

Or, pour être efficient, le schéma directeur des flux ne peut pas être appréhendé de façon opportuniste, maillon par maillon, mais bien dans une approche holistique. Le schéma directeur s’inscrit dans une logique moyen/long terme et a pour objectif de soutenir la réalisation du business plan de l’entreprise. Il nécessite pour cela l’implication du top management afin d’avoir une lecture transversale des enjeux et opportunités qui se présentent à l’entreprise. Les évolutions de l’offre et de la demande devront être intégrées en amont dans les différentes modélisations des scenarios, impliquant une réflexion dans la rupture.

Dans les organisations les plus matures, le schéma directeur Supply Chain va même servir à tirer la conduite du changement dans d’autres fonctions de l’entreprise, car il met en mouvement l’ensemble des fonctions de l’entreprise

Lors d’un benchmark récent réalisé auprès d’acteurs de la distribution (enseigne dont le réseau en France représentait à minima 100 magasins), les coûts déclarés de leur Supply Chain oscillaient entre 8 et 15%.  Ces écarts de coûts sont en partie liés aux services spécifiques offerts par les différentes enseignes. Par exemple, le fait de proposer à ses clients et/ou magasins une préparation au détail unitaire, nécessitant ainsi une opération de décolisage, augmente structurellement les coûts de picking de 2 à 3%.  Sans parler des coûts induits par une promesse clients à J+1, permettant à un artisan de passer ses commandes à 17h pour être livré le lendemain sur son chantier avant 7h… Autant de surcoûts qui doivent être chiffrés précisément sur le terrain pour permettre au décideur de prendre les bons arbitrages en termes d’offre de service.  

Attention à l’idée reçue qui consisterait à penser que l’externalisation de la logistique est LA solution pour optimiser le couple coûts / service. Elle aura certes l’avantage de faire monter en expertise métier et offrir de la flexibilité, mais elle peut parfois s’avérer décevante. Le markup opéré par les prestataires représente en moyenne entre 5 et 15% d’augmentation par rapport une exploitation en interne. Par ailleurs, si les produits manutentionnés présentent de fortes spécificités en termes d’encombrement par exemple, ou de fragilité, il est fort à parier que vos équipes logistiques actuelles disposent d’une expertise qu’il sera difficile ou très couteux de retrouver chez les acteurs du marché.

Une fois cette lecture opérationnelle de vos coûts réalisée, vous aurez les éléments en main pour définir le juste niveau de service que vous souhaitez proposer. Par exemple, l’amélioration linéaire des délais de livraisons peut s’avérer extrêmement coûteuse et parfois complètement inutile par rapport aux attentes réelles de vos clients ou prospects.

En plus d’une lecture par typologie de produits, la réflexion devra également porter sur une segmentation des clients selon leur attractivité. Cette attractivité peut être évaluée selon le niveau de marge ou de croissance du marché en question ou bien encore, selon le potentiel d’accroissement du chiffre d’affaire de ce client.

Exemple de matrice

La définition de la promesse client nécessite une très bonne connaissance du marché. A titre d’exemple, nous avons récemment été sollicités par un sous-traitant cosmétique pour réduire son lead-time de 14 à 10 semaines sur le marché. Des ateliers de travail collaboratifs nous ont permis de mettre en évidence que le délai actuel était parfaitement acceptable par les donneurs d’ordre. Ces derniers étaient en revanche tout-à-fait intransigeants sur le respect de cet engagement. Nous avons donc retravaillé l’organisation des flux pour sécuriser ce délai, sans exercer des contraintes additionnelles sur le schéma de flux.

Dans les différents scenarios qui seront modélisés, une analyse robuste de sensibilité doit être réalisée afin de vérifier l’impact des hypothèses sur les résultats coûts, qualité et délais. Une mauvaise anticipation des risques entraîne des surcoûts très conséquents, qu’ils soient indirects à travers le traitement de litiges dans 60% des cas ou bien directs avec l’application de pénalités dans plus de 1 cas sur 2. Ils peuvent même aller jusqu’à la perte de clients dans 30% des cas. Certains risques sont relativement bien appréhendés par les industriels, comme le risque fournisseurs qui apparaît désormais quasi systématiquement dans les grilles d’évaluation de modèle, ou bien encore les risques pays qui donne lieu, par la société américaine d’assurance dommages FM Global, à un classement mondial reconnu et partagé

D’autres paramètres sont en revanche beaucoup plus difficiles à modéliser car souvent méconnus.  

En tout premier lieu, on retrouve le risque réglementaire. Par exemple, les évolutions de taxation douanière représentent un facteur très perturbant des Supply Chain dans notre paradigme d’économie mondialisée. Plus proche et plus concrète, la menace de taxation qui pèse sur le transport frigorique se pose comme une épée de Damoclès sur les schémas de flux logistiques avec des coûts au km qui pourraient aller jusqu’à tripler. Les analyses multicritères et les ateliers de travail menés dans le cadre d’étude de schéma directeur permettent de retenir le scénario qui maximisera les bénéfices en limitant au mieux les risques. Les organisations les plus résilientes travaillent sur la base de scénarios « what if » afin de bâtir un plan de continuité d’activité et de sécuriser la mise en place de backups rapides. 

Le plan de transition s’inscrira en général dans une période 2 à 3 ans pour permettre à l’ensemble des acteurs de la chaîne de valeur d’adapter leur métier à ce nouveau schéma. Il est primordial que les chantiers identifiés impliquent l’ensemble de l’organisation, la réussite du projet n’incombant pas à la seule Supply Chain. Le rôle crucial des SI dans ces chantiers est évident et requiert le bon niveau de compétences techniques (interne ou externe).  Un des facteurs clés de succès lors de l’évolution du schéma directeur réside dans la bonne évaluation des ressources nécessaires et un pilotage agile des potentiels goulots d’étranglement qui menacent le projet. Le planning d’économies et bénéfices sera ainsi systématiquement mis en relation avec un plan de ressources afin d’en avoir une lecture réaliste des impacts P&L à court et moyen termes

L’ensemble de l’organisation et des partenaires doivent être alignés sur le schéma de flux cibles qui permettra soit d’inscrire l’organisation dans une nouvelle dynamique, soit en cas de d’échec d’accélérer son déclin. Les priorités et le phasage des chantiers font partie intégrante du schéma directeur. Tous les industriels s’accordent sur le fait qu’une des clefs de la réussite d’un projet d’une telle envergure est de faire partager la responsabilité à l’ensemble des collaborateurs impactés, qu’il s’agisse des opérationnels de la Supply Chain, des fonctions marketing, achat ou bien encore financières. Tous doivent être convaincus de la démarche pour porter le projet en interne mais également auprès des clients. En effet, avec la digitalisation de l’acte d’achat des consommateurs, nul doute que le schéma directeur Supply Chain est plus que jamais un élément stratégique différenciant pour l’entreprise.

En résumé…

Toutes ces questionnements sont indispensables si l’on souhaite définir un schéma de flux optimal. Des nombreuses solutions de network design existent pour soutenir cette réflexion stratégique mais attention au raccourci qui consisterait à penser que c’est l’outil qui donnera les réponses. Son utilisation est d’une part bien souvent limitée par le niveau et la granulométrie des données accessibles, et il ne saurait remplacer les ateliers collaboratifs entre les métiers. Une fois défini, le schéma directeur devra être ensuite être challengé régulièrement tant les paramètres internes et externes influençant cet équilibre sont nombreux.

Cas Client: Définition du Schéma Directeur Logistique d’un Distributeur

Un client issu de la grande distribution a voulu repenser son organisation logistique pour répondre à la fois à l’augmentation des commandes web et à l’augmentation des coûts actuels de son réseau.

Notre consultant senior Tagir explique ce cas client, de l’identification de la problèmatique aux résultats observés après l’intervention de KEPLER.

Optimisation de la performance opérationnelle à la stérilisation

La stérilisation est une fonction critique pour les établissements hospitaliers, qui s’apparente à un atelier de production avec ses difficultés habituelles: des implantations inefficaces, des postes inadaptés, du matériel manquant… Tout cela génère des tensions avec des impacts forts sur le taux d’absentéisme et la qualité de service perçue par le bloc.

Découvrez comment le cabinet KEPLER intervient pour optimiser le processus de stérilisation au service de la performance de la clinique et du bloc opératoire.

 

 

Benchmarking industriel : l’efficacité des fonctions indirectes de production

Le cabinet Kepler a mené un benchmarking mondial sur l’efficacité des fonctions indirectes de production, à travers une quarantaine d’usines d’industries diverses (électronique, automobile, électroménager, etc). Pierre Rougier, associé fondateur de Kepler, explique les conclusions de cette étude ainsi que les initiatives mises en place pour adresser les problématiques constatées.

 

 

 

 

 

Le Quick Repricing ou comment générer des économies avec les petits fournisseurs

Les entreprises ont souvent un nombre important de fournisseurs, pour diverses raisons: acquisitions, achats décentralisés, portefeuilles de fournisseurs incontrôlés ou processus insuffisants. A cause de cette profusion de fournisseurs, mais également des processus achats parfois complexes et des contraintes de ressources, les Directions Achats passent à côté de potentiels d’économies significatifs.

Les équipes Achats se concentrent souvent sur les fournisseurs et les projets stratégiques à forte valeur ajoutée, tandis que les acheteurs Site gèrent les fournisseurs tactiques en même temps qu’ils émettent les commandes. Dans un contexte de pression accrue sur les coûts et de complexification de la Supply Chain, une partie importante des dépenses achats n’est pas adressée chaque année. Les acheteurs focalisant leurs efforts pour dynamiser l’innovation fournisseurs, générer des productivités croissantes tout en pilotant les risques, ils ne peuvent s’occuper de leurs petits fournisseurs et passent ainsi à côté d’un potentiel d’économies. C’est pourquoi Kepler a développé une offre « Quick Repricing » pour générer des économies avec ces fournisseurs non adressés et…

 

L’Industrie 3.X et la TPM décodées

Suite à notre dernier article « Industrie 4.0 … enfin parlons plutôt de 3.X ! », nous vous proposons de poursuivre avec une brève description de la TPM complétée par les différents types de technologies de l’industrie 4.0.

   La TPM, c’est quoi ?

Les défauts ou les défaillances des machines pendant la production ont des effets négatifs sur le planning de production ainsi que sur le moral des employés. La Total Productive Maintenance (TPM) est à l’origine de la fiabilisation des équipements. Il est essentiellement centré sur la machine et sa productivité mesurée par l’OEE (Overall Equipment Efficiency, également appelé TRS pour Taux de Rendement Synthétique).

Le focus est mis sur la réduction des 16 pertes généralisées de l’OEE, classées dans trois groupes : les pertes liées à l’équipement, les pertes liées à la main d’œuvre et les pertes liées aux matières, à l’outillage et à l’énergie.

Le JIPM (Japan Institute for Plant Maintenance) a défini les huit piliers de la démarche de management TPM en 1989 :

Gestion et maintenance autonome des équipements

Elimination des gaspillages / Améliorations au cas par cas

Maintenance planifiée

Amélioration des connaissances et savoir-faire

Sécurité, conditions de travail et environnement

Maitrise ou maintenance de la qualité

Maitrise de la conception des produits et équipements associés

Efficience des services connexes ou « TPM dans les bureaux »

Ces 8 piliers resteront des fondamentaux de l’industrie. La question est simple : « en quoi le 3.X va venir consolider et garantir une maintenance toujours plus efficace ? ».

   Que nous propose l’Industrie 3.X ?

L’analyse de Big Data, l’Internet des objets, l’intelligence artificielle, la réalité virtuelle et augmentée, et les systèmes cyber-physiques sont considérés comme les principaux leviers de la prochaine mise à niveau du numérique.

  • Analyse Big Data

Le terme «big data» fait référence aux grands ensembles de données techniquement complexes pour les applications typiques d’analyse et traitement de données. L’analyse de Big Data permet aux entreprises de faire de la «prédiction», les entreprises peuvent prédire les évènements à l’aide d’une analyse approfondie de grands ensembles de données qui seront activement monitorées. La quantité d’informations stockées croît 4 fois plus vite que l’économie mondiale, tandis que les vitesses de calcul augmentent 9 fois plus vite. Cela reste très important car depuis le début de la création de données numériques jusqu’à l’année 2003, il y avait 5 exaoctets d’information créés et maintenant la même quantité d’informations est créée tous les deux jours. Une étude avec plus de 2 000 participants d’entreprises de 9 grands secteurs industriels et 26 pays montrent que 80% des PDG mondiaux ont reconnu l’importance du data mining et de l’analyse pour leurs organisations. Les données volumineuses permettent d’extraire de nouvelles données à partir des données existantes, fournissant ainsi des informations techniques et commerciales importantes qui aident à prendre des décisions plus claires et optimisées. 

Le cloud computing et le machine learning sont également des technologies prédominantes dans l’analyse Big data, le cloud computing est une plateforme évolutive qui aide à utiliser les ressources informatiques de manière plus rationnelle, aidant l’automatisation et réduisant les coûts générés par les systèmes isolés. Le « cloud manufacturing » est le concept qui reflète l’idée d’une usine intelligente, c’est-à-dire la collaboration de modèles de production avancés avec la technologie informatique dans le cloud pour réaliser une production informatisée et axée sur les services (Givehchi, Tresk et Jasperneite, 2013).

  • Internet des Objets (IoT)

L’idée de l’Internet des objets est apparue pour la première fois dans les années 80, pour répondre aux besoins des guichets automatiques bancaires (Shon, 1996). Depuis, nombre de ces appareils ont été connectés en réseau. L’Internet des objets (IoT) est la terminologie utilisée pour les dispositifs physiques ou les composants qui peuvent être connectés via le réseau et ont la capacité de communiquer entre eux via des RIFD (Radio Frequency Identification) ou des capteurs intelligents (Gilchrist, 2016b). Selon l’ISO/IEC JTC1 (2015) l’IoT est une infrastructure d’objets, de personnes, de systèmes et de ressources d’information interconnectés ainsi que des services intelligents pour leur permettre de traiter l’information du monde physique et virtuel et de réagir. Cependant, il s’agit d’un concept similaire aux systèmes cyber physiques (CPS). Selon une estimation, environ 25 milliards d’appareils / objets seront interconnectés et auront une communication entre eux, et ce sera utilisé d’ici 2020. L’Internet des objets permet aux entreprises d’ajouter de la transparence dans les processus et de les rendre analytiquement mesurables. Ces capteurs peuvent être portés par les opérateurs, placés sur les chaines de production, sur les machines directement, dans les entrepôts …

De même, les nouvelles solutions type RFID permettent de garantir une parfaite traçabilité des produits sur la chaine de valeur et également de mesurer la performance au quotidien grâce à la collecte de données pertinentes. La capacité des IoT à proposer une intelligence augmentée aide les entreprises à optimiser leur capacité de prise de décision, à garantir une collecte de données efficace et à générer les bons rapports pour leur environnement spécifique. L’IoT aide l’entreprise à gagner en « intelligence », en leur donnant la capacité d’analyser leurs processus physiques qui n’étaient pas mesurables auparavant. Tout cela contribue à une meilleure capacité stratégique et opérationnelle et, dans certains cas, à un avantage concurrentiel (Kopetz, 2011).

  • Intelligence Artificielle

L’IA a été introduite comme domaine de recherche à la fin des années 1950. L’intelligence artificielle est un sous-domaine de l’informatique, dont le seul but est de donner aux machines ou aux robots une intelligence humaine telle qu’ils deviennent des plateformes indépendantes et capables de prendre des décisions intelligentes de manière autonome (McCarthy, 2007). Il y a deux types de l’IA : l’intelligence artificielle mono activité (ANI) qui est liée à des applications sur une seule tâche dans un domaine très précis dont nous sommes témoins aujourd’hui (i.e. jeu Go), puis il y a l’intelligence artificielle générale (AGI) qui est encore en développement. Le concept d’AGI est large, profond et contient des caractéristiques qui surpassent l’intelligence humaine dans de nombreuses dimensions telles que la vitesse analytique, la mémoire, le multitâche, la reconnaissance des formes et la capacité d’adaptation avec de nouvelles informations auto-apprises (Muehlhauser, 2013). Selon Hawking et al. (2014), le succès dans la création de l’AGI serait le plus grand événement de l’histoire humaine, mais ils ne sont pas certains que ce soit aussi le dernier, à moins d’apprendre à éviter le risque, d’où la vision hésitante des experts par rapport à l’IA. 

Combien d’emplois seront remplacés par les robots et l’IA dans les prochaines années ? Et combien de nouveaux métiers et postes seront-t-ils créées ? La réponse n’est pas donnée, mais pour illustrer, la plus grande banque du Japon, Mitsubishi UFJ Finance, a récemment installé des robots pour ses opérations de service client et l’IPsoft, un centre d’appel, utilise un robot d’IA « Amelia » capable d’auto-apprendre en dehors des connaissances préprogrammées. « Amelia » peut maintenant traiter plus de 60% de toutes les requêtes entrantes.

  • Réalité virtuelle et augmentée

L’usine intelligente sera aidée par des programmes avancés de ressources humaines en « réalité virtuelle et réalité augmentée ». La réalité virtuelle (VR) est un environnement simulé par ordinateur. Elle est présentée à l’utilisateur comme un environnement réel. Elle peut aider les programmes de formation des employés et dans l’assistance aux processus opérationnels à l’aide d’appareils numériques compatibles. En revanche, la réalité augmentée (AR) a une longueur d’avance et permet à l’utilisateur d’interférer avec un environnement simulé (Boud et al., 1999). Selon Jason Ganz, PDG d’Agora VR « Internet nous a permis d’apprendre quoi que ce soit – VR et AR nous permettront de tout expérimenter ». Les experts suggèrent que certaines des tâches de management se tiendront virtuellement comme par exemple les réunions et les conférences stratégiques. De plus la VR et l’AR aideront le département des ressources humaines dans la formation et le système d’accompagnement continu pour la transition dans un environnement numérique.

  • Systèmes cyber-physiques

Afin de rendre l’usine intelligente opérationnelle ou fonctionnelle, nous aurons besoin des « Systèmes Cyber Physiques (CPS) ». Les CPS sont des systèmes intelligents qui permettent de créer un pont entre les composants virtuels et physiques utilisés dans la production, la logistique et les produits. C’est le concept qui se combine avec l’Internet des Services (IoS) pour rendre l’industrie 3.X possible, ce qui ouvre de nouvelles possibilités pour des applications et processus innovants. Les CPS faciliteront le changement de paradigme par rapport aux « business models » et « market models » avec tous les intervenants de la chaine de valeur y compris les fournisseurs. Toutes ces technologies combinées à d’autres technologies telles que la fabrication additive, par exemple l’impression 3D, le frittage sélectif par laser, la cobotique, l’AGV, etc., constituent les bases pour l’usine du futur, qui regroupe des systèmes virtuels et physiques via des systèmes cyber physiques. Une telle fusion des processus techniques et des processus d’affaires fera une porte d’entrée au concept connu sous le nom de « Smart Factory » (MacDougall, 2014).

Toutes ces technologies déjà connues, comment vont-elles contribuer aux sites de production ? Et notamment dans le cadre d’une démarche de TPM ? Dans le prochain article, nous présenterons les contributions de l’environnement numérisé au TPM et de manière plus large, des solutions pratiques que nous mettons en place chez nos clients.

Sources :

Boud, A. C., Haniff, D. J., Baber, C., & Steiner, S. J. (1999). Virtual reality and augmented reality as a training tool for assembly tasks. In Information Visualization, 1999. Proceedings. 1999 IEEE International Conference on (pp. 32-36). IEEE.

Gilchrist, A. (2016b). Middleware Industrial Internet of Things Platforms. In Industry 4.0 (pp. 153-160). Apress.

Givehchi, O., Trsek, H., & Jasperneite, J. (2013). Cloud computing for industrial automation systems—A comprehensive overview. In Emerging Technologies & Factory Automation (ETFA), 2013 IEEE 18th Conference on (pp. 1-4). IEEE.

Hawking, S., Russell, S., Tegmark, M., & Wilczek, F. (2014). Stephen Hawking: \’Transcendence looks at the implications of artificial intelligence-but are we taking AI seriously enough?’. The Independent, 2014(05-01), 9313474

Kopetz, H. (2011). Internet of things. In Real-time systems (pp. 307-323). Springer US.

Shon, S. W. (1996). U.S. Patent No. 5,499,238. Washington, DC: U.S. Patent and Trademark Office.

MacDougall, W. (2014). Industrie 4.0: Smart manufacturing for the future. Germany Trade & Invest.

McCarthy, J. (2007). WHAT IS ARTIFICIAL INTELLIGENCE? Retrieved March 15, 2017, from http://www-formal.stanford.edu/jmc/whatisai/

Muehlhauser, L. (2013, September 15). What is AGI? Retrieved March 26, 2018, from https://intelligence.org/2013/08/11/what-is-agi/

L’utilisation du Machine Learning pour générer des économies rapides et gagner en cohérence des prix

Le but de cet article est de partager notre expérience dans l’utilisation du Machine Learning afin de générer des opportunités d’économies rapides et d’homogénéiser les prix d’achats parmi les business units / régions de grands groupes.

  Contexte et défis au sein d’un groupe multi-BU

Il pourrait rapidement devenir lourd pour un grand groupe et son équipe Achats d’assurer la cohérence des prix dans une catégorie spécifique.

  • Pourquoi payer 5,6 $ pour un tube extrudé de 10 cm de long et 2 mm de diamètre et 20 $ pour un tube de 20 cm et 2,5 mm de diamètre ?

  • Ou un certain prix pour un produit rouge et un double, pour sa version bleue ?

Ces lacunes peuvent être normales mais doivent être contrôlées et comprises afin que les fournisseurs ou la R & D puissent être contestés.

Même avec une organisation et des systèmes corporate, les business units sont souvent indépendantes ou, pire, cloisonnées. Elles pourraient implicitement refuser de se coordonner globalement parce qu’elles doivent aller vite et rester indépendantes. Mais, au-delà des comportements organisationnels et culturels, les principaux obstacles sont d’ordre technique et informatique :

  • Les produits ont des spécificités et des caractéristiques différentes rendant difficiles la comparaison des prix et l’alignement

  • Il n’y a pas de référentiel commun combinant des informations techniques et économiques

  • L’historique des prix est rarement revu

  • Le système ERP n’alertant pas les écarts de prix

  • Le prix des petits fournisseurs n’est pas contrôlé correctement

  • Les routines de révision des prix peuvent varier d’un groupe à l’autre

  • Multi-contrat avec des fournisseurs similaires

  • Les fournisseurs appliquent un coût différent pour faire des affaires par BU / région

C’est avec certitude que l’approche traditionnelle devrait coûter et les solutions peuvent aider à résoudre ces problèmes.

Cependant, elles sont souvent complexes à mettre en œuvre à grande échelle, car elles nécessitent beaucoup d’informations sur les processus de fabrication, une forte expertise technique et une coopération longue et fastidieuse avec les fournisseurs (la politique du livre ouvert est obligatoire).

Consultez notre article « Optimisation de la Supply Chain : les pistes pour une approche en coût complet« 

  Proposition de valeur

De nombreuses entreprises ont développé une approche innovante et efficace combinant des analyses avancées et des algorithmes prédictifs (dérivés de l’intelligence artificielle) pour générer des opportunités d’économies rapides, uniquement en traitant vos données existantes.

La méthodologie est basée sur 5 piliers :

  • Créer un modèle de coûts basé sur des facteurs de coûts partagés tenant compte des spécificités BU / région

  • Utiliser l’analyse comparative pour identifier les lacunes dans les BU / régions et les stratégies d’approvisionnement optimisées

  • Identifier les produits surévalués et quantifier les opportunités d’économies

  • Utiliser l’exploration de données pour déterminer les leviers d’optimisation et préparer des arguments pour les négociations avec les fournisseurs

  • Spécifier les systèmes de management et les besoins requis pour soutenir le processus

Les avantages suivants ont été observés :

  • Identifier les opportunités d’économies (négociation, VAVE, resourcing)

  • Générer des gains rapides grâce à des négociations « basées sur l’analyse » avec les fournisseurs

  • Contrôler les devis des fournisseurs sur les nouveaux projets

  • Améliorer les stratégies d’approvisionnement grâce à l’allocation optimisée des fournisseurs par cluster

  • Favoriser l’amélioration continue grâce à un modèle de coûts robuste, à des compétences accrues et à une collaboration inter-fonctionnelle améliorée

  Des solutions d’évaluation basées sur le Machine Learning

Solution d’évaluation basée sur le Machine Learning qui estime le prix d’un nouveau produit ou service en traitant les données actuelles / historiques à l’aide d’un algorithme sophistiqué, tel que les forêts aléatoires. Les forêts aléatoires sont une méthode statistique non paramétrique qui permet l’apprentissage sur plusieurs arbres de décision basés sur des sous-ensembles de données légèrement différents générés par les techniques Bootstrap (voir Breiman, L., Random Forests, Machine Learning, 45, 5-32 (2001)).

Ce type de méthodes permet d’estimer le prix d’un produit / service sur la base de paramètres pré-identifiés appelés «cost-drivers». L’estimation est très rapide et précise (30% de précision accrue par rapport aux méthodes statistiques traditionnelles).

En comparaison avec les méthodes traditionnelles, les principaux avantages du costing basé sur le Machine Learning sont les suivants :

  • L’utilisateur ne doit pas être un expert du process de production du produit. L’estimation est exclusivement basée sur les caractéristiques du produit (« cost drivers ») qui sont des informations auxquelles il peut accéder en interne (Vs interroger son fournisseur).

  • Il peut mélanger un nombre infini de cost drivers, ces derniers pouvant être continus ou discrets, techniques (poids, fonction couleur, matière première, …) ou commerciaux (pays, volume, fournisseur, …).

  • Capacité à traiter des bases de données pour lesquelles le nombre de variables dépasse largement le nombre d’observations

  • Capacité à identifier et pondérer automatiquement les paramètres les plus importants, et donc les facteurs de coûts qui ont le plus d’impact

  • Capacité à interpréter les résultats

  • Capacité à gérer les valeurs manquantes / base de données incomplète

Pour toutes ces raisons, les logiciels basés sur le Machine Learning aident à créer un modèle de calcul des coûts très robuste et prêt à l’emploi.

Au-delà de ce qui précède, la solution d’évaluation des coûts basée sur le Machine Learning traite tous les prix d’achat actuels et identifie les incohérences / écarts par rapport aux estimations, ce qui facilite l’identification des opportunités d’économies, y compris les négociations avec les fournisseurs.

Enfin, certaines solutions intègrent des fonctionnalités de benchmark qui permettent de comparer chaque BU / Région pour une catégorie spécifique (même à travers des produits de conception et de caractéristiques différentes). Elles sont de plus en plus utilisées dans l’industrie et, par conséquent, elles ajoutent chaque jour des connaissances de référence externes pour chaque produit (la propriété intellectuelle et le respect de la confidentialité sont respectés). Cela permet de créer des communautés de benchmarking et de partager davantage (sciences de la vie, automobile …).

  Exemples

Avantages

Limites

Exemples de logiciels

Modèle analytique

  • Modèle explicatif et centré sur les opérations
  • Estimation du «meilleur prix au débarquement» et définition du prix cible
  • Permet d’optimiser les prix en production et de contrôler les plans des fournisseurs progressistes
  • • Difficulté à accéder aux références de processus et à les maintenir au fil du temps
    • Approche intrusive envers les fournisseurs
    • Modèle expert difficilement déployable
    • Délai d’attente pour le paramétrage et l’exécution du chiffrement
  • Précision ?
  • Siemens PLM
  • A Priori
  • Facton

Modèle paramétrique statistique

  • Facile et rapide à utiliser
  • Cohérence des prix estimés et exactitude (conditionnelle)
  • Approche non intrusive des fournisseurs
  • Applications de produits et de services
  • Très pertinent dans les phases amont du cycle de vie et pour les analyses de cohérence
  • Requiert un minimum de données et un historique de qualité
  • Modèle qui n’est pas très « explicatif » pour modérer les plans de progrès des fournisseurs
  • Modèle moins pertinent pour fixer les prix cibles et le « meilleur prix au débarquement »
  • Difficulté à modéliser les paramètres qualitatifs
  • Seer
  • EstimFEC


Modèle statistique non-paramétrique

Les
«Forêts aléatoires»

  • Facile et rapide à utiliser
  • Cohérence du prix estimé et précision augmentée de 30% par rapport aux modèles paramétriques (conditionnel)
  • Approche non intrusive des fournisseurs
  • Applications de produits et de services
  • Très pertinent dans les phases amont du cycle de vie
  • Pertinent également dans les phases en aval pour l’analyse des cohérences de prix et l’identification des opportunités grâce aux propriétés explicatives des forêts
  • Intègre beaucoup de facteurs de coûts, y compris les facteurs qualitatifs
  • Détecte les percées technologiques
  • Prioriser les inducteurs de coûts
  • Gère les valeurs manquantes et peut travailler avec un échantillon limité
  • Modèle moins pertinent pour établir les prix cibles et le « meilleur prix au débarquement »
  • easyKost

Le Cost-To-Serve ou comment optimiser vos coûts complets de mise à disposition (vidéo)

Dans une économie toujours plus concurrentielle, le coût de mise à disposition des produits est au coeur des enjeux industriels.

Grâce à l’approche Cost-To-Serve, Kepler vous propose d’améliorer votre marge grâce à un pilotage fin de vos coûts opérationnels par ligne de produit et par client.

Industrie 4.0 … enfin parlons plutôt de 3.X !

L’industrie 4.0 est devenue une évidence pour tout le monde… mais il faut savoir raison garder !

Le terme Industrie 4.0 a été introduit pour la première fois pendant la Hanover Fair en 2011 (Wahlster, 2012). Il vient d’une initiative lancée par le German Federal Government dans le cadre de sa stratégie globale High-Tech. Une introduction aux concepts de l’industrie 4.0 peut être trouvée dans Lasi et al. (2014).

Pour mémoire, la première révolution industrielle traduit l’automatisation de la production grâce à la vapeur et l’eau (Industrie 1.0) ; pour la seconde, l’électrification (2.0) est arrivée, et enfin, plus récemment, la troisième a vu l’avènement de l’ordinateur numérique (3.0). Toutes ces révolutions étaient liées à des inventions fondées sur des découvertes scientifiques de rupture (Watt, Tesla, von Neuman) ouvrant de nouvelles industries.

Notez que même d’autres inventions révolutionnaires, telles que la télécommunication sans fil de Marconi (prix Nobel de 1909) qui est à la base de la communication mondiale actuelle, ainsi que des possibilités variées pour le contrôle de la chaîne d’approvisionnement dans la production moderne ne sont pas considérées comme des « révolutions » pour l’industrie.

Ainsi, le concept Industrie 4.0 n’est pas lié à une révolution technique suite à une découverte scientifique de rupture !

En effet, les principaux outils nécessaires à cette mise en œuvre de l’industrie 4.0 existent déjà depuis longtemps : capteurs, automates, big data, Internet des objets, cloud computing, imprimante 3D. Plus qu’une révolution technologique, l’industrie 4.0 représente plutôt une réorganisation complète du mode de production avec les outils modernes donnant un plus grand poids au réseau.

Cette nouvelle génération d’usines a pour objectif de relancer le dynamisme de l’industrie européenne via plusieurs actions : modernisation de la production, augmentation de la compétitivité, flexibilité par rapport à la demande, positionnement face aux enjeux de la mondialisation…

  Si ce n’est pas une révolution, alors pourquoi est-ce LE sujet aujourd’hui ?

Toute entreprise aujourd’hui se doit de communiquer sur le digital. Selon des études récentes, plusieurs centaines de milliards d’investissements 4.0 sont lancés chaque année dans le monde. Les entreprises espèrent des retours sur investissement en moins de 2 ans en générant plusieurs points de revenus supplémentaires tout en réduisant leurs coûts, selon les études de 2 à 4%. Dans ce contexte les principaux acteurs misent sur ce marché à fort potentiel et font la guerre des plateformes pour l’usine du futur : Siemens avec MindSphere, GE avec Predix, Bosch avec IoT Bosch Suite, ABB avec ABB Ability, etc.

Aujourd’hui les global players comme Siemens, Bosch, SAP, Deutsche Telekom se sont donc positionnés, ont conclu des alliances et déclinent des offres Industrie 4.0 tout en développant des démonstrateurs (Kohler C&C, 2015). Les pays n’hésitent pas à suivre ce mouvement car ils y voient une opportunité pour insuffler une nouvelle dynamique dans leurs pays, leurs régions, leurs villes. De plus, la fertilité technologique avec une grande capacité computationnelle et les nouvelles générations de plus en plus « branchées », sont les ingrédients clés pour favoriser cette transition digitale depuis la bulle internet.

De notre point de vue, l’Industrie 4.0 sera d’abord une usine du rattrapage : le « pick and place » permet aux machines japonaises depuis plusieurs décennies de charger et décharger en cycle les machines automatiques. Il en va de même pour les chariots robotisés de manutention assurant le transport des semi-produits, de poste à poste, sur des itinéraires de moins en moins prédéfinis. Ils n’avaient jusqu’à présent jamais convaincus les industriels français alors qu’ils fonctionnent à la satisfaction de tous au même Japon depuis plus de 20 ans. Ce rattrapage réalisé, l’usine aura déjà un « look » plus actuel Quant à ce qu’il en sera dans le futur, vraisemblablement une extension des percées actuelles dans plus de domaines industriels et davantage d’opportunités.

En conséquence, appeler l’Industrie 4.0 une « révolution » représente une incohérence avec les trois premières révolutions, car il s’agit simplement d’une évolution naturelle de la production intégrée par ordinateur (computer-integrated manufacturing (CIM)), et elle se matérialise plutôt par de petites étapes que l’on pourrait éventuellement appeler V.3.1, V.3.2, etc.

L’évolution de l’industrie (adapted from Schrauf et Berttram, 2016)

L’Industrie V.3.x, la « numérisation avancée », concernera les entreprises qui s’orientent vers le client via le commerce électronique, le marketing numérique, les médias sociaux et l’expérience client. En fin de compte, pratiquement tous les aspects de l’entreprise seront transformés par l’intégration verticale de la R&D, de la production, du marketing et des ventes et d’autres opérations internes, ainsi que de nouveaux « business models » fondés sur ces progrès. En effet, nous évoluons vers l’écosystème numérique complet.

  Mais la réalité est un peu plus compliquée 

Une étude de la DZ Bank (échantillon de 1000 entreprises ayant un chiffre d’affaires compris entre 0,5 M€ et 125 M€) publiée en 2014 montrait que 35% des entreprises du Mittelstand pensaient que la numérisation était peu pertinente par rapport à leur chaîne de valeur et 14% supplémentaires, qu’elle jouait un rôle faible.

Comment s’explique cette situation ?


  • check

    Des barrières culturelles et psychologiques : ci-dessous, les nombreuses sources d’incertitude pour les chefs d’entreprise qui sont autant de freins pour l’introduction de l’Industrie 4.0 :

Barrières culturelles et psychologiques

Les freins perçus par les chefs d’entreprise dans le déploiement de l’Industrie 4.0 (Kagermann et al., 2013)


  • check

    Les ressources financières peuvent manquer aux entreprises pour mettre en œuvre l’industrie numérisée;


  • check

    Côté management, on note un manque de vision digitale globale. Les dirigeants ont du mal à percevoir le potentiel d’industrie numérisée et le ROI associé;


  • check

    La majorité des entreprises se trouvent aujourd’hui dépassées par la complexité du thème « digital » et l’ensemble des implications dans l’entreprise;


  • check

    La cybersécurité : pour l’académie allemande des technologies (Acatech), il n’y a pas de déficience des solutions de sécurité, seulement celles qui existent ne sont pas utilisées systématiquement. Bien que les menaces soient réelles dans l’application : infection des équipements avec un logiciel malveillant via les réseaux de bureaux, insertion de logiciel malveillant par clé USB ou par du matériel externe, accès illicite par un réseau de télémaintenance, sabotage délibéré ou comportement erroné, incitation à révéler des données personnelles notamment des mots de passe par l’hameçonnage (emails frauduleux, phishing) et par le « social engineering » (des criminels prennent une fausse identité, par exemple dans un email où ils peuvent se présenter comme le fisc ou un interlocuteur des ressources humaines).

Bien que les techniques propres des systèmes de production Lean ne soient pas encore en place dans tous les ateliers des sites de production, la « Smart Factory » avec le très prometteur label allemand « Industrie 4.0 » fait déjà son show.



3.X
Industrie

Alors que le système de production Toyota (TPS) a montré être le système de production le plus performant, l’industrie 4.0 est encore en phase de cadrage avec l’objectif ambitieux de devenir un système de cyber-production. Les connaissances partielles et parfois limitées sur les systèmes de production Lean conduisent à des idées déformées selon lesquelles les deux approches seraient incompatibles.

La mise en place d’une digitalisation féroce sans un management du « juste nécessaire » dans une logique de conduite du changement mènerait à des gaspillages dans l’industrie d’aujourd’hui, où l’homme-machine continue à cohabiter et le fera dans la prochaine décennie. Certainement, l’industrie numérisée rendra le système de production plus flexible, cependant il n’est pas certain qu’il sera plus rapide, plus lisse, plus stable et plus précis. L’Industrie 3.X en soi se matérialisera de toute façon, avec ou sans cette initiative politico-économique. En fait, la numérisation dans l’industrie a commencé depuis longtemps et est toujours en cours. 

Certes, c’est la connexion, la disponibilité et le traitement des données qui feront la différence dans le futur. Les esprits critiques pourraient donc même dire que l’industrie 3.X est une prophétie auto-réalisatrice dans une certaine mesure et ne répondra pas aux grandes attentes qu’elle soulève.

Nous verrons dans une prochaine publication les différents types de technologies proposées par, soyons indulgents, le « 4.0 » et une brève définition du TPM.

Sources :

Kagermann, H., Wahlster, W., & Helbig, J. (2013) Recommendations for implementing the strategic initiative Industrie 4.0 – Final report of the Industrie 4.0 Working Group. Frankfurt am Main: Communication Promoters Group of the Industry-Science Research Alliance, acatech.

Kohler C&C (2015). Industrie 4.0 : quelles stratégies numériques ? 1–67.

Lasi, H., Fettke, P., Kemper, H.-G., Feld, T., and Hoffman, M. n, “Industry 4.0,” Business & Information Systems Engineering, vol. 6, no. 4, p.239, 2014.

Nelles, J., Kuz, S., Mertens, A., and Schlick, C. M., “Human-centered design of assistance systems for production planning and control: The role of the human in industry 4.0,” in Industrial Technology (ICIT), 2016 IEEE International Conference on, pp. 2099–2104, IEEE, 2016.

Schrauf, S., Berttram, P. (2016). How digitization makes the supply chain more efficient, agile, and customer-focused.

Wahlster, W., “From industry 1.0 to industry 4.0: Towards the 4th industrial revolution,” in Forum Business meets Research, 2012.

5 astuces pour pérenniser votre performance achats IT

L’émergence rapide des nouvelles technologies, l’opacité des prix des principaux acteurs du marché, la pénurie d’experts en achats IT sont autant d’éléments justifiant un besoin pressant d’apporter performance et professionnalisme aux Achats IT.

Voici 5 astuces permettant de pérenniser vos achats IT.

  #1 DOTER L’ENTREPRISE D’UNE POLITIQUE ACHAT IT PARTAGÉE ET VALIDÉE PAR L’ENSEMBLE DES PARTIES PRENANTES

Dans les entreprises de taille importante, avec des implantations géographiques multiples, les achats IT sont souvent gérés directement par les pays ou les business lines, sans réelle coordination. Chaque pays, en lien avec son développement propre, a pu mettre en place une DSI qui implicitement se charge de gérer ses dépenses et nombre d’entre elles donc sont hors des écrans radar des achats et ne sont couverts par aucune politique coordonnée.
En collaboration avec la DSI, les achats IT doivent donc (1) définir la politique à adopter sur chaque segment en lien avec la structure de chaque marché fournisseur, – centralisation (globale ou régionale), coordination, 100% local, (2) caler un RACI sur chaque phase du processus achat (prévision budgétaire, achat, approvisionnement, contrôle des dépenses, SRM), (3) mettre en musique cette politique par une animation transversale des différentes entités de l’entreprise (pays et/ou business lines).

  #2 ARMER LA DIRECTION DES ACHATS DE COMPÉTENCES SPÉCIFIQUES EN ACHAT IT

Sous le vocable « dépenses d’IT » se cache en fait un véritable maquis : rien de commun entre des dépenses d’hardware, de clouds, de software ou de prestation. C’est dans ce maquis encore que l’on croise de très grands noms incontournables (Google, Oracle, Microsoft, Salesforce, pour ne citer qu’eux). C’est également dans ce maquis que l’on affronte des commerciaux peu scrupuleux qui exploitent à loisir leur expertise et l’apparente complexité/unicité de leurs solutions pour vendre toujours plus. Il est donc vital de mettre en face des acheteurs experts de leur domaine pour développer un échange d’égal à égal en perçant au mieux les intérêts des vendeurs, les cycles de vente et les évolutions alternatives qui émergent.
Le profil achat IT expert est une ressource rare, à la formation longue. Il est illusoire de s’appuyer sur de la mobilité interne pour disposer rapidement d’une telle compétence. Seule la recherche de profils externes dans des organisations achat IT matures peut répondre au besoin.

  #3 BASCULER D’UN MODE PAR ALLOCATION À UN MODE À L’USAGE

La période actuelle est plus à la restriction budgétaire sur les dépenses indirectes, dont l’IT fait la plupart du temps partie, alors que la complexité des technologies est en constante évolution. Le salut réside plus dans une adaptation de l’offre aux besoins réels de l’entreprise qu’à la négociation de tel ou tel matériel ou support. Le principe consiste à basculer d’un modèle d’achat en silos (matériel, service…) à un modèle en coûts complets indexé sur l’usage (IT as a service), donc de limiter la dépense au juste nécessaire et surtout de la mettre sous condition d’activité. Cette approche permet d’une part de connecter directement le coût de l’IT à l’utilisation réelle et d’autre part de rendre objective la répartition des coûts entre les différents clients internes, cette répartition étant le plus souvent dans le modèle classique réalisée au moyen de clés plus ou moins arbitraires.

  #4 MUSCLER LE CONTRÔLE DES DÉPENSES IT

Dans un contexte d’augmentation constante des dépenses IT (+4% par an en moyenne, +4,5% prévu pour 2018) – notamment du fait de la digitalisation –, nombre de ces dépenses n’étant pas gérées par les achats et étant directement à la main des clients internes (DSI pour une part importante, mais aussi les métiers qui peuvent avoir des besoins spécifiques), le suivi, qu’il soit budgétaire, contractuel ou fonctionnel est un véritable casse-tête. En particulier, disposer d’une vision consolidée des coûts IT relève souvent d’une gageure. Deux points font particulièrement défaut : le suivi budgétaire lui-même – la vision de l’adéquation entre les dépenses effectivement engagées et le budget prévu – et le contrôle de la facturation avant le paiement. Le premier point passe d’abord par la mise en place d’une classification homogène et précise des dépenses pour que les allocations soient claires, faciles à réaliser et alignées entre les entités. Le second point peut nécessiter la mise en place d’outils dédiés, qui ne se substitueront jamais totalement à un contrôle humain, tant les prestataires font souvent preuve d’ingéniosité (pas toujours volontaire) dans la facturation. En outre, la mise en place d’une contrathèque et d’un SAM (Software Asset Management) sont 2 exemples d’outils de contrôle particulièrement pertinents pour les dépenses IT.

  #5 DÉVELOPPER L’AGILITÉ POUR CAPTER L’INNOVATION AUPRÈS D’ACTEURS « ICONOCLASTES »

L’écosystème IT est composé d’une multitude d’acteurs de nature hétérogène. Beaucoup de démarches achat, de processus achat, de règles notamment dans la gestion des risques, de critères d’évaluation, ne sont pas adaptés à cette diversité. Par exemple, il est fréquent que les règles de qualification de fournisseurs soient incompatibles avec le fait de travailler avec des start-ups : capacité à présenter 3 ans de bilans, niveau de dépendance potentielle rapidement important dans la mesure où l’activité de la société ciblée est balbutiante, absence de certification… Capter l’innovation est alors perçu comme un exercice présentant un risque important, que des organisations matures ne sont pas forcément prêtes à prendre. 

L’agilité passe par la définition de processus spécifiques pour pouvoir collaborer sur un mode différent avec des sociétés ayant des configurations « exotiques », quitte à renforcer certains aspects pour sécuriser la collaboration (modèle de co-développement, exclusivité, incubation, propriété intellectuelle…). Souvent, l’efficacité de ce type de mesure est décuplée par la mise en place d’une organisation dédiée au sein des achats, disposant de compétences spécifiques, non seulement sur des technologies nouvelles, mais aussi dans le domaine juridique ou financier pour mieux accompagner ces jeunes pousses fragiles.


10 tendances clés pour comprendre le Supply Chain Management

En quelques années seulement, la gestion de la Supply Chain est devenue l’un des sujets les plus à la mode pour les organisations confrontées à des marchés mondialisés. Mais en parallèle, elle est également restée l’un des sujets les plus flous pour les gestionnaires à tous les niveaux. S’en tenant aux origines de la logistique, nous pourrions maintenir notre base sur la définition initiale de gestion de la Supply Chain (un système atteignant tous les processus, flux et ressources nécessaires pour fournir le bon produit / service au bon endroit, au bon moment, avec la bonne qualité et coût). Mais je pense que la meilleure façon pour les managers de garder une vision à jour est d’avoir une compréhension claire des principales tendances qui façonnent l’environnement des affaires. Grâce à cet exercice, nous voyons clairement comment l’essence de la gestion de la Supply Chain (approche systémique, partage de vision, principes d’animation…) est essentielle pour faire face à tous les défis émergents.

CONSTATS

#1 Les schémas de chaîne de valeur impliquent une complexité croissante pour la gestion d’entreprise

#2 Les besoins de flexibilité, de réactivité et de coordination rendent les anciens modèles obsolètes

#3 La révolution technologique agit comme un amplificateur de tendance

AXES DE TRANSFORMATION

#4 L’Excellence Opérationnelle constitue une approche puissante pour la mise en place du plan de  transformation

#5 Les modèles d’affaires parfaitement alignés sont au sommet des meilleures pratiques

#6 Refocus sur la Supply Chain « verte » devrait / pourrait se produire bientôt

ACTIVATEURS CLÉS

#7 Le contrôle des informations / données est vital

#8 Les comportements du manager déterminent la compréhension et l’implication de l’équipe

#9 Le déséquilibre entre le marché des compétences et les besoins de l’entreprise a une incidence sur la conception de l’organisation

#10 La véritable Supply Chain d’aujourd’hui ne sera pas applicable demain

9 meilleures pratiques pour dynamiser l’innovation fournisseurs

Capturer et réussir la mise en œuvre de l’innovation fournisseurs est aujourd’hui considéré comme un enjeu stratégique pour la plupart des entreprises, qui y voient un vecteur majeur de création de valeur. Voici quelques bonnes pratiques, fruit de récents projets, mais aussi des récents travaux notre Think Tank.

Règle #1 : Organiser et promouvoir la veille pour engager avec efficacité les partenaires de l’écosystème d’innovation

Solliciter l’innovation des fournisseurs, c’est d’abord être capable de communiquer clairement sur ses axes stratégiques d’innovation. Il ne s’agit surtout pas de brider la créativité, mais d’orienter les propositions vers les priorités stratégiques de l’entreprise (miniaturisation, réduction d’énergie, connectivité, réduction de CO2…). Le plan d’innovation ou roadmap technologique est un outil clé permettant de projeter et partager cette vision au travers d’une gouvernance multi-métiers.

Ensuite il convient de bien cartographier son écosystème d’innovation. Celui-ci ne se limite pas aux seuls fournisseurs mais il englobe un ensemble plus complet de partenaires qu’il s’agit de fédérer (fournisseurs, clients, universités, laboratoires, start-up, consommateur, associations, etc…).

Enfin, les axes d’innovation peuvent être promus, partagés et mutualisés avec les partenaires de l’écosystème d’innovation au travers de différents canaux de communication (réunions stratégiques, portails innovation, open innovation, forum, etc…).

En conclusion, capter et réussir l’innovation repose d’abord sur une compréhension et une organisation claire de la relation avec ses partenaires pour mieux utiliser les énergies et compétences de chacun.


Business intelligence innovation ecosystem

Règle #2 : Identifier et sélectionner les bons fournisseurs pour réussir les bonnes innovations

Trop souvent les entreprises s’appuient sur un modèle classique de SRM (Supplier Relationship Management) pour identifier leurs fournisseurs privilégiés pour l’innovation. Ces modèles sont souvent guidés par une volonté de rationaliser le nombre de fournisseurs et conduisent à s’entourer de fournisseurs importants capables de répondre à l’ensemble des critères requis. Or les fournisseurs les plus gros ne sont pas forcément les plus pertinents pour l’innovation ! Réussir l’innovation c’est aussi s’entourer de fournisseurs plus petits, plus agiles, capables de vous accompagner dans les évolutions de votre Business Model (notamment guidé par la révolution digitale). L’intégration de ces « pépites » suppose de savoir adapter ses stratégies achats et notamment être capable de valoriser l’apport de ces fournisseurs afin de leur permettre de se développer avec vous.

Nous avons retenu 3 critères majeurs pour identifier les bons partenaires :


Right suppliers
  • Les compétences : technologiques, qualité, industrielles, financières…
  • La capacité à coopérer : qui s’exprime notamment par l’alignement stratégique et l’accord sur les grands principes de la collaboration et de la gouvernance sur les projets d’innovation
  • Le « fit » : la compatibilité des cultures mais surtout l’envie et l’implication du Top management

« Big is Beautiful » n’est pas forcément la panacée pour choisir vos partenaires en co-innovation. Réussir l’innovation est d’abord une histoire d’hommes et de femmes et de coopération entre les talents !

Règle #3 : Partager la bonne information avec les fournisseurs pour assurer l’alignement stratégique

Susciter l’innovation fournisseurs et co-innover c’est d’abord savoir s’ouvrir et ne pas hésiter à partager des informations jugées sensibles (d’où l’importance de la règle n°2) : échanger sur les visions du marché, les évolutions consommateurs, partager les plans d’innovation, les éléments clé de la roadmap technologique, etc…!

Bien sûr, cela doit être réciproque. Si des événements spontanés peuvent être organisés (conventions, open innovation, etc…), il est important d’organiser des revues stratégiques avec les fournisseurs clé (en général 2 fois par an), afin de garantir l’implication du top Management et l’alignement des sociétés.

L’innovation naît d’abord de l’échange et doit être pilotée par le Top Management des 2 Parties

Règle #4 : Créer un climat de confiance pour co-générer des idées avec les partenaires

C’est bien connu. La majorité des innovations proviennent de l’échange et de la confrontation d’idées. Il existe de multiples moyens pour organiser cette cogénération : réunions spécifiques, challenges, techdays, séances de créativité, plateformes collaboratives, etc… Dans tous les cas il importe de s’accorder au préalable sur un contrat de collaboration qui fixe les règles de la collaboration et de l’exploitation des idées (notamment en termes de protection intellectuelle, partage des risques, etc..).

Combien de tentatives avortées ou accouchées dans la douleur et la frustration parce que les conditions de la collaboration n’ont pas été clairement définie ou départ et surtout portées par les instances dirigeantes des sociétés partie prenantes.


Co-generate ideas

La création d’un cadre de confiance avec les partenaires est un prérequis fondamental pour réussir et pérenniser la cogénération d’idées !

Règle #5 : Structurer le traitement des idées pour sélectionner les bonnes innovations

Générer les idées n’est pas le plus compliqué. Il convient ensuite de les évaluer et de les discriminer facilement au regard de critères rationnels. Ceci suppose la mise en place de fiches de documentation standard où sont notamment décrits les enjeux (valeur client, différentiation, compétitivité etc…) et le niveau de risque (technologique, industriel, etc…). Un processus fluide doit permettre de traiter les idées de manière réactive afin de donner un retour rapide et argumenter auprès des fournisseurs.

Une bonne pratique consiste souvent à faire cette évaluation en 2 étapes (filtre 1 et filtre 2) qui permet d’écarter rapidement les idées non valables pour se concentrer sur celles qui présentent un réel intérêt.


Structuring idea consideration

Exemple du Filtre 1


Structuring idea consideration

Exemple du Filtre 2

Discriminer les idées avec agilité pour réussir la bonne transformation et garder la motivation des partenaires !

Règle #6 : Promouvoir et structurer les échanges en interne pour mieux piloter l’innovation

La mise en place d’une gouvernance multi-métiers (marketing, R&D, Achats…) est un facteur clé de succès pour organiser la promotion et la conduite de l’innovation avec les fournisseurs ou plus largement les partenaires de l’écosystème.

Cette gouvernance est fondamentale pour aligner les roadmap technologiques, les stratégies achats et les roadmaps fournisseurs. Certaines entreprises font ainsi évoluer significativement leurs organisations. Ainsi, cet équipementier automobile de premier plan qui a réuni sous une même organisation (« Engineering Procurement ») une partie de ses équipes R&D et Achats/Développement Fournisseurs pour piloter l’innovation fournisseurs et assurer l’alignement avec les roadmap métiers.

La gouvernance interne multi-métier est essentielle pour piloter efficacement l’innovation fournisseurs et l’aligner avec la stratégie produit.


Promote internal exchanges

Règle #7 : Valoriser l’innovation en interne pour créer l’envie

Favoriser une culture de l’innovation nécessite la mise en place d’une conduite du changement qui repose autour de 3 axes :



  • Créer le bon état d’esprit : communications, célébration du succès, reconnaissance du droit à l’erreur, mise en avant des fournisseurs, etc.
  • Démystifier : organiser des visites industriels/labos, partager des benchmarks, communiquer sur des innovations simples réalisées, etc… L’innovation est à la portée de tous !
  • Donner l’envie : créer des challenges ou des trophées, incentiver les managers sur les moyens dédiés à l’innovation, créer un indicateur synthétique, etc… 

L’innovation est avant tout un état d’esprit !

Règle #8 : Favoriser l’implication individuelle dans l’innovation pour démultiplier les initiatives

L’innovation ne se décrète pas. Elle doit être à l’initiative de chacun et du plus grand nombre. Si la communication et la valorisation de l’innovation contribuent à créer cet état d’esprit, cela n’est pas suffisant pour autant. Il convient également de relayer par des actions managériales et RH.

  • Donner les moyens aux managers : les former et les coacher pour leur permettre de relayer auprès des équipes ; leur permettre d’octroyer du temps à l’innovation
  • Intégrer les critères d’innovation dans les processus de recrutement, d’évaluation, ainsi que dans les parcours d’intégration des nouveaux arrivants.

Individual involvement in innovation

Les Ressources Humaines ont un rôle clé dans la diffusion de la culture d’innovation !

Règle #9 : Développer les bonnes compétences pour capter et conserver la valeur créée

Réussir l’innovation avec les fournisseurs, c’est aussi savoir développer les bonnes compétences :


Capture retain innovation
  • Développer les compétences techniques : l’erreur classique consiste à focaliser l’innovation fournisseurs pour combler un manque de compétences technologiques internes ! Or, justement il faut être capable de toujours maîtriser l’innovation venant du fournisseur afin de capter la juste part de la valeur mais aussi de la conserver dans le temps. La cartographie des connaissances est donc un pré-requis important avant d’engager une telle démarche.
  • Développer les compétences de savoir-être : les compétences requises pour susciter et piloter l’innovation fournisseurs ne sont plus celles attendues traditionnellement des acheteurs. Les compétences techniques ou fonctionnelles s’effacent au profit compétences de leadership, de Business Development, « Intelligent Risk Taker », etc…

Le temps est venu de remplacer le « Cost Killer » par le « Business Developer »!

Conclusion

Pour conclure, nous dirons que réussite de l’innovation fournisseurs repose l’organisation d’un Ecosystème structuré mais suffisamment agile pour faire émerger et aboutir les nouvelles opportunités. Ces nouveaux schémas de coopération sont à la fois plus complexes et dynamiques. Ils bousculent les traditionnels modes de relation entre les entreprises et leurs fournisseurs. Les entreprises et notamment les Achats doivent se redéployer et s’équiper afin faire face à ces nouveaux défis. Un enjeu majeur pour assurer la contribution de la fonction achats à la création de valeur !

Schémas directeurs logistiques : de l’internationalisation à la rationalisation

L’empreinte industrielle des grands groupes internationaux n’a cessé de prendre de l’ampleur au cours des trente dernières années sans entraîner pour autant des organisations logistiques rationalisées. Les sujets actuellement prépondérants en matière de Supply Chain témoignent autant d’une reprise en main de ces organisations logistiques que d’un très fort potentiel attendu en terme de gains.

En développant des sites industriels aux quatre coins de la planète pour répondre aux impératifs stratégiques les entreprises sont dans l’obligation de mettre en place un ensemble cohérent de processus destinés à former la chaîne de valeur. Si une mise en œuvre appliquée de cette dernière est indispensable à la bonne tenue des objectifs de performance, elle représente de fait un poste considérable de par les besoins engendrés (transport, entreposage, fonctions support…).

C’est la rançon d’une complexité grandissante, l’internationalisation des grands groupes et la dispersion des actifs industriels doivent aujourd’hui se conjuguer avec le besoin grandissant de flexibilité et de réactivité exprimé dans toute la chaîne sans pour autant grever la compétitivité. 

Qu’en est-il de la flexibilité ? Comment adapter son organisation pour qu’elle soit en capacité de répondre aux variations de la demande (variations des volumes, variations de la nature des produits demandés, modulation de la fréquence de la demande) ?

Et la réactivité ? Comment se mettre en position de réaliser ces adaptations dans un espace-temps le plus réduit possible ?

Les industriels ne sont pas moins exigeants que les consommateurs finaux sur ces deux points, les tailles de séries sont réduites, les temps productifs optimisés, les stocks intermédiaires sont ramenés au plus bas niveau possible. Par ricochet, ils exigent tous de la filière logistique un très haut niveau de performance et ce quel que soit le degré d’internationalisation de cette dernière.

Quels sont les leviers actuellement sollicités ?

  • Cap sur la logistique amont

Après avoir longtemps travaillé sur le périmètre aval et laissé le soin d’optimiser l’amont aux fonctions Achats (optimisation du prix d’achat) et Approvisionnements (sécurisation du taux de service), les directeurs Supply Chain nous questionnent de plus en plus sur les potentiels existants pour la réduction des coûts logistiques amont.

Pour une multinationale ces coûts peuvent représenter sur une année jusqu’à 15% du budget Achats, ils sont liés aux opérations de transports « door to door », incluant pour certains acteurs des opérations d’entreposage et diverses manutentions.



15%
du budget Achats

Les leviers ne sont pas foncièrement différents de ce que l’on connait en aval : 

  • Optimisation générale du schéma directeur logistique

  • Généralisation du principe de tournées de collecte et mutualisation des ressources employées (camions ou containers) 

  • Pilotage resserré du taux d’utilisation des ressources (ex : taux de remplissage des containers)

  • Alignement des plannings internes sur les temps logistiques standards (ex : répartitions de commandes)

  • Rationalisation du panel de prestataires, mise en concurrence et optimisation des termes du contrat (négociations avancées des tarifs par route et par mode, sécurisation de la qualité de service du prestataire, solutions de secours…) 

En utilisant ces leviers sur la Supply Chain amont, de grands groupes industriels tels que Fiat ou Valeo ont réussi à titre d’exemple à dégager pour l’année 2012 des économies égales à 7,8M€ et 20M€ respectivement. Ces initiatives sont largement mises en avant dans les communications institutionnelles car elles contribuent directement à l’amélioration de la marge opérationnelle.

  • Reprendre en main le flux

Cette approche était également au cœur de l’étude que nous avons menée début 2013 pour un des acteurs majeurs du marché des produits de grande consommation très présent dans les pays émergents de la zone Asie Pacifique (5 usines implantées). L’analyse des flux logistiques amont et des coûts supportés a permis de mettre en avant les opportunités existantes notamment en termes de rationalisation des transports domestiques en provenance des fournisseurs locaux.

L’enjeu dans ce cas était en premier lieu de questionner la pertinence des incoterms utilisés dans les contrats. En déléguant l’organisation du transport aux fournisseurs, notre client ne se mettait pas en position de piloter le coût et de lancer des initiatives d’optimisation de la Supply Chain. En reprenant en main de l’organisation du flux logistique, l’ensemble des leviers cités plus haut ont peu ainsi être activés.



50%
du coût total de transport

Sur un périmètre domestique, mobilisant du transport routier, le passage à un système de tournées et l’utilisation si nécessaire de nœuds de groupage / dégroupage dans le flux amont ont permis une réduction de 50% du cout total de transport.

  • Adapter l’organisation

En complément de la rationalisation des processus il est également bon de questionner l’organisation Supply Chain pour s’assurer qu’elle soit en phase avec les besoins de flexibilité et de réactivité évoqués plus haut.

Lorsqu’un grand groupe industriel s’implante dans un nouveau pays, il a dans un premier temps besoin de piloter le ou les nouveaux sites à partir de ses fonctions centrales afin de garantir la continuité vis-à-vis des standards internes de performance. Selon la culture de l’entreprise la localisation progressive des activités support suit avec plus ou moins d’application, ce qui donne des degrés d’autonomie variés selon les cas.

Un équipementier automobile anglo-saxon de premier plan nous a récemment sollicité en Chine pour rationaliser ses processus Supply-Chain & Achats et revoir le partage des rôles et responsabilités entre les équipes centrales et locales. Nous avons pu alors mesurer combien la résurgence des organisations historiques centralisées pouvaient handicaper la vie quotidienne des équipes. La complexité des processus décisionnels (fait de constants allez-retours et divers besoins de validation) induit alors un manque cruel de réactivité et pénalise la satisfaction client.

La Supply Chain est en ce sens souvent coincée entre deux mondes et tout particulièrement sur les problématiques de la partie amont évoquée plus haut: qui pourrait organiser des approvisionnements en juste à temps et des transports en tournées sans avoir la vue opérationnelle de l’usine ? Mais dans le même temps qui peut obtenir des économies d’échelle sur les achats ou sur les coûts des prestations sans avoir les données de la demande globale du groupe ?

Nous préconisons systématiquement à nos clients de séparer clairement les processus stratégiques et les processus opérationnels puis d’affecter les premiers aux fonctions globales (qui ont une vision générale des besoins groupe) et les seconds aux fonctions locales ou régionales (qui sont en lien direct avec le besoin terrain). La synchronisation est alors essentielle entre le local et le global, mais l’entreprise sécurise le fait que chacun adresse le bon niveau problématique.

Si les grands groupes internationaux peinent parfois à accélérer le tempo vers un Supply Chain Management efficient tant en termes de processus que d’organisation, la confrontation aux acteurs des marchés émergents les replace directement face à la nécessité de changer leur mode de pensée. Implanté en Chine et en Inde et intervenant auprès de sociétés occidentales sur des problématiques d’efficacité opérationnelle nous faisons le constat quotidien de l’extrême mobilité et adaptabilité des acteurs locaux. Le Supply Chain Manager se retrouve plus que jamais en première ligne pour supporter les objectifs stratégiques de l’entreprise : développement international, compétitivité « end-to-end », flexibilité & sécurisation. 

Optimisation de la Supply Chain : les pistes pour une approche en coût complet

L’Europe industrielle traverse actuellement une période marquée à la fois par une forte pression concurrentielle venue des pays à bas coûts et par un rétrécissement des débouchés, conséquence directe d’une crise de consommation sur les marchés locaux.

En première ligne depuis 2008, le secteur automobile a été très rapidement obligé de s’adapter et de travailler sur la flexibilité de son modèle afin de conserver une performance économique robuste. Pour réduire les coûts liés à la Supply Chain, une fois les leviers traditionnels activés (négociations fournisseurs, optimisation des schémas transport, réduction des stocks…), les constructeurs ont décidé d’aller plus loin en progressant sur la notion de coût complet. 

Voici résumées quelques bonnes pratiques pour le déploiement d’une telle démarche qui s’étend bien au-delà de l’industrie automobile.

La vocation première de l’approche en coût complet est d’orienter les processus de prise de décision vers les solutions permettant d’atteindre un optimum global dans la Supply Chain. De par ce caractère systémique (s’opposant aux approches cloisonnées par fonction), le coût complet est un concept fondamental du Supply Chain Management.

Il se calcule en réalisant la somme des coûts supportés directement ou indirectement par chaque fonction et ce jusqu’au service du client final :

SCHÉMA 1 : Représentation simplifiée de la SC + source coût / fonction

L’objectif est d’avoir une vision des coûts la plus exhaustive possible lors de sa construction afin de mesurer les impacts (y compris ceux cachés habituellement) d’une décision sur toutes les fonctions de la chaîne.

Dans des secteurs où la chaine de valeur est façonnée par de grands programmes à horizon long terme (programmes véhicules dans le cas de l’automobile), cette approche est en particulier utilisée afin d’optimiser les modèles en place pendant la durée de vie série. Le coût complet doit permettre d’aller au bout des idées de rupture en négligeant les impacts sur le coût d’une fonction si le résultat global est bénéfique.

Dans les secteurs à cycle plus court (Produits de Grandes Consommation, industries diverses), l’approche est essentiellement utilisée pour : (i) construire le bon modèle au moment du démarrage en production en soutenant les arbitrages de Make or Buy, (ii) faciliter et optimiser les décisions d’affectation entre schéma de flux logistique pour chaque lancement de nouveaux produits.

Les exemples récurrents

En construisant la structure de coût de la Supply Chain automobile, on s’aperçoit rapidement que le poids de la partie amont, majoritairement constituée des transports depuis les fournisseurs vers les usines, est conséquent (environ 40% des coûts logistiques totaux). Principal levier de réduction des coûts, l’amélioration du taux de remplissage des camions / containers nécessite la mise en œuvre de réflexions transverses type coût complet afin de faire aboutir des solutions qui sont en rupture avec les modèles en place :

Arbitrage approvisionnement – transport  

Les constructeurs automobiles sont tous allés très loin en matière de taille de lot dans leurs diverses applications des préceptes de Toyota (cf. le concept de One Piece Flow). Cependant, les lots de petites tailles ont un double effet négatif, d’une part ils ne permettent plus d’optimiser les chargements (coût/m³ pénalisé en conséquence).

D’autre part, ils contribuent à l’augmentation des fréquences et donc à la multiplication des trajets. L’impact positif sur les niveaux de stocks des unités de production est ici gommé par les surcoûts supportés par la fonction transport.

L’utilisation du coût complet permet dans ce cas de dissocier (i) les pièces à forte valeur qui doivent être livrées au quotidien afin de minimiser leur poids dans l’inventaire (ce gain couvrant le surcoût de transport induit) (ii). Les autres pièces que l’on va massifier dans des transports à fréquences réduites (hebdomadaires si possible) afin d’optimiser les taux de chargement (les gains couvrant largement dans cette situation le différentiel sur le coût du stock).

Arbitrage conception pièce – transport (design to logistics)

Encore trop peu mesuré concrètement dans le monde industriel mais clairement identifié au niveau opérationnel, l’impact de la phase de conception sur les processus logistiques est un sujet important à passer au crible du coût complet. Les colonnes de direction ou les lignes d’échappement sont des exemples parlant en automobile. Pour des pièces combinant encombrement et complexité de design, la question du découpage en sous-composants (induisant un pré-assemblage en interne) doit être posée systématiquement sur les bases des différents coûts à supporter.

Cela permet de dissocier (i)Les pièces qui font un trajet assez court en termes de km et/ou qui nécessitent un processus d’assemblage très complexe voire non maîtrisé en interne, ces pièces devant être approvisionnées par ensembles finis (ii)  Les pièces coûteuses en transport (fonction des kms parcourus et des volumes emballés) et dont le coût de pré-assemblage en interne est compétitif, ces pièces devant à contrario être décomposées en sous-ensembles lors de la conception.

L’idée d’un tel découpage est de pouvoir densifier les pièces à l’intérieur d’un même packaging et par conséquent d’améliorer le ratio coût/m³ de marchandise transportée ; jusqu’à 30% dans le cadre des colonnes de direction ou des lignes d’échappement.

Dans d’autres secteurs, l’exercice peut se faire autour d’arbitrages entre les fonctions Marketing et logistique par exemple. En distribution, l’analyse en coût complet de l’utilisation de packaging prêt à vendre sur des gammes low cost n’est pas encore très répandue alors qu’elle pose des conclusions intéressantes. Ces packagings, à la base prévus pour réduire les temps de mise en rayon, s’avèrent très instables à manipuler durant toutes les étapes amont et souffrent d’un taux de démarque 4 à 5 fois supérieur au niveau des entrepôts pénalisant ainsi le coût final rendu client. A l’inverse sur des gammes premium pour lesquelles le packaging est conçu pour être résistant les prêts à vendre permettent de générer de réelles économies et d’améliorer l’expérience client.

Les clés de la mise en œuvre 

La transversalité de la démarche et la nécessité de trancher sur un optimum global en rupture avec le schéma établi induit nécessairement des frictions entre des métiers fonctionnant encore trop dans une logique de silos.

Voici les grands principes qu’ont adoptés les constructeurs pour aller au bout de la démarche :

#1 Mettre en cohérence les tableaux de bord

La création d’un objectif global coût complet commun aux différentes fonctions et l’alignement des objectifs de chacun limitent les blocages liés à des indicateurs divergents et réduisent les sujets de tension.

#2 Adapter l’organisation

La mise en place d’une cellule de pilotage du sujet coût complet au niveau direction générale et la nomination de référents dans chaque métier est une condition indispensable pour garantir une animation de projet efficace. Cette dernière doit favoriser l’identification et la mise en œuvre des opportunités concrètes, existant dans la Supply Chain.

#3 Définir une instance d’arbitrage

La nomination d’un top manager ayant le pouvoir final de décision en cas de blocage évite d’avoir sans arrêt recours au comité de direction pour trancher. Ce pouvoir de décision peut même être donné au directeur d’usine qui n’est plus seulement en charge de sa productivité mais plutôt de la chaîne de valeur complète de son véhicule.

#4 Développer la maturité Supply Chain des acteurs 

C’est la base du travail, la formation et la communication permettent aux opérationnels de comprendre le sens que l’on donne à l’utilisation de l’outil coût complet.

Les bons réflexes 

Avancer sur les problématiques de coût complet requiert une capacité à compiler de manière structurée un grand nombre de données puis de les exploiter afin de provoquer l’arbitrage. Pour cela il convient de :

#1 Structurer des modèles de coûts

Si la bonne connaissance de l’ensemble des coûts applicables pour chaque processus est un bon point de départ, le but doit être rapidement de structurer des modèles de coûts génériques restituant les différentes options existantes et le coût complet associé.
Ce point a déjà été développé chez les constructeurs mais se retrouve également dans des secteurs comme la grande distribution sous le nom de grilles de cotation.

Celles-ci permettent de réaliser les choix de schémas logistiques en comparant différents scénarios possibles. La première étape dans ce cas est de cadrer les filières potentielles (import, domestique stockée, domestique cross dock, domestique direct par exemple) et les processus qu’elles impliquent. La fonction Supply Chain enregistre en parallèle dans la grille les coûts de chaque étape en se penchant tout particulièrement sur les processus dont on connait par avance la criticité et/ou la récurrence (exemple typique : quel est le coût réel de la non palettisation des marchandises sur les flux import ?).

La finalité d’une telle grille est de pouvoir automatiser et optimiser l’affectation de chaque nouveau produit dans telle ou telle filière en fonction du coût rendu client.

#2 Faciliter l’arbitrage

L’extraction des données clés et leur présentation sous forme synthétique est la meilleure manière de créer l’adhésion autour d’un scénario de changement. Sur les problématiques de taille de lot dans le secteur automobile, une vision synthétique des stocks par fournisseur et des fréquences de livraison utilisées est un bon exemple d’état des lieux mettant en commun les métiers production et transport :

SCHÉMA 2 : Graphique inventaire vs fréquence

Dans la suite du processus d’arbitrage, l’utilisation de matrices décisionnelles permet de partager de manière claire puis de valider les grandes règles à utiliser pour réviser les modes de gestion

SCHÉMA 3 : Matrice volume livraison vs valeur des pièces

Dans le secteur automobile, l’introduction de cette démarche a déjà fait ses preuves en permettant de réduire fortement les coûts logistiques amont et ainsi d’améliorer la marge opérationnelle. Elle permet de mettre sur la table des scénarios innovants de réduction des coûts en basant l’arbitrage final sur le gain généré au global pour le constructeur.

Cette approche commence à se déployer dans d’autres secteurs industriels et de la distribution avec de vraies opportunités à la clé. Elle nécessite de mettre en place des outils robustes, d’adopter de nouveaux systèmes de management, et enfin de conduire le changement au sein de l’entreprise au travers d’actions ciblées de formation et de communication. Pour cela, elle doit faire l’objet d’un projet d’entreprise porté par une équipe dédiée et soutenu par la Direction Générale.

Les bureaux de sourcing : un changement de paradigme

Au cours de la dernière décennie, les bureaux de sourcing sont devenus un élément majeur de l’empreinte mondialisée des distributeurs  occidentaux. Les pays asiatiques et la Chine en particulier ont été des destinations privilégiées pour ces entités en raison de l’attractivité des coûts de cette zone.

Après une première ère de développement et d’opportunités, le rattrapage est particulièrement positif et se caractérise par des gains d’achats constants, la plupart de ces bureaux de sourcing sont à la recherche de leur second souffle.

Pris entre des fournisseurs qui augmentent progressivement leurs prix pour suivre le rythme des coûts (main-d’œuvre, services publics, coûts de qualité…) et leurs homologues internes qui attendent une plus-value (gains d’achat, flexibilité, services…), ils doivent redéfinir et renforcer leur modèle.

Une demande croissante de valeur ajoutée

Pour en revenir au début, les bureaux de sourcing ont été développés par les distributeurs pour deux raisons principales :

#1 Recueillir des demandes provenant de différentes entités au sein d’un même groupe

Les groupes de distributeurs sont par nature des associations de petites entités (magasins / groupements de pays / marques de magasins) qui, isolément, rencontrent des difficultés pour réaliser des économies d’échelle dans les opérations d’achat. Une fois regroupés dans un bureau de sourcing, ils peuvent bénéficier d’un pouvoir de négociation plus élevé.

#2 Mettre en place des ressources localisées

Traiter quotidiennement avec des marchés d’approvisionnement éloignés et inconnus constitue un véritable défi, de l’identification et de la qualification des fournisseurs au traitement des commandes et aux dispositifs d’expédition. Un bureau de sourcing localisé permet de s’attaquer aux différences culturelles et de gérer les processus avec une connaissance des contraintes locales.

Conséquence de cette position, les bureaux de sourcing ont toujours été à la croisée des deux mondes présentant des attentes, des délais et des contraintes différents. Ils doivent correspondre au besoin de volume / visibilité / stabilité des fournisseurs avec le besoin de tarification / flexibilité / réactivité des contreparties internes. Et la tendance actuelle montre que chacun de ces besoins a même tendance à être renforcé.

 

En parallèle, les bureaux de sourcing sont progressivement devenus un centre de services et intègrent des fonctions qui ne sont pas directement liées aux opérations d’approvisionnement telles que la Supply Chain, le design ou l’emballage. La sélection de produits de l’acheteur se dirige vers moins de sélection d’articles (ce que le fournisseur a déjà dans son catalogue) et plus de développement de produits permettant de mieux personnaliser les produits en fonction des marchés de destination. Cela rend le travail des bureaux de sourcing plus complexe, dans un environnement plus complexe.

Mise en place du processus : rationaliser les tâches

Trois types d’actions sont nécessaires pour retravailler les processus

#1 Rationaliser les processus

Un exercice rapide de cartographie des processus montre que les fonctions support peuvent porter jusqu’à un tiers des opérations sans valeur ajoutée et un autre tiers des opérations «déchets». Les bureaux de sourcing ne sont pas une exception et les attentes existantes, les chevauchements, les retouches endommagent la performance. Cela augmente la charge de travail des équipes qui ont tendance à sacrifier les tâches à valeur ajoutée telles que le sourcing des fournisseurs et des produits.

Sur cet axe, tout commence par la définition de valeur ajoutée par les équipes : à quoi s’attendent les clients ? Que sont-ils prêts à payer ? Une fois défini, l’exercice de rationalisation visera à cartographier et à améliorer / éliminer progressivement toutes les tâches qui ne contribuent pas à créer de la valeur ajoutée pour les clients. C’est l’occasion de redéfinir pour chaque processus les normes d’exploitation et les résultats attendus.

#2 Structure des outils avancés

À mesure que la demande de services à forte valeur ajoutée a augmenté, les bureaux de sourcing font souvent preuve d’un manque cruel de méthodologie pour les principales activités de structuration. La description de poste telle que définie aujourd’hui dans les bureaux de sourcing se limite à l’exécution commerciale quotidienne (intégration des fournisseurs, développement et qualification des produits, traitement des commandes…). Les actions stratégiques comme la définition de la stratégie d’achat ou la préparation de la négociation ne sont pas correctement documentées.

Cela nécessite, tout en travaillant sur les normes d’exploitation, de créer des approches et des modèles standards pour les processus stratégiques.

A titre d’exemple, sur l’axe Stratégie d’achat, cela signifie : fournir une structure / un modèle d’analyse qui sera utilisé par chaque catégorie pour mettre en place une vision à moyen terme et un plan d’action visant à atteindre cette vision. Lors de la préparation des négociations, les meilleures pratiques montrent que le fait de disposer d’une feuille de calcul standard par fournisseur centralisant les chiffres clés (chiffre d’affaires, rabais, évolution du prix des articles par rapport à l’indice de coût…) aide les acheteurs à mieux se préparer aux négociations.

#3 Relier les processus et les outils à l’organisation

Dernier point de l’inventaire, les outils ne sont généralement pas adaptés aux besoins des équipes et ne donnent pas la bonne vision pour que les gens puissent surveiller leur activité. Les systèmes d’information ne couvrent pas toute la chaîne de valeur, les indicateurs de performance clés. De plus, les tableaux de bord manquent, et parfois plusieurs systèmes d’information coexistent sans être connectés pour partager les informations.

Sans surprise, la solution vient du système d’information lui-même. Plusieurs solutions proposent déjà une gestion de bout en bout de l’information et du flux physique. En plus d’une couverture transversale, la capacité du système à fournir des tableaux de bord personnalisés et visuels fait également partie de la solution idéale.

Organisation mise en place : développer la vision à 360 ° des acteurs

L’organisation est un élément clé de la performance du bureau de sourcing. Elle exige donc, de mettre le bon niveau de compétence et d’expérience devant chaque tâche et chaque interlocuteur.

Un manque de maturité dans l’organisation se traduira par un désordre général où les équipes commerciales (merchandiser, chef de produit, chef de service…) auront tendance à monopoliser les conversations au sein de l’entreprise pour chaque sujet évalué (Qualité, Supply Chain…). Il est également fréquent de voir des chevauchements entre les membres de l’équipe commerciale.

Il y a trois types d’actions à mener pour travailler sur cet axe

#1 Affiner les rôles et responsabilités de l’équipe commerciale

L’équipe commerciale (merchandiser, chef de produit…) est au cœur d’un bureau de sourcing. Il s’agit de l’équipe chargée de mettre en place et de déployer la stratégie d’approvisionnement (fournisseurs/ produits) en faisant correspondre les attentes internes des clients à l’offre du marché.

Au sein de la hiérarchie commerciale elle-même, il est important de séparer les tâches stratégiques et les tâches opérationnelles, afin de garantir que le niveau hiérarchique supérieur consacrera du temps aux sujets stratégiques et arrêtera de recouvrir d’autres niveaux sur des sujets opérationnels.

#2 Positionner les fonctions opérationnelles en tant qu’acteurs clés de la performance

Les équipes opérationnelles (Qualité et Supply Chain principalement) sont essentielles pour poursuivre l’activité et fournir des services à valeur ajoutée aux clients.

Positionnez-les en tant qu’interlocuteurs clé sur chacun de leurs sujets pour sécuriser la production (produit qualifié, livraison à temps…) et éviter les chevauchements avec l’équipe commerciale.

#3 Structure des relations transversales

Pour garantir la bonne exécution des processus et assurer la livraison des performances attendues, la communication au sein de l’organisation est vitale. Pour donner un cadre et forcer les équipes avec divers objectifs à travailler ensemble vers un objectif commun, la gestion de la matrice peut être pertinente.

Un référent est désigné par fonction afin de suivre quotidiennement / hebdomadairement, avec les référents des autres équipes, la réalisation des étapes-clé (produit sélectionné, produit qualifié, commande validée, production lancée…).

Travailler sur l’organisation à travers ces 3 axes forcera le besoin de R&R standardisé. C’est là que l’exercice de définition du RACI (Responsible, Accountable, Contributor, Informed) devient important. Il clarifiera les rôles et les responsabilités nouvellement définis à travers des ateliers de réduction des « déchets ».


En termes de gestion, nous ne pouvons pas laisser place à l’interprétation. Les habitudes de gestion, les principes d’animation sont souvent considérés comme des sujets bien connus mais l’exécution souffre d’un manque de définition et de discipline de la part des gestionnaires. Ils doivent faire partie de la nouvelle définition standard, avec des propriétaires prédéfinis, des résultats fréquents et attendus.

Mise en place en amont : éduquer les fournisseurs

La rationalisation des processus et l’alignement organisationnel ne sont pas uniquement réservés aux Supply Chain internes. Le développement de la maturité des homologues est une étape naturelle et essentielle au renforcement de la Supply Chain du distributeur. Les fournisseurs de premier niveau sont parmi les premiers sur lesquels il faut se focaliser dans cette approche.

Maintenir une connaissance précise des forces et des capacités du fournisseur, aligner ses processus avec les exigences internes, faire face aux bons interlocuteurs pour chaque fonction (Commercial / Qualité / Supply Chain) sont autant de bases pour maîtriser le canal en amont

Évidemment, cela implique également d’avoir des points de contrôle réguliers autour des tableaux de bord prédéfinis et des KPI afin d’obtenir une vision en direct de l’avancement de l’exécution.

Pour garantir des gains d’achats durables et un niveau de qualité durable avec les fournisseurs les plus importants et les plus stratégiques, il devient également courant de lancer des programmes de développement fournisseurs. Cela implique, pour les bureaux de sourcing, la nomination de ressources spécialisées dans l’Excellence Opérationnelle qui passent du temps sur le site du fournisseur et l’aident à améliorer sa productivité globale grâce à des ateliers Lean.

Installation en aval : éduquer les clients internes

Aujourd’hui, il n’y a pas d’organisation de sourcing standard, chaque distributeur a développé sa propre approche avec différents niveaux de centralisation conduisant à différents degrés de pénétration des bureaux de sourcing dans les affaires courantes (la pénétration représente le ratio d’affaires traitées par les bureaux de sourcing par rapport au montant total d’achat pour un groupe).

Les organisations parfaitement alignées positionnent les bureaux de sourcing au cœur de leur plan stratégique, en travaillant ainsi sur le développement des produits et le calcul des coûts, en étant responsables de la qualité délivrée, agissant comme un centre de service inévitable pour traiter avec les acteurs en amont. Les bureaux de sourcing ne couvrent pas nécessairement l’ensemble du portefeuille, mais un ensemble de catégories stratégiques prédéfinies (best-sellers, catégories non alimentaires, matières premières…), ils ont la prérogative.

  Exemples

En Europe, Ikea, Decathlon ou Zara sont des exemples bien connus d’organisation parfaitement alignée. Leur business model se reflète dans toute la chaîne de valeur, orientée vers l’optimisation des coûts et la capacité à se concentrer sur la valeur attendue par les clients. Nous parlons de réduire les coûts d’exploitation et l’expérience client grâce à une approche de conception pour Ikea. Nous développons un alignement interne fort autour du développement et du merchandising de nos propres marques pour Decathlon, travaillant à temps, sur la réduction du marché avec chaque fonction pour proposer à Zara des collections plus rapidement.

En dehors de ces organisations, d’autres distributeurs mixent des approches permettant aux entités (ou groupement d’entités) de traiter directement avec les fournisseurs tout en développant leurs propres ressources dans un bureau de sourcing structuré.

Plus vous êtes aligné au niveau du groupe, moins vous ouvrez de biais pour l’exécution quotidienne des tâches d’approvisionnement par les clients internes. Cela conduit à un regroupement systématique des volumes : plus vous donnez de volume à votre bureau de sourcing, plus ils vous rapporteront de valeur. C’est le facteur clé de succès pour renforcer les bureaux de sourcing et leur donner les meilleures conditions pour développer leur potentiel.

Nous avons vu, en quelques points, les axes préconisés pour les bureaux de sourcing en 2017. Si les achats industriels sont encore à l’ordre du jour compte tenu des contraintes du marché BtoC, c’est toujours un bon idéal à poursuivre, et plusieurs bonnes pratiques sont facilement accessibles. Les appréhensions existantes dans l’état d’esprit de la direction, dans la maturité de l’organisation et dans l’alignement des outils et processus, peuvent et doivent être comblées afin de continuer à positionner les bureaux de sourcing en tant que contributeurs à la performance.

Entraînez les fournisseurs à gagner avec vous – L’importance du développement fournisseurs

Le business model de chaque entreprise devrait être de gagner en fournissant des produits, des services et des solutions de qualité, à des clients qui offrent les coûts de possession et d’exploitation les plus bas. Ce business model commence et se termine avec le client. Pour appliquer ce modèle, il est important de développer et de maintenir une base d’approvisionnement qui fait partie intégrante de la Supply Chain étendue et qui peut systématiquement fournir la bonne partie, au bon endroit, au bon moment, à la bonne quantité, et de bonne qualité.

L’environnement d’affaires d’aujourd’hui est caractérisé par :

    • ​L’évolution de la complexité de la Supply Chain
    • ​Le besoin d’intégrer une relation fournisseur
    • ​La limite des ressources internes, nécessaires pour la flexibilité
    • ​L’augmentation de la concurrence et du besoin d’innovation
    • ​Un environnement de travail piloté en silos par un KPI
    • ​Un marché de plus en plus exigeant

Pour que les entreprises renforcent leur focus sur le client et transitionnent d’un état d’esprit limité à un état d’esprit plus ouvert, elles doivent adopter intégralement leur base de fournisseurs. Les relations fournisseur-client constituent un système qui va optimiser sa performance lorsque toutes les parties impliquées travailleront pour la maximiser, en partageant des ressources, en se faisant confiance et en collaborant réellement afin d’être toujours présentes pour le client final.

Tout est plus facile à dire qu’à faire, et n’arrive pas du jour au lendemain !

Depuis des décennies, les entreprises ont déployé des programmes de développement fournisseurs, déployant des initiatives Lean et s’efforçant d’intégrer l’amélioration continue, mais ont constamment échoué. Le fait est, que toutes ces initiatives ont été développées dans un silo : soit dans l’entreprise elle-même, soit dans l’un de ses départements, n’impliquant que marginalement et ponctuellement la base des fournisseurs. Une autre raison de l’échec est que de telles initiatives seraient centrées sur des KPI sélectionnés, conduits par un symbole «$», provoquant des conflits lorsque la définition de ces KPI ou leurs cibles n’est pas alignée avec d’autres indicateurs de performance de l’entreprise ou de n’importe quel fournisseur.

Sans réellement aborder l’implication culturelle de la création de véritables partenariats, sans avoir un leadership visionnaire qui saisit les implications à long terme, sans formuler une stratégie qui vise un véritable changement dans la façon dont les relations fournisseur-client sont pensées, développées et mesurées, cette initiative continuera d’échouer.

​La contribution de concession de prix des fournisseurs (barre la plus courte) représente seulement une fraction de la contribution totale des fournisseurs aux bénéfices des OEM. Lorsqu’il est ajouté à la contribution hors prix du fournisseur (troisième barre à partir de la gauche), le total dépasse la contribution managériale de l’OEM (quatrième barre) aux bénéfices OEM. (PRNewsFoto / Planning Perspectives, Inc.)

Le Monozukuri est une nouvelle manière d’aborder le développement des fournisseurs, en la transformant en une intégration fournisseur et en un effort transversal qui étend les bénéfices capturés en optimisant la Supply Chain de bout en bout.


Le Monozukuri est créé en utilisant 3 piliers :

Neuf leviers Monozukuri
Un processus robuste
Une gestion du changement

Les piliers Monozukuri ci-dessus ne se soutiennent pas et nécessitent 3 facteurs favorables du Monozukuri :

  1. Outils et techniques validés
  2. KPI alignés, cibles et objectifs
  3. Culture de l’entreprise

Communiquer correctement la vision Monozukuri à travers la Supply Chain crée l’élan requis pour établir les facteurs favorables du Monozukuri et déployer les trois piliers à travers la Supply Chain. Les entreprises ne doivent pas sous-estimer le temps et les efforts nécessaires pour définir et communiquer l’énoncé de la vision Monozukuri, ce qui, en tout état de cause, déclenche la transition de l’état d’esprit déterminé à un état d’esprit plus libre.

Pour ensuite soutenir le Monozukuri une entreprise ne nécessite pas autant de ressources que celles nécessaires pour l’établir. Une fois que le moteur du Monozukuri est huilé et que le système procure de perpétuels avantages, il réalise une amélioration continue au sein de la Supply Chain de bout en bout et s’étend finalement jusqu’au client final.

Les résultats du Monozukuri ne doivent pas être mesurés par le succès ou les failles de tel KPI ou d’un autre à un moment donné, mais par la façon dont le système réagit à tout manque à gagner, en comprenant le véritable impact à long terme pour le client final et en travaillant comme de vrais partenaires.

Quel que soit le défi que vous pourriez relever, le confronter avec vos partenaires commerciaux (fournisseurs stratégiques) vous donnera l’avantage concurrentiel dont vous avez besoin et fournira un modèle de gestion du changement auquel chaque élément du système se tournera, conduisant un profond changement culturel, et perpétuant les avantages pour chaque entreprise impliquée !

Algorithmes et Intelligence Artificielle : de nouveaux horizons pour l’estimation et la modélisation des coûts?

Les avancées réalisées ces 20 dernières années dans le domaine des statistiques ont permis de mettre au point des algorithmes prédictifs beaucoup plus performants notamment en termes de précision. Quelles applications possibles dans le domaine de l’estimation et de la modélisation des coûts ? Si les modèles analytiques traditionnels basés sur les processus de fabrication du produit ou du service, restent encore largement utilisés dans notre société cartésienne, les modèles statistiques s’imposent progressivement de par leur redoutable efficacité. Mais plutôt qu’une opposition, ces 2 méthodes s’enrichissent et se complètent l’une et l’autre.

Les modèles traditionnels de costing

Petit rappel, il existe aujourd’hui 3 grandes méthodes utilisées pour estimer le coût d’un produit :

1

La méthode analogique

Cette méthode estime le coût d’un nouveau produit par comparaison avec des produits similaires produits ou achetés dans le passé. Cette méthode est peu fiable, mais peut être utilisée dans des phases extrêmement amont (étude d’opportunité) lorsque les caractéristiques du projet ou du service ne sont pas encore connues. Nous ne nous attarderons pas sur ce type d’estimation basique dans cet article.

2

La méthode analytique

Elle estime le coût d’un produit par modélisation du processus de production industriel. Cette méthode se base sur la structure coût du produit dont elle estime chaque élément intermédiaire sur la base des matières & composants engagés, des coûts de process (machine et main d’œuvre), ainsi que les coûts annexes de structure. Cette méthode présente plusieurs avantages :

  • Elle permet d’estimer un coût de production optimisé et théorique en modélisant une usine virtuelle sur la base des meilleurs ratio (coût main d’œuvre, TRS, Scraps, …).
  • Elle permet ainsi de donner une cible de coût ambitieuse et identifier le « Best Landed Cost » pour un produit donné.
  • Elle permet également d’identifier de manière concrète les sources de non performance des fournisseurs (sur quelle étape de process, quel poste de coût, quel indicateur…) et d’engager avec ces derniers une démarche d’amélioration continue pour capter des gains de productivité.
  • Cette méthode est donc particulièrement utile dans les phases aval du cycle de vie (production, amélioration continue, reconception produit…).

Cependant, la méthode analytique comporte quelques inconvénients ou freins à la mise en œuvre :

  • Elle nécessite une bonne compréhension des procédés de fabrication en jeu ainsi que des paramètres clé (TRS, Scraps, temps de cycle…). Autant d’informations pas toujours faciles à collecter et capitaliser auprès des fournisseurs.
  • La détermination du « Best Landed Cost » nécessite d’alimenter ces outils avec des données benchmarks sur les paramètres de production, et de maintenir ces benchmarks à jour
  • Si les processus standards peuvent être modélisés plus ou moins rapidement (injection, extrusion, fonderie, découpe, frappe, traitement de surface…), le chiffrage d’un produit complexe est souvent fastidieux. Il requiert une expertise pointue que seules quelques personnes maîtrisent dans l’entreprise.
  • En conséquence, les cellules de chiffrages connaissent vite des goulots d’étranglement, avec des délais de traitement incompatibles avec le développement agile et les contraintes de « time to market ».
  • Enfin, si ces modèles ont une vraie pertinence pour donner des cibles de coût, ils manquent souvent de précision, car ils ne prennent pas en compte les aléas ou certains facteurs externes (rapport de force, effets marché, ….), ce d’autant plus que beaucoup de fournisseurs ont un niveau de maturité très faible sur la maîtrise de leur prix de revient industriel (PRI).

Les solutions logicielles existantes sur le marché répondent à une partie de ces problèmes en proposant notamment des référentiels intégrés sur plusieurs procédés de fabrication avec des données benchmarks par pays. Certains éditeurs ont également développé des interfaces offrant une lecture des fichiers CAO, ce qui permet d’automatiser la proposition de procédés de fabrication (usine virtuelle). Cependant ces logiciels restent lourds et longs à paramétrer et sont utilisés par quelques experts.

3

La méthode paramétrique

Cette méthode estime le coût d’un produit ou service par modélisation statistique. Cette méthode utilise les historiques de produits ou de services similaires pour définir des équations ou lois statistiques qui permettent de modéliser l’évolution du coût en fonction de certains paramètres qualifiés d’« inducteurs de coût » («Cost Drivers »). Ces modèles sont la plupart du temps basés sur des régressions linéaires, multilinéaires, polynomiales ou encore logarithmiques. Ces méthodes d’estimation présentent plusieurs avantages :

  • Elles permettent d’estimer le coût d’un nouveau produit/service sur la base de caractéristiques simples et connues de l’entreprise (le poids, la taille, les volumes, le pays de production, des éléments clé de la spécification….) sans nécessairement connaître le détail du processus de fabrication ou des benchmarks externes. Il s’agit donc d’une méthode très rapide et simple à mettre en œuvre.
  • D’autre part, se basant sur l’observation des produits/services réellement fabriqués ou achetés dans le passé, le coût estimé est potentiellement plus consistent et précis qu’un modèle analytique « théorique », sous condition bien entendu d’avoir suffisamment d’historique de qualité.
  • Ces méthodes statistiques sont particulièrement utiles dans les phases amont du cycle de vie (opportunité, faisabilité, conception détaillée…) car elles permettent de prendre rapidement les bonnes décisions pour une conception optimisée et donc de sécuriser la marge tout en accélérant le « time to market ».
  • Plus en aval, elles permettent également d’analyser rapidement la cohérence ou les incohérences dans les prix actuels, grâce aux analyses de dispersion par rapport au modèle prédictif. Ainsi elles révèlent des produits ou services aberrants, au coût anormalement élevé, par exemple, au regard du modèle prédictif. Cela donne des pistes d’optimisation pour les acheteurs (renégociation, changement de fournisseur) ou pour la R&D (reconception).

En revanche, ces méthodes présentent plusieurs limites:

  • Les modèles statistiques traditionnels (basés sur des régressions) prennent difficilement en compte les paramètres qualitatifs (sauf à réduire la taille de la base de données).
  • Ils gèrent mal les données manquantes et nécessitent donc d’avoir des bases de données très propres.
  • Ils gèrent mal les « ruptures » ou effets de seuil. Par exemple, le prix peut avoir un comportement linéaire sur une certaine plage, puis un comportement radicalement différent à partir d’un certain seuil (taille, poids, volume…) car le procédé de fabrication peut changer.
  • Tous ces éléments affectent directement la précision des modèles paramétriques traditionnels et donc leur utilisation.

L’Intelligence Artificielle, la voie vers une quatrième méthode de modélisation des coûts

Les progrès réalisés ces dernières années dans de domaine algorithmique et du machine learning solutionnent en grande partie les inconvénients des méthodes paramétriques traditionnelles et permettent d’en améliorer la performance ainsi que leur domaine d’application.

Parmi les méthodes statistiques récentes, l’algorithme des « forêts aléatoires », formellement proposé en 2001 par Leo Breiman et Adèle Cutler (Breiman, L., Random Forests. Machine Learning. 45, 5-32 (2001)) est une méthode statistique non paramétrique qui effectue un apprentissage sur de multiples arbres de décision entraînés sur des sous-ensembles de données légèrement différents, générés par les techniques de « Bootstrap ».

1/ Quels sont les avantages?

Les principaux avantages de cet algorithme issu de l’intelligence artificielle sont les suivants :

  • Capacité à modéliser un nombre très important de paramètres (« cost drivers ») et notamment des paramètres qualitatifs ou « symboliques »
  • Capacité à traiter des bases de données pour lesquelles le nombre de variables dépasse largement le nombre d’observations
  • Capacité à identifier et pondérer automatiquement les paramètres les plus importants, et donc les « cost drivers » qui impactent le plus le coût du produit
  • Capacité à gérer les valeurs manquantes / bases de données incomplètes
  • Robustesse aux « outliers »
  • Capacité à identifier les ruptures de comportement des variables
  • Interprétabilité de l’arbre
  • Précision augmentée de 30 à 40% par rapports à des méthodes traditionnelles

2/ Quelles sont les applications?

Les applications de ces algorithmes sont multiples, notamment dans le domaine médical, assuranciel, ou encore dans le ciblage des campagnes marketing (avec les méthodes d’uplift).

L’application des forêts aléatoires dans le domaine de l’estimation des coûts permet de solutionner une grande partie des inconvénients des approches paramétriques traditionnelles et ouvre ainsi de nouvelles opportunités pour les entreprises soucieuses de gagner en efficacité et en compétitivité.

En effet, une estimation précise des coûts est désormais possible, même avec un nombre limité d’observations (quelques dizaines), limitant ainsi les ressources engagées pour collecter et capitaliser les données. D’autre part le prix de systèmes complexes peut être modélisé à partir de « cost drivers » fonctionnels facilement accessibles rendant le chiffrage particulièrement simple et rapide. Ainsi, pour un fabriquant de bien d’équipements, nous avons pu modéliser le coût d’un système de climatisation quasi exclusivement à partir de paramètres fonctionnels ou d’environnement comme, le volume à climatiser, le nombre d’ouvertures, le nombre de personnes, le temps nécessaire pour atteindre la température cible, etc…

C’est pourquoi les forêts aléatoires ont commencé à être utilisées par certaines entreprises dans les phases amont du cycle de vie du produit, et notamment pour :

  • Gagner en productivité sur leurs activités de chiffrage (gain de temps et de ressources qu’elles peuvent focaliser sur des chiffrages d’innovation technologique)
  • Répondre plus vite aux appels d’offres de leur client et surtout utiliser ce gain de temps pour mieux optimiser leur proposition
  • Sécuriser et optimiser leur marge sur les nouveaux business

Il n’est pas étonnant de voir que les premiers utilisateurs ont été les secteurs ayant de fortes activités de chiffrage et de développement produit (automobile, biens d’équipement, biens de consommation…).

La seconde étape a ensuite été d’utiliser ces algorithmes pour réaliser les analyses de cohérence ou d’incohérence de prix en identifiant des produits présentant de gros écarts entre le prix réel et le prix estimé. Les propriétés explicatives de forêts aléatoires (classification avec des produits similaires) permettent d’argumenter vis-à-vis des fournisseurs lors de négociations et ainsi de dégager des économies d’achats.

Enfin, une fois le modèle parfaitement calibré, il devient un outil de « cost control » permettant de valider le juste prix proposé par le fournisseur. Les processus de négociation s’en trouvent allégés.

3/ Quelles sont les opportunités?

Les opportunités offertes par les forêts aléatoires dans le domaine de l’estimation et de l’optimisation des coûts sont donc gigantesques et loin d’avoir été totalement exploitées. Au-delà de l’optimisation des coûts, l’auto apprentissage de l’algorithme sur les données des entreprises et de leurs fournisseurs permet d’envisager des apports intelligents tels que la préparation automatique de négociations (objectifs, leviers arguments…), la proposition de conceptions ou reconceptions optimisées, la préconisation de stratégies d’achats les plus adaptées anticipant les comportements fournisseurs…

En conclusion les 2 approches sont complémentaires dans leur utilisation :

Avantages

Limites

Exemples

de logiciel

Modèle analytique

  • Modèle explicatif et centré opérations
  • Estimation « Best Landed Cost » et définition de prix cible
  • Permet d’optimiser les prix en production et de piloter les plans de progrès fournisseurs
  • Difficulté d’accès aux référentiels procédés et maintien dans le temps
  • Démarche intrusive vis-à-vis des fournisseurs
  • Modèle expert peu diffusable
  • Délai de paramétrage et de réalisation des chiffrages
  • Précision ?
  • Siemens PLM
  • A Priori
  • Facton

Modèle statistique paramétrique

  • Facilité et rapidité d’utilisation
  • Cohérence du prix estimé, et précision (sous condition)
  • Démarche non intrusive vis-à-vis des fournisseurs
  • Application produit et services
  • Très pertinent dans les phases amont du cycle de vie et pour les analyses de cohérence
  • Nécessite un minimum d’historique de données et de qualité
  • Modèle peu « explicatif » pour animer les plans de progrès fournisseurs
  • Modèle moins pertinent pour définir des prix cible et « Best Landed Cost »
  • Difficulté à modéliser les paramètres qualitatifs
  •  Seer
  • EstimFEC

Modèle statistique non paramétrique –

« Forêts Aléatoires »

  • Facilité et rapidité d’utilisation
  • Cohérence du prix estimé, et précision augmentée de 30% par rapport aux modèles paramétriques (sous condition)
  • Démarche non intrusive vis-à-vis des fournisseurs
  • Application produits et services
  • Très pertinent dans les phases amont du cycle de vie
  • Pertinent également dans les phases aval pour l’analyse de cohérences de prix et l’identification d’opportunités grâce aux propriétés explicatives des forêts
  • Intègre un grand nombre de cost drivers, y compris qualitatifs
  • Détecte les ruptures technologiques
  • Hiérarchise les cost drivers
  • Gère les valeurs manquantes et peut travailler avec un échantillon limité
  • Modèle moins pertinent pour définir des prix cibles et « Best Landed Cost »
  • easyKost

Conclusions

Pour conclure, il serait vain de vouloir opposer les méthodes analytiques et statistiques d’estimation des coûts. Elles se complètent dans leur usage et leur finalité. La méthode statistique, plus consistante car basée sur l’observation des données réelles, permet d’obtenir une évaluation rapide et précise pour prendre les bonnes décisions dans les processus de conception ou de reconception produit. Simple à mettre en œuvre, elle permet de modéliser un grand nombre de familles de produits et de services de manière non intrusive et sans besoin d’acquérir une expertise technologique poussée. La méthode analytique permet quant à elle d’obtenir un chiffrage reflétant précisément la réalité (ou la simulation) d’un procédé de fabrication. Plus fastidieuse à mettre en œuvre, elle permet en revanche de définir des cibles de coût à atteindre avec des facteurs explicatifs basés sur les paramètres industriels constatés et benchmarks. En ce sens, elle est plus appropriée pour chiffrer des ruptures technologiques et conduire les plans de progrès industriels fournisseurs afin de les amener à atteindre la cible visée. Elle est également plus pertinente pour chiffrer les innovations technologiques sur lesquelles l’entreprise ne dispose pas d’historique.

Néanmoins, les algorithmes autodidactiques et le deep learning ouvrent de nouveaux horizons et champs d’application pour l’utilisation des modèles statistiques, notamment grâce au partage d’informations entre les entreprises ou bien entre celles-ci et leurs fournisseurs.

5 bonnes pratiques pour mieux piloter vos coûts de distribution

Et si vos marges étaient fausses…

Difficile de mettre un chiffre précis dessus et pourtant vous le savez : tous vos clients ne sont pas nécessairement contributeurs de valeur ! En fonction des marchés, on estime jusqu’à 20% la part des clients qui vous font perdre de l’argent. En cause, des exigences toujours plus spécifiques et coûteuses dans la mise à disposition de vos produits. Dans cet article, nous partageons des cas concrets rencontrés dans les secteurs de la Distribution et de l’industrie des Biens de Consommation, secteurs où les organisations ont dû revoir l’approche de leurs coûts Supply Chain afin de piloter efficacement leur marge.


Piloter vous coûts de distribution

Mieux appréhender vos coûts opérationnels

BP # 1 : Mieux appréhender vos coûts opérationnels

Ce besoin est d’autant plus d’actualité que les approches « centrées client » développées ces dernières années ont considérablement complexifié les opérations chez les industriels et les distributeurs. Au premier rang des contraintes qui pèsent sur la Supply Chain, on retrouve l’enjeu d’ultra-réactivité.

A titre d’exemple, la fréquence de livraisons vers les clients a été multipliée par 4 au cours de ces 10 dernières années chez les acteurs de l’industrie agroalimentaire de produits secs. A l’origine de cette tendance on retrouve des distributeurs soucieux de maintenir leur niveau de stocks au plus bas. Ce fractionnement des commandes génère des surcoûts évidents, de transport évidemment, mais aussi de gestion et de préparation des commandes. Or, ces surcoûts sont trop rarement chiffrés précisément par les industriels et donc difficilement répercutés sur les partenaires en aval de la chaîne de valeur.

L’approche financière consolidée dans le compte d’exploitation masque très souvent des réalités opérationnelles critiques et très hétérogènes. Une analyse à la maille client et familles de produits est alors nécessaire.

Nous préconisons un mode opératoire en 2 temps :


Etape 1

Réaliser une cartographie des flux physiques et des flux d’information, type VSM (« Value Stream Mapping ») pour avoir la vue complète des différentes opérations, depuis l’émission du besoin client jusqu’à la livraison de ce dernier, en partant du cas général pour décrire ensuite les spécificités et particularités.


Etape 2

Analyser et observer les lignes de flux en détail, sur le terrain, pour qualifier et quantifier les opérations logistiques associées à chaque client. Au cours de ces relevés terrain, il n’est pas rare de constater que le coût de distribution d’un même produit peut varier du simple au triple en fonction des exigences clients… et, par ce biais, sensiblement fausser le taux de marge calculé sur un segment de produits.

Deux grandes catégories de coûts peuvent générer ces écarts de rentabilité :

  • Les opérations : packaging, contrôle, picking au détail, chargement spécifique, taux de démarque, …
  • L’organisation et le processus de management associés au client : prévisions, service après-vente, animation des gammes et des promotions, …

Il s’agit alors de réaffecter les coûts opérationnels et administratifs au plus juste, en fonction de la mobilisation effective de votre organisation pour chacun de ces clients.


Deux grandes catégories de coûts

Challenger votre référencement

BP # 2 : Challenger votre référencement

Etes-vous sûr que vos équipes Marketing connaissent les coûts réels de distribution vers vos clients ?

Il est fort à parier que l’étape de cartographie des coûts (BP #1) donnera une nouvelle dynamique à vos analyses de stratégie de gammes. Que faire avec des clients ne générant pas une rentabilité satisfaisante? Le 1er réflexe, qui consisterait à réévaluer à la hausse les prix de vente, est rarement soutenable d’un point de vue commercial.

Reste donc à optimiser ces coûts Supply Chain, en travaillant sur la massification des opérations logistiques. Il s’agit ici de procéder à une analyse fine du « mix produits » par client pour s’assurer que le panier de chacun contient le minimum de références faiblement rentables.

Nous préconisons 2 axes pour initier cette démarche :

1

Approche par le bas de panier

Il s’agit d’étudier la marge réalisée par chaque article et de la mettre au regard des coûts Supply Chain recalculés pour valider ou non son maintien dans votre offre. L’appui de ce chiffrage pragmatique et robuste permet l’alignement interne des équipes et objective le processus de revue de gammes.

Cette analyse, menée chez un industriel du FMCG, a permis de mettre en évidence que 8% des articles de son fond de rayon avaient eu, sur les 12 mois écoulés, un coût de distribution supérieur à la marge qu’ils généraient.

2

Approche par le haut du panier

Il s’agit d’identifier le taux de pénétration de votre 20/80 chez vos clients classes A, B et C ?

Cette analyse permet de faire ressortir les comptes avec des références exclusives maintenues en gamme ou même développées, alors que des références du Pareto pourraient répondre au besoin. Objectif final : travailler sur la massification de la base article.

Dans l’exemple ci-dessous, pour un de nos clients dans les FMCG, nous avons pu proposer, dans 20% des cas, des références alternatives qui répondaient parfaitement aux besoins client. Des produits spécifiques ou même mono-client, ont ainsi pu être en partie remplacés par des références du 20/80 et ainsi supprimés du catalogue.


Penetration du Pareto Articles

BP # 3 : Partager l’information

Un client ne peut pas deviner la perte réelle de productivité qu’une demande chez lui génère sur vos activités … c’est bien à vous de porter le sujet.

Les bons réflexes à avoir :


Partager l'information
1

Partagez avec vos clients les opérations associées à leur demande spécifique.

Donnez-leur de la visibilité sur vos coûts, notamment lorsque ceux-ci fonctionnent par paliers et non de manière linéaire. Rappelez-vous qu’il est impossible pour un client de « deviner » vos effets de seuils. Vous pourrez alors travailler avec eux sur des paramètres min/max qu’ils seront mieux à-même de comprendre et donc d’accepter.

2

Définissez les règles en interne.

Par exemple, êtes-vous sûr de vouloir assurer le taux de service « à n’importe quel prix » ? Quel le coût logistique marginal de cette commande de dernière minute ? Re-priorisation, décalage de camion, réunion d’arbitrage,…Trop souvent nous nous constatons que le processus de définition de l’ATP (Available-To-Promise) n’est pas clairement défini…ou, s’il est formalisé, il n’est pas respecté au quotidien.

3

Enfin, arbitrez en vous appuyant sur des chiffres concrets !

La logique de Supply Chain différenciée consiste trop souvent à accorder un meilleur service aux gros clients. Et si au contraire vous placiez le curseur non pas en fonction du poids du client mais de ce qu’il vous rapporte ? Il est bien plus légitime d’accorder un service logistique de meilleur niveau à un client très rentable, plutôt qu’aux gros clients pour lesquels la marge de manœuvre peut être plus limitée.

BP # 4 : Harmoniser et standardiser vos opérations logistiques

Maitrisez-vous la variabilité de vos opérations et vos écarts de productivité ?

Cette question peut vite devenir un vrai casse-tête lorsque l’on rentre dans les opérations de picking, avec des typologies de clients très variées. L’enjeu est alors de développer des référentiels et d’harmoniser les pratiques autour de standards. Il s’agit d’appliquer les pratiques du Lean Manufacturing à vos opérations logistiques. La chasse aux MUDAS permet la concrétisation de gains de productivité importants dans les centres logistiques ainsi que la mise en œuvre rapide des premières améliorations.

Dans les centres non automatisés réalisant du picking, l’expérience montre qu’en moyenne 30% des actions réalisées par les opérateurs et contremaîtres relèvent de purs gaspillages. La mise en place d’un plan d’amélioration permet de les réduire de 10 à 15%, soit autant de points gagnés sur votre marge opérationnelle.


Harmoniser et standardiser vos opérations logistiques

Trois leviers majeurs sont utilisés dans la mise en place de ces plans d’amélioration :

1

Les outils et processus

mise en place de standards définis avec les équipes, révision du plan de masse du centre logistique et de ses équipements

2

L’organisation

révision du fil de la journée, décloisonnement des opérations et des métiers,…

3

Les systèmes de management

animation de la performance, cascade des objectifs, REX et boucle d’amélioration,…

BP # 5 : Changer le paradigme de la négociation

Il est encore trop rare de voir des Supply Chain client-fournisseur se parler directement. Or vos directions Commerciales et des Achats n’ont pas toutes les cartes en main pour créer une Supply Chain transversale optimale.

Nous voyons émerger depuis quelques années des initiatives collaboratives entre les industriels et les distributeurs. Les projets d’amélioration peuvent se résumer à 5 thèmes majeurs : prévisions, disponibilité en linéaire, échange de données, gestion des approvisionnements, mutualisation logistique. Tous ces groupes de travail, tournés autour du service client, n’abordent que partiellement les enjeux de coûts globaux et transversaux de la Supply Chain.Source : ECR (Effective Consumer Response)

Nous avons très souvent l’occasion d’accompagner nos clients, industriels ou distributeurs, dans leur démarche d’optimisation et le constat est relativement simple : la notion de Supply Chain transversale reste un concept abstrait, chacun luttant pour optimiser ses coûts logistiques, au détriment parfois de la performance globale. Il convient pour cela de développer la notion d’alliance stratégique et de modifier l’approche traditionnelle de la Supply Chain acheteur-fournisseur.


Changer le paradigme de la négociation

Les axes d’optimisation logistique industriel-distributeur les plus exploités:

1

Réflexion autour de la maîtrise du transport (incoterm)

« franco de port », permettant de travailler sur l’optimisation des batchs et d’obtenir des économies d’échelle ; « Ex-works », laissant ainsi au distributeur la possibilité d’optimiser les coûts – s’ils disposent de bonnes conditions – tout en s’affranchissant des MOQ (Minimum Order Quantity)

2

Révision des filières d’approvisionnement

stocked flow, cross-dock, short / local distribution network,…

Une compréhension complète des coûts Supply Chain,« au-delà du mur », vous permettra d’ouvrir de nombreuses pistes d’optimisation. Elle nécessite pour cela de faire parler entre eux les hommes métiers pour redéfinir les justes besoins au regard de l’impact sur les coûts de distribution.

Dans un contexte économique difficile, où les négociations entre industriels et distributeurs sont de plus en plus tendues, il est urgent de changer le paradigme et d’ouvrir l’horizon des négociations. C’est bien dans les approches collaboratives Supply Chain que résident les sources d’optimisation de coûts les plus intéressantes.

Conclusion

Dans cette course au service client, il est essentiel, pour survivre, de piloter ses coûts de distribution.

La modélisation de ces coûts est un outil d’aide à la décision indispensable pour prendre les bonnes décisions de manière agile.

Nos clients plébiscitent cette approche « Cost-to-Serve » avec 3 enjeux principaux pour leur entreprise :

  • Comprendre les profits réels générés par ligne de produit et par client
  • Identifier des pistes d’optimisation des coûts pour leur Supply Chain transversale
  • Simuler les impacts de potentielles évolutions de leurs modèles et ajuster leur Supply Chain en conséquence

Do’s & Don’ts du développement des opérations à l’international

DO’S

RATIONALISER TOUTES LES DÉCISIONS SUR LA BASE D’UNE ÉTUDE DÉTAILLÉE, S’APPUYANT SUR DES DONNÉES FINES ET DÉMONTRÉES

DÉPLOYER DES LE DÉPART LES MEILLEURES PRATIQUES AVEC L’ENSEMBLE DES PARTIES PRENANTES, PAS DE PILOTAGE A MINIMA

EXPLOITER SYSTÉMATIQUEMENT L’ÉCOSYSTÈME LOCAL, NE PAS DÉBARQUER AVEC SON ARMÉE D’EXPERTS, MAIS MIXER LES EXPERTISES

LOCALISER LE PLUS POSSIBLE POUR OPTIMISER LES COÛTS, RÉDUIRE LES RISQUES…ET PARAÎTRE LOCAL

Réflexion

Pérennisation

DON’TS

PARIER SUR UNE SÉRIE D’INITIATIVES PILOTÉES A DISTANCE SANS FORTE IMPLICATION AVEC DES EQUIPES LOCALES

SURESTIMER L’IMPACT DU « LOW COST » POUR AMORTIR, JUSTIFIER TOUTE IMPLANTATION

DÉMARRER SUR UN MODÈLE BASÉ SUR L’EXPORTATION, TOUJOURS TRÈS ONÉREUX ET RISQUÉ ET, AU FINAL, RAREMENT PÉRENNE

SOUS-ESTIMER L’ENERGIE A DÉPENSER EN TERMES D’ACCOMPAGNEMENT DES ACTEURS LOCAUX

En conclusion, intégrez les opérations en amont de votre décision!

La Supply Chain dans la grande distribution: remettre le linéaire au cœur du dispositif

Depuis une quinzaine d’années, les systèmes d’information ont pris une place prépondérante dans la gestion des flux : les ERP communiquent et les approches collaboratives entre industriels et distributeurs (GPA et maintenant GPFR) sont devenues le standard du secteur. Mieux encore, les stocks sont désormais pilotés sur la base de la consommation réelle (VMI), déchargeant totalement les surfaces de vente de la responsabilité des approvisionnements. Et pourtant, malgré toutes ces évolutions et les investissements associés, le taux de rupture constatée en linéaire peine à descendre sous la barre des 8%. Sommes-nous face à un taux de rupture structurel ? Peut-on aller plus loin pour améliorer la disponibilité des produits en linéaire ? Les enseignes traditionnelles se posent plus que jamais la question à l’heure où, pour faire face à la concurrence accrue de la distribution en ligne, les réponses consistent à proposer des gammes de produits larges et en disponibilité immédiate.

En 2011, une étude réalisée par l’ECR concluait que le taux moyen de disponibilité réelle des produits dans les enseignes nationales de la grande distribution était inférieur à 90%. Ce chiffre étonne et pourtant la France ne fait pas figure d’exception puisque des études similaires menées aux Etats-Unis arrivent à des conclusions relativement proches, avec en moyenne 8% de taux de rupture (Corsten and Gruen 2003). Plus étonnant encore, ce chiffre n’évolue que très peu en dépit des outils et moyens technologiques investis. Ainsi en 2008, un rapport mandaté par l’entreprise Coca-Cola faisait état d’un niveau de rupture de 8 à 9%…un taux identique à celui constaté 12 ans plus tôt.

Remobiliser les magasins sur les enjeux de la Supply Chain

On est très loin des taux de service connus dans l’industrie, mais aussi de la performance des entrepôts de ces mêmes enseignes qui affichent en moyenne 99% de disponibilité. Comment expliquer et réduire cet écart ?Le premier des enjeux est d’aligner la Supply Chain et le Commerce sur ce constat. En effet, lorsque nous interrogeons les directeurs de magasins sur leur niveau de disponibilité produits, les chiffres annoncés spontanément sont loin de la réalité constatée en linéaire. Le taux de rupture est généralement sous-estimé, et plus encore la perte de chiffre d’affaires associée, car nos interlocuteurs partant de l’hypothèse d’un report quasi-systématique sur un d’autres produits. Or une enquête menée par Danone a mis en évidence que, dans près de la moitié des cas, le client préférait se passer du produit ou l’acheter dans une enseigne concurrente. A la décharge des directeurs de magasins, rares sont les reportings Supply Chain qui intègrent cette notion de disponibilité en rayon. Les indicateurs s’arrêtent souvent à la disponibilité en plateforme et au respect des délais de livraison en magasin. Mais qu’en est-il du service réel au client ? Si l’on s’accorde à dire que le rôle de la Supply Chain consiste à livrer le bon produit au bon moment au bon endroit, les indicateurs de performance devraient se concentrer vers le seul endroit où les produits sont vraiment nécessaires : le linéaire. Et pourtant l’OSA (« On-Shelf Avalaibility ») est un indicateur encore peu présent dans les tableaux de bord de la Supply Chain de la distribution.

A défaut d’être mesurées par la Supply Chain centrale du distributeur, les ruptures en magasin font le plus souvent l’objet de relevés terrain, réalisés par les équipes de vente. Ce processus, qui a le mérite d’exister, présente toutefois 2 limites majeures :

1

Il ne permet pas de calculer le taux de rupture réel du magasin, pour les raisons suivantes :

  • Ces relevés, relativement chronophages, ne sauraient être menés sur 100% du référentiel magasin
  • Réalisés à une fréquence définie en amont, ils donnent une photographie des ruptures mais ne permettent pas de connaître leur durée
  • Enfin, effectués généralement le matin, en heure de faible affluence et souvent juste après les opérations de réassort, leur pertinence peut être sérieusement questionnée.
  • La plupart des magasins connaissent en effet une fréquentation en dos de chameau (voir illustration ci-dessous), avec une affluence accrue en fin de journée. Ainsi, les ruptures en fin de journée représentent potentiellement une perte de chiffres d’affaires plus élevée pour les distributeurs que celles identifiées (et corrigées) en cours de matinée.
2

Ces opérations de relevé de ruptures sont insuffisamment encadrées et exploitées en magasin.

​Au cours de cette opération, l’employé du magasin va s’efforcer d’optimiser le « facing », et potentiellement de vérifier la présence du produit en réserve. Lorsque nous intervenons chez nos clients, nous travaillons avec les équipes opérationnelles sur l’élaboration d’un arbre de résolution simple pour les aider à exploiter les informations système afin de localiser la marchandise. A partir de là, nous avons les clés pour comprendre et traiter les causes racines de ruptures. Ces analyses étonnent souvent les magasins qui trop facilement font endosser la responsabilité des ruptures à la centrale.

Construire un plan d’actions terrain

De manière empirique, on constate que 50 à 60% des ruptures en linéaire dépendent directement des opérations en magasin, le reste des manquants étant lié à la Supply Chain amont (défaillance fournisseurs et/ou plateforme).

Parmi les erreurs imputables aux magasins, voici celles qui reviennent le plus souvent et qui doivent être mises sous contrôle :

  • Stock théorique faux, empêchant ainsi tout déclenchement de réassort
  • Paramétrage de la quantité en linéaire (facing et profondeur en linéaire) non adapté
  • Et enfin, sujet tarte à la crème mais qui représente encore un fort potentiel d’amélioration pour les enseignes, le produit présent en réserve mais qui n’est pas arrivé jusqu’en linéaire.

Nous en avons fait l’expérience avec une chaîne d’hypermarchés dont les magasins se plaignaient d’un «mauvais fonctionnement de la commande automatique». Les conclusions de l’analyse menée sur le terrain ont confirmé cette règle (voir ci-dessous la synthèse des causes de ruptures observées) :

C’est un fait : les produits parcourent souvent des milliers de kilomètres sans souci, pour se perdre ensuite dans les méandres des derniers mètres en magasin. Les flux de marchandises et d’information sont sous contrôle jusqu’aux portes de la réserve, c’est alors à l’organisation de prendre le relai.

  • Quelles solutions opérationnelles pour éviter ces écueils en magasins ?

Certaines enseignes, avec le support d’industriels, développent des outils pour englober le linéaire dans leur vision globale des flux, le RFID étant sans doute le plus plébiscité. Une enquête réalisée en octobre 2015 auprès de professionnels de la distribution confirmait que 63% des entreprises interrogées étaient en cours d’étude ou de déploiement de la solution. Toutefois pour le moment, la solution n’est opérationnelle que dans 6% des organisations…Donc d’ici à avoir une puce RFID dans chaque boîte de camembert, que fait-on ?

Il serait utopique de ne faire reposer l’amélioration du service client que sur la seule technologie. A titre d’exemple, certaines étiquettes électroniques qui intègrent des informations logistiques (stocks disponibles, en-cours, ..) n’ont pas eu un impact significatif sur le taux de disponibilité des produits. Certes l’accès à l’information est plus rapide, encore faut-il savoir l’utiliser efficacement.Il convient donc de travailler avec les équipes opérationnelles pour mettre en place un traitement efficace de l’information. 2 axes de réflexion sont à privilégier :

  • Revoir les processus
  • Renforcer le pilotage managérial

Redéfinition des missions et amélioration des pratiques en magasin.

Ces leviers sont connus et pourtant négligés. La fiabilité des stocks reste un enjeu fort et repose en grande partie sur les magasins. La gestion des fins de promotion, le suivi de la casse et de la démarque, les pratiques de passage en caisse, sont autant d’opérations en magasin qui impactent la fiabilité des stocks. Evidemment le manque de ressources est un le premier argument de nos clients pour justifier le manque de fiabilité de leurs stocks. Nous réfléchissons alors avec eux à un système de logistique différenciée par type de produits et de clients. Quel profil de client visite le magasin à l’ouverture : professionnels ou particuliers ? Qu’achètent-ils ? Quels sont les enjeux prioritaires en termes de marge ? De différenciation par rapport à la concurrence ? Il s’agit de repartir des priorités du commerce pour définir la meilleure allocation possible des ressources logistiques disponibles. Ces bonnes pratiques de pilotage de la performance en flux différenciés sont largement répandues dans les métiers de la Supply Chain, mais elles font encore souvent défaut lorsque l’on pénètre le périmètre de la surface de vente.

Faire évoluer les métiers de la distribution

En termes d’optimisation de la Supply Chain, on ne peut que se féliciter du développement de systèmes informatiques qui permettent une gestion transversale et centralisée des flux d’approvisionnement. Toutefois, ces outils ne doivent pas limiter les responsabilités du responsable de rayon, mais au contraire, lui permettre de se positionner sur des enjeux à plus fortes valeur ajoutée pour la Supply Chain. Le temps libéré sur le passage des commandes (quoi, combien, quand ?) doit être réaffecté au calibrage des stocks (paramétrage du besoin) et au pilotage global des flux sur les derniers mètres.

Toute mutation technologique, comme celle opérée par les enseignes de distribution sur leur Supply Chain, doit être accompagnée d’une évolution des métiers. Dans la distribution, l’explosion de l’offre (référencement multiplié en moyenne par 2 sur les 15 dernières années) et la pression sur les coûts auxquels sont exposées les enseignes posent de nombreux défis aux organisations. Le linéaire n’est plus uniquement un lieu de mise en avant des produits et de vente, mais également un lieu de stockage. Les métiers des équipes de vente doivent donc évoluer en conséquence et les enseignes doivent adapter leur organisation dans cette mutation.

Supply Chain Management: la Blockchain est-elle la nouvelle RFID?

Il est difficile ces derniers temps de travailler sur les sujets de Supply Chain Management sans entendre parler de Blockchain et des progrès potentiels que cette technologie porte. Pour les acteurs de notre métier, ce mouvement pourrait facilement faire écho à celui que nous avons connu autour de la technologie RFID.

Rapide retour en arrière, aux alentours de l’année 2006, le monde de la Supply Chain était en effervescence avec l’explosion des applications RFID (Radio Frequency IDentification). Partant d’une technologie apparue au milieu du 20e siècle, les développeurs de solutions ont commencé à travailler sur des systèmes de traçabilité à même de faire entrer la Supply Chain dans l’ère du Management 2.0.

RFID: d’un sujet à la mode à une approche plus pragmatique

Chaque secteur du marché, chaque acteur de la chaîne, chaque fonction de l’entreprise utiliserait bientôt la RFID afin d’améliorer sa performance logistique (le bon produit, le bon prix, la bonne quantité, le bon endroit, le bon moment). Répondant à un besoin croissant de traçabilité et de maîtrise de la chaîne d’information, cette technologie a suscité l’intérêt auprès d’un large public de professionnels.

Les salons et la presse spécialisée ont abondamment relayé l’information via des conférences, des tables rondes et des articles. La limite de l’exercice était tout de même marquée par le peu d’exemples concrets d’application et la difficulté à définir un cadre précis d’arbitrage (quels besoins/quelles solutions). Sans compter qu’un sujet éthique s’inviterait bientôt dans le débat autour de questions sur le respect de la sphère privée (où commence et où s’arrête la traçabilité ?).

Avec un peu de recul nous pouvons constater que la révolution annoncée a été contenue, les codes-barres forment encore la solution la plus répandue pour suivre les produits dans la Supply Chain. Face à une technologie désormais plus mature, nous pouvons souligner les besoins et contraintes qui maximisent la valeur ajoutée de cette solution. Le secteur textile, les sous-ensembles à forte valeur ajoutée dans l’industrie, les unités de manutention en boucles fermées, voici quelques modèles d’application réussie pour la RFID.

Block Chain: vous ne comprenez rien à la Supply Chain 1.0, essayez la Supply Chain 4.0!

10 ans après, la RFID n’est plus un sujet tendance et de nouveaux concepts tiennent la vedette dans les débats des experts métier. Sur l’axe technologique, le plus présent aujourd’hui est sûrement le développement de la Block Chain, un sujet lui aussi en lien avec la maîtrise de l’information mais sur un axe désormais plus global (on pense ici au big data). Travaillé à la base pour sécuriser des transactions financières, le protocole Blockchain ouvre un vaste champ d’application.

Les deux avantages principaux d’ores et déjà identifiés sont: 1/ Le haut niveau de sécurité garanti et 2/ la capacité de diviser la tache de traitement des données entre plusieurs terminaux (éliminant de fait les besoins en serveurs coûteux et sensibles). Chaque appareil imbriqué dans la chaîne est sollicité afin de stocker une partie de l’information globale et sert à contre valider l’authenticité des données stockées par ses pairs. Le système s’avère parfait pour sécuriser les transactions financières et c’était le point essentiel pour Bitcoin qui est à l’origine du développement de ce nouveau protocole.

​Au fil du temps, de plus en plus de voix s’élèvent soulignant tout le potentiel que la Blockchain représente bien au-delà des frontières pour lesquels elle a été créée. Participant à la dernière édition de Supply Chain Event à Paris, j’ai pu constater que cette technologie devenait un sujet de premier plan avec une matinée entière de conférences dédiées.

​Le Supply Chain Management entrant peu à peu dans l’ère du 4.0, la Blockchain est le concept idéal à mettre sur le devant de la scène. Mais tout comme pour la RFID plus tôt, il n’y a pas d’exemple concret d’application pour nos métiers de la logistique (entreposage, transport, appros…).

​L’idée serait fort intéressante si nos Supply Chains étaient déjà matures sur les axes 2.0 et 3.0 (quelqu’un a-t-il une idée de la différence entre les deux ?). Mais 90% des Managers Supply Chain sont, au quotidien, noyés par la seule exécution des basiques qui leur permettraient d’avoir un bon niveau de performance opérationnelle. Aussi loin que la conceptualisation puisse aller, et autant qu’elle alimente la vie des experts, les entreprises se battent toujours afin de structurer et de faire travailler ensemble les différents processus logistiques.

On peut facilement imaginer que la Blockchain formera un réel progrès pour certaines opérations, sûrement à chaque étape où la Supply Chain s’ouvre sur des contreparties externes (hors transactions financières). Mais ce n’est pas le cœur du problème tant que le Supply Chain Management reste un mythe.

8 bonnes pratiques pour pérenniser le développement de ses fournisseurs en Chine

En 5 ans, le coût de la main d’œuvre a continué à augmenter rapidement en Chine, engendrant un doublement du coût de la main d’œuvre dans le secteur manufacturier, qui est passé de 1.15 EUR/heure en 2009 à 2.6 EUR/heure en 2014. Dans le même temps le taux de change a drastiquement chuté passant de 9.59 à 8.18 CNY/EUR et atteignant aujourd’hui 7.30. Cela correspond à une augmentation mécanique de 24% pour les produits « Made in China ». La majorité des facteurs de coût suit la même tendance, dégradant petit à petit la compétitivité des entreprises installées en Chine.

L​a plupart des fournisseurs locaux et étrangers n’ont pas d’autre choix que d’augmenter la pression sur leur production et leur supply chain afin de maintenir un coût compétitif et de conserver leurs clients. Dans cette situation, une vision court-termiste des fournisseurs pour réduire leurs coûts, correspond souvent à une augmentation proportionnelle du risque de défaillance du fournisseur. Ce phénomène va se traduire, par exemple, par une baisse de la rétention des employés, et donc des compétences, ou même par des grèves. En 2014, le nombre de grèves a doublé en Chine d’après l’ONG China Labor Bulletin.

​Dans ces conditions, beaucoup de fournisseurs décident d’investir dans une coûteuse automatisation de leur outil de production, alors que le capital investi peut être largement réduit avec une approche structurée. Le même constat est observé depuis de nombreuses années dans le cadre d’une croissance longue et soutenue, l’approche traditionnelle consiste principalement à empiler les capacités de production, sans se soucier de la productivité et d’une approche d’amélioration continue. Qui plus est, cela est rarement intégré dans le cadre du plan industriel.

Pourquoi mettre en œuvre un programme de développement?

Un programme de développement fournisseurs est un projet collaboratif impliquant à la fois le client et le fournisseur, avec pour objectif de développer la performance du fournisseur en terme de qualité, de coût, de délai, de time-to-market, de management et d’environnement, ainsi que d’innovation et de performance financière.

L’établissement d’une coopération durable avec le fournisseur est crucial afin de l’accompagner dans ce changement d’état d’esprit. Le développement d’initiatives Lean est en pleine expansion en Chine, aussi bien pour les grandes que pour les petites entreprises, comme le montre l’augmentation de productivité de 40% à 60% observée au cours des cinq dernières années. Toutefois, le manque de recul et de vieilles croyances, telles qu’un programme de développement fournisseur est coûteux et chronophage, restent les principaux obstacles pour passer d’un fonctionnement dans l’urgence à un fonctionnement de développement gagnant-gagnant durable.

De plus, les entreprises voulant développer leurs fournisseurs pensent souvent que les améliorations vont également bénéficier à leurs concurrents et que le résultat ne permettra pas d’obtenir un avantage concurrentiel. Au-delà de l’amélioration de la performance industrielle, l’implication des équipes pour comprendre leurs fournisseurs et pour construire de solides relations, comme décrit par Jeffrey Liker et Thomas Y. Choi dans le Harvard Business Review, démontrent à quel point cette tactique est essentielle afin de développer une collaboration à long terme et les bases nécessaires à l’innovation.

Nos expériences de mise en œuvre d’une stratégie de développement fournisseur montrent qu’il est possible d’atteindre d’importantes améliorations de performance. Nous observons en général :

  • 5 à -50% de rebuts
  • + 6 to +90% de livraison à temps
  • +5 to +10% de productivité main d’œuvre
  • -4 to -8% de réduction de coût

​Ces chiffres sont basés sur nos propres observations et peuvent grandement varier en fonction de l’industrie, de la maturité du fournisseur et du type de produits.

Nos 8 Bonnes pratiques pour pérenniser un développement fournisseurs

Nos 8 ans de présence en Chine nous ont permis d’identifier 8 bonnes pratiques pour mener à bien un programme de développement fournisseur. Elles ne sont pas toutes nécessairement spécifiques à la Chine mais des spécificités culturelles doivent être prises en compte pour un déploiement durable et réussi.

1) Définir en interne les initiatives de développement qui supporteront la stratégie opérationnelle

2) Consacrer du temps au choix des bons fournisseurs

3) Informer l’ensemble du panel fournisseurs et plus particulièrement les fournisseurs choisis

4) Mener le projet avec l’équipe qualité du fournisseur

5) Exécuter un diagnostic terrain pour évaluer les opportunités de gains et confirmer la sélection du fournisseur

6) Implémenter et préconiser des incitations financières chez les fournisseurs

7) Signer un contrat de développement avec le fournisseur

8) Organiser un REX et renforcer la communication

 Conclusion

Un programme de développement fournisseurs est une longue expédition, aussi bien pour le client que le fournisseur, dans l’atteinte d’un objectif commun. Il doit être préparé et planifié méticuleusement pour s’ajuster à la culture et à la maturité du fournisseur, et pour répondre aux attentes des deux parties.

Le mythe de la Supply Chain

Le concept de Supply Chain s’est progressivement construit à partir des années 2000 pour devenir de nos jours un élément essentiel dans la gestion des entreprises. De manière surprenante, il reste pourtant un des sujets les plus flous dans les organisations quelles que soit les fonctions et les positions occupées.

Naissance et développement d’un mythe

Le développement des théories de la Supply Chain a débuté avec l’idée clé de considérer chaque processus d’une chaine de valeur en tant que contributeur à la performance délivrée au client final. L’approche visait à creuser dans chaque métier logistique (approvisionnements, entreposage, transport, kitting, reverse…), comprendre les facteurs de performance puis adopter une approche systémique afin d’établir des liens stratégiques et opérationnels entre eux.

La révolution autour des technologies de l’information et de la communication a porté le développement de ces interactions en facilitant le brassage de l’information. La maîtrise des données est devenue stratégique pour contrôler l’activité et dégager des avantages compétitifs, transformant les Systèmes d’Information en outils vitaux. Progressivement ces systèmes ont couvert tous les processus de la Supply Chain; on leur attribua des acronymes (ERP, WMS, TMS…) et nous étions de fait dans l’ère de la Supply Chain 2.0.

Les années passèrent, davantage de technologies ont été introduites (RFID, SaaS, APS, Robots, Drones, Block Chain…), davantage de concepts ont été définis (DDMRP, Flowcasting, GPA, Multicanal…), le Supply Chain Management est désormais ancré en tant que composante stratégique de la performance des entreprises.


L'impact de la révolution technologique sur la Supply Chain

A écouter les experts, nous devrions même être, à présent, dans l’ère du 4.0.

L’écart au réel

Au regard des expériences vécues ces dernières années par les distributeurs ou les OEM historiques (occidentaux), nous pouvons avoir quelques doutes. Disons que le pragmatisme est de mise face aux différents niveaux de maturité existant en matière de Supply Chain Management.

​Les distributeurs ou les OEM sont intéressants car ils soulignent la réalité des problématiques rencontrées par les Managers, bien loin des           « théories théorisantes ». Les premiers ont passés leurs dernières années à tester des solutions qui leur permettraient d’affronter les acteurs de la vente en ligne qui ont toujours dans leurs mains 99% d’un marché sans limite apparente. Les seconds rencontrent des problèmes structuraux dans la tenue des délais de livraison et dans l’alignement des fournisseurs de rang 1 (voire de rang 2) sur les livrables attendus (Qualité/Coût/ Délais).

Le quotidien est, dans ces cas, orienté sur des questions très simples en apparence:​

  • Comment maintenir la compétitivité et la continuité pour le client quel que soit le canal de distribution adressé ?
  • Comment sécuriser la chaine d’approvisionnement alors que la part des achats hors aire domestique augmente ?
  • Comment gérer les variabilités de la demande ?
  • Comment respecter les plannings initiaux? Comment aligner la partie amont et éradiquer les risques de rupture (y compris sur des cas de mauvaise santé financière coté fournisseur) ?
  • Comment gérer les besoins grandissant de customisation ?

De ce fait, avoir une conversation avec un Manager Supply Chain ces jours-ci est plutôt intéressant, on voit qu’ils picorent à gauche et à droite en espérant tomber sur la solution révolutionnaire tout en refondant régulièrement leur organisation afin de trouver la bonne formule. Noyés dans une multitude de concepts et d’outils, les Managers ont tendance à perdre l’essence même du Supply Chain Management alors que tout part de leur capacité à construire et partager une vision.

L’absence d’ADN

Sortant la tête de la masse, quelques acteurs économiques démontrent une excellente capacité à satisfaire la demande client tout en créant de la valeur grâce à leur approche organisationnelle. Pas de mystère, tous les acteurs “World Class” ont parié sur une Supply Chain entièrement orientée sur le déploiement de processus flexibles et robustes, afin d’accélérer les flux et d’optimiser les ressources employées. Apple, Decathlon, Dell, Ikea ou Amazon, Intel, Mac Donald’s ou Unilever (si on veut prendre des noms parmi le top 25 Gartner 2016 des organisations Supply Chain), voici des exemples concrets d’applications réussies du Supply Chain Management.

Apple, Decathlon, Dell, Ikea ou Amazon, Intel, Mac Donald’s ou Unilever (si on veut prendre des noms parmi le top 25 Gartner 2016 des organisations Supply Chain), voici des exemples concrets d’applications réussies du Supply Chain Management.​

​Un tour rapide du grand public montrerait que chacune de ces entreprises possède une entité forte et facilement identifiable. Elles s’appuient toutes sur des modèles clairs: Apple et ses technologies pionnières, Ikea et son environnement d’achat, Dell et l’offre de customisation en ligne, Decathlon et ses marques distributeur comme étendards.

Est-ce que vous pensez qu’il s’agit uniquement de Marketing? Regardez bien et vous verrez que ces entreprises sont avant tout dotées d’une organisation logistique structurée et extrêmement flexible. Le modèle marketing tire/aligne le modèle Supply Chain, Apple et ses stocks au cordeau, Ikea et son approche de Design To Cost, Dell et sa force de frappe BtoB, Decathlon et son intégration verticale.

Le concept de Supply Chain Management demeure un mythe car la plupart des entreprises ne sont même pas capables de faire cet exercice de définition de leur identité. Elles ne sont pas capables de caractériser un ADN, de créer une vision autour de cet ADN et d’aligner chaque personne dans l’organisation avec cet ADN.

Les meilleurs de la classe sont en haut grâce à leur capacité à réaliser cet exercice fondamental, et à aligner les processus opérationnels sur la vision stratégique. Nous pouvons voir l’ensemble des effets positifs que cela génère sur l’approche de Supply Chain Management.


L'importance de l'ADN pour créer sa vision autour

Managers: Moteur! Ça tourne! Action!

​Le travail de conversion de l’identité de groupe en applications opérationnelles est ensuite l’affaire du Manager Supply Chain. Il doit définir, dimensionner et mettre en œuvre les Processus/Flux/Ressources nécessaires pour garantir la faisabilité et la profitabilité de la réalisation de la stratégie. Ceci nécessite un ensemble assez fin de savoir-faire et surtout de savoir être à même d’établir des ponts entre partie stratégique et la partie opérationnelle des activités.

Expérience opérationnelle, maitrise de la boite à outil basique du Manager et capacité à définir et mettre en œuvre des Plan Directeurs forment la partie savoir-faire pour les Managers Supply Chain. Ils sont essentiels pour structurer la Supply Chain et focaliser les opérations sur les délivrables attendus (Qualité/Coût/Délai).

Appropriation de la stratégie, capacité à partager la vision avec les équipes, confiance en soi et discipline managériale sont les éléments clé formant, quant à eux, l’axe savoir être. C’est un cocktail complexe mais nécessaire afin d’apporter flexibilité, réactivité et coordination dans l’organisation.

Le concept de Supply Chain Management demeure un mythe car la plupart des Managers en place sont sans vision et bourrés de stress (celui-ci résultant à mon sens d’un manque de confiance et de discipline). Ils n’ont plus le temps de faire leurs devoirs, les Plans Directeurs logistiques sont rarement définis correctement. Et leur manque de vision génère un nombre important de décisions court terme basées sur des contraintes isolées et des résultats attendus en local. Les Managers Supply Chain sont des pompiers, constamment ramenés aux sujets très terre à terre et peu à même de prendre du recul afin de réfléchir à la manière d’atteindre les cibles stratégiques.

Il n’y a personne à cibler en particulier, les Managers Supply Chain souffrent de deux problèmes distincts:

  1. ​L’incompatibilité des formations initiales avec les besoins du marché (sur les profils Supply Chain)
  2. Le manque d’encadrement des entreprises dans la promotion/l’intégration des nouveaux Managers. Le Management n’a jamais été autant théorisé mais en parallèle ses composantes primaires n’ont jamais autant ignorées.

​Quelle est la conséquence?

Dites autour de vous que vous travaillez dans un entrepôt ou dans le transport, dites que vous êtes dans les approvisionnements ou la gestion des stocks, tout le monde aura une première idée de ce que vous faites.

Dites autour de vous que vous êtes Supply Chain Manager et vous perdrez 80% de votre auditoire y compris dans votre propre entreprise.

Rien de complexe, il est juste de temps de revenir aux basiques, temps de travailler sur la vision à partager et temps d’aligner l’organisation, c’est ainsi que la Supply Chain acquerra ses lettres de noblesses.