LE CONSTAT

Lorsque les actualités nous apprennent la disparition de PME industrielles françaises – qui ont souvent une longue histoire d’innovation et de croissance derrière elles – on est très souvent amené à se dire que cela est inévitable et qu’il faut faire avec. Que c’est dû à un mal qui nous dépasse : « la mondialisation » ! Et ainsi, tout est dit… Du moins en apparence. Car, a y regarder de plus près, on s’aperçoit que toutes les PME industrielles ne disparaissent pas, loin s’en faut. Certaines continuent au contraire à se développer et à investir, y compris lorsque leurs concurrents font l’inverse du fait d’une mauvaise conjoncture ou d’une crise structurelle de leur secteur d’activité.

Quel est leur secret ? Ont-elles simplement de la chance comme certains « experts » l’affirment ?

 

UN PEU d’HISTOIRE…

Contrairement aux idées reçues largement répandues, cette situation n’est pas nouvelle. Déjà, durant les années 30, un très grand nombre de PME industrielles s’est retrouvé brutalement en faillite, du fait des conséquences de la crise de 1929 (qui ne s’est pas cantonnée aux États-Unis) : forte baisse des volumes commandés et des prix de vente des produits manufacturés, forte hausse du coût des matières premières et des énergies, mouvements sociaux à répétition, chômage de masse, forte diminution de la productivité et de la qualité… En clair, un vrai cercle vicieux et infernal !

Pour autant, un petit nombre de dirigeants industriels n’ont pas « baissé les bras ». Ils n’ont pas hésité à financer des études conjointes pour trouver des solutions pratiques à ce fléau. Ce qui a donné lieu à quelques innovations en matière de contrôle de gestion, notamment au niveau des méthodes de calcul de coûts et d’analyse de la rentabilité. Le but de cette démarche était de pouvoir prendre du recul (principe de la montgolfière) afin de modéliser le plus simplement possible la prise en compte des nouvelles problématiques industrielles : forte fluctuation de l’activité, rythme saisonnier totalement chamboulé, déflation puis inflation, instabilité des effectifs, nombreux arrêts intempestifs de la production, multiplication des tentatives de diversification de l’activité …

De cette manière, ces différentes problématiques sont devenues – mathématiquement parlant – de nouvelles variables de gestion de l’activité à prendre totalement et systématiquement en compte dans le calcul des coûts de revient ou des coûts de production. Mais l’inconvénient majeur de cette nouvelle approche fut l’accroissement de la complexité des calculs. Car à cette époque, les données sources utilisées pour réaliser ces derniers étaient essentiellement d’ordre comptable. Or ces dernières n’étaient pas prévues pour répondre à cette nouvelle vision financière. En effet, tant que l’activité des entreprises restait assez homogène et stable dans le temps, les méthodes traditionnelles suffisaient largement : on parle dans ce cas d’entreprises dite « mono-produit » ou mono-activité et mono-client ». À l’inverse, l’arrivée de la crise de 1929 a rendu progressivement les entreprises « multi-produits, multi-activités et multi-clients » et les outils de gestion traditionnels peu à peu obsolètes. C’est ainsi qu’est apparu une vision plus moderne du contrôle de gestion industriel, qui reste totalement d’actualité aujourd’hui, quoi qu’en pense certains « experts » !

 

L’ESPRIT DE LA NOUVELLE APPROCHE DES COÛTS

Pour maîtriser une méthode – quelle qu’elle soit – il est primordial d’en comprendre avant tout l’esprit et la logique, afin d’éviter de mail appliquer ses principes sur le plan pratique. D’où l’intérêt de connaître son histoire, afin bien comprendre le pourquoi de son apparition et son degré de légitimé par rapport à une situation économique donnée. Cela évite ainsi la technique dangereuse du « copier/coller » !

L’idée de cette nouvelle approche des coûts est basée sur le postulat suivant : tant que l’activité reste homogène et stable sur la durée, le calcul du coût de revient des produits est simple : on divise le total des charges d’une période significative (mois, trimestre, année) par le volume de produits vendus correspondant, donnant ainsi un coût de revient moyen assez réaliste. En conséquence, il serait pertinent d’arriver au même résultat mathématique avec une activité hétérogène et très fluctuante, tout en neutralisant l’impact négatif de la déflation/inflation.

C’est en s’appuyant sur ce postulat, qu’une poignée d’ingénieurs et de techniciens ont mis au point plusieurs méthodes de calcul, dont la plus répandue fut la MDP ou Méthode Des Points (à ne pas confondre avec la méthode des points Bedaux). Mais ayant été créée « sur le terrain », elle ne fut jamais considérée comme une méthode théorique, ce qui explique peut-être son oubli progressif durant la génération suivante. Il fallut ainsi attendre le début des années 60, pour qu’elle soit redécouverte par hasard par des ingénieurs.

 

LES PRINCIPES DE LA MÉTHODE MDP

Sans rentrer dans des détails trop techniques, on peut résumer les principes de la méthode en trois points :

  • la décomposition et l’analyse de l’activité de l’entreprise par processus (approche naturelle pour les métiers d’ingénieurs et de techniciens) et par poste de travail ou fonction/métier
  • le recours à la notion d’étalon ou de référence (car seule capable de rendre comparable – de manière artificielle – ce qui ne l’est pas. Par exemple, le mètre est un étalon qui permet de comparer deux distances très différentes)
  • la transformation artificielle (ou mathématique) de l’activité multi-produits et multi-clients de l’entreprise en une activité mono-produit et mono-client, à l’aide d’un étalon créé spécifiquement (qui était variable suivant les entreprises utilisatrices). Soit en clair, cela revient à dire que l’entreprise ne vend que des « équivalent-étalons » plutôt qu’une diversité de produits.

 

LES AVANTAGES DE CETTE MÉTHODE

  • un calcul plus fiable, plus simple et plus facile à automatiser sur le plan informatique (évitant ainsi la construction d’une « usine à gaz » ingérable)
  • une meilleure réactivité de l’entreprise pour ajuster ses prix de vente et optimiser ses coûts lorsque cela s’avère nécessaire (arrivée d’un nouveau concurrent, guerre des prix, crise conjoncturelle ; nouveau contrat de sous-traitance, investissements à réaliser en urgence, déficit de trésorerie, résultat comptable négatif, surendettement…)
  • une amélioration significative de la gestion des risques (meilleure mesure de leur impact financier)
  • une plus grande facilité à redéfinir des objectifs stratégiques pertinents et réalisables
  • une meilleure capacité à investir dans l’innovation au moment opportun, notamment en période de mauvaise conjoncture
  • une meilleure capacité de négociation commerciale face à des clients ou donneurs d’ordres très exigeants
  • un taux de réussite des affaires plus élevé sur le plan de la rentabilité
  • une meilleure maîtrise des ventes réalisées volontairement à perte pour des raisons stratégiques ou tactiques (référencement chez un nouveau donneur d’ordres, fidélisation d’un client rentable souhaitant partir à la concurrence, « geste commercial » suite à un gros litige, recours à un client Bêta-testeur, test d’un nouveau marché…)
  • une amélioration continue de la rentabilité de l’entreprise, en évitant les économies de « bouts de chandelle » et les licenciements économiques.