« Nos données ne sont pas assez propres », « Nous n’avons pas suffisamment d’historique », « Il faudrait d’abord tout digitaliser ».
Ces objections reviennent systématiquement dans les échanges avec nos clients industriels. Elles révèlent une idée reçue tenace : l’intelligence artificielle nécessiterait une base de données massive, propre et parfaitement structurée pour fonctionner.
Cette vision freine de nombreux projets. En réalité, la donnée industrielle est rarement parfaite : elle est souvent partielle, bruitée, hétérogène. Cela n’empêche pas l’IA et la data science de produire de la valeur, bien au contraire.
Générer la donnée plutôt que l’attendre
Une première rupture consiste à abandonner l’idée que l’IA ne peut être mobilisée qu’à partir d’une masse de données préexistantes. C’est vrai dans la plupart des cas connus – un modèle est entraîné à partir de ce qui a été vu par le passé, et devient capable de prédire un output à partir d’une nouvelle combinaison d’inputs.
Cependant, dans de nombreuses situations industrielles, l’enjeu n’est pas de prédire, mais d’optimiser un environnement restreint (surface, main d’œuvre, capacités, machines, stocks, etc.). Les données d’entrée d’un tel modèle ne sont donc pas des données historiques, mais bien des paramètres synthétiques que l’on modélise dans un premier temps, pour recréer l’environnement et ses contraintes. C’est dans cet environnement, reconstruit virtuellement, que s’appliquent les modèles d’apprentissage par renforcement ou d’optimisation sous contraintes. Ils permettent de converger vers une stratégie optimale, dans des situations où la dimensionnalité des paramètres devient trop importante pour une intelligence humaine.
Un exemple concret
•Un fabricant de systèmes industriels complexes voit sa charge commerciale fortement augmenter sur les années à venir et souhaite simuler la résilience capacitaire de ses lignes de production.
• L’analyse de nos équipes s’est concentrée sur les postes goulots de l’usine – pour lesquels l’ordonnancement était empirique, basé sur l’expérience des opérateurs et donc non optimisé.
• La complexité combinatoire de cet ordonnancement, liée à la diversité des gammes ou des cycles à réaliser sur des postes à ressources limitées, nécessitait de recourir à la data science. Elle permet en effet d’explorer des millions de scénarios en quelques secondes pour converger vers un optimum, bien au-delà de toute capacité humaine.
• La modélisation des postes, des références et des contraintes physiques a ainsi permis à l’industriel de libérer plus de 20% de capacité industrielle (sans CAPEX).
Des données imparfaites peuvent produire de la valeur
Même lorsque les données sont partielles, bruitées ou hétérogènes, la data science peut apporter de la valeur. D’abord en permettant de reconstituer des ensembles cohérents à partir d’éléments lacunaires. Des modèles d’IA sont utilisables notamment pour détecter les anomalies dans une base de données passée, compléter des séries temporelles manquantes, corriger des biais ou générer des données de substitution.
Un exemple concret
• Un industriel de la défense souhaite améliorer la performance de ses flux entre ses 5 sites et challenger son organisation logistique.
• Une première étape a consisté à reconstruire tous les chemins logistiques passés à partir de données partielles issues de l’ERP. Le volume des données traitées (~2M de mouvements), le nombre de mouvements possibles (40 typologies d’actions logistiques tracées) et l’incomplétude des données (indifférenciation des items avec la même référence) a rendu nécessaire l’automatisation de l’analyse, et l’élaboration d’un modèle statistique sur mesure, pour reconstruire le chemin de chacune des pièces uniques sur les 10 dernières années.
• Un modèle de machine learning supervisé, apprenant sur les données préalablement reconstituées, a ensuite permis de catégoriser tous les chemins logistiques comme normaux ou erratiques.
• Ce modèle a détecté plus de 15% de chemins logistiques injustifiés. Ici encore, la diversité des chemins logistiques à catégoriser ainsi que leur volume aurait rendu l’analyse hors de portée d’un cerveau humain.
La data science peut donc se nourrir de données incomplètes, et les traiter de sorte à les rendre exploitables et en tirer de la valeur.
L’IA industrielle : mathématiques appliquées et pragmatisme
L’intelligence artificielle industrielle ne se résume pas aux outils génératifs, omniprésents dans l’actualité. Elle relève avant tout des mathématiques appliquées et de la résolution de problèmes complexes spécifiques à chaque contexte industriel.
Dans ce cadre, l’IA n’est pas un produit “clé en main” mais une démarche d’analyse, conçue sur mesure. La vraie valeur se joue dans la modélisation algorithmique fine de situations complexes, souvent non reproductibles. Cela implique d’accepter l’incertitude et de privilégier des expérimentations ciblées : preuve de concept rapide, démonstration de valeur, puis déploiement progressif.
Cette rigueur méthodologique constitue la condition clé pour passer de l’idée à la valeur concrète. Ce qui compte, ce n’est pas l’outil, mais son adéquation à la complexité du réel.
Conclusion : L’IA industrielle mérite un nouveau regard
La véritable valeur de l’IA industrielle ne réside pas dans l’accumulation massive de données parfaites, mais dans la capacité à construire, compléter et exploiter intelligemment les informations disponibles. Qu’il s’agisse de développer des modèles sur des données préalablement modélisées pour simuler et optimiser les stratégies industrielles, ou de valoriser des jeux de données incomplets ou bruités, les opportunités sont réelles et déjà accessibles.
Plutôt que d’attendre des conditions idéales qui n’arriveront peut-être jamais, il est temps d’activer l’intelligence artificielle là où elle est le plus utile : au cœur de la complexité industrielle. C’est là qu’elle transforme véritablement la performance industrielle.