Une série unique de fabrication additive peut générer des centaines de gigaoctets, voire des téraoctets, de données sur le bain de fusion. Et ce n’est qu’une fraction de ce qui peut être collecté tout au long de la chaîne de production : conditions de la chambre, historique des lots de poudre, opérations de post-traitement, etc. Au fil du temps, une chose est devenue claire : la collecte et la quantification des données sont souvent la partie la plus facile. Le véritable défi consiste à les transformer en valeur ajoutée. Les enseignements tirés par Melissa Jech, responsable de la planification, des outils et de l’analyse des données au campus de fabrication additive de BMW Group, et les chercheurs du National Institute of Standards and Technology – NIST (Yan Lu, Milica Perisic et Albert T. Jones) mettent en évidence les attentes du secteur et les approches qui pourraient être explorées pour mettre en œuvre une stratégie de gestion des données.
Si la gestion des données est un sujet clé dans tous les processus de fabrication, la FA introduit des niveaux de complexité uniques en raison de sa nature numérique et itérative. Cet article ne vise pas à comparer les deux approches, mais plutôt à mettre en évidence les aspects spécifiques qui font de la gestion des données liées à la FA une discipline à part entière.
Dans cette optique, nous avons identifié 5 raisons pour lesquelles les utilisateurs de la FA sont confrontés à des défis liés à la gestion des données :
- Volume et complexité des données : les processus de FA génèrent d’énormes quantités de données, depuis la conception jusqu’à la surveillance des processus et aux journaux de post-traitement. Comme ces sources utilisent différents formats et protocoles, elles ne communiquent pas souvent de manière transparente, ce qui rend difficile l’intégration des données dans un système unifié.
- Exigences en matière de traçabilité : la fabrication additive étant souvent utilisée pour fabriquer des pièces critiques, les fabricants doivent maintenir un fil numérique complet, reliant les données de conception, de construction, d’inspection et de certification pour chaque pièce. Chaque paramètre doit être traçable afin de garantir la répétabilité et la conformité aux normes industrielles.
- À cela s’ajoute la complexité de la fabrication sur mesure. Le principal atout de la FA, à savoir sa capacité à produire des conceptions hautement personnalisées et complexes, introduit également une complexité opérationnelle. Plus la géométrie est sophistiquée, plus les ingénieurs sont susceptibles de devoir repartir de zéro dans le processus de conception. Si cette approche permet de répondre aux besoins immédiats, elle peut limiter l’accumulation de connaissances techniques et de bonnes pratiques de conception qui, autrement, amélioreraient l’efficacité au fil du temps.
- Variabilité des processus : dans la FA, de petites fluctuations dans la qualité de la poudre, l’étalonnage des machines ou les conditions environnementales peuvent influencer la qualité des pièces. Une gestion efficace des données est essentielle pour détecter les corrélations, établir la répétabilité et se conformer aux normes.
- Et l‘absence de modèles de données standardisés. Si la normalisation est un problème dans plusieurs domaines du secteur de la FA en général, dans le domaine de la gestion des données, l’absence de normes universelles pour les formats de données et l’interopérabilité rend difficile l’intégration entre les plateformes et les machines.

Parmi tous ces points sensibles, Melissa Jech estime que les défis liés à l’intégration sont les plus critiques à relever dans l’industrie aujourd’hui. Elle explique : « La connexion des machines est souvent ralentie en raison de la diversité des systèmes et de l’absence de normes existantes, ce qui rend la collaboration et la surveillance plus difficiles. De nombreux fabricants de machines prétendent offrir des solutions, mais celles-ci ne sont souvent valables que pour un écosystème limité et fermé, ce qui n’aide pas lorsqu’il s’agit de travailler avec d’autres systèmes ou concurrents. Parallèlement, l’incomplétude des données tout au long de la chaîne de processus entraîne une perte ou une fragmentation des informations, de la conception à la simulation en passant par la production, ce qui entrave l’intégration évolutive. C’est pourquoi mon souhait le plus cher serait de disposer de pipelines de données ouverts et de bout en bout qui relient de manière transparente les données de conception, de simulation et de production. »
Connecter les machines et les systèmes afin que les données circulent de manière cohérente est probablement le souhait le plus important partagé par la plupart des utilisateurs de FA dans l’industrie, et pas seulement chez BMW Group.
D’après la déclaration de Jech, nous comprenons que relever ce défi permettrait aux entreprises de mettre en œuvre des stratégies qui donnent la priorité aux informations pertinentes, les relient entre elles dans des fils numériques et garantissent une gouvernance et une interopérabilité claires. En substance, une telle stratégie pourrait avoir un effet domino sur d’autres domaines de la chaîne de valeur et, potentiellement, aider à surmonter d’autres défis liés à la gestion des données.
Si les approches visant à établir les bases de la connectivité sont souvent holistiques, elles impliquent généralement l’adoption d’interfaces intégrées, la mise en œuvre de middleware pour harmoniser les formats propriétaires et la modernisation des systèmes existants via des passerelles IoT.
La priorité sur le campus de fabrication additive de BMW Group

Si vous êtes un lecteur régulier de 3D ADEPT Media, vous savez probablement déjà que chez BMW Group, la fabrication additive n’est pas seulement un élément clé pour le prototypage, mais qu’elle est également de plus en plus utilisée pour la production de pièces en petites séries. De plus, elle améliore le système de production en fournissant des solutions rapidement disponibles, légères et fabriquées localement.
Interrogée sur la priorité absolue des opérations de fabrication additive de l’équipementier, Jech souligne la standardisation et l’interopérabilité dans l’ensemble de l’atelier. « Cela est essentiel pour générer des informations qui améliorent l’efficacité de l’ensemble de la chaîne de valeur », explique-t-elle.
Même si elle ne met en avant aucun projet concret, Jech insiste sur l’approche de l’entreprise en matière de gestion intelligente des données, axée sur la qualité et la transparence des données. « Notre objectif est de disposer de modèles et d’API standardisés alimentant en temps réel notre lac de données central », explique-t-elle. « Lorsque nous disposons d’une connexion en temps réel, nous constatons une validation plus rapide, une transparence accrue et des pipelines de données évolutifs. »
Par ailleurs, elle souligne certains des avantages mesurables que de telles pratiques peuvent apporter aux opérations de FA. « La disponibilité des métadonnées pertinentes augmente considérablement tandis que le taux d’erreur diminue », observe Mme Jech. « Cela permet des analyses de données plus précises qui fournissent des informations exploitables pour améliorer l’efficacité des processus. Nous l’avons utilisé pour réduire les délais de livraison et améliorer à la fois l’utilisation des machines et les capacités des travailleurs. »
L’approche « diviser pour régner »

Une récente étude du National Institute of Standards and Technology (NIST) des États-Unis met en avant une approche « diviser pour régner » de l’intégration des données. Basé sur 7 étapes, ce cadre pourrait être utilisé avec les normes industrielles actuelles.
Ces étapes comprennent :
- Définir l’ensemble de données/la source de données
- Collecter les données
- Mettre les données en file d’attente
- Archiver les données
- Réduire la quantité de données
- Élaborer des modèles décisionnels
- Et utiliser des modèles décisionnels.
1. Définir les données
Yan Lu, Milica Perisic et Albert T. Jones, experts de premier plan à l’origine de cette approche, soulignent qu’une définition claire de la source des données et de leur contenu est essentielle tant pour le fournisseur de données que pour le responsable de la maintenance du système. Elle garantit que les deux parties partagent la même compréhension et parviennent à un accord commun sur ce que représentent les données.
Notre avis : sans normalisation, des données non définies peuvent créer des malentendus tout au long du cycle de vie, de la conception à la production en passant par l’analyse.
2. Décider de la manière dont les données sont collectées
Une fois les données définies, il est important de déterminer comment elles seront collectées. Dans la FA et d’autres processus de fabrication, les données peuvent être capturées de trois manières :
- Échantillon – à intervalles réguliers
- Événement – déclenché par un événement défini
- Condition – lorsqu’une condition spécifique est remplie
La collecte des données peut suivre des approches push ou pull, qu’il s’agisse d’un streaming en temps réel ou d’un traitement par lots.
Notre avis : le choix de la bonne stratégie de collecte est la base d’informations fiables et exploitables par la suite.
3. Mise en file d’attente des données
Le traitement de chaque instance de données nécessite des ressources système. Pour éviter la surcharge, une file d’attente de messages peut stocker temporairement les données jusqu’à leur traitement. Plusieurs files d’attente peuvent être utilisées : par exemple, une pour les données brutes non traitées et une autre pour les données traitées en attente d’être stockées.
Notre avis : les files d’attente évitent les goulots d’étranglement et garantissent qu’aucune information critique n’est perdue au cours du processus.
4. Archivage des données
Il est essentiel de choisir la bonne technologie de stockage persistante. En général, les métadonnées et les données d’image sont stockées séparément :
- Les images dans un système de fichiers.
- Les métadonnées dans une base de données consultable et interrogeable.
Les métadonnées comprennent souvent un pointeur vers l’emplacement de l’image pour faciliter sa récupération. Cette séparation garantit l’efficacité et la stabilité tout en permettant un accès rapide aux informations en cas de besoin.
5. Réduire la quantité de données
Pour garantir la durabilité, les systèmes doivent gérer la taille des données et ne stocker que ce qui est nécessaire. Les politiques peuvent inclure :
- Suppression des anciennes données
- Agrégation des données
- Suppression des doublons
- Réduction de la qualité des données si cela est acceptable
Une réduction efficace des données permet de réduire les coûts de stockage et d’améliorer les performances du système sans perdre d’informations essentielles.
6. Création de modèles décisionnels
Une fois les données organisées, leur valeur peut être exploitée grâce à des modèles décisionnels :
- Modèles basés sur l’IA : prédictifs (nécessitent des données historiques étiquetées) ou de regroupement (regroupent des éléments similaires pour aider les experts à prendre des décisions)
- Systèmes experts basés sur des règles : règles « si-alors » définies par des experts du domaine
Cela signifie que la combinaison de l’IA et des approches basées sur des règles donne souvent les résultats les plus fiables et les plus exploitables.
7. Utilisation des modèles décisionnels dans la pratique
Enfin, les modèles décisionnels sont appliqués à des scénarios réels. Dans la FA :
- La prédiction d’un événement critique déclenche des alertes pour le personnel.
- La détection des anomalies en cours de processus permet d’ajuster les paramètres du processus ou d’arrêter la fabrication.
C’est là que la stratégie en matière de données se traduit directement en valeur opérationnelle, améliorant l’efficacité, la qualité et la réactivité.
Conclusion
Sur le papier, le cadre « diviser pour régner » du NIST fournit une base solide pour la gestion des données AM. Yan Lu, Milica Perisic et Albert T. Jones expliquent que ce cadre représente une nouvelle application de l’architecture ISA 95 à cinq couches :
« La couche 0 concerne les fonctions et les normes associées au processus de production physique. La couche 1 concerne les fonctions et les normes associées à la détection et à la manipulation de ce processus physique. La couche 2 concerne les fonctions et les normes associées à la surveillance et au contrôle automatiques de ce processus. La couche 3 comprend les fonctions opérationnelles de fabrication, et la couche 4 couvre les fonctions d’entreprise. »
Ce cadre offre une feuille de route claire pour structurer les données tout au long du flux de travail de la FA, des capteurs et des machines aux systèmes opérationnels et d’entreprise. Cependant, il a été développé en tenant compte des processus LPBF, et rien ne garantit qu’il s’appliquera de manière transparente à d’autres technologies de FA.
Pour des entreprises comme BMW Group, adapter judicieusement ce cadre à leurs processus, machines et contextes opérationnels spécifiques pourrait contribuer à garantir la fiabilité, la traçabilité et l’exploitabilité des données de FA, favorisant ainsi une meilleure prise de décision et une plus grande efficacité des processus dans l’atelier et au-delà.
C’est un sujet que nous continuerons à suivre afin de partager des informations pertinentes qui pourraient aider les utilisateurs de la FA à mieux structurer et mettre en œuvre leurs approches en matière de gestion des données.






