Process Optimization Through Predictive Modelling
(Optimisation des processus par la modélisation prédictive)
By Jean-Pierre Amiel, ASQ Senior, CQA ret., Secrétaire (Texte en français suit)
A personal summary of the Process optimization Through Predictive Modelling as explained on 26 April, 2023 by Vincent Béchard and Dominic St-Onge of Difference-GCS.
Well the statisticians have done it again!
Over a period of two years, they managed to turn hundreds of variables and thousands of measurements into a cohesive and predictable approach that allow operators of a Kraft pulp mill to tweak their process so as to reduce process variability and off-specifications so as to attain the objective levels. And, they even managed to explain in a way so I could almost understand everything that was said.
Our speakers explained how a “black liquor” (a mix of lignin, inorganic compounds and water) is produced as a by-product from digesting pulpwood in the Kraft paper-making process. This liquor is quite toxic and so it is treated through a complex process of cooking, filtering and re-treatment and produces various by-products, including as an energy source for the plant. (Wikipedia)
The case presented centered around a Kraft pulp mill that had seen a drop in the process mean, an increase in the process variability of black liquor solids and so was unable to achieve its historical target of 15%. In this particular production environment of 1,000 Tonnes/day, each 1% increase represented 1 Million $/year in extra steam and energy costs. Traditionally, adjustments to the process was done by experienced operators based on transferred knowledge and long term practices which were less available.
We were presented various steps taken by the teams to improve the processes steps and the experimentation of the implementation of an automated “recommender system” to allow an operator to proactively readjust the chemical characteristics of a critical process feed stream when there is a foreseen significant upset.
To analyse and implement the proper tools for the operator to achieve the task, Kaizen exercises identified steps to improve solids but this could not address variability. Using a statistical model, key variables out of over a hundred were identified. They had to be independent and non-co-linear. A Change point analysis and stability analysis was performed, then a “Random Forests” machine learning model was built to predict the impact of various variables. This allowed the identification of a handful of variables key to the 15% goal, and that could be tracked and suggest to the operator the set points that could be adjusted based on their experience (augmented vs artificial intelligence). With this approach, the objective was to find the smallest set-point moves to ensure that targets can be respected.
As a result of these efforts, including Kaizen and DMAIC (Define, Measure, Analyze, Improve and Control) exercises, the Ppk (Process performance index, how well a process is within specification limits — 1.0 meaning a process is centred) was improved from 0.22 to 1.33 and the off-specifications were reduced from 23,6% to 1,1%.
We look forward to continuing discussions on this and other topics in the future.
Un résumé personnel de l’Optimisation des processus par la modélisation prédictive tel qu’expliqué le 26 avril 2023 par Vincent Béchard et Dominic St-Onge de Difference-GCS
Les statisticiens ont récidivé!
Sur une période de deux ans, ils ont réussi à transformer des centaines de variables et des milliers de mesures en une approche cohérente et prévisible qui permet aux opérateurs d’une usine de pâte kraft d’ajuster leur processus de manière à réduire la variabilité du processus et les hors-spécifications afin d’atteindre les niveaux visés. Et ils ont même réussi à m’expliquer de manière à ce que je puisse presque comprendre tout ce qui a été dit.
Nos intervenants ont expliqué comment une “liqueur noire” (un mélange de lignine, de composés inorganiques et d’eau) est produite comme sous-produit de la digestion du bois à pâte dans le processus de fabrication du papier kraft. Cette liqueur étant assez toxique, elle est traitée par un processus complexe de cuisson, de filtrage et de retraitement et produit divers sous-produits, notamment comme source d’énergie pour l’usine. (Wikipedia)
Le cas présenté est celui d’une usine de pâte Kraft qui a vu sa teneur moyenne en liqueur noire chuter et sa variabilité augmenter et n’a donc pas pu atteindre son objectif historique de 15%. Dans cet environnement de production particulier de 1 000 tonnes/jour, chaque augmentation de 1% représentait 1 million de dollars par an en coûts supplémentaires de vapeur et d’énergie. Traditionnellement, les ajustements du processus étaient effectués par des opérateurs expérimentés sur la base de connaissances transférées et de pratiques à long terme qui étaient moins disponibles.
On nous a présenté diverses mesures prises par les équipes pour améliorer les étapes du processus et l’expérimentation de la mise en œuvre d’un “système de recommandation” automatisé pour permettre à un opérateur de réajuster de manière proactive les caractéristiques chimiques d’un flux d’alimentation critique du processus lorsqu’il y a une perturbation significative anticipée du processus.
Pour analyser et mettre en œuvre les outils appropriés permettant à l’opérateur d’accomplir sa tâche, les exercices Kaizen ont permis d’identifier des étapes pour améliorer les solides, mais cela n’a pas permis d’aborder la question de la variabilité. À l’aide d’un modèle statistique, des variables clés parmi plus d’une centaine ont été identifiées. Elles devaient être indépendantes et non colinéaires. Une analyse des points de changement et une analyse de stabilité ont été réalisées, puis un modèle d’apprentissage machine “forêts aléatoires” a été construit pour prédire l’impact des différentes variables. Cela a permis d’identifier une poignée de variables clés pour l’objectif de 15% et qui pourraient être suivies et suggérer à l’opérateur les points de consigne qui pourraient être ajustés sur la base de leur expérience (intelligence augmentée vs artificielle). Avec cette approche, l’objectif était de trouver les plus petits déplacements de points de consigne pour s’assurer que les objectifs puissent être respectés.
Grâce à ces efforts, y compris les exercices Kaizen et DMAIC (Définir, Mesurer, Analyser, Améliorer et Contrôler), le Ppk (Indice de performance du processus, dans quelle mesure un processus se situe dans les limites des spécifications – 1,0 signifiant qu’un processus est centré) a été amélioré de 0,22 à 1,33 et les hors-spécifications ont été réduites de 23,6% à 1,1%.
Nous nous réjouissons de poursuivre les discussions sur ce sujet ainsi que sur d’autres à l’avenir.