Alstom Power : les 1001 usages du Big Data au service de la production d’énergie
Publié le dans seminar-past
Les activités du groupe Alstom se répartissent dans trois secteurs : énergie, transport ferroviaire et transport d’électricité. Le Groupe compte 93 000 employés dans 100 pays, avec une présence forte en Europe qui représente 36% de ses activités. Alstom Power, la branche de production électrique, s’intéresse fortement à l’apport de l’analyse des données pour faire évoluer son modèle économique. Jean-François Cabadi, responsable des travaux relatifs au référentiel de données métier et Hervé Sabot, responsable de l’innovation produits, ont présenté aux étudiants du Mastère Spécialisé Big Data les perspectives de l’utilisation des données massives dans l’industrie de l’énergie.
Le modèle économique de l’industrie est en train de suivre un changement profond, similaire à celui qui a déjà largement impacté les services : les GAFA (Google, Apple, Facebook, Amazon) travaillent sur l’analyse de la donnée et ils prétendent pouvoir prédire un certain nombre d’événements. Ils peuvent par exemple, aller voir un industriel pour le prévenir qu’une de ses machines va tomber en panne… Or les constructeurs veulent aussi pouvoir offrir ce service et savoir quand ils vont devoir remplacer un équipement. Il existe en effet un risque que ce marché soit accaparé par des sociétés qui peuvent détecter les défaillances rien qu’en travaillant avec les données mais sans avoir la capacité technique d’intervenir sur les équipements.
La plupart des gros industriels investissent donc aujourd’hui dans le traitement de la donnée pour éviter de perdre le contrôle sur cet aspect de leur activité. General Electric, qu’Alstom devrait rejoindre prochainement, investit par exemple énormément dans le big data et l’analyse prédictive, avec 1 milliard de dollars d’investissement et le recrutement de 1000 ingénieurs logiciels et Data scientists, dans sa filiale GE Software, pour analyser les données pour l’ensemble de ses activités : énergie mais aussi médical, avionique…
Alstom Power, quand la donnée devient énergie
La production d’énergie électrique par la branche Alstom Power fait appel à tous les types d’énergies : fossiles et renouvelables. Cette activité représente presque la moitié du chiffre d’affaires du Groupe. Ce dernier a donc développé une forte expertise dans tous les types de centrales : centrales à gaz, charbon et fuel ; centrales hydrauliques, centrales nucléaires (groupe turbo-alternateur), fermes éoliennes, centrales solaire à concentration, mais aussi les centrales géothermiques, biomasse et les hydroliennes. Alstom Power intervient sur toutes les étapes, de la conception à la livraison clé en main en passant par la fourniture de composants tels que les chaudières, les turbines, les générateurs, les systèmes de désulfuration et de dénitrification, les condenseurs, les broyeurs à charbon ou les systèmes de contrôle.
Ces systèmes de contrôle sont présents dans tous les types de centrales. Ils centralisent des données terrains issues de capteurs (température, pression, intensité du courant…) et les font remonter à l’opérateur de la centrale afin qu’il puisse prendre les bonnes décisions. Leurs couches logicielles se répartissent en trois niveaux : la première couche concerne l’instrumentation (capteurs, régulateurs, actionneurs…), la seconde est l’automation : le contrôle des machines et la troisième est le système d’information proprement dit avec notamment une fonction de visualisation.
La couche automation assure de nombreuses fonctions : démarrer/arrêter la centrale, optimiser son rendement, préserver la sécurité, permettre la flexibilité de la production d’énergie et assurer la qualité du courant, ces deux dernières fonctions étant particulièrement importantes dans le cas des énergies renouvelables, dont la production est intermittente.
Architecture des systèmes de contrôle
Chaque automate vérifie, typiquement toutes les 100 millisecondes, les informations qui remontent du terrain et qui sont échantillonnées et transmises à l’opérateur. Il y a aussi beaucoup d’échanges entre les automates, par exemple pour que la turbine sache si la chaudière fonctionne. Les serveurs de données collectent les informations des différentes sources pour fournir une vision synthétique à l’opérateur.
Les serveurs de données eux, conservent les données pendant une journée, puis les serveurs d’historiques conservent l’ensemble des données de la centrale pendant 3 à 4 mois avant archivage. Les données sont donc plus difficiles à exploiter après cette période (Données hors ligne). La vie d’une turbine pouvant aller jusqu’à 40 ans, il est souvent difficile de comparer des données d’aujourd’hui aux données du début de sa mise en exploitation…
La vie d’une centrale est donc très complexe, et la question que se pose Alstom est de savoir comment améliorer ses services et équipements avec l’analyse de données. Cinq pistes ont été identifiées par l’entreprise.
Rationalisation des alarmes
Les « alarmes » sont présentes dans tous les systèmes de contrôle industriel. Il s’agit du signalement d’un état inhabituel : température trop élevée dans un circuit par exemple. Or il arrive souvent d’avoir une multitude d’alarmes simultanées, dont certaines sont redondantes ou non significatives. L’enjeu serait de rationaliser les systèmes d’alarmes en prenant en compte plus de données et en utilisant des algorithmes de machine learning (Par exemple classification).
Maintenance prédictive de l’alternateur
L’enjeu est de taille : les industriels passent en effet d’un mode de révision périodique et régulier, où tous les éléments d’une installation sont contrôlés à intervalles de temps fixés, à une maintenance prédictive qui permet de n’intervenir que ponctuellement, uniquement sur l’élément qu’on suspecte d’avoir une défaillance. En effet plus on peut intervenir en amont sur une réparation, moins cela laisse de possibilité à l’installation de se dégrader. Cela permet aussi de planifier l’arrêt de la centrale pour intervenir à un moment propice, au lieu de devoir l’arrêter en plein régime d’exploitation dans le cas d’une panne soudaine.
Surveillance du système de contrôle commande
Cette surveillance concerne le fonctionnement des automatismes et de la salle de commande. Cela inclut des alarmes mais aussi des données système telles que répétitions sur les réseaux, les surcharges de CPU, la taille mémoire de certains process… Il s’agit d’utiliser les technologies big data (Hadoop, bases NoSQL) pour trouver des façons plus efficaces d’exploiter ces données. On peut ainsi détecter des faiblesses à temps et éviter des dégradations du matériel au lieu de se contenter d’établir un diagnostic après coup.
Construction du modèle de démarrage de l’installation
Après un incident qui amène à l’arrêt d’une centrale, le redémarrage, selon les types de centrales, peut être très long : de quelques heures à plusieurs jours. Il est donc intéressant de savoir à l’avance comment va se passer le redémarrage d’une centrale, en créant des modèles qui pourront guider les opérateurs. A partir de l’historique des redémarrages, il s’agit de comprendre pourquoi certaines centrales démarrent mieux que d’autres, selon quels paramètres, et établir différents cas de démarrages qui serviront de modèles.
Identification de l’état de l’installation
Cette application vise à compenser ou corriger les estimations d’état qui sont fournies lors de la construction d’une centrale. En effet ces chiffres théoriques peuvent ne pas se révéler exacts une fois la centrale en opération. Il s’agit donc de compléter l’ingénierie de conception avec des données réelles de la centrale afin de mieux la comprendre et connaître son état opérationnel.
De nombreuses questions restent en suspens : comment bien exploiter les données existantes ? Quelles données externes aller chercher ? Faut-il initier une structuration de l’information avant son traitement ? Les modèles doivent-ils intervenir en amont du traitement des données ou plus en aval, comme c’est le cas dans le Big Data ? Autant de points qui vont nécessiter l’expertise de spécialistes de la donnée.