Retour aux actualités
Article suivant
Article précédent

MARIER AUTOMATIQUE ET INFORMATIQUE POUR ACCÉLÉRER L’INNOVATION

Revue des Ingénieurs

-

03/02/2021

Auteur : Charles-Henri CLERGET (P 2010 ICiv)

Le terme d’industrie 4.0 est la dernière incarnation d’un effort très ancien pour automatiser les procédés industriels. Sa véritable spécificité réside dans la convergence de nouvelles technologies et pratiques permettant d’abaisser les coûts et les temps de développements d’applications dédiées à la surveillance, au contrôle et à l’optimisation d’opérations industrielles.


REX QUONDAM, REXQUE FUTURUS1 “Let us now go on to a picture of a more completely automatic age. […] The computing machine represents the center of the automatic factory, but it will never be the whole factory. On the one hand, it receives its detailed instructions from elements of the nature of sense organs, such as photoelectric cells, condensers […] thermometers, hydrogen-ion-concentration meters, and the general run of apparatus now built by instrument companies for the manual control of industrial processes. […] Other data may be fed in from time to time by human operators, but the bulk of the clerical work can be handled mechanically. […] In other words, the allover system will correspond to the complete animal with sense organs, effectors, and proprioceptors, and not, as in the ultra-rapid computing machine, to an isolated brain, dependent for its experiences and for its effectiveness on our intervention.”

Ces quelques phrases ne sont pas issues du discours d’un gourou de l’industrie 4.0 mais de The Human Use of Human Beings, essai publié par un des pères du traitement du signal moderne, Norbert Wiener, en 1950, soit 9 ans avant l’invention du transistor MOSFET par les Bell Labs2. Cette vision remarquablement moderne s’inscrivait alors dans un grand mouvement intellectuel d’après-guerre autour de la nouvelle discipline de la cybernétique, dont les idées ont largement irrigué le champ scientifique et culturel, de l’introduction à l’Ouest des premiers automates
industriels à la tentative par le bloc soviétique d’appliquer à grande échelle la programmation linéaire pour résoudre le problème de la planification économique centralisée3, en passant par les travaux du Club de Rome sur Les Limites à la Croissance. À l’évidence, les évolutions technologiques des 70 dernières années ont largement validé cette vision : progrès fulgurants de la puissance de calcul disponible, effondrement de son coût, adoption généralisée des automates industriels ou diffusion des logiciels de logistique ne sont que quelques exemples des transformations qui ont bouleversé le monde industriel. Et pourtant, comme en témoigne la relative désaffection pour le terme même de cybernétique4, le praticien ayant travaillé au programme de maintenance d’une usine ou à l’optimisation d’une raffinerie ne peut que constater que la réalité ne s’est pas véritablement hissée au niveau de cette vision, pourtant clairement dessinée il y a maintenant presque trois générations. Dans ce domaine peut être plus que dans d’autres, de la théorie à la pratique, la route est droite mais la pente est restée forte.

DR

Photo d’un opérateur réparant ENIAC, le premier ordinateur programmable moderne, en 1945.

 

DU BONHEUR D’ÊTRE AUTOMATICIEN AU 21E SIÈCLE : LA RÉVOLUTION DE LA CONNEXION

Si le cybernéticien (nous dirions aujourd’hui l’automaticien) est quelque peu tombé de son piédestal, jusqu’à acquérir une image parfois poussiéreuse, il nous semble néanmoins que “l’industrie 4.0” apporte bon nombre d’éléments permettant de débloquer cette situation. D’un point de vue purement technologique, sous couvert d’un vocabulaire parfois brumeux, il s’agit assez simplement d’hybrider des éléments provenant de deux mondes restés longtemps disjoints, l’automatique industrielle d’une part, et de nouveaux outils issus du secteur numérique d’autre part, au premier rang desquels figurent l’internet et l’apprentissage statistique. Historiquement, une des raisons de la difficulté des développements dans le monde industriel a été le coût élevé, et par suite la rareté, des données. En effet, la construction d’infrastructures d’essai ou de pilotes est généralement longue et coûteuse, voire impossible. En parallèle, l’accès direct aux données de production a toujours posé problème, à la fois par manque de connectivité (le coût de raccordement des capteurs à un système permettant la récupération et l’historisation des mesures ayant longtemps été prohibitif) et en raison de la complexité des architectures informatiques industrielles introduisant de nombreuses frictions pour les utilisateurs du système5. Ce problème se trouve d’ailleurs amplifié par le fait que les équipes de R&D sont souvent très éloignées des unités de production, tant sur le plan géographique que culturel. Pour cette raison, les processus de développement s’appuient principalement sur la simulation et quelques précieux cas tests, malheureusement rarement représentatifs de vraies conditions de fonctionnement ; il n’est pas rare qu’une fois les produits ou les applications déployés, le seul retour d’expérience, d’ailleurs souvent mal documenté, ait lieu à l’occasion de dysfonctionnements graves (par exemple via un service de maintenance).


Pour cette raison, et du fait du caractère critique de nombreuses applications, toute la démarche de conception est basée sur les pires éventualités envisageables, et donc des paramètres très conservatifs. L’explosion de la connectivité des sites industriels6 bouleverse désormais ce paradigme en permettant d’assurer facilement le suivi continu des équipements et des procédés pour mieux comprendre leurs réelles conditions opératoires et les failles des systèmes existants. En sens inverse, ces avancées permettent également de mettre à profit des systèmes de déploiement continu de logiciels pour se rapprocher de méthodologies agiles en faisant régulièrement évoluer le code utilisé en opération. Cette flexibilité remet également largement en cause la limitation en capacités de calcul inhérente aux calculateurs industriels (microcontrôleurs ou automates programmables) en permettant de déporter les analyses les plus lourdes à distance sur des systèmes clouds dédiés pour n’en rapatrier localement que les résultats finaux. Ce point est par exemple critique dans les domaines faisant appel à des techniques d’optimisation numérique très gourmandes en calculs comme la commande optimale ou l’apprentissage statistique.

DES TRANSFORMATIONS ÉGALEMENT CULTURELLES

Au-delà des aspects purement techniques, il nous semble qu’un autre apport important du secteur numérique à cette hybridation est d’ordre culturel. En effet, l’innovation frénétique engendrée par le développement d’applications exploitant les possibilités ouvertes par la diffusion de l’internet grand public contraste suffisamment avec le relatif retard du monde industriel pour mériter que l’on s’y arrête. Cette divergence interroge d’autant plus qu’à de nombreux égards, elle n’allait pas de soi.
Après tout, les développements dans le secteur de l’internet grand public reposent le plus souvent sur de nouveaux services nécessitant des effets de réseaux dont l’amorçage est extrêmement capitalistique, tandis que les modèles de rentabilités de ces entreprises ont longtemps été incertains (et le restent parfois encore). En contrepoint, les grands acteurs du monde industriel pouvaient tirer parti de cas d’application clairs, d’une forte expertise technique et de vastes systèmes d’information existant, quoi qu’imparfaits7. À la lumière de cette interrogation, il apparaît qu’un des éléments centraux dans l’engouement et le succès des technologies web et de l’apprentissage statistique est un effort constant d’individus fortement marqués par une culture d’informaticien pour abaisser au maximum toutes les barrières d’adoption et d’implémentation de ces technologies. L’élément le plus emblématique de cette approche est une préférence forte, presque dogmatique, pour le logiciel libre, conçu pour être développé de façon coopérative, grâce à des outils tels que Git8, et facilement distribué à grande échelle à l’aide des packages managers de langages de programmation comme Python ou Julia. Ces outils permettent à n’importe quel profane de les installer en un clic, là où la compilation de nombreuses bibliothèques de calcul scientifique antérieures pouvait être une épreuve capable de briser la résolution des plus courageux. Cette différence de culture s’incarne d’ailleurs de façon flagrante dans le bagage informatique des professionnels des deux secteurs. En dehors des langages “bas niveau” C et C++, les automaticiens sont généralement familiers de langages de programmation propriétaires tels que Matlab, LabView ou différents langages d’automates industriels. À l’opposé, le monde de la science des données privilégie depuis longtemps des environnements libres comme Python, R, Julia ou certains outils de calcul distribué comme Spark. En fin de compte, cette approche a permis une explosion du nombre de logiciels spécialisés disponibles pour différentes tâches d’analyse, et, après consolidation, l’émergence de codes de référence gratuits, mais extrêmement fiables et optimisés du fait de l’immense communauté d’utilisateurs traquant d’éventuels défauts et guidant leur évolution. Ces logiciels sont d’ailleurs souvent développés directement par des chercheurs, ou a minima par des individus très au fait de l’état de l’art scientifique, contribuant ainsi à la réduction du temps de diffusion des nouvelles techniques dans le champ pratique.

Il est très frappant de constater que Matlab, qui avait longtemps été la référence pour les applications de calcul scientifique, est d’ores et déjà dépassé par ces alternatives dans de nombreux domaines, et le sera vraisemblablement de plus en plus dans les années à venir. Si des logiciels emblématiques comme scikit-learn témoignent de la réussite remarquable de ce modèle, il est peut-être encore plus impressionnant que de grands acteurs privés du numérique aient fait le choix de distribuer librement certains outils initialement développés de façon propriétaire. TensorFlow (développé par Google pour l’apprentissage statistique) et Airflow (développé par Airbnb pour la gestion massive de tâches asynchrones) sont de bons exemples d’outils de qualité industrielle passés de cette façon dans le domaine du logiciel libre. À titre d’illustration, TensorFlow a dépassé les 100 millions de téléchargements en mai 20209.

QUELLES CONSÉQUENCES POUR LES PROCESSUS DE DÉVELOPPEMENT ET LES MODÈLES ÉCONOMIQUES ?

Au total, ces évolutions aboutissent à repenser les produits de contrôle industriel non plus comme des ensembles rigides validés et livrés une fois pour toutes, mais avant tout comme des interfaces entre l’environnement industriel (procédé, capteurs, actionneurs) et un “back-office” (ingénieurs, équipes de développement, système cloud), ainsi qu’une plateforme matérielle destinée à héberger un logiciel applicatif en évolution continue. Cette organisation permet de réduire considérablement des cycles de développement traditionnellement très longs en déployant tôt du matériel permettant d’acquérir des données et en faisant évoluer progressivement ses fonctionnalités. En outre, le retour d’expérience très rapide sur les équipements déployés permet d’informer beaucoup plus facilement ces évolutions.


Ce recentrage de l’évolution continue des produits au coeur de la stratégie industrielle implique en revanche une transformation importante des modèles économiques. Dès lors que le concepteur d’équipements et d’applications investit d’importantes ressources de R&D en s’engageant au delà d’une simple transaction instantanée de vente, une nouvelle question émerge quant au financement de son activité sur le cycle de vie complet des produits. Par ailleurs, si les fonctionnalités du produit doivent évoluer, il est naturel de mettre à jour régulièrement le logiciel embarqué, mais il peut être également nécessaire d’en faire de même pour le matériel. Pour que ces transitions se fassent facilement et ne soient pas perçues comme un surcoût ou une nuisance par le client, il peut être avantageux pour le fournisseur de garder le contrôle du dispositif physique, et à la limite d’en rester propriétaire. Tout compte fait, on tend naturellement à s’éloigner d’un modèle traditionnel de vente ponctuelle d’un équipement possédé par le client pour se diriger vers une relation de fourniture de service dont le produit physique n’est plus que le sous-jacent. Du point de vue du client, cette transformation peut être rendue acceptable par l’évolution beaucoup plus rapide des produits qu’elle permet. Elle offre également de nouveaux arbitrages entre investissements (CAPEX) et dépenses d’exploitation (OPEX) qui peuvent faciliter l’adoption de nouvelles technologies, en particulier quand un grand nombre d’appareils doivent être déployés (par exemple pour moderniser un site de production). Ces nouvelles approches sont particulièrement adaptées à des entreprises en démarrage, car elles permettent de structurer leurs revenus comme des flux financiers récurrents très bien valorisés par le capital-risque. Idéalement, en se rapprochant du modèle financier d’un éditeur de logiciel, elles dégagent ainsi des ressources importantes pour l’investissement dans l’innovation.

Panel non exhaustif des outils open source dans le domaine de la science des données.

Pour des sociétés industrielles matures, l’investissement dans une infrastructure permettant de stocker et d’accéder efficacement aux données industrielles acquises est un prérequis trop souvent négligé sans lequel tous les développements applicatifs nouveaux sont considérablement entravés. Une fois cet obstacle levé, l’expérience tend à montrer que les meilleurs résultats sont obtenus par des équipes expérimentées résolvant au cas par cas des problèmes spécifiques, au plus près des opérations. Il est critique que ces équipes maîtrisent non seulement les compétences nouvelles emblématiques de la science des données (langages de programmation adaptés à la manipulation de données volumineuses et éventuellement mal structurées, apprentissage statistique, développement d’infrastructures cloud, etc.), mais aussi les outils plus traditionnels de l’automatique (souvent nécessaires à une implémentation réussie sur site) et soient plus généralement à l’aise avec l’environnement industriel. De nombreux projets échouent du fait de l’incapacité d’équipes exclusivement “data” à comprendre des procédés industriels complexes et à interagir efficacement avec leurs opérateurs, ce qui tend à les décrédibiliser rapidement. Si les attentes d’un grand soir de la donnée débouchent le plus souvent sur des déceptions, l’acculturation des meilleurs outils et pratiques du secteur numérique au monde industriel et le déploiement d’infrastructures informatiques modernes dans les sites de production peuvent ouvrir une nouvelle ère pour le développement d’applications et de produits capables de réveiller un secteur de l’automatique industrielle trop souvent somnolant.

CHARLES-HENRI CLERGET (P10), co-fondateur d’Acoustic Wells – charles-henri.clerget@mines-paris.org 

1. “Roi jadis, et Roi à l’avenir”, Le Morte d’Arthur, Thomas Malory.
2. Les calculateurs dont il est question dans ce passage utilisent encore de vénérables tubes à vide.
3. Sur cette aventure, on pourra consulter le très pédagogique Red Plenty de Francis Spufford.
4. Google Books nous apprend que le terme, apparu pendant la Seconde Guerre mondiale, a connu son pic d’emploi en 1967 avant de tomber en désuétude et de connaître un relatif regain d’intérêt depuis la fin des années 90.
5. L’auteur peut ici témoigner d’expériences vécues où des requêtes de récupération de données de procédés ont parfois mis plusieurs semaines à aboutir.
6. À la fois par de fortes améliorations des systèmes SCADA existants permettant d’augmenter considérablement la fiabilité et la fréquence d’échantillonnage du réseau (comme le protocole MQTT), ou par la multiplication de dispositifs IoT plug and play utilisant différents types de réseaux cellulaires (LoRa, LTE-M, NB-IoT ou dans le futur proche des réseaux de microsatellites), Bluetooth ou Wifi.
7. Dès la fin des années 90, des sociétés comme OSIsoft offraient par exemple des solutions permettant d’avoir accès en temps réel depuis un ordinateur de bureau aux données de procédé d’usines réparties aux quatre coins du monde.
8. Git est un des logiciels de référence pour la gestion de versions et le développement informatique collaboratif. Il a été particulièrement popularisé par des sites tels que https://github.com/ permettant d’héberger et de distribuer très facilement du code libre.
9. Source : twitter http://bit.ly/Mines511-6 

Commentaires0

Veuillez vous connecter pour lire ou ajouter un commentaire

Articles suggérés

Revue des Ingénieurs

AFRIQUE :

photo de profil d'un membre

Intermines

18 décembre

Revue des Ingénieurs

AFRIQUE :

photo de profil d'un membre

Intermines

18 décembre

Revue des Ingénieurs

L'urgence climatique

photo de profil d'un membre

Intermines

14 novembre