Retour aux actualités
Article suivant
Article précédent

INTELLIGENCE ARTIFICIELLE : QUELLES RÉALITÉS ?

Revue des Ingénieurs (abonnés)

-

26/04/2024

De Turing aux intelligences artificielles génératives, l’IA a passionné des générations d’étudiants et continue de le faire. À l’aube d’un tournant qui semble d’ores et déjà être majeur dans l’histoire de ce domaine, nous cherchons à en brosser le portrait actuel et anticiper les grands enjeux auxquels les ingénieurs seront confrontés demain. Point de vue de deux étudiants dans ce domaine.

Par PHILIPPE JESTIN (E20) – philippe.jestin@mines-saint-etienne.org Et JULES DÉSIR (P22) jules.desir@mines-paris.org 


UNE SCIENCE PAS SI NOUVELLE ! 
Sans chercher à définir trop précisément l’intelligence artificielle tant la tâche est ardue, on peut dans ce propos liminaire s’en tenir à la définition du Petit Larousse qui la caractérise de la sorte : “ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine”.
En se fondant sur cette description, on pourrait déjà conclure sur la non-nouveauté de “l’intelligence artificielle” ! Si les premiers travaux de formalisation de la pensée mathématique datent du XIXe siècle, c’est surtout dans la deuxième moitié du XXe siècle qu’on constate une grande avancée dans ce domaine. En particulier grâce aux divers travaux de Turing, Von Neumann et consorts à qui l’on doit les premiers prototypes d’ordinateurs. S’ensuivent diverses phases de développement théoriques et technologiques, au gré des financements et espoirs successifs. Pour décrire l’histoire de cette science ou en tout cas de ce domaine d’étude, on peut également procéder en identifiant les divers champs de recherche associés : la recherche opérationnelle, la science des données, la théorie des graphes… Force est de constater que les premiers résultats théoriques ne datent pas d’hier, ni même d’avant-hier d’ailleurs ! On en retrouve pour ainsi dire dès les années 1950.
Ce qui a véritablement changé ces deux dernières décennies réside dans les évolutions des machines capables de stocker toujours plus de données. La loi de Moore énoncée en 1965, selon laquelle le nombre de transistors présents sur une puce de microprocesseurs allait doubler tous les 2 ans, n’a jusqu’à 2020 pas été démentie. La puissance de calcul a évolué suivant la même croissance. Dès lors, le champ des possibles est devenu en quelques années un formidable terrain de jeu. Pour ne citer qu’un aperçu du domaine actuel, nous sommes en mesure de faire de la reconnaissance d’images ou encore de traiter le langage naturel. Plus récemment des intelligences artificielles génératives ont été mises sur le devant de la scène. Cette introduction est ainsi l’occasion de rappeler modestement une petite histoire de l’IA. C’est également une tous les ingénieurs et chercheurs qui nous ont précédés dans ce domaine passionnant !

DES ÉTUDIANTS TOUJOURS  PLUS FÉRUS D’INTELLIGENCE ARTIFICIELLE 
Il est aujourd’hui difficile de trouver un étudiant ingénieur ou un jeune diplômé n’ayant pas choisi au moins un cours traitant des sujets en lien avec la science des données et l’intelligence artificielle. À titre d’exemple, rien que la majeure “Science des Données” de l’école des Mines de Saint-Étienne est suivie chaque année par environ 60 étudiants, pour des tailles de promotions d’environ 180 élèves Ingénieur civil des Mines. Ce choix de spécialisation semble lucide et sonne comme une évidence tant les dernières années ont été marquées par l’explosion de ce domaine. Dans le futur, on peut prédire sans beaucoup de risques que l’immense majorité des métiers seront impactés, ils le sont même d’ailleurs déjà et les ingénieurs n'y échappent pas !
Il y a en outre un sentiment assez grisant de travailler et de comprendre ce sujet en perpétuelle évolution, pour lequel des articles majeurs sont constamment publiés. Des perspectives passionnantes s’ouvrent en permanence ! Quand des chercheurs du CNRS parlent du développement d’ADN synthétique, qui permettrait entre autres de réduire considérablement l’empreinte énergétique du stockage de données, des équipes de DeepMind sont de leur côté capables de générer des millions de nouveaux matériaux. Parmi ces derniers se trouvent sans doute des éléments clés de la transition écologique.
Cela étant dit, une autre lecture de ce phénomène est possible : et si étudier l’intelligence artificielle n’était pas devenue en quelque sorte la nouvelle “voie royale” ? Comme une nouvelle manière de “ne pas se fermer de portes”. S’il existe toujours d’autres domaines de spécialisation bien représentés dans les choix des étudiants, il faut néanmoins veiller à garder un équilibre satisfaisant dans la formation d’ingénieurs généralistes. La réflexion mérite en tout cas d’être menée.
Il convient néanmoins de nuancer ces quelques mots, tant les champs d’applications sont vastes et épanouissants. De plus, “étudier l’intelligence artificielle” n’est pas une fin en soi, il n’y a en fait même pas de sens à cette locution. Avoir des notions dans ce domaine devient une condition sine qua non, le métier d’ingénieur évolue à mesure que l’IA apporte de nouveaux cas d’usages, dans la santé, dans l’énergie, dans les transports. Il y a sans doute un parallèle à dresser avec l’arrivée de l’ordinateur il y a près d’un demi-siècle.

S’ATTAQUER À UN PROBLÈME  DE SCIENCE DES DONNÉES,  UNE DÉMARCHE D’INGÉNIERIE

 Un des enjeux de la formation des futurs ingénieurs en intelligence artificielle et en science des données est la sensibilisation à l’importance des hypothèses à vérifier et des estimations réalisées lors de l’utilisation d’un “modèle” d’apprentissage automatique pour résoudre un problème. En effet, certaines applications de l’intelligence artificielle ne s’appuient pas entièrement sur des résultats théoriques : plusieurs méthodes d’apprentissage automatique considérées comme classiques ne jouissent pas de preuves de convergence, le meilleur résultat obtenu étant parfois une majoration grossière de l’erreur d’estimation. Dans les articles scientifiques présentant un nouveau modèle, il n’est pas rare que les auteurs justifient leurs choix en se reposant sur l’aspect intuitif de leur proposition ou en faisant des comparaisons plus ou moins fondées avec le raisonnement humain, mais de nombreuses publications ne comportent pas de démonstrations qui prouvent par a + b que leur nouveau modèle apporte, en théorie, des améliorations. La plus-value d’un nouveau modèle d’apprentissage automatique est souvent justifiée par l’amélioration des métriques obtenues et la réduction du nombre de paramètres ou du temps de calcul, d’où l’importance des jeux de données communs utilisés pour comparer les modèles entre eux. En se formant aux méthodes d’apprentissage automatique sur lesquelles repose toute une partie de la science des données, les étudiants apprennent à formaliser un problème de prédiction : 

• à partir des seules observations disponibles ;
• en fonction d’un risque, qui traduit une attente d’expert métier ;
•  et d’une classe de prédicteurs, compromis entre coût de calcul, performance, et données, que se donne l’ingénieur.

Face à un problème qui nous est proposé, définir un risque que l’on va chercher à minimiser pour le résoudre, puis formuler des hypothèses et décider si l’estimation est satisfaisante constitue une véritable démarche d’ingénierie. 

UNE RELATIVE DÉCEPTION LORS  DE L’ARRIVÉE DANS LE MONDE  DU TRAVAIL
Bien que les études soient, en bien des aspects, passionnantes comme évoqué précédemment, l’arrivée dans le monde de l’entreprise se solde parfois par un sentiment mitigé.
L’écart entre le monde de la recherche et les divers cas d’usage en entreprise est pourtant bien plus mince que dans d’autres secteurs, il n’y a qu’à penser aux mondes nucléaire et médical pour se convaincre des différences de conformité réglementaire nécessaire avant une mise sur le marché. Cela explique d’ailleurs sûrement la proximité des centres de recherche avec l’écosystème des start-up et les allers-retours possibles entre la R&D en entreprise et la recherche académique. La réalité de ce constat relativement décevant tient plus de l’extrême dépendance de l’intelligence artificielle à la donnée. Les métiers de “l’intelligence artificielle” sont répartis le long du cycle de vie de la donnée : il faut la collecter, l’organiser, la prétraiter avant d’espérer en tirer de l’information, de la connaissance ou même de la sagesse… Un concept bien connu représente ce processus : la pyramide DIKW (Data > Information > Knowledge > Wisdom). On comprend de ce fait l’importance d’une base saine, c’est-à-dire de la donnée de qualité, fraîche et au bon endroit. Ce qui n’est pas toujours évident dans des architectures de systèmes d’information mises en place avant l’avènement de la donnée massive.
Dans ce contexte, un phénomène déjà constaté tient d’une certaine forme de “socialisation inversée” où le jeune stagiaire ou nouvel embauché occupe un poste à responsabilité importante. Cela est d’autant plus vrai lorsqu’il s’agit d’entreprises ayant un certain retard comme cela peut être le cas dans des secteurs d’activité où la digitalisation s’est opérée plus tardivement. Ces expériences peuvent se dérouler pour le meilleur et pour le pire, tant la conduite du changement vers de bonnes pratiques data peut s’avérer compliquée à gérer en parallèle de leur implémentation effective dans les systèmes d’information.

QUEL FUTUR, QUELS ENJEUX ?
Comme chaque nouvelle technologie en son temps, l’intelligence artificielle nourrit son lot de débats et de fantasmes. L’enjeu écologique est souvent pointé du doigt – à juste titre – tant la consommation de ressources induite par le digital paraît peu soutenable. De même, les questionnements autour de l’utilisation éthique de l’IA, de la nécessité de réguler les usages que l’on en fait et de mettre en place les moyens d’une souveraineté à l’échelle nationale fleurissent.
Les enseignements actuels autour des diverses transitions auxquelles nous faisons face sont nombreux et il ne tient qu’aux étudiants d’aller les chercher. Les écoles incluent de plus en plus de modules de formations sur ces thématiques. Parmi les intervenants sont d’ailleurs bien souvent présents de jeunes diplômés. De plus, des ateliers comme la fresque du numérique permettent de se former à de bonnes pratiques de sobriété. Enfin, en parallèle de leurs études, certains jeunes et moins jeunes choisissent également de s’investir dans des associations comme Data For Good. Cette dernière vise à relever divers défis qu’ils soient environnementaux, citoyens, éducationnels, par le biais de la donnée. Il existe tout un écosystème basé sur ce socle commun : impact positif et open source.
Pour revenir à l’intelligence artificielle vue par le prisme de l’enjeu écologique : ils sont et doivent être pensés indissociablement. À l’heure où l’ensemble des industries cherchent à se décarboner, il serait de bon goût que l’IA prenne le virage de l’éco-conception le plus tôt possible. Une réflexion en ce sens peut être menée sur les modèles de langages (LLM en anglais, pour Large Language Model), dont l’émergence a marqué l’écosystème IA ces derniers mois. Les plus connus d’entre eux étant les fameux GPT-3 puis GPT-4 de OpenAI et BERT de Google. On constate une sorte de “fuite en avant” avec des modèles possédant toujours plus de paramètres. GPT-3 était entraîné avec 175 milliards de paramètres, les chiffres de GPT-4, l’évolution de la version précédente, n’ont pas été communiqués mais seraient supérieurs à 1000 milliards. De son côté, la start-up française Mistral AI a dévoilé en septembre 2023 un LLM constitué de “seulement” 7 milliards de paramètres et capable de rivaliser en termes de performances avec ses concurrents américains. Sans trop philosopher sur les subtilités lorsque l’on compare deux de ces modèles entre eux, on peut remarquer qu’il est – comme souvent – possible de faire presque aussi bien avec 100 fois moins. À bon entendeur !
Par ailleurs, la souveraineté de la France dans cette technologie est vitale. À ce titre, la stratégie nationale pour l’intelligence artificielle a vu le jour dès 2018.
Cela a d’ores et déjà permis le déploiement du supercalculateur “Jean Zay”, dont la puissance de calcul le fait figurer parmi les meilleurs au monde. Cela permet de pallier en partie la difficulté de voir émerger un acteur français capable d’offrir un service de cloud computing, comprendre par-là : “entraînement des modèles sur le cloud”. Parmi les enjeux de souveraineté, la formation demeure centrale. C’est pourquoi l’investissement public visant à créer des pôles de recherche et de formation est essentiel. Pour ce qui est de l’aspect juridique, ce n’est évidemment pas le cœur de métier de la plupart d’entre nous. Cela étant dit, les questions relatives à l’utilisation des données personnelles nous concernent tous au premier plan. Si le RGPD (Règlement général sur la protection des données) traitant de ces dernières existe depuis peu et s’est implanté comme une référence, la mise en place en cours de l’AI Act par l’Union européenne également a la lourde tâche de réguler le domaine plus vaste de “l’intelligence artificielle”. À l’heure notamment des IA génératives, les décisions relatives à la propriété intellectuelle sont à étudier de près et il est certain que les ingénieurs y auront leur rôle à jouer.





PHILIPPE JESTIN (E20)




PHILIPPE JESTIN (E20)


J'aime
136 vues Visites
Partager sur

Commentaires0

Vous n'avez pas les droits pour lire ou ajouter un commentaire.

Articles suggérés

Revue des Ingénieurs (abonnés)

L’IA GÉNÉRATIVE : UNE PETITE RÉVOLUTION DANS LA CRÉATION ET L’ANNOTATION DES JEUX DE DONNÉES D’IMAGES

JL

Jkani Lemissa

26 avril

Revue des Ingénieurs (abonnés)

L’IA ET LES MÉTIERS : PAR OÙ COMMENCER POUR LES ENTREPRISES ?

JL

Jkani Lemissa

26 avril

Revue des Ingénieurs (abonnés)

COMMENT NOUS INTERROGE L’INTELLIGENCE ARTIFICIELLE ?

JL

Jkani Lemissa

26 avril