Retour aux actualités
Article suivant
Article précédent

INTELLIGENCE ARTIFICIELLE : COMPRENDRE POUR ANTICIPER

Revue des Ingénieurs (abonnés)

-

26/04/2024

Par JEAN-PAUL LAVERGNE (N66) – jean-paul.lavergne@mines-nancy.org

Le sujet intelligence artificielle est florissant sur tous les médias. On y propose au grand public des motifs d’émerveillement ou d’inquiétude, des polémiques sur les attitudes à adopter face à des outils aux performances sensationnelles, tandis qu’on tente de dresser un état de l’art et de dégager des lignes de force prospectives pour un auditoire plus averti. Mais les contenus portent le plus souvent sur un objet quasi générique  désigné par le terme IA comme si sa définition, ses caractéristiques et  ses limites étaient des évidences communes à tous les lecteurs. Ce qui n’est pas le cas.

La profusion des préoccupations sur les bouleversements qui accompagnent les progrès galopants du domaine risque d’en brouiller la compréhension : quelles sont les fonctionnalités et les performances des outils d’IA aujourd’hui et dans un proche avenir ? Comment garder le contrôle de systèmes de plus en plus puissants et complexes ? Quels changements espérer ou redouter dans le monde du travail ? Quelles influences le développement des outils de l’IA et leur usage peuvent-ils avoir sur nos modes de vie ? Quelle sera notre place dans un monde de plus en plus opéré par des machines ? Quels rôles peuvent jouer les systèmes d’IA dans la gouvernance des groupes humains, en particulier des entreprises, des institutions, des pouvoirs politiques ? Qui a et aura le pouvoir sur le développement et l’utilisation de ces systèmes ? Quels changements peut on anticiper aujourd’hui et quels domaines demeurent imprévisibles ? Que pouvons-nous espérer et craindre des outils en gestation ? On voit que la liste que nous ébauchons est déjà longue et que son contenu est propre à provoquer les passions comme des controverses abruptes. Il est donc nécessaire de mettre un peu d’ordre dans toutes ces questions et d’établir quelques préalables pour mieux en étayer les réponses, parfois contradictoires, que peuvent nous apporter les praticiens et les théoriciens — ce sont souvent les mêmes — des disciplines liées au domaine. 

CERNER CE QUE NOUS ENTENDONS PAR IA  ET IDENTIFIER DES QUESTIONS PERTINENTES

Nous nous sommes ainsi efforcés dans ce dossier — qui constitue une première approche — d’identifier les réalités que nous qualifions d’IA pour discerner les questions pertinentes que posent leur développement et leur utilisation. Chaque auteur-contributeur prend d’ailleurs dans ce dossier la précaution de définir le champ d’IA qu’il traite. Pour comprendre ces réalités et en dégager les problématiques, difficile de faire l’économie d’une réflexion sur les rapports entre la notion d’IA et celle de connaissance, car une fonction cardinale de l’intelligence est de traiter (et de créer) des connaissances. Ce qui nous renvoie au besoin d’expliciter la notion d’intelligence, aventure périlleuse sinon chimérique puisqu’elle revient à espérer que l’intelligence se définisse elle-même. Nous resterons donc modestes sur ce point en nous limitant à des considérations pragmatiques qui nous permettront d’interroger les rôles respectifs de l’homme et de la machine dans l’exercice de l’intelligence.

Les espoirs que suscite le développement accéléré de ces outils sont à la mesure des préoccupations majeures de notre époque et des gains mirifiques  que leur commercialisation pourrait procurer.

Bruno Bachimont (N82), professeur à l’université de technologie de Compiègne, est docteur en informatique et docteur en épistémologie. Spécialisé dans les domaines de la logique, de l’informatique documentaire et la philosophie du numérique, il situe dans son article les rapports entre la connaissance et les différents processus d’IA pour mettre au clair la part humaine irréductible dans l’appréhension et la transformation du réel.
Cela nous aidera à poser quelques questions structurantes sur les développements de l’IA, ses apports probables et les conditions à remplir pour éviter ses impacts négatifs.

QU’ESPÉRER DU DÉVELOPPEMENT DES OUTILS D’IA ?
Les espoirs que suscite le développement accéléré de ces outils sont à la mesure des préoccupations majeures de notre époque et des gains mirifiques que leur commercialisation pourrait procurer. La multiplication d’applications spectaculaires dans des domaines variés (médical, militaire, industriel, transports, sécurité, enseignement et bien d’autres) fait rêver de progrès, de métamorphoses, de créations inédites et, qui sait, d’émergence de solutions de rupture contre les menaces climatiques, de pollution ou de raréfaction des ressources.
Loïck Briot (N13), responsable Opérations & Stratégie Tech/ EdTech (IA, Robot, 5G, matériaux…) au TechLab de Mines Nancy, fait le point sur les apports des outils d’IA au travail des ingénieurs et sur la problématique de l’interprétation des données dans les outils à apprentissage automatique : il démontre l’importance de la supervision humaine. Comme pour toute avancée dans l’automatisation des tâches on peut aspirer à un enrichissement et un allègement du travail humain, mais l’expérience nous montre que le chemin est semé d’embûches.
Diego Ferri (X10), directeur de la stratégie et de la communication chez EY Fabernovel, détaille les impacts considérables des IA génératives sur le travail en entreprise et les progrès qu’elles peuvent favoriser ; il définit les stratégies nécessaires à leur intégration efficace et à la gestion de l’emploi afin de profiter au mieux de leurs apports. Même s’il a un prix non négligeable en ressources matérielles et énergétiques, l’avantage quantitatif de la machine sur l’opérateur humain — en masse de données et en vitesse de traitement — nous fait miroiter de nouveaux horizons : multiplication des connaissances accessibles, amplification de nos processus de pensée en accélérant et en enrichissant la manipulation des représentations matérielles (images, graphiques, textes, maquettes) qui nous aident à conduire notre réflexion. Les aides informatiques existantes nous ont déjà fait franchir un pas dans ce sens. Il s’agit de stimuler notre intelligence plus que de la simuler. Notre imagination peut alors espérer des instruments qui la feraient décoller.

QUE CRAINDRE DU DÉVELOPPEMENT DES OUTILS D’IA ?
Si la peur d’une prise de pouvoir sur l’humanité par des “tas de ferraille s’affranchissant de leur servitude” relève du fantasme, un des risques qui émergent concerne l’influence de l’IA sur les modes de pensée des utilisateurs : influence des algorithmes qui balisent des processus mentaux dont la variété a de bonnes chances de s’appauvrir par sélection naturelle des plus performants, nous poussant au conformisme ; influence du choix des corpus de données d’entraînement des algorithmes, qui peuvent orienter nos représentations du monde et les uniformiser. On peut certes pondérer ces préoccupations en faisant confiance aux utilisateurs que nous sommes pour sortir des cadres dans lesquels ces systèmes pourraient nous enfermer.

Dominique Greiner est religieux assomptionniste, membre du directoire de Bayard Presse après avoir été rédacteur en chef religieux de La Croix pendant 14 ans. Économiste et théologien, il dégage les interrogations que soulève la généralisation de l’usage des outils d’IA générative en termes de représentations du monde et de spécificités de l’être humain. Reste que nous, êtres humains, ne formons pas une entité homogène dans nos rapports avec les outils d’IA qui vont advenir. Certains en maîtriseront rapidement l’usage et pourront en tirer profit pour améliorer leur production intellectuelle et leur confort matériel, d’autres devront investir du temps et de l’énergie pour y accéder, d’autres, enfin, seront probablement laissés pour compte. Les problèmes sociaux, politiques et éthiques qui en découlent se posent à l’échelle mondiale et ce d’autant plus que la répartition des pouvoirs sur le développement et le fonctionnement des systèmes d’IA est déterminante dans le traitement de ces questions, tout comme la maîtrise des ressources matérielles nécessaires à la construction et à l’exploitation des outils, dont la consommation risque de s’emballer.

Laurence Devillers, professeure à l’université Paris-Sorbonne, qui anime l’équipe de recherche Dimensions affectives et sociales dans les interactions parlées, a participé à plusieurs projets français et européens portant sur les interactions humain-robot. Elle analyse pour nous les usages des outils d’IA générative pour en pointer les écueils et établir les conditions de bonnes pratiques.

COMMENT PRÉVENIR LES RISQUES ?
On peut se blesser avec tout outil et la blessure est d’autant plus grave que l’outil est puissant. La sécurité comme la qualité du résultat dépendent de l’habileté de l’utilisateur, de la solidité de sa formation donc de la connaissance qu’il a des qualités et des défauts de l’outil ainsi que de ses dangers. D’autant qu’un outil surpuissant devient facilement une arme par destination. Le degré de conscience et de connaissance des utilisateurs comme celui des créateurs d’applications est donc une clé décisive pour en contrôler les pièges. Tout autant que la clairvoyance des législateurs et des autorités de régulation. Pour éviter de trop grandes disparités, sources de tensions et de blocages, la formation à l’usage critique des outils d’IA devra être généralisée à tous les niveaux alors même que des applications ludiques en libre accès sont déjà proposées à tout un chacun pour créer une appétence et familiariser avec la logique des outils génératifs.

Philippe Kalousdian (P92), fondateur en 2008 du cabinet ISLEAN, avec la collaboration de Mathilde Régnier-Dulout (Centrale Nantes) et d’Amr Arbani (Supélec+EPFL), tous deux membres d’ISLEAN, examinent la capacité des humains à évaluer et à s’approprier les outils d’IA pour en tirer avantage.
 La diversité, la rapidité d’évolution et la complexité des outils ne facilitent pas les choses, mais on peut constater avec intérêt que de jeunes ingénieurs et chercheurs sont de plus en plus soucieux du choix des sources de données ainsi que des processus de contrôle et de validation des effets de systèmes à apprentissage. De même, certains pôles de R&D mènent une réflexion sur l’économie de la construction des outils d’IA (puissance de calcul, de stockage et de transmission des données, nombre de paramètres des applications génératives) pour limiter la consommation des ressources.

Si la peur d’une prise de pouvoir sur l’humanité par des “tas de ferraille s’affranchissant de leur servitude” relève du fantasme, un des risques qui émergent concerne l’influence de l’IA sur les modes  de pensée des utilisateurs.

Dans L’angle des jeunes promotions, Jules Désir (P22), vice-président de la Junior entreprise des Mines de Paris et Philippe Jestin (E20), data scientist chez Dassault Systèmes, constatent l’implication croissante des élèves ingénieurs dans l’étude des systèmes d’IA et dans une recherche critique sur la science des données. Ils nous proposent une réflexion pertinente et assez complète sur les perspectives et les enjeux des développements de l’IA en entreprise ainsi que sur la prise en compte de leurs répercussions environnementales. En parallèle, presque tous les auteurs de ce dossier considèrent comme essentiel que les instances européennes finalisent la construction d’un arsenal législatif pour encadrer le développement et l’utilisation des outils informatiques et plus spécialement ceux d’IA. Il est donc urgent que la loi “AI Act”, qui doit être votée par le Parlement européen ce mois de mars, trouve ses décrets d’application dans chaque pays de l’Union.  Tout comme l’implication de chacun d’entre nous pour prévoir et contenir les dérives, les moyens de mise en œuvre de ces règles seront cruciaux.

Il n’y a pas de temps à perdre. ▲ 




DOSSIER PRÉSENTÉ PAR JEAN-PAUL LAVERGNE (N66),
Après des recherches au Centre de Morphologie Mathématique d’ARMINES sous la direction de Georges Matheron et Jean Serra, puis l’organisation du Festival mondial du Théâtre à Nancy, Jean-Paul a poursuivi ses activités en construisant pour de grandes entreprises (Total, CEA, IBM, ICI, Grace, Renault, Alstom, Framatome, Crédit lyonnais, BFCE…) des systèmes de partage de connaissances et de formation dans plusieurs fonctions (production, maintenance, communication, informatisation, management de projet, pilotage stratégique) en intégrant leurs dimensions technique, humaine, économique et juridique. Il tient depuis quinze ans la rubrique Regard Décalé de la revue.












J'aime
126 vues Visites
Partager sur

Commentaires0

Vous n'avez pas les droits pour lire ou ajouter un commentaire.

Articles suggérés

Revue des Ingénieurs (abonnés)

L’IA GÉNÉRATIVE : UNE PETITE RÉVOLUTION DANS LA CRÉATION ET L’ANNOTATION DES JEUX DE DONNÉES D’IMAGES

JL

Jkani Lemissa

26 avril

Revue des Ingénieurs (abonnés)

L’IA ET LES MÉTIERS : PAR OÙ COMMENCER POUR LES ENTREPRISES ?

JL

Jkani Lemissa

26 avril

Revue des Ingénieurs (abonnés)

COMMENT NOUS INTERROGE L’INTELLIGENCE ARTIFICIELLE ?

JL

Jkani Lemissa

26 avril