IA ET SOCIÉTÉ : APPRENDRE À MANIPULER UN NOUVEL OUTIL
L’IA peut-elle nous aider ou est-elle porteuse de risque ? Quelle société souhaitonsnous construire en France et en Europe ? Une société d’humains augmentés comme aux États-Unis, une société de surveillance et de notes morales comme en Chine ? C’est en apprenant comment l’IA fonctionne, quand et comment l’utiliser, que nous pourrons en tirer profit.
Par LAURENCE DEVILLERS, Professeure en IA à Sorbonne Université, présidente de la fondation Blaise Pascal – devil@lisn.fr
Depuis l’arrivée de ChatGPT en décembre 2022, nous avons pris conscience du pouvoir de l’IA, c’est-à-dire des algorithmes apprenant à partir de nos données et capables de produire des textes, images proches de nos productions.
Nous sommes nourris par les informations des réseaux sociaux, par les influenceurs, par l’obésité informationnelle sur fond de harcèlement, de propos haineux et de fake news… pas étonnant de douter de tout ! Le pessimisme aboutit probablement à plus d’indifférence, c’est pourtant le moment de construire une société utilisant l’IA en apprenant à manipuler ces outils pour des objectifs positifs tout en ayant conscience des risques. Les scientifiques en IA et les journalistes doivent être des vigies pour démêler le vrai du faux dans ce bourbier informationnel. Les entreprises doivent comprendre la puissance et le gain de temps de ces outils en connaissant les risques, par exemple lorsqu’on demande à un ChatGPT de produire une synthèse de documents de l’entreprise alors que les données restent en interne. L’éducation est également un sujet de préoccupation : il ne faudrait pas que nos enfants perdent en qualité d’analyse, de synthèse et de rédaction en utilisant trop l’IA comme une prothèse, mais il est en même temps nécessaire de leur apprendre l’impact positif de ces outils en science et en recherche.
L’IA FONDÉE SUR DES REPRÉSENTATIONS PAR RÉSEAUX DE NEURONES
L’IA est un ensemble de théories, d’algorithmes et de programmes, qui ont pour objectif de simuler des capacités cognitives de l’être humain, capacités de perception, d’aide à la décision et de génération grâce à l’apprentissage de la machine. Il existe de nombreux types de modèles utilisés en apprentissage machine comme les arbres de décision, la classification bayésienne, les réseaux de neurones, etc. Il existe également plusieurs types d’apprentissages : l’apprentissage dit supervisé (par des annotations données par les humains), non-supervisé (ou auto-supervisé, c’est-à-dire sans annotations) ou dit par renforcement (par un mécanisme d’essai-erreur suivant des métriques de récompenses codées dans le programme).
L’apprentissage machine actuel le plus performant est fondé sur des représentations des connaissances par réseaux de neurones, cherchant à imiter de façon très simplifiée notre fonctionnement cérébral. Warren McCulloch et Walter Pitts proposent le premier neurone artificiel en 1943, c’est un modèle très simplifié du neurone biologique. L’apprentissage machine repose sur l’idée de plasticité cérébrale décrite par la “règle de Hebb” en 1947, c’est-à-dire la capacité des neurones à modifier de façon durable l’efficacité de leur connexion synaptique représentée par des poids (des réels) dans les réseaux artificiels. Le premier réseau capable d’apprendre des fonctions complexes est le perceptron multicouche avec l’algorithme de rétropropagation du gradient d’erreur, il date de 1987. Les dernières avancées qui ont bouleversé les performances obtenues en apprentissage machine sont dues principalement à l’augmentation des capacités de calcul, l’accès à de gigantesques ensembles de données et des algorithmes de plus en plus sophistiqués comme les algorithmes d’apprentissage profond ou deep learning (2010) et les transformers (Vaswani et al., 2017).
IA PRÉDICTIVE : UN APPRENTISSAGE LABORIEUX
Deux types majeurs d’algorithmes d’IA existent : les systèmes d’IA prédictive et d’IA générative. L’utilisation du deep learning ou apprentissage profond pour la reconnaissance faciale est un exemple de système d’IA prédictive. En effet, ce type d’IA est formé sur des données existantes annotées (par exemple des visages et le nom des personnes), et utilise son modèle pour classer de nouvelles données. L’algorithme d’apprentissage est alors dit supervisé. Pour entraîner ce type d’IA, l’ingénieur en apprentissage automatique écrit un programme qui implémente un réseau de neurones profonds, c’està-dire avec de nombreuses couches cachées. Les paramètres du modèle, les poids du réseau de neurones, sont initialement définis de manière aléatoire à de très petites valeurs. Pendant la phase d’apprentissage, ces paramètres sont modifiés en fonction des données d’entraînement fournies (cette phase peut être très longue avec un énorme corpus) pour minimiser l’erreur entre les prédictions du modèle et les valeurs cibles, c’est-à-dire les annotations (par exemple le nom des personnes dans notre exemple). L’apprentissage profond permet à une IA d’apprendre à partir de grandes quantités de données, bien au-delà de ce qu’un cerveau humain pourrait traiter pour, par exemple, reconnaître des milliers de visages et les nommer. Ces IA, grâce au traitement des masses gigantesques de données, peuvent également résoudre des problèmes complexes comme la détection précoce de tumeur cancéreuse dans des radios qui seraient autrement impossibles à détecter par l’œil humain. Cet apprentissage laborieux n’a en tous cas rien à voir avec la façon dont un enfant apprend de façon instinctive en se servant également de ses sens comme le toucher.
IA GÉNÉRATIVE : DES TECHNIQUES D’APPRENTISSAGE STATISTIQUES
Les systèmes d’IA générative sont des approches différentes de production du texte, des images, des programmes, etc. Ils répondent à des invites ou requêtes (appelés prompts) en produisant de nouvelles données, par exemple la séquence de mots la plus probable après le prompt, à partir de caractéristiques communes apprises sur un corpus de données de textes de très grande taille. Ces systèmes se servent de modèles de fondation qui permettent de produire un résultat présentant un certain degré de similarité avec les données d’apprentissage qui ont servi à le construire. Un modèle de fondation (Foundation Model), appellation introduite par l’université Stanford, est un modèle de grande taille fondé sur une architecture de réseau de neurones profond, entraîné par apprentissage auto-supervisé, c’està-dire sans supervision humaine, sur une grande quantité de données non annotées. Ces systèmes utilisent l’hypothèse distributionnelle, qui stipule pour un modèle de fondation sur des textes que le sens d’un mot peut être déduit de son contexte, c’est-à-dire des mots voisins. Les entités du modèle de fondation (appelés tokens) peuvent être des suites de caractères qui ne sont pas forcément des mots de la langue, mais seulement des parties de mots. Le modèle génératif apprend à prédire l’entité suivante dans une phrase, puis l’entité suivante et ainsi de suite, un peu comme la fonction de complétion automatique sur un clavier.
Il est important de noter que les systèmes d’intelligence artificielle, qui sont fondés sur des techniques d’apprentissage machine, génèrent des modèles qui expriment des corrélations statistiques entre les éléments des données (comme des parties de mots ou des parties d’images) utilisées pour leur entraînement. Les représentations internes de ces modèles sont cependant difficiles à interpréter pour les humains. Les systèmes d’IA générative comme le chatbot ChatGPT utilisent une combinaison des trois techniques d’apprentissage statistique à différentes étapes. Tout d’abord, l’apprentissage auto-supervisé est utilisé pour produire les modèles de fondation sans annotation a priori. Ensuite, l’apprentissage supervisé est utilisé pour affiner ces modèles en les entraînant sur des données spécifiques et en filtrant certains résultats. Enfin, l’apprentissage par renforcement est utilisé pour optimiser les performances du système en sélectionnant les meilleurs résultats. Dans la méthode RLHF (Reinforcement Learning with Human Feedback), l’apprentissage par renforcement est utilisé pour aligner les résultats avec les préférences exprimées par les annotateurs humains lors de la phase supervisée. L’objectif est de faire en sorte que ces réponses soient en accord avec les valeurs humaines, même si les systèmes ne comprennent pas la signification de ces valeurs. Les IA génératives ne distinguent pas dans ce qu’elles produisent ce qui est possible de ce qui est impossible ni ce qui est vrai de ce qui est faux. Elles peuvent produire des sorties combinant des assertions vraies et des assertions fausses, des résultats inattendus, parfois qualifiés d’hallucinations, ou conduire à des émergences de comportements qui paraissent intelligents. La vérification de ce qui est vrai ou faux n’est pas toujours facile d’autant plus que le modèle de fondation, par construction, ne produit aucune référence aux sources. Des méthodes pour attribuer des sources aux textes générés sont par exemple soit un module spécial inclus dans le modèle (comme dans Bing de Microsoft), soit un moteur de recherche en plus (comme le modèle Alfred de LightOn). Les résultats produits par les systèmes d’IA générative sont souvent indiscernables de ceux produits par un humain.
L’IA ET L’INFORMATION
L’IA, nourrie d’énormes ensembles de données, est tout sauf neutre. Le résultat dépend des données d’apprentissage, de l’algorithme d’apprentissage et des hyper-paramètres qui servent à l’optimisation de l’apprentissage du modèle. Les IA génératives sont très puissantes et peuvent être adaptées à différentes applications en peu de temps. Elles sont multitâches, multimodales et multilingues, et peuvent générer des images, de la musique, des paroles, des programmes ou des synthèses de textes. La formation de ces modèles consomme beaucoup de ressources et peut prendre plusieurs semaines sur d’énormes centres de calcul. C’est un domaine de recherche très actif pour rendre ces processus plus efficaces et moins énergivores ou encore pour rendre ces modèles plus explicables. Pour l’instant, les phases d’apprentissage sont peu transparentes et les modèles dits “boîte noire”, c’est-à-dire qu’il est difficile de prédire avec certitude le résultat que l’on peut obtenir et d’en déterminer les causes. Prendre du temps pour enquêter est donc devenu vital devant la manipulation de l’information par les IA génératives, mais aussi par les réseaux sociaux et par les influenceurs qui peuvent également être eux-mêmes des IA. Les journalistes doivent revendiquer le libre accès à toutes les sources d’information et le droit d’enquêter librement sur tous les faits qui conditionnent la vie publique, ils doivent défendre la liberté de l’information, du commentaire et de la critique et publier seulement les informations dont l’origine est connue ou les accompagner. ChatGPT peut être très utile pour des tâches de reformulations ou de corrections d’orthographe et libérer du temps pour ce journalisme d’investigation, mais il est fondamental de vérifier ce qu’il produit.
IA. Les journalistes doivent revendiquer le libre accès à toutes les sources d’information et le droit d’enquêter librement sur tous les faits qui conditionnent la vie publique, ils doivent défendre la liberté de l’information, du commentaire et de la critique et publier seulement les informations dont l’origine est connue ou les accompagner. ChatGPT peut être très utile pour des tâches de reformulations ou de corrections d’orthographe et libérer du temps pour ce journalisme d’investigation, mais il est fondamental de vérifier ce qu’il produit.
L’IA ET LE TRAVAIL
Dans tous métiers, nous devons être vigilants devant les informations obtenues grâce à des IA génératives, que ce soit la première fois que nous les utilisons ou la nième fois. D’après une étude de Harvard (Harvard Business School), GPT-4 améliore la qualité du travail, mais si l’IA est utilisée de manière peu habile elle peut également dégrader les performances. L’étude est relatée dans l’article intitulé Navigating the Jagged Technological Frontier, rédigé par des chercheurs de Harvard, du MIT, de Wharton, du BCG et de la Warwick Business School.
758 consultants de BCG divisés en 2 groupes, ceux qui utilisent ou non GPT-4, ont été évalués sur 18 tâches (trouver des idées de produits, un nom, etc.). Le premier résultat est globalement que l’humain augmenté de l’IA s’avère meilleur que l’humain seul. Il est possible d’être nettement plus productifs et de produire des résultats de bien meilleure qualité en utilisant GPT-4. Deux autres résultats sont particulièrement intéressants dans cette étude : les consultants les moins performants ont bénéficié de l’augmentation la plus importante, mais sans grande diversité de réponses. Ces résultats concernent des tâches qui sont facilement réalisables par l’IA. Pour des tâches plus complexes pour une IA, par exemple l’analyse de performances des canaux de distribution d’une entreprise au moyen d’entretiens et de données financières pour proposer une bonne stratégie, l’IA est beaucoup moins performante. Il est important que les professionnels qui utilisent l’IA générative sachent comment gérer habilement cette technologie pour qu’elle soit réellement utile, car la mettre en œuvre pour des tâches qu’elle n’est pas en mesure d’accomplir peut nuire aux performances. Cette frontière n’est pas facile à trouver. De plus, l’utilisation régulière de l’IA peut endormir l’esprit critique en lui faisant trop confiance. Les tâches analysées dans cette étude couvrent le travail quotidien d’un consultant, y compris l’analyse, la synthèse, la rédaction, la créativité et la capacité de persuasion. Ces tâches ont des conséquences importantes pour l’entreprise. Les meilleures façons d’utiliser l’IA ne sont pas encore entièrement comprises et doivent faire l’objet d’examens approfondis pour toutes les applications. L’IA peut apporter également de réels potentiels d’optimisation voire de créativité dans l’entreprise, à condition de bien connaître ses forces et faiblesses.
CONCLUSION
Il apparaît donc essentiel de mieux connaître la frontière entre ce que les IA peuvent faire ou ne pas faire. Pour reformuler un mail, faire un compte-rendu de réunion, traduire un article, faire une synthèse à partir de documents volumineux, l’IA peut réellement nous aider à condition de relire sa production pour éviter les inepties et erreurs qu’elle peut insérer. Suivant la teneur du travail et le niveau de risques, il faut être très vigilants. De plus si l’IA générative et ChatGPT sont capables de trouver des idées jugées utiles, la diversité de ces idées n’est pas toujours très large. Il est surtout important de comprendre que l’éducation des enfants doit être menée sans ces prothèses : un autre des risques immédiats est celui de perdre certaines compétences à long terme, comme celle de rédaction et de synthèse.
Cependant l’IA est aussi un réel potentiel pour changer la science, la médecine, l’écologie, etc. L’IA promet de bouleverser l’économie de la connaissance et d’accélérer les processus de recherche et d’innovation. Le lien entre vitesse d’innovation technologique, temps pour la réflexion sociétale et intérêts économiques est au cœur du problème éthique. Il est donc essentiel de bien connaître les atouts et les risques des IA pour en tirer profit. Il est aussi nécessaire, comme avec la bioéthique, de se doter de garde-fous et d’exiger des concepteurs de ces technologies plus de transparence et d’évaluation. 3 piliers pour nous aider en cela :
- La loi sur l’IA : les États membres de l’Union européenne ont trouvé un compromis sur une législation pour réguler l’intelligence artificielle1.
- Les standards : les groupes CEN-CENELEC travaillent à promouvoir l’harmonisation internationale des normes dans le cadre d’accords de coopération technique conclus avec l’ISO. Un des standards importants porte sur les caractéristiques de la confiance en l’IA.
- L’éducation aux concepts de l’IA et aux enjeux d’éthique la fondation Blaise Pascal, dont je suis la présidente, propose par exemple des capsules éthique et numérique pour les enfants en primaire2.
LAURENCE DEVILLERS Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS, Laurence Devillers anime l’équipe de recherche Dimensions affectives et sociales dans les interactions parlées. Ses domaines de recherche portent principalement sur l’interaction homme-machine, la détection des émotions, le dialogue oral et la robotique affective et interactive. Elle a participé à plusieurs projets nationaux (ANR Tecsan Armen, FUI Romeo, BPI Romeo2) et européens (Rex Humaine, Chist-era Joker) portant sur les interactions affectives et sociales humain-robot. Elle anime également le pôle sur la co-évolution humain-machine dans le cadre de l’Institut de la société numérique. Elle a participé à la rédaction du rapport sur l’éthique du chercheur en robotique pour la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (Cerna) de l’alliance Allistene. Elle est présidente de la fondation Blaise Pascal de médiation culturelle en mathématiques et informatique. |
Commentaires0
Vous n'avez pas les droits pour lire ou ajouter un commentaire.
Articles suggérés