J’ai déjà parlé d’intelligence artificielle en juin 2023 dans mon article 4 « L’abus d’IA est dangereux pour la sante : à consommer avec modération ». En effet les performances technologiques sont spectaculaires et les applications et usages de l’IA se multiplient, se diffusent et s’infiltrent dans nos vies, avec autant de vraies utilités que de risques sérieux. Il est ainsi bon de continuer à en parler et à rechercher, face à une médiatisation frénétique, la vérité sur les complexités et les exigences de l’IA.
Dans cette optique, je vous propose 7 « clefs de compréhension ».
1) Pour commencer, relevons que la médiatisation de l’IA cultive de multiples biais.
Le premier est d’ordre linguistique. L’acronyme français IA pour Intelligence Artificielle est compris comme une alternative et une amélioration des performances du cerveau humain. Or le mot anglais « intelligence » présent dans l’acronyme « AI » pour « Artificial Intelligence » est beaucoup plus fonctionnel et désigne simplement les activités humaines de compréhension des situations, de recherche d’information et de coopération avec des tiers. L’illustration courante de ce terme se trouve dans « intelligence service » ou service de renseignement. Il vaudrait mieux parler, par exemple, de traitement algorithmique performant pour coller à la réalité du processus.
L’IA est présentée depuis un an comme une rupture récente du numérique. Aussi fascinante et prometteuse qu’elle soit, l’IA n’est qu’une accélération de l’usage d’outils électroniques pour automatiser et perfectionner des activités humaines, Depuis le pionnier Alan Turing, ce n’est que du progrès en matière de mathématiques et de statistiques, de traitement informatique et de communication électronique, progrès en marche depuis les années 1950.
Le battage médiatique actuel a démarré avec l’ouverture au grand public d’outils spectaculaires d’IA générative. Il a ensuite été alimenté par les rebondissements dans la saga de la concurrence entre chercheurs et acteurs économiques pour accéder aux ressources financières et aux moyens de calcul consommés par l’IA. Cette surmédiatisation s’est ensuite nourrit de fabuleuses promesses de gain de productivité et de prédictions sur le remplacement de l’homme par la machine. Or il reste beaucoup d’énergie authentiquement cérébrale à dépenser avant que l’IA ne remplace l’homme. Pour Yann Le Cun, l’un des inventeurs français de l’apprentissage profond, « l’IA ne devrait pas nous menacer mais nous renforcer. C’est le début d’une renaissance et d’une nouvelle ère des lumières ».
2) L’IA permet de générer, grâce à des algorithmes et des bases de données préenregistrées, du texte et des images qui sont de véritables produits de synthèse, comme on en connait en chimie. Un enjeu essentiel de l’IA est ainsi de qualifier de tels produits en faisant la transparence sur les 3 domaines amont qui contribuent à leur fabrication : les données, les algorithmes et les requêtes. La régulation de l’IA est à rapprocher de celle engagée en alimentation, avec ses luttes contre les OGM, avec ses obligations de transparence sur les ingrédients utilisés, avec ses appellations contrôlées ou avec ses mentions de Nutri-score.
Par sécurité envers les informations numériquement modifiées (INM), on devra prévoir un label pour distinguer les productions d’une IA des textes et images naturelles directement issues du travail du cerveau humain. Cette recherche de transparence est au cœur de la lutte contre les fausses informations et de la préservation de la démocratie.
3) Les productions de l’IA reposent sur l’exploitation, notamment statistique, de stocks de données préenregistrées. La force du raisonnement statistique est de permettre d’avancer en milieu incertain à partir de connaissances partielles : les données collectées sur les échantillons. Mais les outils statistiques ne savent pour autant éliminer tous les risques.
Ainsi la valeur des résultats de l’IA est tributaire de l’adéquation des bases de données exploitées avec la requête émise. Par exemple, l’usage de données collectées auprès de populations nord-américaines conduit à des réponses sans valeur pour des questions concernant des européens. La validation par l’homme de la pertinence des données utilisées est ainsi une des clefs de la valeur de l’IA.
Les productions de l’IA, qui extrapolent des données passées, sont conservatoires. D’une certaine manière l’IA valorise la notion de jurisprudence. Ses performances sont bien plus médiocres dès lors qu’il s’agit de faire des prédictions.
4) Il est important de distinguer les contextes de mise en œuvre de l’IA, selon qu’ils sont fermés (notamment professionnels) ou ouverts (notamment destinés au grand public).
Dans les applications fermées, par exemple pour l’automatisation de processus industriels, l’aide au diagnostic médical ou la conduite de véhicules techniques, l’utilisateur s’appuie moins sur de l’IA que sur des systèmes experts. Les risques sont mieux cernés, les complexités sont mieux identifiées et les outils statistiques de réduction des incertitudes sont plus performants. Il s’agit d’IA d’assistance et d’aide à la décision. L’humain, s’il est bien formé, est alors en situation de compréhension et de contrôle des outils qu’il utilise.
Il n’en est pas de même pour les usages de l’IA en milieux ouverts, notamment pour les applications impliquant le grand public. L’amont y est généralement opaque et les risques et les complexités de compréhension y sont grands. Malgré des performances spectaculaires, la voiture individuelle autonome n’a pas tenu ses promesses annoncées il y a 10 ans et elle n’est plus d’actualité.
Tous les entrants de l’IA ont besoin d’être contrôlés par l’homme. C’est une faute d’être passif, de laisser l’IA faire seule et de croire qu’elle est plus puissante qu’elle n’est. Un grand danger de l’IA est la paresse.
5) L’IA fragilise la société et nourrit les conflits géostratégiques et les volontés impérialistes. La Russie l’utilise explicitement comme arme de déstabilisation de l’Occident. La Chine l’emploie comme vecteur de pénétration et d’asservissement de ses contrées-cibles. L’IA, notamment par les enjeux de cybersécurité, continue à entremêler les mondes civils et ceux de la défense, comme cela s’est progressivement accru avec le développement des composants et des infrastructures de communications électroniques.
L’IA est devenu un enjeu de souveraineté et de sécurité. La déclinaison politique demande à être abordée sur de multiples plans : la recherche, les compétences humaines, la création et la protection des données, la capacité de calculs, l’offre industrielle, la maîtrise des risques. La Commission Européenne s’y essaye avec une première loi de régulation focalisée sur les risques pour les usagers, l’IA Act. Elle a été approuvée par le Parlement Européen le 13 mars dernier et voudrait œuvrer à une « IA digne de confiance en Europe et au-delà ». Elle crée des obligations dégressives (interdiction, certification, transparence, liberté) au regard de 4 niveaux de risque (inacceptable, élevé, limité, minime). Un Office européen de l’IA, est créé en février 2024.
6) L’IA va transformer la nature des emplois en automatisant des tâches et va très probablement nous pousser à accepter une modification du paradigme de l’organisation du travail et peut-être même de l’organisation sociétale de notre démocratie. Mais pour le moment c’est sans vraiment nous pousser à travailler à des valeurs et solutions globales : une autre paresse encouragée par l’IA ?
7) La maîtrise des mécanismes de l’IA et son utilité relèvent de processus très différents de ceux qui président au développement de l’intelligence humaine. S’il doit y avoir des passerelles entre ces intelligences, il ne peut être admis de substitution et c’est la tache vertigineuse de ceux qui auront la responsabilité de la formation des prochaines générations.
Pour conclure, je vous souhaite de cultiver votre imagination, votre vision globale et votre esprit critique, c’est-à-dire travailler sur votre intelligence humaine face à l’onde de choc qu’est l’intelligence artificielle.