Depuis la fin de novembre 2022, l’IA, Intelligence Artificielle, est omniprésente dans les médias. A l’origine du présent emballement médiatique, le lancement par la start-up californienne OpenAI (AI pour « Artificial Intelligence ») d’une version gratuite d’un puissant robot conversationnel, ChatGPT. Son fondateur, Sam ALTMAN s’est depuis lancé dans une campagne inédite d’autopromotion mondiale, y compris auprès de l’Élysée en mai dernier.
ChatGPT (Generative Pre-trained Transformer) est, en quelques mots, une application informatique « conversationnelle » qui génère à la demande des textes originaux. Ils sont produits à partir de contenus existants, notamment accessibles en ligne via internet. ChatGPT fait des dissertations écrites en réponse aux questions qui lui sont posées, complète des phrases ou synthétise des textes. Il sait créer des adaptations en modifiant le ton, le style ou la langue. Cette application repose sur des logiciels à base de processus d’apprentissage et d’analyse statistique de contenus existants.
L’application ChatGPT de novembre 2022 utilise le logiciel GPT-3.5. En 2019, la version de GPT ne permettait que l’écriture d’articles de presse et d’œuvres de fiction. Actuellement, la version GPT-4 produit non seulement du texte en de nombreuses langues, mais aussi des images et des lignes de code informatique, et cela dans de multiples langages.
Pourquoi aujourd’hui une telle effervescence médiatique autour de ChatGPT?
Les performances acquises par cet outil d’IA générative sont spectaculaires : grande rapidité d’exécution et caractère artificiel indécelable des productions. Ces qualités ouvrent la voie à la création d’innombrables contenus, du poème à la conférence, et à l’allègement de nombreuses tâches intellectuelles chronophages.
Créé fin 2015 comme une association de recherche à but non lucratif, OpenAI affiche l’intention de développer un outil de « raisonnement artificiel à allure humaine » susceptible « d’avoir des effets transformateurs » des activités humaines. En même temps, OpenAI, structure de production technique, revendique une utopie sociétale : « que l’IA soit bénéfique à toute l’humanité et qu’elle soit distribuée aussi largement et équitablement que possible ». Pour pimenter son originalité et son ambition messianique, OpenAI joue sur la culture de la peur, en annonçant les risques « d’une explosion d’IA qui conduirait à « une extinction de l’humanité ».
OpenAI n’est pas à l’abri du symptôme de l’apprenti sorcier avec une utopie organisationnelle qui voudrait que l’IA s’auto-améliore, s’auto-sécurise et s’auto-contrôle, avec des dirigeants qui seraient vertueux puisque ne développent qu’une IA « sûre et bénéfique pour l’humanité » et avec une croyance de large partage des savoirs grâce aux vertus de « l’open source » (ou logiciels libres).
OpenAI, qui est aujourd’hui une entreprise valorisée autour de 30 milliards d’US$, reste-t-elle cohérente avec ces principes autogestionnaires et maîtrise-t-elle encore son utopie ? Trois raisons à de telles questions.
1) La première raison est que l’IA n’est pas un domaine nouveau. Son histoire est directement liée à l’éclosion des ordinateurs au milieu des années 1940. Dans les années 1950, la création du terme IA est attribuée au mathématicien Alain TURING. L’IA devient un nouveau domaine scientifique au sein des sciences cognitives et à côté des neurosciences, afin notamment de créer « de l’intelligence informatique imitant le cerveau humain ».
Les premiers usages de l’IA sont longtemps réservés aux seules activités de défense. Ses usages civils ne démarrent que dans les années 1980, pour la collecte et le stockage de données. La consécration de l’IA date de 1997 avec la victoire de la machine d’IBM qui bat le champion du monde d’échecs, Garry Kasparov. Ensuite apparaissent les systèmes experts qui simulent des savoirs spécifiques à un domaine et les restituent par un moteur d’inférence assimilable à un raisonnement. Enfin à partir des années 2010, apparaissent les procédés de deep learning. Notre quotidien repose déjà aujourd’hui sur des méthodes et des briques technologiques communes à l’IA, nourries de concepts statistiques et de modèles probabilistes reposant sur d’abondantes données.
2) La seconde raison est que les performances technologiques actuelles de l’IA attisent les appétits et les concurrences de puissants acteurs privés du numérique, notamment nord-américains, voire de nouvelles start-up de la « tech ». Quelques exemples chez les majors :
- – Elon Musk, l’homme proclamé le plus riche du monde, est co-président d’OpenAI lors de sa création fin 2015. Mais Elon Musk vise rapidement d’autres ambitions pour l’IA et créé en 2016 une autre start-up, Neuralink, pour imposer les implants cérébraux sans fil et « fusionner les intelligences humaines et artificielles ». Elon Musk quitte OpenAI en 2018.
- – Microsoft capte OpenIA en 2019 en créant un partenariat privilégié et en y investissant massivement. L’objectif de Microsoft est d’intégrer les solutions d’OpenAI dans son offre de suites de logiciels pour entreprises.
- – Google voit dans l’outil ChatGPT des ferments de concurrence dans la valorisation de ses propres stocks de données. Meta (Facebook), après une baisse de forme et un succès mitigé avec son Metaverse (pourtant à l’origine de son changement de nom), mise sur sa propre IA et vise avec agressivité à rendre ChatGPT obsolète.
Une demande de moratoire de 6 mois dans la recherche sur les IA vient d’être signée par des centaines d’experts mondiaux. Mais est-elle crédible ? Pour Bill GATES « suspendre le développement de l’IA n’est pas la solution pour remédier aux problèmes soulevés par ces technologies autonomes de plus en plus poussées ». Ce moratoire n’est-il pas plutôt une manœuvre d’acteurs en place pour empêcher l’arrivée de nouveaux entrants ? L’IA est à réguler mais ne s’arrêtera pas.
3) Enfin, la troisième raison est opérationnelle. L’outil d’IA générative n’a de valeur d’usage que s’il est mis en œuvre en accédant à d’importants stocks de contenus préexistants, que s’il dispose de puissantes capacités de traitement et que s’il peut, corrélativement, consommer de substantielles ressources d’électricité.
Ces exigences opérationnelles ne sont-elles pas la raison principale de la subordination d’OpenAI à Microsoft qui lui fournit l’accès à ses infrastructures de calcul et de données (notamment par son « cloud ») ?
La triple ambition affichée par OpenIA de progrès technique vertueux, de partage par l’open source et d’autocontrôle des risques est subordonnée à d’autres finalités et forces externes et son utopie est illusoire. Son opposition à tout dispositif de régulation centrée sur les usages, comme celle que développe activement l’Europe, montre une méconnaissance des mécanismes politiques et une volonté crispée d’imposer une conception unilatérale de l’avenir de la société.
Au-delà du sort d’OpenAI, l’actuel coup de projecteur sur de l’IA générative à l’immense mérite de montrer trois vulnérabilités pour l’avenir du travail humain, de la société et de la démocratie.
La première vulnérabilité est le franchissement d’une nouvelle étape dans l’écartèlement entre les contenus numériques et le réel. Au-delà de textes artificiels, les outils d’IA générative permettent aussi de produire des images artificielles. C’est le cas avec des applications comme Midjourney, Craiyon, DALL-E (Open AI) ou Bing Image Creator (Microsoft). L’image est potentiellement bien plus impressionnante que du texte. N’est-ce pas là toute la force du cinéma, de la télévision ou du jeu video ? Avec l’IA générative d’images et photos artificielles, nous avons bien dépassé la question des retouches flatteuses des photos et nous sommes exposés à un énorme potentiel de tromperies et de manipulations.
La seconde est constituée des abus d’usage des robots conversationnels dans les relations commerciales et administratives à des fins de gain de productivité et d’optimisation financière à court terme, comme dans le e-commerce et les centres d’appel. Ces usages de l’IA galvaudent la valeur du travail intellectuel comme celle du dialogue. Ces abus découlent de la mode des raisonnements en silos qui ignorent le large spectre des réalités et des complexités. Les extrapolations sommaires comme les approches comptables à courte vue sont toujours porteuses d’échecs.
La troisième vulnérabilité résulte du calendrier d’arrivée de l’IA générative alors que la régulation des grands acteurs du numérique et des réseaux sociaux est encore embryonnaire.
Sans attendre de savoir si un jour l’IA remplacera l’IH ou Intelligence Humaine, et si l’homme sera augmenté par force composants électroniques implantés dans son propre corps, il est urgent de changer de paradigme dans la régulation de l’IA. Ne parler d’IA qu’au travers de recherche technique, de promotion de start-up de « tech » ou d’automatisation du travail et de gain de productivité, est totalement insuffisant. La mise en marche d’un contrôle global des usages de l’IA est une priorité absolue, y compris pour l’avenir de la démocratie.