Que penser des IA ?
«Il n’y a pas l’IA mais des IA.» Tout comme il faut distinguer IA ouvertes et IA fermées, IA chimériques (mais utiles pour récolter des fonds) et IA existantes, il faut pour ces dernières distinguer les quelques apports positifs et les nombreux et variés dangers qu’elles présentent, et s’interroger sur leur véritable nécessité.
Intervention prononcée lors de la journée du Mouvement du Christianisme social (Commune théologique du Sud parisien) Progrès technique, progrès humain le 11 octobre 2025 à l’Institut protestant de théologie de Paris. Lire l’introduction de Philippe Kabongo Mbaya, les interventions de Bernard Piettre, James Woody, Marie-Noëlle Duchêne et Jean-Luc Duchêne.
Introduction
En 2012, on a voulu faire reconnaître un chat à des ordinateurs. Il a fallu montrer à ces machines 100000 images de chats bien éclairées, 144 heures d’entraînement et consommer autant de kWh que le parcours d’une voiture électrique sur 400 km. Un enfant de 2 ans, à partir de 2 images de chat, y compris dans la pénombre, reconnaît un chat, peut dire «chat» et, pour ce faire, son cerveau mobilise une puissance de 2 fois 10 Watts. Quelle folie prométhéenne que de vouloir en soixante-dix ans égaler ce que la vie a mis plus de deux milliards d’années à construire !
Les IA sont de plus en plus puissantes, nous échappent, nous inquiètent, voire nous font peur. Leur survenue fin 2022 dans le grand public avec ChatGPT par exemple fut un choc existentiel pour beaucoup d’entre nous. La puissance des processeurs des IA (Graphics processing unit ou GPU) est aujourd’hui de 50 millions de milliards opérations par seconde: c’est 50 fois plus qu’en 2020. Cette extraordinaire puissance de traitement des données, et quelques performances bien médiatisées, ont permis d’installer le mythe angoissant du caractère insondable de l’IA.
C’est par exemple l’épisode de la fameuse partie de Go marquée par le 37e coup gagnant «inattendu« de l’algorithme AlphaGo contre le troisième joueur mondial de Go, Monsieur Lee Sedol. Contrairement à l’homme, la machine n’a pas de passé, n’a pas cette retenue culturelle, souvent ancestrale, qui freine l’homme dans ses stratégies. De plus, le plus grand joueur de Go du monde a une vie trop courte pour s’entraîner sur des millions de parties comme l’ont fait deux ordinateurs jouant des jours entiers l’un contre l’autre.
Alors, sachons raison garder: surveillons ceux qui produisent les IA et demandons-leur des comptes. Jacques Ellul nous avait avertis du piège: «Ce n’est pas la technique qui nous asservit, mais le sacré transféré à la technique» (1). Nous affirmons qu’il n’y aurait progrès par les IA que dans la mesure où les conséquences de leur usage resteraient sous la seule responsabilité de l’homme, seul être doté de conscience. Prenons deux exemples: avec la voiture sans chauffeur, qui est responsable en cas d’accident mortel ? Et si un drone est devenu arme autonome, qui a tué l’ennemi ? qui a détruit l’hôpital ou l’école ? À notre modeste niveau, nous allons nous informer au mieux, tâcher de rassurer ou d’alerter à bon escient, dégonfler les baudruches.
Typologie des IA
Il n’y a pas l’IA mais des IA. Sous le vocable IA, on entend un ensemble d’applications informatiques qui incluent beaucoup de choses: les moteurs de recherche, les systèmes de recommandation, l’aide au diagnostic médical, la «compréhension du langage naturel» (NLU), les voitures autonomes, les robots, les chatbots (robots conversationnels) , les outils de génération d’images, les outils de prise de décision automatisée, etc. Refusons que la big tech nous impose ses vues, qu’elle nous impressionne et nous fasse peur, qu’elle capte un maximum de capitaux et qu’elle prenne le pouvoir à notre insu.
Il faut savoir distinguer :
les IA existantes et les IA au conditionnel, voire chimériques;
les IA ouvertes (OpenAi), grand public, par opposition aux IA fermées, réservées à des domaines spécifiques sur un ensemble limité de données.
À propos des outils existants, deux approches s’opposent, celle, probabiliste, des statisticiens et celle des logiciens. Les logiciens, historiquement concepteurs des systèmes experts, travaillent principalement sur un ensemble de données restreintes à un domaine déterminé. On va alors parler d’IA faible ou étroite ou encore IA fermée, systèmes conçus pour accomplir des tâches précises selon des paramètres parfaitement définis utilisant les seules données du domaine – voire de l’entreprise – concernés. On parle aussi d’IA symboliques. Une IA fermée ,par exemple, est celle qui nous permet de déverrouiller notre téléphone par reconnaissance faciale.
De leur côté, les statisticiens entraînent leurs learning machines (ou LLM, Large Learning Machines) sur des entrepôts de données universelles: les IA ouvertes (OpenAI) permettant d’obtenir des IA génératives, dont le fameux ChatGPT. On parle alors d’IA connexionnistes. L’IA générative va inventer une réponse à la question qui lui est soumise (le prompt), par une approche probabiliste à partir de millions de cas analysés, et donc avec une certaine approximation. On parlera alors de pertinence de l’outil, c’est-à-dire du pourcentage de réponses correctes. Elon Musk a déjà averti d’un «data peak» dès 2026, date à laquelle les machines commenceront à s’entraîner aussi sur des données créées par elles-mêmes, par manque de données issues de l’activité humaine. Si l’on considère une pertinence de 98% par exemple, en 10 ans 20% des données des data centers seront incorrectes. On parle alors d’hallucination.
OpenAI vient de fournir les chiffres d’utilisation des IA génératives (2): aujourd’hui, on compte 18 milliards de messages et 800 millions d’utilisateurs par semaine (soit 10% de la population mondiale); 40% des actifs utilisent ChatGPT, dont les deux tiers du temps à titre personnel.
Il s’agit là des IA à disposition du grand public. Si l’on est prévenu de leurs limites, elles peuvent rendre quelques services. Mais il y a aussi les outils au conditionnel, voire totalement utopiques: citons l’IA généralisée (IAG), représentation théorique d’une intelligence artificielle complète qui résoudrait des tâches complexes comme un être humain. Cran au-dessus: la super-intelligence artificielle (ASI) qui dépasserait l’intelligence humaine. Et plus haut encore, l’IA consciente, où les machines posséderaient une conscience, et même une conscience d’elles-mêmes.
Cette mythologie, cette bascule dans «le sacré transféré à la technique» (pour reprendre Jacques Ellul) est orchestrée avec talent par les géants de la big tech, car elle permet de mobiliser beaucoup d’argent. Il se trouve qu’aujourd’hui, cette big tech perd de l’argent: 5 milliards de dollars par an chez Open AI. C’est pourquoi, afin de capter un maximum de capital, ces vieux adolescents «biberonnés aux récits de science-fiction» vendent le futur, l’IA généralisée: une lubie qui coûtera une fortune estimée à 7% du PIB mondial, ne servira pratiquement à rien et réclamera de plus en plus de matière première et d’énergie. C’est le capitalisme porté à l’extrême. On parle de 15000 milliards de dollars investis d’ici 2030, sans oublier le mythe de l’immortalité, déjà vendu 5 milliards de dollars en 2022.
Attention, il y a là un risque très sérieux de bulle financière ! À l’occasion de la Tech week de Turin en septembre 2025, les propos de Jeff Bezos, qui dispose, rappelons-le, d’une fortune de 235 milliards de dollars, sont glaçants: «Tant pis si c’est une bulle, elle sera bénéfique: quand elle explosera, les retombées seront positives». En gros: tant pis pour les perdants, ces investisseurs éblouis par un miroir aux alouettes. On n’ose imaginer que l’investisseur en question soit un fonds de retraite par capitalisation.
Apports positifs
On trouvera en ligne et dans la littérature ad hoc la mention de nombreux apports positifs de certaines techniques d’IA. J’en ai choisi trois:
Dans le domaine médical: interpréter la photo d’un prurit sur la peau sera à la portée d’un médecin non dermatologue; on pourra repérer ce que le médecin ne voit pas sur une radio, détecter les signaux faibles. Mais si l’algorithme aide au diagnostic, le médecin, lui, soigne.
Dans le domaine de la recherche: on obtient un gain de temps et une formidable productivité par la classification introduite dans de très grands ensembles (bactéries, espèces végétales, animales, champignons, etc.) pour lesquels les techniques traditionnelles sont trop lentes. Ensuite, le chercheur peut reprendre la main sur les résultats, avec son intelligence, ses méthodes, son questionnement, ses doutes.
Un autre aspect moins attendu: les IA vont obliger les examinateurs et les pédagogues à juger des facultés de leurs élèves à penser par eux-mêmes, et non pas sur la seule capacité à compiler et restituer des informations, fonction désormais assurée par les perroquets numériques. Réjouissons-nous, car les élites de demain auront réappris à réfléchir !
Dangers de l’IA
Mais les IA, certes progrès techniques, sont souvent opposés au progrès humain, voire sont porteuses de graves dangers.
Dangers géopolitiques
La géopolitique de l’IA, c’est une lutte acharnée entre les deux empires américain et chinois pour dominer le monde, chacun dans son référentiel culturel. D’un côté les firmes GAMMA (Google, Apple, Meta (ex-Facebook), Microsoft, Amazon) et leurs 6000 milliards de dollars de capitalisation boursière ont encore une longueur d’avance sur les BATX chinois (Baidu, Alibaba, Tencent et Xiaomi) qui ne pèsent que 2000 milliards de dollars. À titre de comparaison, rappelons que l’économie de la France génère un PIB d’environ 3000 milliards d’euros par année.
L’Europe, qui est techniquement mais surtout financièrement dépassée – Mistral, ce n’est que 11 milliards d’euros de capitalisation, mais celle-ci, en 3 ans, est déjà supérieure à celle de Renault – cherche à sauvegarder ses valeurs humanistes et démocratiques par la réglementation, avec l’IA Act de juillet 2024. Mais quand la Commission européenne inflige une amende de 500 millions d’euros à Apple pour non-respect du règlement de l’UE sur les marchés numériques, cette somme ne représente que 14 heures de son chiffre d’affaires annuel (il était de 338 milliards d’euros en 2024).
Et n’oublions pas, au chapitre des dangers géopolitiques, les milliers d’armes, aujourd’hui pilotées par des algorithmes, qui déresponsabilisent le soldat de ses actes.
Dangers pour l’homme
Le chômage, bien sûr, menace: 25% des emplois sont potentiellement remplaçables. On estime que 80% de la main-d’œuvre pourrait voir au moins 10% de ses tâches affectées, et 19% en perdraient au moins 50%.
Ces outils sont désormais mis à la disposition du grand public sans formation, sans avertissement quant à leurs limites.
L’IA produit son propre prolétariat: les travailleurs du clic qui collectent, organisent et annotent les données pour 1 à 2 dollars de l’heure.
Certains travailleurs sont face à un algorithme employeur, sans conscience, sans oreilles. On relève le cas des livreurs à vélo, obligés de bouger même s’ils n’ont pas de commande en cours, pour que le GPS les détecte comme actifs.
N’oublions pas les réseaux de surveillance des individus par la reconnaissance faciale, notamment quand ils se trouvent entre les mains de régimes autoritaires. La big tech estime qu’il est possible de surveiller 100% de l’humanité pour moins de 1% du PIB mondial.
Des chatbots sont de plus en plus recommandés par leurs concepteurs pour répondre au besoin de soutien des personnes vulnérables, notamment face aux problèmes de solitude et de deuil. Ces IA sociales, ou compagnons IA, pourraient devenir nos confidents, nos amis, nos amoureux et même nos thérapeutes… Comment établir une vraie relation avec un objet sans passé, sans âme, sans corps ? On cite plusieurs cas de suicides. Sans compter que les mineurs peuvent accéder aux chatbots ! Aucune limitation d’usage n’a été prévue pour eux.
Plus grave encore: l’homme pourrait abdiquer son intelligence et délaisser la recherche des causalités au profit d’un savoir régi par la seule corrélation.
Dangers pour la planète
L’information «Une requête sur ChatGPT, c’est équivalent à dix recherches sur Google !» n’a pas de sens si on ne dit pas de quel type de requête on parle. En revanche, on peut affirmer que les IA participent de plus en plus au dérèglement climatique et à la captation d’eau au détriment des besoins élémentaires de la vie sur terre.
D’autant plus que les géants de la tech font tout pour qu’on ignore les vrais chiffres de la consommation d’électricité nécessaire aux IA, du CO2 émis, des volumes d’eau requis pour le refroidissement des ordinateurs. Mais, prudents, ils nouent déjà des relations avec le secteur pétro-gazier – Google avec Total Énergies par exemple.
La consommation d’électricité de tous les data centers pourrait bientôt égaler celle d’un pays entier comme le Japon. Leur consommation d’eau au niveau mondial sera équivalente en 2027 à celle du Danemark. Et n’oublions pas qu’il faut du cobalt extrait en République démocratique du Congo, du lithium de Bolivie, des terres rares de Mongolie pour construire les data centers. Les mines, par nature destructrices de l’environnement, se trouvent majoritairement dans les pays du Sud.
Dangers pour la société, la culture
Les algorithmes des réseaux sociaux fonctionnent mieux à l’information négative, voire aux fake news, pour des raisons bassement financières: car multiplier le nombre de clics, c’est engranger plus d’accès aux spots publicitaires.
Des narcotrafiquants utilisent des algorithmes pour détecter la fragilité psychologique de certains adolescents, dès 11 à 12 ans à partir de leurs échanges en ligne, et cela pour les convaincre de tuer un concurrent ou quelqu’un qui gêne leur business.
Elon Musk est déjà parti à l’assaut de l’encyclopédie universelle Wikipédia.
C’est aussi le pillage des œuvres d’art, des productions littéraires et musicales qu’on reprend à son compte sans payer de droits d’auteurs.
C’est enfin l’abandon de l’utopie d’un savoir humain à la disposition de tous. Des références culturelles s’affrontent. Il y aurait un rideau du silicium, comme il y a eu le rideau de fer.
Dangers pour nos démocraties
Pour Giuliano da Empoli (3), sur le modèle des conquistadors, les ingénieurs de la Silicon Valley ont imposé leur pouvoir, petit à petit, sans que les responsables politiques aient la faculté de le réguler. L’IA s’impose sans contrôle de nos élus: le maire de Camphin-en-Carembault est impuissant à protéger la tranquillité de ses administrés face à l’algorithme Waze de guidage des vagues quotidiennes d’automobiles (4). L’IA facilite la fabrication de fake news qui placent des discours non prononcés dans la bouche des hommes politiques.
Conclusion
Thibault Prévost (5) conclut à sa façon, sans nuance, en décrivant un modèle capitalistique classique: exploitation des ressources de la planète, exploitation des travailleurs, superprofits et absence de réglementation contraignante. De notre côté nous conclurons avec ces mots de Guillaume Carbou (6):
«Les techniques, et en particulier les plus complexes, charrient avec elles un ensemble de valeurs, accompagnent des projets politiques, renforcent le pouvoir de certains acteurs, en dépossèdent d’autres, et ainsi produisent certains types de sociétés, dont on ne devrait pas faire l’économie de se demander si elles sont désirables ou non».
Illustration: Réponse de ChatGPT à la question «Que penser de l’IA ?».
(1) Dans Les nouveaux possédés, Les Mille et Une Nuits, 1973, p.259.
(2) Dominique Seu sur France Inter, le 8 octobre 2025.
(3) L’heure des prédateurs, Gallimard, avril 2025.
(4) La départementale 925 qui traverse Camphin-en-Carembault (département du Nord) est un itinéraire bis pour l’A1 très conseillé par l’application GPS Waze: près de 12000 voitures, camions, motos vrombissent quotidiennement à travers la petite ville.
(5) Les prophètes de l’IA: pourquoi la Silicon Valley nous vend l’apocalypse, Lux éditeur (Futur Proche), octobre 2024.
(6) En finir avec la neutralité de l’IA, AOC, 2025.
Autres références
Adrien Basdevant et Jean-Pierre Mignard, L’empire des données, Essai sur la société des algorithmes et la loi, Don Quichotte, 2018.
Intelligence artificielle, Cahier #1 de AOC, diffusion Belles Lettres, 2025.
Olivier Cappé et Claire Marc, Tout comprendre (ou presque) sur l’intelligence artificielle, CNRS Éditions, 2025.
Yuval Noah Harari, Nexus, Une brève histoire des réseaux d’information de l’âge de pierre à l’IA, Albin Michel, 2024.
Hubert Krivine, Comprendre sans prévoir, prévoir sans comprendre, Cassini, 2018.
Podcasts
Alain Finkielkraut avec Éric Sadin et Raphaël Doan, Rêves et cauchemars de l’intelligence artificielle, Répliques, France Culture, 22 mars 2025.
Alain Finkielkraut avec Étienne Klein et Olivier Rey, La folie mathématique, Répliques, France Culture, 12 juillet 2025.
Lou Welgryn et Théo Alves Da Costa, Intelligence artificielle: le vrai coût environnemental de la course à l’IA, Bonpote, 2 septembre 2025.
