L’agenda de l’humanité, ou le monde à-venir
L’intelligence artificielle est-elle «un phénomène de telle ampleur qu’il dépassera toujours notre entendement» ? Ni les avertissements déjà anciens (Günther Anders, Jacques Ellul), ni les analyses alarmistes à chaud, y-compris parmi ses concepteurs, n’ont manqué. Quant à une «hypothétique conjonction quasi fusionnelle entre la pensée organique humaine et la technique», telle que la dessinent les ouvrages de Yuval Noah Hariri, elle anticipe «un homme superflu, dominé, habitant un monde ruiné, (…) diminué bien plus qu’augmenté». «Qu’allons-nous faire de nous ?»
Sans même nous en apercevoir, presqu’en toute inconscience, nous nous exposons quotidiennement aux risques de l’intelligence artificielle. Il suffit d’ouvrir notre ordinateur. Risques que nous mesurons mal, puisqu’ils restent abstraits et qu’ils s’imposent à nous sans que nous puissions les prévenir. L’IA s’introduit dans nos vies, les facilitant tout en les menaçant, faisant oublier sa prédominance silencieuse. Non seulement nous acceptons ses principes, nécessaires, mais nous nous y conformons puisqu’il semble impossible de les remettre en cause, ni d’ailleurs de nous y soustraire. L’Open Source n’est désormais plus un recours, une échappatoire, un contournement. Enfermés dans un réseau dont nous ignorons très majoritairement l’architecture (1), nous vivons de manière soft, comme on dit, ou transparente, une expérience bien plus qu’orwellienne. Car, librement selon les apparences, sans résistance, nous nous installons dans une dépendance irréversible, artisans de notre assujettissement.
Servitude volontaire ? Pour pasticher La Boétie: «Soyez donc résolus à ne plus (vous en) servir et vous serez libre». Impossible, car c’est une servitude qui ne laisse aucun choix. Sauf à jouer les stylites ou à vivre au fond d’un bois, libéré de l’informatique, coupé de tout, donc résolu au pire. On serait plus proche de Spinoza, chez qui le concept de servitude volontaire n’existe pas, bien sûr, mais pour qui une servitude ne serait volontaire que par «l’idée illusoire (bien entretenue par le système de l’IA) d’avoir une volonté libre» (2). Situation que Günther Anders n’hésiterait pas à qualifier de totalitaire. Ou de nouvelle invitation, que nous ne pouvons décliner, à céder à une forme insidieuse de néo-totalitarisme ? Pouvons-nous disposer du choix lorsqu’il est déjà fait ?
Des risques profonds pour la société et l’humanité
Conscients «des risques profonds pour la société et l’humanité», les signataires d’une lettre ouverte en date du 22 mars 2023, à l’initiative de l’Institut Future of Life, réclamaient une pause de six mois dans le développement de l’intelligence artificielle (3). Ils s’appuyaient notoirement sur les 23 principes d’Asilomar (4), sorte de guide éthique qui se veut universel, et qui s’inspire des fameuses trois lois de l’écrivain de science-fiction Isaac Asimov (5). Tout en étant capable de résoudre une infinité de tâches, GPT4 présenterait des caractéristiques typiques de la pensée humaine. GPT4, humain, trop humain ! Le onzième principe (Valeurs humaines) y prend un relief particulier:
«Les systèmes d’IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de dignité humaine, de droits, de libertés et de diversité culturelle».
Les auteurs de la lettre ouverte, tels des scientifiques réalisant soudain que leur créature pourrait devenir monstrueuse, craignent (non sans raison effectivement) que la poursuite trop rapide, voire accélérée, de la recherche puisse amener l’humanité «à développer des consciences non humaines qui nous rendraient obsolètes (6) et nous remplaceraient». Ils ne craignent pas moins que «la perte de contrôle sur l’avenir de notre civilisation» (7). L’IA dite étroite, celle qui se limite à un domaine restreint (8), effectuant des tâches répétitives, semble largement dépassée par une IA forte (IAG, Intelligence Artificielle Générale) dont les aptitudes cognitives seraient quasi semblables aux nôtres… Appel à un examen des implications sociales, sociétales, éthiques et sécuritaires ? Prise de conscience tardive, vaine mise en garde ? Et quelles politiques régulatrices mettre en place, sans normes communes ? On peut craindre que la réflexion et la régulation tardivement souhaitées ne soient que des vœux pieux, visant à se donner bonne conscience. Nous voilà avertis d’un piège au moment où leurs concepteurs savent qu’il se referme déjà sur nous. Sans vouloir douter de la bonne foi de certains signataires, l’un d’entre eux – Elon Musk – ne fait certainement pas partie de ceux qu’évoque Günther Anders lorsqu’il dit qu’il est parfois dangereux de faire preuve de discernement et que s’y risquer serait se mettre en péril.
L’IA, conçue par l’homme, deviendra-t-elle un événement supraliminaire, concept forgé par Günther Anders, c’est-à-dire un phénomène de telle ampleur qu’il dépassera toujours notre entendement ?
Un collègue super compétent
Sans se laisser prendre à une mise en scène parfaitement réglée (9) ressemblant souvent à un battage médiatique dont la Silicon Valley a le secret (10), les propos tenus le 18 septembre 2022 au T-Mobile Capital Markets Day par Sam Altman, patron de Open AI, ne laissent pas d’inquiéter. Colonisé dans ses moindres recoins par ChatGPT, mon ordinateur deviendra «un collègue super compétent qui connaît absolument tout de ma vie, de tous mes courriels, de toutes les conversations (11) que j’ai eues et qui prend des initiatives» (12). Entendre, pour la décennie qui vient: un collaborateur tellement plus compétent que moi qu’il prendra à ma place des décisions que je n’aurais pas eu les moyens ni l’intelligence de prendre. Une machine qui implacablement m’assujettira, me renverra sans cesse à mon insuffisance cognitive biologique et insufflera en moi cette honte prométhéenne que Günther Anders a analysée dans L’Obsolescence de l’homme. La machine, de toute évidence, pensera mieux que moi, raisonnera mieux que moi, se souviendra beaucoup mieux que moi et saura ainsi, mieux que moi, décider… de moi. Ellul nous avait bien montré que la technique disposait librement de nous. L’actualité de ses analyses est frappante. Jamais une relecture de Anders – qui ignorait tout de notre époque mais qui l’anticipait formidablement – ne fut plus éclairante. Cette strong AI révèle avec une cruauté froide la faiblesse de notre condition humaine, ses insuffisances et ses limites face à un objet technologique qui nous domine, qui nous maîtrise déjà peut-être à notre insu, sans que nous ne puissions jamais réellement comprendre la complexité de son fonctionnement. Perte d’autonomie, d’indépendance, de liberté. Perte de l’estime de soi. Que seront nos âmes à l’époque de cette troisième révolution numérique, bien au-delà des deux précédentes qualifiées d’industrielles ? Question à l’allure métaphysique, qui semble bien désuète en un tel contexte, mais qu’aucun utilisateur ne se pose vraiment.
«Ce dont les gens doivent être conscients, c’est l’effet potentiel de l’IA sur la société humaine. Aujourd’hui, la plupart d’entre nous avons une attitude décontractée à propos d’une technologie qui peut faire beaucoup de dégâts.»
C’est ce que déclare l’historien universitaire Yuval Noah Harari (13), qui a signé la lettre ouverte du 11 août 2021, tout en étant cependant convaincu que rien ne pourra freiner efficacement une telle «lame de fond» (14). Ces propos font écho aux premières déclarations d’Allan Turing en 1951: «Dès lors que la méthode des machines pensantes sera initiée, il ne leur faudra pas longtemps pour surpasser nos faibles capacités» (15). Homme dépassé, homme diminué, homme annulé.
Sont ainsi mis en question non seulement notre libre arbitre, mais aussi et surtout notre conscience morale. En lisant les articles scientifiques, souvent difficiles à comprendre, on note chez leurs auteurs un emploi apparemment équivalent des termes intelligence et pensée humaines. Or la pensée, aussi faite de sentiments (16), dont il n’est jamais question, n’est pas étrangère à la conscience, et puisqu’il s’agit de modélisation, il est également permis d’envisager à brève échéance sa propre modélisation (17). Notre inconscient sera-t-il notre dernier refuge… sans que nous en ayons conscience (!) ? Mais ces questions conserveront-elles longtemps leur légitimité, puisque la disparition de l’Homo Sapiens devient envisageable ?
Écarter la honte prométhéenne. Vers une post humanité ?
«Les ordinateurs étaient à l’origine des machines très grossières et distantes (…). Ils sont ensuite arrivés sur nos bureaux, puis sous nos bras et maintenant dans nos poches. Bientôt, nous n’hésiterons pas à les mettre dans nos corps ou dans notre cerveau. (18)»
Elon Musk semble avoir anticipé cette humiliation de l’homme face à cette intelligence qui ressemble étrangement à la sienne, mais d’une puissance telle qu’elle risque de le rendre dépendant. Il faut donc qu’il puisse être définitivement à armes égales avec la machine. Augmenter l’homme par implants cérébraux est déjà une réalité, puisque les ICM (Interface cerveau-machine) permettent à des personnes atteintes de tétraplégie de commander ou contrôler leur prothèse par la pensée. Ainsi retrouvent-elles une autonomie leur permettant d’un peu mieux vivre malgré leur handicap. Mais le but d’Elon Musk, fondateur de la société Neuralink, spécialiste de ce type d’implants neuronaux (puces électroniques), est d’augmenter mémoire et cognition afin que l’homme de demain soit l’égal de la machine. La honte prométhéenne est ainsi effacée ou dépassée, et légitime les objectifs du transhumanisme en devenant son alibi ! Sans entrer dans les détails, ce dont nous serions bien incapables, il s’agirait de «télécharger la pensée dans une interface libre de toute enveloppe charnelle» (19). Bref, il s’agit non seulement de délester les corps de leurs honteuses faiblesses, voire de les libérer de leur fâcheuse finitude, de corriger «l’imperfection de notre psychologie individuelle qui nous pousse à abuser de notre pouvoir» (20) mais aussi de coupler les cerveaux avec les réseaux internet. Ainsi n’aurons-nous plus jamais la tête dans les nuages, mais dans le cloud. Il ne s’agit donc pas juste de réparer les humains, de les aider à mieux vivre malgré leurs souffrances, mais de les améliorer en les augmentant afin qu’ils soient supra normaux, peut-être immortels et de les doter d’une pensée intégrale. Homo Deus ? L’agenda (le programme) de l’humanité pour les siècles à venir est l’objet du livre de Yuval Noah Harari, Homo Deus. Une brève histoire de l’avenir (21). Ce livre est à prendre avec prudence et circonspection, car la pensée déroutante de l’auteur est parfois trop floue pour que le lecteur puisse faire la différence entre dénonciation éclairante et prophétisation enthousiaste (22). C’est la position de lecture que nous décidons d’adopter, à cause de nombreuses ambivalences, à la lumière des interviews données par l’auteur confrontées aux larges extraits déjà publiés de son ouvrage.
«Maintenant que nous avons élevé l’humanité au-dessus du niveau de la lutte bestiale pour la survie, nous allons viser l’amélioration des humains en dieux (23), et passer d’Homo sapiens à Homo Deus.»
Inquiétantes prédictions
La théorie de l’historien prend les allures d’une prédiction. «Qu’allons-nous faire de nous ?», questionne-t-il dès son introduction. Sa thèse repose sur le constat que l’humanité, à travers les siècles, a réussi à surmonter trois grands fléaux historiques: la famine, les épidémies et la guerre. Même persistants, ces problèmes sont (seraient) à notre époque devenus «gérables». L’humanité pourrait donc désormais poursuivre de nouveaux objectifs: vaincre la mort et trouver la clé du bonheur. L’augmentation des capacités physiques et cognitives des humains augurerait de la mutation déterminante de l’Homo Sapiens en Homo Deus ! Les préoccupations humaines, y compris celles liées de près ou de loin au domaine du politique, seraient déléguées aux algorithmes qui nous connaîtront beaucoup mieux que nous-même: «…la croyance dans l’individualisme s’effondrera et l’autorité basculera des individus aux algorithmes en réseaux».
L’agenda de l’humanité en marche vers le bonheur absolu se décline ainsi selon le programme diabolique d’un antihumaniste (24) assumé au prix de l’abandon volontaire et consenti du libre arbitre, de la liberté tout court.
«Les individus ne se verront plus comme des êtres autonomes qui mènent leur vie comme ils l’entendent, mais s’habitueront à se voir comme un assemblage de mécanismes biochimiques constamment surveillé et guidé par un réseau d’algorithmes électroniques» (25).
L’intelligence primerait alors sur la conscience, l’ambivalence intrinsèque de la technique, son affranchissement de toute valeur morale, son autonomie dans la poursuite aveugle de sa logique exigeant l’adaptation soumise de l’homme: tels sont les aspects saillants de cette folle entreprise, déjà si lucidement anticipés par Jacques Ellul (26). Indépendamment de nos volontés, notre rapport au monde, notre société et nos démocraties seraient profondément bouleversés (27). Ainsi Harari s’inquiète-t-il des inégalités qui pourraient résulter de ces évolutions. Il va jusqu’à prédire l’émergence d’une «classe inutile» (nouveaux intouchables) composée des personnes remplacées par les machines et n’ayant pas les moyens ou tout simplement le droit d’accéder aux technologies d’augmentation !
L’algorithme rêveur
«La tâche morale la plus importante aujourd’hui consiste à faire comprendre aux hommes qu’ils doivent s’inquiéter et qu’ils doivent ouvertement proclamer leur peur légitime», écrit Günther Anders (28). L’auteur de Homo Deus est-il totalement de ceux-là ? Son dernier livre peut assurément être interprété comme un terrible et ultime avertissement. Surtout lorsqu’il évoque – cette fois-ci au conditionnel ! – la nouvelle culture que l’IA nous imposerait sur une échelle globale:
«En l’espace de quelques années, l’IA pourrait dévorer l’ensemble de la culture humaine – tout ce que nous avons créé depuis des millénaires-, la digérer et se mettre à déverser des flots de nouveaux objets culturels».
«Jusque très récemment, le cocon culturel dans lequel nous vivions était tissé par d’autres humains. À l’avenir, il sera de plus en plus conçu par des ordinateurs.»
Je n’insisterai pas sur l’analyse de la valeur des temps, mais le glissement (si toutefois on fait confiance au traducteur), dans un même paragraphe, du conditionnel au futur en passant par l’imparfait a la résonnance d’un déjà là et d’un pas encore messianiques !
«Ces innovations influenceront à leur tour la génération suivante d’ordinateurs, qui s’éloignera sans cesse davantage des modèles humains d’origine, d’autant que les ordinateurs sont exempts des limites que l’évolution et la biochimie ont imposées à l’imagination humaine.»
Ces technologies seront si puissantes et invasives que, «dans les décennies à venir, nous serons peut-être amenés à vivre à l’intérieur des rêves d’une intelligence autre».
Quant au vide spirituel que laisse entrevoir ce sombre futur, le dataïsme (la religion des données) – proche de l’idolâtrie, nouveau Golem, pourrait le combler. Aborder ici la relation entre théologie et transhumanisme serait certes nécessaire, mais allongerait inutilement cette modeste contribution. Il faudrait surtout tordre le coup à une filiation douteuse entre cette guerre faite à la mort et les propos de Paul, dans la première lettre aux Corinthiens: «Le dernier ennemi qui sera détruit, c’est la mort» (29). Le spirituel pourrait-il engendrer le matérialisme ?
Cette hypothétique conjonction quasi fusionnelle entre la pensée organique humaine et la technique, réalisant ainsi le vieux projet de la cybernétique, laisse entrevoir la possibilité d’un homme superflu, dominé, habitant un monde ruiné, devenu «paria conscient» (ou non) selon la formule de Walter Benjamin. Un homme diminué bien plus qu’augmenté. Quel sera le monde à-venir ? Vers quel point de fuite nous dirigeons-nous ? «Qu’allons-nous faire de nous ?»
«L’avenir ne peut s’anticiper que dans la forme du danger absolu», écrit Derrida (30). Terrible sentence !
Alors, gardons précieusement en mémoire la question qui clôt le livre d’Harari:
«Qu’est-ce qui a le plus de valeur: l’intelligence ou la conscience ?».
.
Illustration: Yuval Noah Harari à l’École polytechnique de Lausanne en 2019 (photo Alain Herzog, CC BY 4.0)
(1) «…Par principe, la technique ne divulgue pas ses secrets», Günther Anders, L’obsolescence de l’homme, tome 2, Fario, 2011, p.287. Moins d’un an après le lancement de ChatGPT, la start-up a présenté les dernières innovations de l’IA. Son PDG, Sam Altman, a déclaré, sur le mode de la plaisanterie: «Le 30 novembre dernier, nous avons discrètement (c’est nous qui soulignons) mis en ligne une première version de ChatGPT, à des fins de recherche. Et ça s’est plutôt bien passé». Deux mois plus tard, en cliquant (clic droit) sur n’importe quel document, une nouvelle commande est apparue tout naturellement sur nos ordinateurs: «Demander à ChatGPT» (Résume, simplifie la formulation, teste-moi). Subrepticement, le traitement de l’information permet depuis quelques années de prédire la fin de nos phrases lors de la rédaction de nos courriels, ou de suggérer (générer) une réponse rapide aux mails que nous recevons. Efficacité des modèles de langage prédicteurs de texte ! (IA: L’intelligence artificielle, peut-on dompter l’inconnu ?, M3, 2024).
(2) Voir en quels termes Google rédige ses conditions d’utilisation, modifiées presque tous les mois.
(3) Pause Giant AI Experiments: An Open Letter, Future of Life Institute, 22 mars 2023.
(4) Asilomar AI Principles, Future of Life Institute, 11 août 2017.
(5) «Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger; un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi; un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.»
(6) C’est nous qui soulignons, établissant immédiatement un rapport étroit avec L’obsolescence de l’homme de Günther Anders. Nous y reviendrons. Obsolescence de l’homme, tome 1, Éditions de l’encyclopédie des nuisances, Paris, 2002.
(7) L’un des signataires de cette lettre ouverte, Jaromír Janisch (Université polytechnique tchèque de Prague) écrit: «Il est vraiment temps de prendre un peu de recul, et de réfléchir aux implications de ces technologies que l’on met actuellement entre les mains de millions d’individus».
(8) Par exemple la mise en œuvre de stratégies à l’intérieur du système clos du jeu d’échecs. On se souvient du face à face entre Gary Kasparov et IBM Deep Blue en 1996-1997.
(9) Quand je vois ces orateurs, en tenue dépenaillée juste comme il faut, arpentant nerveusement une scène immense, micro sans fil en main, devant un auditoire fasciné, communiant dans une sorte d’élévation, je ne peux m’empêcher de penser aux harangueurs totalitaires devant la masse subjuguée et convertie.
(10) «Silicon Valley hype» selon le journaliste scientifique Gary Marcus, professeur émérite à l’Université de New-York et voix de premier plan dans l’IA: «All too often, Silicon Valley is more about promise than delivery» (Trop souvent, la Silicon Valley est davantage axée sur les promesses que sur les résultats). Gary Marcus, How Elon Musk, Sam Altman, and the Silicon Valley elite manipulate the public, Fortune, 17 septembre 2024.
(11) En ayant recours à Google Docs, il est très facile d’obtenir une capture d’écran d’une conversation téléphonique.
(12) Propos rapportés par Le Point du 26 septembre 2024.
(13) Yuval Noah Harari est l’auteur de livres (Sapiens, Une brève histoire de l’humanité; Nexus, Une brève histoire des réseaux d’information, de l’âge de pierre à l’IA) qui ont eu un certain retentissement et dont les lecteurs enthousiastes sont entre autres Elon Musk, Sam Altman, Mark Zuckerberg, Barack Obama… Nous renvoyons tout de même à l’appréciable et indispensable lecture critique (d’orientation spinoziste) que fait André Moulin en février 2024: Critique spinoziste d’extraits de SAPIENS de Y.N. Harari, HAL, 2024. Voir note 20.
(14) Le Point, 26 septembre 2024.
(15)Le Britannique Alan Turing, qui a déchiffré la code Enigma des nazis, a écrit dans la revue scientifique Mind en octobre 1950 un article célèbre, sous le titre Machines de calcul et intelligence. Günther Anders aurait pu le lire. Nous n’en trouvons pas trace dans les quelques ouvrages de lui que nous possédons. Mais la description qu’Anders fait du «processus technique» y fait penser (op.cit., p.118).
(16) Voir les deux modes de la pensée chez Spinoza: sentiments et entendement (Éthique).
(17) Modélisation anticipée par Stanley Kubrick (2001, l’Odyssée de l’espace, 1969), lorsque Dave déconnecte un à un les blocs mémoire de HAL, super calculateur, et que ce dernier, dans un souffle rauque, sent qu’il perd conscience et dit: «J’ai peur… Mon esprit s’en va, je le sens…».
(18) Jean-Michel Truong, Totalement inhumaine, Les empêcheurs de penser en rond, 2001, p.32 (cité par Jean-Michel Besnier, Demain les posthumains, Le futur a-t-il encore besoin de nous ?, Fayard (Pluriel), 2012).
(19) L’humain augmenté, un futur souhaitable ?, Magazine de l’Inserm 61, 2 septembre 2024.
(20) Extraits du livre de Yuval Noah Hariri, Le Point, 26 septembre 2024.
(21) Homo Deus. Une brève histoire de l’avenir, Albin Michel, octobre 2024. On pourra consulter un résumé très détaillé ici.
(22) Astrid de Larminat, Homo Sapiens et Homo Deus: la nouvelle bible de l’Humanité ?, Le Figaro, 8 septembre 2017.
(23) C’est nous qui soulignons.
(24) Un aspect controversé de la théorie d’Harari est sa remise en question des fondements de l’humanisme. Il affirme que des concepts comme les droits de l’homme, la liberté ou l’âme sont des inventions humaines sans réalité objective.
(25) La science-fiction se mue en un nouveau genre, la prédiction historique, touchant à la fois à l’uchronie et à la dystopie, ce qui risque d’orienter ou d’influencer certaines lectures qui risquent de ne pas tenir suffisamment compte des avertissements de l’auteur. Certes, celui-ci se défend d’écrire «un manifeste politique» et invite implicitement à lire son livre avec recul. Ainsi peut-il déclarer au Point (26 septembre 2024) que «l’intelligence artificielle mettra en péril la démocratie et notre évolution», alors qu’il écrit: «Déshabitués du monde libéral, les élections démocratiques deviendront obsolètes, puisque Google sera en mesure de mieux représenter mes opinions politiques que moi-même». On comprendra que nous préférons voir ici un futur de probabilité, dont le relatif degré de certitude n’exclut pas… des marges d’incertitude.
(26) Jacques Ellul, Le système technicien, Calmann-Lévy, 1977.
(27) N’oublions pas qu’Elon Musk est un fervent admirateur et soutien de Donald Trump ! Derrière les Sept magnifiques, le spectre du néo-libéralisme.
(28) Et si je suis désespéré, que voulez-vous que j’y fasse ?, Allia, février 2001.
(29) 1 Corinthiens, 15,26.
(30) De la grammatologie, Éditions de Minuit (Critique), 1967, p.14.