L’Intelligence Artificielle se met au travail
Après avoir profondément modifié l’industrie et même l’artisanat par l’automatisation de nombreuses tâches mécaniques, la technologie, d’abord avec la bonne vieille informatique puis avec la plus récente Intelligence Artificielle, bouleverse notre façon d’appréhender des tâches plus intellectuelles. Après les cols bleus, voilà les cols blancs, à leur tour, menacés dans leur travail. À la fin, l’homme n’aura-t-il plus rien à faire? Les machines s’occuperont-elles de tout? La question de savoir ce qui se passerait alors – la machine se débarrassera-t-elle de l’humain inutile? Ou bien, grâce à la taxation des machines, l’humanité pourra-t-elle vivre sans travailler? – ne sera pas abordée dans cet article. Nous nous attacherons plutôt à évaluer l’impact que l’intelligence artificielle peut avoir sur les métiers qualifiés d’intellectuels. Dans quelle mesure peut-elle vraiment, fonctionnellement, remplir des tâches à la place de spécialistes, mais aussi à quel prix? Même si beaucoup s’y essaient, faire des prédictions précises et chiffrées sur l’évolution de l’emploi relève plus du pari ou de la profession de foi. L’ambition de ces quelques pages est de fournir des éléments d’appréciation sur la façon dont l’homme et la machine vont se partager le travail.
Article paru dans le dossier ‘Le travail, entre contrainte économique et vocation’ du numéro 2021/1-2 de Foi&Vie.
Quelques rappels techniques et historiques
Avant d’entrer dans l’analyse des menaces que l’Intelligence Artificielle (IA) fait peser sur certaines professions, il convient de s’accorder sur ce que ce terme recouvre. Dans le cadre de cet article, nous considèrerons qu’il désigne deux grandes familles d’algorithmes: l’IA symbolique et l’IA connexionniste. La première permet à un ordinateur de manipuler des connaissances, de la même façon qu’il manipule des nombres. Son instanciation la plus célèbre est le système expert. Les connaissances sont, dans ce cas, modélisées sous forme de règles, qui prennent la forme d’hypothèses et de conclusion («si le patient a de la fièvre, a perdu le goût et l’odorat, alors il est atteint de la Covid-19»). Des moteurs d’inférence, outils informatiques capables d’appliquer les lois de la logique, pourront exploiter toutes ces règles pour prendre une décision. L’exemple cité illustre les limites de ce genre d’approche : des règles simples ne permettent pas toujours de décrire la complexité de la connaissance à modéliser. L’IA connexionniste, quant à elle, ne dispose pas d’un modèle de connaissances, mais va en construire un à partir d’exemples qui lui seront donnés. C’est ce que font les réseaux de neurones dans leur étape d’apprentissage. À partir de millions d’images de différents animaux, analysées pendant l’apprentissage, un réseau de neurones se fait une représentation de ce qui caractérise chaque animal et devient capable de décider quel animal est présent sur une nouvelle image qu’il n’aura pas analysée pendant son apprentissage. C’est le pouvoir de généralisation de l’IA connexionniste. Evidemment, si une image représente un animal, comme le tamarin, qui n’était pas dans la base d’apprentissage, non seulement l’IA ne sera pas capable de le nommer mais, en outre, donnera une réponse erronée : fondamentalement, une IA connexionniste a beaucoup de mal à conclure qu’elle ne peut pas prendre de décision. Qu’elle soit symbolique ou connexionniste, l’IA s’applique à prendre des décisions, à interpréter des informations pour en extraire de la connaissance. Ses applications les plus spectaculaires sont l’interprétation des images et du langage naturel. Nous ne sommes plus très loin, dès lors, de l’activité humaine de réflexion. C’est la raison pour laquelle cette technologie a hérité, usurpé diront certains, le nom d’intelligence.
En proposant d’émuler une des capacités les plus spécifiques de l’homme, l’Intelligence Artificielle va pouvoir se charger de certaines tâches dont seul le cerveau humain pouvait s’occuper jusqu’à présent. Après les métiers nécessitant de la force physique, qui ont petit à petit disparu du fait de la motorisation de nombreux procédés ; après les métiers répétitifs dont une grande partie a été remplacée par l’automatisation, ce pourrait être le début de la fin des métiers intellectuels. Avant d’évoquer cette nouvelle donne, on peut considérer que la motorisation et l’automatisation n’ont pas entièrement supprimé les métiers pénibles et répétitifs. Heureusement, ou malheureusement, ils sont encore assez nombreux. S’il n’y a plus de forts des halles, ni de sténodactylos et moins de cochers, il y a toujours des travailleurs à la chaîne, des caissières de supermarché, des travailleurs du bâtiment et des travaux publics. L’objet de cet article n’est pas tout à fait de savoir si ces emplois doivent être préservés ou automatisés à leur tour. Mais ce rappel historique permet de s’interroger sur les images, qu’elles soient idylliques ou cauchemardesques, qu’on peut se faire du monde du travail après l’avènement de l’Intelligence Artificielle. Il est indéniable que cette technologie va avoir un impact de plus en plus fort sur le travail et nos façons de travailler, mais faire des prévisions sur le bilan global de l’emploi relève plus de la conviction que de la preuve formelle. On trouve d’ailleurs des études sérieuses pour étayer les deux scénarios (1). Le tout est de savoir ce que l’on considère : les emplois supprimés, ceux qui seront profondément modifiés au point parfois de changer de nature et ceux qui seront créés. Comme il est plus facile d’imaginer la disparition de métiers connus que la création de nouveaux, le solde est spontanément pressenti comme négatif. Surtout pour un esprit français dont la capacité à envisager le pire est prise pour l’expression d’une intelligence (humaine) supérieure. Celui qui pense que tout va bien se passer est, au mieux, considéré comme un imbécile heureux ! Alors commençons par faire parler notre esprit français en étudiant les métiers qui sont généralement identifiés comme les victimes probables de l’Intelligence Artificielle.
L’IA envahit la médecine
Une des grandes qualités de l’IA étant sa capacité à traiter une très grande quantité de données ou de connaissances et d’en tirer une conclusion, les métiers qui reposent sur ce genre de capacité font partie de ses cibles. Tirer une conclusion à partir d’observations en s’appuyant sur des règles ou des expériences passées est notamment le quotidien des médecins, en charge de poser des diagnostics. Il n’est d’ailleurs pas étonnant que l’exemple classique des systèmes experts, qui étaient très à la mode dans les années 80 (la première belle saison de l’IA), était celui du diagnostic médical. D’un point de vue factuel, si une base de règles contient tous les diagnostics médicaux faits par le passé et s’enrichit, chaque jour, des nouveaux validés par tous les médecins du monde, il n’y aura plus besoin de cliniciens. Il suffira d’un système expert qui pose des questions au patient, qui s’appuie sur l’aide de quelques infirmiers ou laborantins pour faire des examens complémentaires et récupérer quelques mesures objectives pour qu’une bonne partie de l’activité des médecins devienne sans intérêt. Cet exemple était d’autant plus apprécié qu’il était un des premiers à tenter de démontrer que ce n’était plus seulement les métiers peu qualifiés qui étaient menacés mais aussi les plus exigeants en termes de formation. Avec une sorte de joie malsaine, les informaticiens laissaient poindre l’idée que l’informatique, grâce à l’IA, devenait la connaissance des connaissances et que, hormis l’IA, plus aucune science n’aurait d’existence propre. L’étape suivante est d’ailleurs également envisagée par certains de ces mêmes informaticiens: l’IA va se mettre à générer les prochaines générations d’IA et les informaticiens eux-mêmes deviendront inutiles.
Cela dit, les systèmes experts existent depuis 40 ans, c’est une technologie plutôt bien maîtrisée (à la différence d’autres formes d’IA) et nous avons besoin de toujours plus de médecins. Que s’est-il donc passé?
Tout d’abord, le monde parfait dans lequel tous les médecins formalisent leurs connaissances dans une même base de règles qu’un système expert pourrait exploiter n’existe pas. Certes, des livres existent au sujet des maladies les plus fréquentes. Des publications scientifiques présentent des maladies plus rares ou plus récentes, mais l’effort de formalisation sous forme de règles exploitables par un moteur d’inférences n’est pas toujours fait. Le médecin estime avoir fait le travail de partage et de vérification de sa connaissance en la publiant. N’éprouvant pas le besoin, à titre personnel, de l’expliquer à un système expert, il ne va pas consacrer une partie de son temps à le faire, puis à procéder à toutes les vérifications pour s’assurer que ce système expert fonctionne bien.
Ensuite, il est apparu que la modélisation sous forme de règles de la connaissance médicale était souvent une simplification imaginée par ceux qui ne sont pas médecins. Le diagnostic médical s’appuie aussi sur des probabilités qui prennent en compte un contexte (l’état général du patient, ses autres pathologies, son mode de vie…). Intégrer tous ces facteurs sous forme de règles devenait extraordinairement compliqué. Chaque règle doit prendre en compte des sous-hypothèses, elles-mêmes pondérées en fonction de facteurs environnementaux. Les chercheurs de l’IA ont réagi en créant la logique floue, les inférences bayésiennes (2)… mais il a bien fallu se rendre à l’évidence: le diagnostic médical ne se laisse pas facilement mettre en boîte. Les difficultés de médecins avec la Covid-19 en sont, s’il en était besoin, un douloureux exemple.
N’ayant pas réussi à se débarrasser des cliniciens, les promoteurs des applications médicales de l’IA ont pris une nouvelle cible: les radiologues. En considérant que le travail du radiologue est de regarder des images et d’en extraire des conclusions, les chercheurs en IA, dont les systèmes de deep learning obtiennent de très bons résultats dans l’interprétation d’images, se sont dit, assez justement, que cette activité pourrait être une application efficace de leurs réseaux de neurones. En basant l’apprentissage du réseau sur des analyses de clichés effectués par des radiologues, il a été possible de développer des systèmes capables d’avoir de très bons résultats sur la détection de cancers. Des exemples très médiatisés ont relaté qu’une IA avait détecté des traces très fines de tumeurs malignes qui avaient échappé à l’œil du radiologue. Dans une publication à venir, le Dr Loïc Duron, chef de service en radiologie à l’hôpital Fondation Rothschild, présentera comment un système à base d’IA a pu détecter une double fracture du bras sur un cliché dont l’incidence ne permettait pas, à l’œil humain en tout cas, d’en détecter une. D’autres clichés sous autres incidences ont permis de valider le diagnostic spectaculaire de l’IA. Lui-même doctorant en Intelligence Artificielle, le Dr Duron ne considère néanmoins pas son activité, et celles de ses collègues, en danger. De la même façon que le scanner a permis d’aller plus loin que la radiographie classique, puis que l’IRM a pris le relais pour explorer plus avant les tissus mous, l’IA est surtout un outil de plus pour que le radiologue puisse poser un diagnostic. Elle va augmenter sa performance. Cet outil est lui-même alimenté par des connaissances humaines qui vont affiner et enrichir sa base d’apprentissage. S’il n’y a plus de radiologues pour maintenir cette base de connaissance, celle-ci deviendra obsolète.
Un deuxième argument vient alimenter l’argumentaire de la préservation de cette espèce de médecins qu’on pourrait croire en voie d’extinction, c’est le caractère hyperspécialisé de l’IA. L’IA entraînée à détecter des tumeurs cancéreuses minuscules sera incapable de voir une fracture grossière, ou tout autre signe pathologique pourtant présent dans le même cliché. L’IA radiologue, comme toutes les autres IA actuellement disponibles, est parfaite pour trouver ce qu’on lui demande de chercher, mais elle n’a aucun recul sur la requête qui lui est faite. Entraîner une IA à reconnaître toutes les pathologies possibles sur un cliché serait un travail gigantesque, compliqué par le fait que des exemples de pathologies multiples sont rares et que l’IA a besoin de très nombreux exemples pour apprendre. Comme dans le cas du diagnostic automatique reposant sur des bases de règles, l’interprétation de clichés radiologiques par une IA nécessiterait donc une base de données annotées probablement impossible à créer, puis à stocker.
Le troisième argument en faveur de la préservation des radiologues est également applicable au cas des cliniciens et, nous le verrons, à de nombreuses autres applications de l’IA. C’est celui de la responsabilité. Un directeur d’hôpital qui n’aurait plus de radiologues et ne s’appuierait plus que sur des comptes-rendus produits par des machines se verrait dépendant d’un logiciel acheté à un fournisseur qui, très probablement, dans son contrat de vente, aura indiqué qu’il n’est pas responsable en cas d’erreur sur le diagnostic rendu par son système. La prise de diagnostic est un exemple des applications critiques de l’IA, ces applications critiques dont les règlements en cours d’écriture par la Commission Européenne devront rester sous supervision humaine. Et qui d’autre qu’un radiologue peut superviser la décision d’une IA radiologue?
L’IA prend le volant
Cette question de la responsabilité est critique dans le domaine du transport. Parmi les professions qui semblent sur la trajectoire balistique de l’IA, on trouve toutes celles qui consistent à conduire des véhicules. Lors d’une conférence sur l’IA appliquée au véhicule autonome, un chercheur me disait que, considérant certains exemples spectaculaires de stupidité humaine au volant, nous devrions bien parvenir à concevoir une IA capable de faire mieux. Certes, une IA ne s’endormira pas en conduisant, n’aura jamais trop bu, ne regardera pas son téléphone et n’essaiera pas de faire passer une voiture de deux mètres de large dans une ruelle d’un mètre quatre-vingts. Néanmoins, elle aura encore beaucoup de progrès à faire pour emmener, de façon entièrement autonome, un passager partant du fin fond d’une grande ville pour aller jusque dans les ruelles d’une petite ville de banlieue.
Si les trajets sur autoroute ou dans les embouteillages peuvent être bien gérés par une intelligence artificielle, l’immensité du nombre de situations pouvant arriver au milieu de piétons, des cyclistes, des livreurs, des travaux plus ou moins bien signalés pose encore tellement de problèmes qu’aucun constructeur ne peut s’engager sérieusement à fournir un tel service, même à moyen terme. Sur des sites bien spécifiques, où chaque mètre du trajet est parfaitement connu, où des capteurs extérieurs peuvent aider le véhicule à comprendre son environnement, on peut imaginer à court terme des navettes qui n’auraient plus besoin de chauffeur. Mais, pour des trajets moins figés, les conducteurs de taxi resteront irremplaçables au moins pour les dix ans à venir. Eux aussi sont, pour l’instant, simplement assistés par l’intelligence artificielle, grâce aux systèmes de navigation. Ce sont leur mémoire et leur sens de l’orientation qui ont été les premières victimes de l’IA, mais leur rôle de conducteur a encore de belles années devant lui. Tout juste pourrait-on dire à un jeune qui voudrait se lancer aujourd’hui dans cette profession qu’il ne pourra sans doute pas faire ce travail jusqu’à sa retraite.
Un des seuls moyens de transport de masse qui soit aujourd’hui entièrement automatisable est le métro. Se déplaçant sur un itinéraire très contraint, ne pouvant rencontrer qu’un nombre très limité de situations du fait de son espace réservé, il a été possible de supprimer le conducteur des rames de métro. À Paris, la ligne 14, entièrement automatique, a été ouverte en 1998. En 2012, la ligne 1 a été automatisée à son tour et l’automatisation de la ligne 4 est envisagée en 2022. Si les futures nouvelles lignes seront probablement conçues pour être automatiques, l’automatisation des lignes existantes se justifie difficilement d’un point de vue financier. Pour compenser de façon sûre la présence d’un chauffeur humain, de nombreux équipements capteurs doivent être utilisés, les systèmes qui les utilisent doivent être certifiés et ce n’est pas parce qu’il n’y a plus de chauffeur dans le train que des humains ne veillent pas au bon fonctionnement des rames. Enfin, pour être tout à fait honnête, la technologie derrière les métros autonomes relève plus de l’automatisation que de l’intelligence artificielle: la perception se limite à l’échange de signaux électriques ne nécessitant aucun effort d’interprétation et la prise de décision est confiée à des arbres de choix qui traitent d’informations dont la charge sémantique est très loin de ce que gèrent les systèmes experts. Il n’en reste pas moins que prouver que le système fonctionnera de façon parfaitement sûre reste une gageure scientifique.
Entre les deux cas extrêmes que sont l’automobile et le métro, l’automatisation du train et de l’avion présente des difficultés intermédiaires qui font que leurs pilotes respectifs, toutes choses égales par ailleurs, pourraient voir leur nombre diminuer progressivement du fait des progrès de l’IA. Le train et l’avion de ligne étant tous les deux dans des couloirs leur étant réservés (aérien pour l’un, ferroviaire pour l’autre), l’automatisation de la partie croisière de leur déplacement est quasiment possible. Mais ce sont les phases de roulage pour l’avion ou d’approche des gares pour les trains qui vont nécessiter le déploiement d’une IA pour percevoir les situations non-nominales et prendre des décisions qui sont aujourd’hui de la responsabilité du pilote. Si, d’un point de vue théorique, et même d’un point de vue pratique sur d’innombrables démonstrations, l’IA est tout à fait capable de faire le travail, le niveau de performance et d’assurance qualité qu’il faudrait atteindre pour qu’un décideur prenne la responsabilité de se passer d’un jugement humain est tel que, dans l’état actuel de la science informatique, la mise en application industrielle n’est, pour l’instant, pas encore envisageable.
De nombreuses initiatives, nationales et internationales, œuvrent pour améliorer la fiabilité de l’IA en vue de son utilisation pour des applications critiques, mais le chantier est immense. Cela laisse le temps aux professions concernées de se réorganiser. Notons que, dans le cas du transport aérien, la crise sanitaire va sans doute faire plus de dégâts que l’IA chez les personnels navigants. Cet exemple très conjoncturel permet de prendre un peu de recul sur les origines des futures modifications du monde du travail. L’IA, si elle a son rôle à jouer et sa responsabilité à assumer, ne sera peut-être pas le seul game changer.
Vers la fin des traducteurs?
Les progrès très spectaculaires démontrés par des applications de traduction mettent également la profession de traducteur sur la sellette. En promenant son téléphone au-dessus d’un menu en chinois, il est possible à n’importe quel français moyen de se faire une idée de ce que la carte lui propose. De nombreux sites internet proposent des traductions mot à mot, mais aussi en contexte, voire de paragraphes entiers. Il n’est pas besoin d’être un expert linguiste pour s’apercevoir que, même si elles progressent, ces traductions automatiques sont encore perfectibles. À moins d’apprécier la littérature surréaliste, il est plus prudent de faire une relecture attentive des textes ainsi générés.
Le changement de langue n’est pas la seule épreuve linguistique où l’IA montre ses limites. Les logiciels de dictée, qui retranscrivent à l’écrit ce qui a été dit à l’oral, font souvent preuve de leur manque de compréhension du fond de ce qui est dit. Les quelques documents qui évitent le crible de la relecture sont des notices techniques. Si elles ne sont pas accompagnées d’illustrations, elles peuvent être particulièrement décalées.
Comme pour d’autres applications de l’Intelligence Artificielle, on peut se dire que ce n’est qu’une question de temps. Les énormes progrès faits ces 5 dernières années peuvent laisser penser que tout fonctionnera parfaitement dans moins de 10 ans. Inversement, on peut penser que ce qui a été fait en 5 ans était la partie facile du travail et qu’on se retrouve dans une répartition classique de l’effort sur la durée : 20 % du temps pour faire 80 % du travail, puis 80% du temps pour finir les 20%. Compte-tenu des enjeux, il semble plutôt probable que la traduction automatique atteigne rapidement des résultats très satisfaisants. Néanmoins, quand on pratique une langue étrangère, on sait qu’il y a une différence entre la comprendre et se faire comprendre et être un traducteur. La fluidité, le sens des nuances, l’utilisation d’expressions typiques et, dans le cas de la littérature, le choix des mots, le rythme de phrases, la traduction des images et des licences poétiques resteront pour longtemps l’apanage de personnes talentueuses.
Cet état de fait s’applique également aux journalistes dont on dit que le travail pourrait être remplacé par des logiciels d’écriture automatique. Il est vrai que, sur des brèves, des marronniers, ces articles au thème récurrent et quasi-saisonnier, il est facile pour une IA de s’appuyer sur la façon dont des événements ont été relatés les années précédentes pour, à partir de quelques mots clés d’une dépêche AFP, générer quelques lignes tout à fait convaincantes. Mais bien sûr, l’investigation, la recherche de nouvelles informations, la construction d’un argumentaire vont être difficiles à émuler par des machines. L’IA est plus efficace pour générer des fake news que pour aller chercher de vraies informations.
De nombreux métiers concernés, mais combien vraiment menacés?
Dans le domaine du fake, du faux, l’IA s’est imposée récemment sur un terrain assez inquiétant, celui du deep fake. Cette technique permet de générer des images très réalistes dont il est possible de faire des vidéos. Il est possible de faire dire n’importe quoi à une célébrité avec des logiciels accessibles à tous. Cela démultiplie les capacités offertes par les images de synthèse et permet notamment de mettre en scène un acteur mort depuis longtemps. Il est donc permis de se demander si la profession d’acteur ne va pas être menacée à son tour. Pour un metteur en scène, contrôler des créatures purement virtuelles sera plus reposant que de devoir s’arranger avec les caprices de stars en chair et en os. Mais bien sûr, la créativité apportée par un acteur ou une actrice de talent, qui n’est pas qu’un physique et un (mauvais) caractère, fera défaut et le résultat final sera probablement moins intéressant.
À ces métiers, il est possible d’ajouter celui de juriste et même de juge, qu’une IA pourrait finir par remplacer grâce à sa capacité d’analyser tous les textes de loi et toutes les jurisprudences et d’en tirer les bonnes conclusions. Les enseignants pourraient également être remplacés par des machines lisant leurs cours et répondant aux questions des étudiants. C’est d’ailleurs ce que pratique le professeur de robotique Ishiguro, qui a conçu un robot à son image pour donner des cours à sa place. Mais évidemment, le cours risque d’être assez ennuyeux, car le robot professeur aura du mal à contrôler l’attention de ses élèves, et les questions originales, qui n’auront pas été posées des centaines de fois par des étudiants précédents, auront du mal à trouver une réponse.
Finalement, on s’aperçoit que l’IA peut remplacer bien des professions quand elles sont mal faites. Un mauvais travailleur peut être remplacé par une IA. Quand un professeur ne prend pas en compte une question qui le dérange, quand un médecin n’est pas attentif à des petits détails chez son patient, quand un journaliste se laisse aller à écrire avec des formules toutes faites, quand un acteur reproduit les mimiques de ses films précédents ou des vedettes du moment, alors tous sont effectivement menacés par l’Intelligence Artificielle. Il est d’ailleurs assez intéressant, lors d’une interaction décevante avec un être humain, de se demander en quoi cet humain est supérieur à l’intelligence artificielle dont il redoute peut-être qu’elle prenne sa place. L’IA nous incite à faire mieux notre travail (3), à faire plus attention aux gens avec lesquels nous interagissons. Malgré les prémices de l’affective computing, qui vise à doter l’IA d’une capacité à gérer les émotions, nous sommes encore très loin de ce que nous promet le film Her, où un garçon sensible et intelligent tombe amoureux d’une IA charmante et attentionnée. Dans l’écoute, dans la recherche de la compréhension des situations nouvelles et compliquées, l’être humain, quel que soit son bagage culturel, pourra encore faire longtemps mieux que les IA. Qu’il laisse donc l’IA s’occuper des tâches répétitives et habituelles, pour consacrer plus de temps à la relation d’humain à humain qui nous est si chère et qui fait, souvent, une grande partie de l’intérêt de notre travail.
Outre les métiers mal faits, il y a une autre catégorie qu’il est tentant de confier un peu vite à l’IA. Ce sont les métiers que l’on ne connaît pas. Le métier de l’autre paraît souvent très simple et, pour peu qu’on idéalise les performances de l’IA, il est facile de conclure que ce métier peut-être exercé par l’IA. Mais, derrière le métier de radiologue, il y a autre chose que la simple observation de clichés, il y a toute une compréhension de la physiologie qui permet d’interpréter ces clichés. Et les parents, qui ont découvert la difficulté de l’enseignement pendant le confinement, ont compris en quoi le métier de professeur ne se résumait pas à lire un manuel et à corriger des exercices. L’IA peut aider les professionnels dans leur quotidien, elle peut les soulager de la partie routinière de leur travail, mais l’inattendu, le hors process est, lui, pour longtemps, inaccessible.
Il est donc un peu alarmiste d’envisager la disparition de nombreux métiers du seul fait de l’IA. En revanche, on ne peut nier qu’elle aura un impact sur l’emploi. La prise en charge des tâches répétitives par cette nouvelle forme d’automatisation devrait en effet permettre à une personne de faire le travail de plusieurs. C’est le principe des caisses automatiques de supermarché où une personne seule compétente, et forcément bienveillante puisque son seul métier est de régler les problèmes des clients avec la machine, peut s’occuper d’une demi-douzaine de caisses. De son côté, la voiture automobile a réduit le besoin de maréchaux ferrants sans pour autant les supprimer totalement. L’évolution des métiers, dans leur façon de s’exercer, est inhérente au progrès, au besoin qu’à l’homme de réduire la pénibilité du travail et, ne nous en cachons pas, de son efficacité et de sa rentabilité.
Le coût de l’IA
La question de la rentabilité se pose également pour l’IA. Parmi les freins à l’expansion de l’IA, il y a son coût. Il est assez spontané de penser que «le soft ne coûte rien». Cette idée a été entretenue par des modèles économiques et des pratiques qui se sont imposés ces dernières années. L’accès aux meilleurs moteurs de recherche sur Internet est gratuit. La grande majorité des applications que nous avons sur nos téléphones ne nous ont rien coûté. Le piratage des logiciels de traitement de texte, qui avait beaucoup de succès au début de l’ère des ordinateurs personnels, rappelait encore qu’un logiciel avait un prix qu’on ne voulait pas payer, mais en le recopiant sous le manteau, on l’oubliait bien vite. Néanmoins, derrière ces services utilisés sans rétribution directe, il y a énormément de travail, de travailleurs et pas uniquement des cols blancs. Le développement de systèmes d’IA a aussi un prix qui peut devenir prohibitif. Pour développer un réseau de neurones et son apprentissage, une cohorte de métiers (aux noms souvent anglais) est nécessaire: chef de projet IA, data architect, data manager, data stewart, data engineer, data analyst, data scientist, le tout sous la surveillance d’un data privacy officer et d’un éthicien. Toutes ces personnes sont nécessaires pour collecter les données, les stocker, les nettoyer, les rendre facilement accessibles à ceux qui vont les exploiter (mais en interdire l’accès à ceux qui n’ont pas de raison de les avoir), les analyser pour n’en prendre que ce qui est utile pour l’apprentissage et enfin trouver la bonne structure de réseau de neurones qui permettra d’en extraire un modèle. Ensuite, il faudra valider que le système fonctionne bien hors des données utilisées pour l’apprentissage et enfin convaincre le directeur d’usine que le travail sera aussi bien fait par l’IA que par un ouvrier, ou le fabricant de voitures que sa voiture autonome sera plus sûre qu’un conducteur humain. Payer toutes ces personnes, nécessaires pour développer une intelligence artificielle de qualité, fait que ce soft coûte cher. D’autant plus que, ces professions étant très demandées et les personnes formées encore très peu nombreuses, les niveaux de salaire du domaine sont importants et à tous les niveaux de formation. En effet, toutes ces professions ne requièrent pas d’être bac +8 ; dès bac +2, les métiers de l’IA sont accessibles. Certains de ses métiers ne nécessitent même quasiment aucune formation, celui d’annotateur de données par exemple.
L’annotateur de données est le sous-prolétariat de l’IA. Il travaille généralement dans des pays à faible coût de main d’œuvre. Son rôle est de préparer les données pour que l’IA puisse apprendre. Annoter une donnée consiste à indiquer ce qu’elle signifie, ce qu’il faut en comprendre, ce qu’est la vérité terrain. L’exemple le plus célèbre est l’annotation d’image. Pour qu’une IA reconnaisse ce qu’il y a dans une image, il faut lui donner des millions d’exemples d’images accompagnées d’une description de leur contenu. L’apprentissage est dit supervisé par l’annotateur de données qui va devoir, sur chacune de ces millions d’images, encadrer les différents éléments représentés dessus. Par exemple, sur une scène prise dans le trafic urbain, il va pointer et nommer les voitures, les piétons, les cyclistes, les immeubles, les panneaux routiers, les chiens, les poteaux, les publicités, les flaques d’eau… À la façon dont un parent apprend à son enfant le nom des objets qu’il rencontre, l’annotateur va faire nommer tous les objets d’une scène. Mais si un enfant n’a besoin de voir que 2 ou 3 voitures pour en comprendre le concept et reconnaître toutes les voitures qu’il verra par la suite, l’IA a elle besoin de millions d’exemples pour apprendre. Il faut donc des milliers de personnes pour la nourrir de connaissances par elle digérables. Même si ces travailleurs sont assis, à l’abri, avec comme outil de travail un ordinateur, ils ne sont pas sans rappeler les ouvriers à la chaîne qui servent des machines automatiques ou des robots. L’ouvrier fait le travail que la machine ne sait pas faire, parce qu’elle n’a pas la dextérité nécessaire (prendre une pièce dans un vrac et la positionner sous les outils du robot), la machine apporte ensuite sa précision et sa force pour venir appliquer le point de soudure à l’endroit précis où il doit l’être. Derrière les magnifiques chaînes robotisées de l’industrie 4.0, il y a des ouvriers qui aident les robots. Derrière les miracles de l’IA, il y a des annotateurs qui lui apprennent, sans bruit ni gloire, tout ce qu’il faut savoir.
Si on ajoute à toutes ces catégories de main d’œuvre le coût des serveurs informatiques sur lesquels toutes ces données sont stockées, celui des énormes calculateurs nécessaires pour traiter ces masses de données et le courant nécessaire pour alimenter toutes ces machines, on se rend compte que le soft n’est décidément pas gratuit. Un nouvel élément de coût de l’IA apparaît même maintenant que cette technique est utilisée depuis quelques années: c’est l’obsolescence des données d’apprentissage. Le monde évolue et l’IA qui doit gérer des interactions avec lui doit s’adapter, ou plutôt y être adaptée. En effet, contrairement à ce que l’idée d’apprentissage laisse entendre, une IA en service sur une tâche n’est plus capable d’apprendre. Elle a appris pendant sa fabrication en s’appuyant sur toutes les données qui avaient été préparées pour elle. Si de nouvelles situations apparaissent, il faut refaire tout le cycle de l’apprentissage: la collecte des données, l’annotation de ces nouvelles données, le réapprentissage, la validation… Des doutes sérieux apparaissent pour certaines applications quant à la rentabilité d’un système qui coûte cher à mettre au point, à valider et dont la préservation du bon fonctionnement a aussi un coût non négligeable.
Un monde du travail qui évolue avec et autour de l’IA
La suppression des emplois n’est pas un objectif en soi de l’introduction de l’IA dans les entreprises. L’objectif des entreprises est de gagner en rentabilité, en sécurité, en qualité des relations client. L’IA peut les aider, mais cela ne se traduira pas, comme on l’a vu, systématiquement par le remplacement de l’homme. On peut en attendre aussi des gains en efficacité, en disponibilité, voire en créativité. L’IA réduira le besoin de certains métiers, en modifiera profondément d’autres et en créera de nouveaux, notamment pour permettre son développement et sa mise en œuvre. Bien évidemment, il n’y aura pas de vases communicants parfaits et instantanés permettant de replacer un travailleur à la chaîne remplacé par un robot en un annotateur de données. Des personnes perdront leur emploi et auront du mal à en retrouver un autre. Toutefois, s’il est déjà difficile d’estimer le nombre de personnes qui perdront leur emploi du fait de l’automatisation au sens large, il est encore plus hasardeux de savoir combien, parmi elles, seront capables ou non de retrouver un emploi. D’autant plus que le paysage de l’emploi va évoluer à très grande vitesse. Déjà, dans un article publié en 2018 (4), il était estimé qu’entre 1980 et 2015, 60% des emplois créés aux États-Unis se rapportaient à des métiers qui n’existaient pas avant cette période. En considérant cela, il est facile de croire un rapport de Dell, associé à l’Institut pour le Futur, qui indiquait, en 2017 (5), que 85% de ceux qui seront exercés en 2030 n’existent pas encore.
Dans cet article, certaines limitations de l’Intelligence Artificielle ont été décrites pour expliquer qu’automatiser entièrement certains métiers serait difficile. À cet argument, il peut être opposé le fait que l’Intelligence Artificielle va continuer à progresser. Des programmes de recherche sont à l’œuvre pour compenser les défauts actuels de l’IA. Par exemple, des recherches menées sur l’apprentissage non supervisé pourraient permettre de diminuer le travail ingrat des annotateurs, voire de créer une IA auto-apprenante. Se profile alors la singularité, ce moment où, à ce qu’en disent ses promoteurs, l’IA dépassera l’intelligence humaine en tout point et sera capable de la remplacer partout. Que ce moment arrive ou pas, il n’est pas pour tout de suite. La société a largement le temps de s’y préparer et de réfléchir à ce qui fait la valeur ajoutée du travail humain. Certes, elle réside dans une bonne part d’intelligence mais aussi d’interaction sociale, de créativité et, plus prosaïquement, d’interaction physique avec le monde qui nous entoure. L’Intelligence Artificielle qui sera capable de déboucher un évier n’est pas, à notre connaissance, dans la feuille de route des chercheurs.
Rodolphe Gelin est expert en intelligence artificielle et robotique. Cet article, notamment pour les études citées, reprend certains points abordés dans un livre que l’auteur a co-écrit avec Olivier Guilhem dans la collection Place au Débat de la Documentation Française: L’Intelligence Artificielle, avec ou contre nous? Livre blanc, Livre noir de l’IA, novembre 2020.
Illustration: automobilie Nissan Leaf utilisée par le Mobile Robotics Group du Oxford Robotics Institute dans les rues d’Oxford (photo Ooja99, CC BY-SA 4.0).
(1) Pour donner une idée du flou qui entoure les prédictions relatives à l’impact de l’automatisation et l’IA sur l’emploi dans les années à venir, il est possible de citer quelques études. Celle de McKinsey, en 2017, qui a été menée dans 46 pays, regroupant eux-mêmes 80% des emplois mondiaux, indique que 64% des heures travaillées liées à des activités manufacturières seraient déjà automatisables. De son côté, la même année, le Conseil d’Orientation pour l’Emploi a publié un rapport dans lequel il estimait que moins de 10% des emplois étaient automatisables, rejoignant les conclusions d’un rapport de l’OCDE de 2016 mené dans ses 21 pays membres.
(2) La logique floue a été théorisée par le chercheur azéri irano-américain Lofti Zadeh dans les années 1960 et permet de graduer les nuances entre l’absolument vrai et l’absolument faux. Les inférences bayésiennes se servent du théorème de Bayes (pasteur presbytérien et mathématicien du 18e siècle) pour calculer des probabilités conditionnelles.
(3) L’influence de l’IA sur la qualité du travail humain peut être très concrète, comme dans le cas où une caméra intelligente observe le travail d’un ouvrier pour le conseiller sur sa gestuelle, sa posture et lui éviter des troubles musculo-squelettiques, diront les uns, pour dénoncer son manque d’efficacité à son patron, diront les autres.
(4) Daron Acemoglu et Pascual Restrepo, ‘The Race between Man and Machine: Implications of Technology for Growth, Factor Shares, and Employment’, American Economic Review., 108/6 (juin 2018).
(5) Dell Technologies et Institute for the Future (IFTF), The next era of human machine partnerships: Emerging technologies’ impact on society & work in 2030, 2017.