« Le jugement éthique est une affaire d’humains, pas de robots »
« Je pense qu’il faut avant tout rendre les concepteurs conscients des questions éthiques, qu’il s’agisse des programmeurs ou des compagnies qui vendent les produits. Même si je ne pense pas qu’il faille leur donner des réponses universelles, car il y a une grande diversité de situations. Quand on étudie la biologie, on entend parler des enjeux éthiques dès le premier cours de master, mais ce n’est pas le cas du tout quand on est informaticien. »
Physicien et philosophe, Alexei Grinbaum vient de publier Les Robots et le Mal. Interrogé par Lucile Meunier et Justyne Stengel, il suggère de recourir au hasard et à l’aléatoire dans la programmation des machines, particulièrement « lorsqu’un conflit éthique est détecté, et que la machine est susceptible de prendre part à ce conflit ». Cela permettrait selon lui de soustraire « la machine à ses responsabilités », responsabilités qu’elle ne peut assumer puisqu’elle ni un « agent humain » ni même une « personne juridique » comme le proposent aujourd’hui certains juristes : « Une des caractéristiques des êtres humains, c’est leur personnalité (personhood en anglais), soit la capacité à être libre et se constituer en personne. Ce n’est pas le cas des machines, qui sont fonctionnelles : elles agissent mais ne savent pas pourquoi elles agissent. » Un statut fonctionnel qui lui (comme « les questions éthiques posées par l’intelligence artificielle »), n’a rien de nouveau et qui rappelle les anges et démons des « mythes bibliques, talmudiques ou grecs », des individus qui « sont autonomes mais ne sont pas libres comme les humains ».
18 mai 2019