Problèmes éthiques posés par le remplacement de l'humain par des robots
: Le cas des systèmes d'armes autonomes

Student thesis: Doc typesDocteur en Philosophie

Résumé

Ce travail s’interroge sur l’impact éthique du remplacement des humains par des robots, particulièrement dans le cadre militaire avec les systèmes d’armes létales autonomes (SALA). Il fait le point sur les robots militaires et les logiciels existants qui contribuent à leur autonomie jusqu’en 2014. L’augmentation progressive de l’autonomie des robots signe le remplacement possible de l’humain, l’agir moral des machines à la place de l’homme est dès lors une problématique. Le robot peut-il être un agent moral? Peut-on créer un agent moral artificiel? Quelles sont les contraintes techniques, algorithmiques, juridiques et éthiques auxquelles une telle réalisation serait confrontée, notamment dans le monde militaire? La robotisation est une réalité qui a déjà des effets sur le politique et le militaire comme l’illustre l’usage desdrones. Quels pourraient être les effets d’une plus grande autonomie des robots pour l’obtention de la victoire et vis-à-vis de l’éthique militaire? L’aspect novateur ne doit pas oblitérer les défis qui se posent tant aux soldats qu’aux robots. Si aucun n’est infaillible, que peut-on conclure du projet de créer des robots moraux, et quel avenir peut-on envisager pour une robotique respectueuse de l’éthique militaire? Quelle collaboration peut exister sans fusion? Pouvons-nous espérer bénéficier des atouts de la robotique militaire sans subir ses effets néfastes, tout en respectant l’éthique jusqu’à l’héroïsme propre à l’humain, mais sans dénaturer ce dernier? En ce qui concerne l’humain, nous avons vu que les conditions qui mènent au désinvestissement éthique doivent être combattues en amont pour éviter l’apparition de comportements immoraux. Envoyer sur le terrain un soldat dont le caractère n’a pas intégré le respect de l’éthique et du droit n’est pas digne d’une nation démocratique. En ce qui concerne les robots, il semble manifeste que pour les tâches relevant pleinement des 3D, leur collaboration soit une bonne chose. Nul ne nierait qu’autonomiser davantage les tâches de reconnaissance en milieu hostile ou même la recherche et la destruction d’IED par des Packbots avec les précautions d’usage pour éviter les dégâts collatéraux soient d’excellentes choses. Le contexte d’emploi est significatif au niveau moral. L’usage de robots sans supervision dotés exclusivement de contre-mesures non létales (tel que le lâcher de leurres) dans des contextes où l’homme est préalablement exclu ne nous semble pas moralement condamnable. En revanche, doter les robots, même télé-opérés, de capacités létales pour un usage dans des guerres asymétriques et potentiellement en contexte urbain encourage la violence et empêche d’obtenir une paix durable. Nous l’avons dramatiquement vu à l’occasion des actions terroristes qui ont eu lieu sur notre sol et qui visaient nos compatriotes: l’emploi de drones armés,en conservant nos soldats à distance de sécurité, a conduit l’ennemi à nous rejoindre à l’intérieur de nos frontières.Nous voyons mal comment la libération de ces mêmes systèmes d’armes létaux de leur supervision humaine en les dotant de quelques «fusibles éthiques» pourrait inverser cette tendance. Nous avons envisagé que les drones et d’autres robots soient dotés d’armes non létales pour augmenter la gamme de réponses possibles. Il est évident qu’un drone qui ne serait doté que de capacités strictement non létales telles que l’émission de gaz lacrymogènes, haut-parleurs émettant des sons désagréables, etc. ne provoquerait pas les mêmes effets désastreux que les drones de combat et constituerait un progrès. La meilleure solution est sans doute celle rêvée par John S. Canning d’un robot capable de désarmer physiquement un adversaire en neutralisant son arme. Une telle réalisation ferait progresser le respect de l’éthique militaire sur le champ de bataille tout en assurant la sécurité de nos soldats et des populations civiles, mais elle demeure malheureusement un rêve à ce jour. La programmation éthique de la robotique de son côté pourrait être poursuivie avec fruit pour le respect de la morale, même si une telle programmation n’aurait pas vocation à être utilisée sur le terrain, à cause de son incomplétude par nature. Elle pourrait directement contribuer à la formation éthique des soldats si elle était utilisée à la manière des simulateurs de vols pour les pilotes. En présentant un ensemble de situations qui se sont déjà produites, une simulation virtuelle placerait le soldat dans la situation de devoir choisir les meilleures options au cours de séances d’entraînement du jugement éthique. De cette manière, au lieu de déléguer à la machine le soin de penser et d’agir à sa place, ce qui appauvrirait encore la capacité de délibération éthique de l’individu et ferait croître le désengagement moral, elle le formerait à faire usage de cette capacité. La programmation éthique utilisée comme simulateur pourrait donc entraîner les bons habitus chez le soldat, l’entraîner à pratiquer sa vertu de phronèsis. Ce faisant, on pourrait voir surgir des comportements humains inédits pour répondre à des situations éthiques complexes. La créativité humaine dans la prise de décisions innovantes face à des situations complexes pourrait s’appliquer sans risquer sa propre vie. Nous pourrions apprendre davantage sur les mécanismes de prise de décision morale puisque ces «entrainements éthiques» auraient lieu dans des conditions qui sont tout autant des exercices que des expériences. Nous savons que nous apprenons par renforcement, l’éthique n’échappe pas à cette règle. Un «simulateur d’éthique» à l’image du «simulateur de vol» ne remplacera pas le soldat sur le terrain comme il n’a pas supprimé le pilote sur les avions de ligne. Certaines fonctions simples et répétitives dans les situations qui ne sont pas des «crises» ont été automatisées. De même les fonctions «techniques», «sales, répétitives et dangereuses» en dehors des situations de crises doivent pouvoir bénéficier des bienfaits de la technologie, mais en conservant toujours une supervision humaine au cas où justement une crise se présenterait. Si l’humain peut légitimement être «au dessus» de la boucle en temps normal pour ces tâches «3D», il devrait tout autant légitimement pouvoir rentrer dans la boucle en cas d’incident. Enfin, il est un élément qui résume peut-être notre recherche de la moralité à la guerre, pour déterminer qui doit prendre la décision du tir létal, qui est en mesure de contrôler sa force pour ne pas tomber dans la violence. Cet élément est une ligne de conduite qui regroupe la responsabilité, la capacité de dire «je», l’accès au sens, la dimension sociale de la morale et la difficulté du jugement éthique. Toutes dimensions que nous avons investiguées dans cette thèse comme étant les éléments essentiels qui forment la personne morale. Pour qu’il y ait morale, l’individu en fait un récit, nous l’avons vu notamment grâce à des auteurs tels que Whitby et Parthemore. Or, le récit de l’action s’inscrit dans un contexte global. Il nécessite un auteur de l’action, un narrateur, un message doté de sens, un auditoire pour l’interpréter, et surtout une motivation qui donne sens à la volonté de conserver une conduite droite en toute circonstance. Nous retrouvons tout cela dans ce bon sens issu du témoignage d’un officier, confié au Général Benoit Royal, d’après lequel un officier devrait être capable de raconter les souvenirs de ses actions à ses petits-enfants sans en avoir honte. Plutôt que de s’en remettre à des processus algorithmiques restreints, peut-être est-ce à ce genre d’homme doté d’une conscience bien formée à qui il convient de confier le droit d’user de la force létale en conformité avec les valeurs démocratiques qui l’envoient.
la date de réponse19 janv. 2016
langue originaleFrançais
L'institution diplômante
  • Universite de Namur
  • Sorbonne Université
SuperviseurJean-Michel Besnier (Copromoteur), Dominique Lambert (Copromoteur), Jean Gabriel Ganascia (Président), Nathalie Colette-Basecqz (Jury), Alain RENAUT (Jury) & Renaud Ronsse (Jury)

Contient cette citation

'