Faut-il interdire les robots tueurs?

L’ONU se penche sur la problématique des « robots tueurs » depuis 2013 et des réunions sur le sujet devaient avoir lieu à partir de ce lundi 21 août, à Genève ; elles ont finalement été annulées et reportées à novembre. Or, pour l’organisation de défense des droits de l’homme Human Rights Watch (HRW), il y a urgence.

Mary Wareham est Advocacy Director chez Human Rights Watch, à Washington et coordinatrice de la campagne « Stop Killer Robots »

Pourquoi HRW milite-t-elle pour l’interdiction des armes autonomes ?

Imaginez des armes en mesure de sélectionner et d’attaquer n’importe quelle cible sans intervention ni contrôle humain, sans une once de réflexion ou de compassion… C’est une perspective terrible mais pas si lointaine, à moins que l’on n’arrête le développement de ces engins. Car nous assistons au développement rapide de robots – singulièrement dans le secteur militaire – qui affichent des degrés d’autonomie de plus en plus élevés et, conséquemment, qui sont de moins en moins contrôlés par l’homme. Pour pouvoir ne fût-ce que continuer à protéger les civils, le maintien du contrôle humain sur l’utilisation de la force nous semble être un impératif moral essentiel. C’est la raison pour laquelle nous réclamons l’élaboration d’un nouveau traité international qui bannit l’usage des armes entièrement automatisées et autonomes, mais également l’adoption de législations nationales en ce sens. Ainsi, en Belgique, en mars dernier, deux députés écologistes (Wouter De Vriendt et Benoit Hellings) ont déposé une motion au Parlement belge engageant le gouvernement à mettre en place un bannissement total de ces armes. Aux États-Unis, neuf députés démocrates ont lancé le même appel, en décembre dernier et ont exhorté les États-Unis à soutenir le processus d’interdiction mis en place dans le cadre de la Convention sur les armes classiques.

On frémit à l’idée que de telles armes tombent entre les mains de terroristes ou de despotes…

Les craintes sont déjà légitimes quand de telles armes sont développées et utilisées par des gouvernements légitimes mais, effectivement, que dire si elles devaient tomber entre les mains de forces qui n’ont aucun respect pour la vie humaine ?… C’est une des raisons pour lesquelles – je pense que tout le monde pourra souscrire à cette revendication – nous devons nous fixer pour but une interdiction complète du développement de la production et de l’usage de ces armes autonomes.

Est-ce que, de leur côté, les militaires ont engagé une réflexion sur l’intérêt de ces armes et leur usage ?

Tout dépend des pays… Ici par exemple, aux États-Unis, un débat assez vif a été lancé avec le Pentagone, notamment dans le cadre de l’intervention militaire en Afghanistan, à propos du déploiement de troupes au sol, mais aussi de l’usage d’armes autonomes. Mais le débat ne doit pas rester cantonné dans les cénacles militaires, parlementaires ou diplomatiques. Les hommes et les femmes de la rue, ainsi que les médias, doivent s’en emparer sans tarder car demain il sera trop tard !

« Je crains qu’une interdiction ne soit pas efficace »

Docteur en sciences informatiques (Stanford), Pierre Wolper est le doyen de la Faculté de sciences appliquées de l’ULg. En février 2015, il avait cosigné avec plus d’un millier de personnalités internationales une lettre ouverte demandant l’arrêt des «robots tueurs». Pour Pierre Wolper, c’est aux pays les plus avancés de donner l’exemple.

Vous avez cosigné en février 2015 un appel à prendre en compte le risque lié au développement des robots tueurs. L’ONU est interpellée aujourd’hui. En deux ans et demi, on n’a pas avancé ?

Les risques sont toujours bien présents et aucun accord international n’est intervenu. Mais au niveau de la mise sur le terrain de robots tueurs non plus, aucune avancée majeure n’a été faite. Cependant, les technologies n’arrêtent pas d’évoluer. Plus le temps passe, plus il s’agit d’une question politique, pas technologique. Car la technologie existe.

Y a-t-il urgence ? A quel horizon craint-on d’assister aux premières guerres entre robots tueurs ?

Les prototypes de voitures autonomes fonctionnent déjà pas mal du tout. Un char, ce n’est jamais qu’un véhicule. Le doter d’une tourelle et d’armes, d’un système qui reconnaît des cibles et qui tire, ça n’a rien d’impossible déjà à l’heure actuelle.

Les drones ont ouvert la voie.

Ils peuvent procéder à des attaques à distance, sans humain à bord. Mais jusqu’à preuve du contraire, les décisions de tirs impliquent une intervention humaine. Entre la décision de tir à distance et la décision autonome, il y a une différence, mais sur le plan technologique, le pas peut être aisément franchi. Cela devient donc une question de politique.

N’est-il pas paradoxal que cette mise en garde émane d’entreprises qui développent justement les possibilités techniques qui donnent naissance aux robots tueurs ?

Quasi toute technologie peut être utilisée de façon positive ou négative. L’actualité récente le montre : une voiture sert à transporter des personnes ou des choses, mais on peut aussi en faire une arme. Souvent, ce sont ceux qui sont les plus proches de ces nouvelles technologies qui s’inquiètent en premier lieu des usages négatifs qui peuvent en être faits, car ils en sont plus conscients. Les conventions sur les armes nucléaires ont souvent été signées par des physiciens, dont certains eux-mêmes impliqués dans le développement de ces armes. Le cas Andreï Sakharov en est une illustration célèbre : ce physicien russe avait développé des bombes tellement puissantes que leur usage lui semblait complètement absurde. Il s’y est alors opposé.

En février de cette année, le Parlement européen a demandé à la Commission de « définir des normes juridiques et éthiques applicables aux robots ». Suffisant ? Qui peut, doit agir ?

Les normes, c’est intéressant, mais encore faut-il qu’elles soient appliquées. Une armée qui veut développer des outils se préoccupe peu des normes européennes. Ça ne va donc pas régler la question. En la matière, il faut revenir aux questions fondamentales. Pourquoi fait-on la guerre ? Pour contrôler un territoire, une population ou des ressources. Des guerres de robots à robots ne vont pas mener à grand chose. Si une armée de robots en détruit une autre, ce n’est que le début des hostilités, qui vont mener au contrôle des populations. Ma grande crainte est celle-là : que les systèmes automatisés jouent un rôle dans le contrôle des populations. Prenez un régime dictatorial : il pourrait se servir de ces technologies pour contrôler sa population, lors d’une manifestation d’opposition par exemple.

Faut-il les interdire, purement et simplement ?

Je trouve souhaitable qu’on ne développe pas ces technologies, mais je ne suis pas certain, vu la gradation dans l’usage possible des robots, qu’une interdiction soit efficace. Mais ce n’est pas pour ça qu’il ne faut pas militer pour se doter de règles internationales. Va-t-on y arriver ? Je crains que ce soit compliqué. Il y a pourtant un message moral à porter, en refusant l’usage de ces armes. Cela délégitimerait leur utilisation par d’autres régimes, comme ce fut le cas pour les armes chimiques. Cela tient avant tout aux pays les plus technologiquement avancés, en particulier les Etats-Unis, mais on sait qu’ils ont une présidence particulière actuellement…

Cet article réservé aux abonnés
est en accès libre sur Le Soir+
Chargement
A la une
Tous

En direct

Le direct

     

    Cet article réservé aux abonnés est exceptionnellement en accès libre

    Abonnez-vous maintenant et accédez à l'ensemble des contenus numériques du Soir : les articles exclusifs, les dossiers, les archives, le journal numérique...

    1€
    le 1er mois
    J'en profite
    Déjà abonné?Je me connecte
    Aussi en Forum