Le 5 mars dernier, Women In International Security (WIIS) France vous invitait à participer à son premier Speed Expertise. Ce nouveau format d’événement, combinant de courtes présentations d’expertes sur un sujet de réflexion prédéterminé, puis un moment de partage nous a permis de découvrir les travaux de trois expertes : Joanne Kirkham, Alice Lane et Clotilde Bômont.
Nous avons eu l’honneur d’être accueillies dans les locaux de l’Institut des Relations Internationales (IRIS) par Sylvie Matelly, directrice adjointe de l’Institut, et Marie-Cécile Naves, qui en dirige l’Observatoire du Genre.
Le sujet de réflexion portait sur les enjeux éthiques, juridiques et pratiques des nouvelles technologies dans le secteur de la défense.
Vous retrouverez ci-après la synthèse de leurs présentations.
Armes létales autonomes – quel cadre juridique ?
Présentation par Joanne Kirkham, chercheure associée au Centre Thucydide et doctorante contractuelle. Joanne enseigne le droit international et les relations internationales. Ses travaux de recherche portent sur les systèmes d’armes létaux autonomes en droit international.
Dans un avenir plus ou moins proche, des systèmes d’armes létaux capables de choisir, indépendamment d’une intervention humaine, (permanente) d’engager une cible humaine sur un champ de bataille pourraient être déployés.
Le droit doit-il les interdire (Human Rights Watch milite notamment pour l’interdiction des «robots tueurs ») ou doit-il encadrer leur déploiement ? L’articulation du droit international humanitaire et du développement des champs de bataille de demain est ardue.
Les militaires, les ingénieurs et les chercheurs travaillant sur les systèmes d’armes (incluant les UAV-UGV et l’intelligence artificielle notamment) constituerait un premier groupe. Ce groupe est intéressé par le potentiel des armes létales autonomes puisqu’il y voit des opportunités stratégiques (les armées notamment, dont l’objectif est de projeter la force en limitant les risques et donc en protégeant leurs personnels). Pour justifier l’utilisation des armes létales autonomes en droit international humanitaire, ce groupe souligne leur fonctionnement-même, autonome. En période de conflit, ce fonctionnement autonome par ciblage permet de mieux protéger les civils et les soldats.
Un second groupe s’oppose au développement et au déploiement des armes létales autonomes (en témoignent les nombreuses évocations du terme « robots tueurs »). Outre la crainte des limites techniques (l’incapacité de distinguer précisément une cible), ce groupe argue que le droit de ne pas être tué par un robot est un droit humain.
Le droit international humanitaire et le droit international pénal sont donc sollicités par ces systèmes d’armes qui mettent en exergue la responsabilité des entités étatiques et non-étatiques qui les déploient. De facto, aucun système complètement autonome ne peut exister. Tous utiliseront des données qui proviennent de sources spécifiques. En théorie, tout chef militaire, et par ce biais tout Etat, est responsables de l’utilisation de ces armes, même si elles n’ont pas été fabriquées ou programmées par l’Etat, mais simplement achetées à une entité tierce. Un chef militaire peut-il être tenu responsable si jamais la machine présente un dysfonctionnement ? Sur quel fondement juridique ? Des ambiguïtés persistent, amplifiées par le fait que tous les Etats membres des Nations Unies ne soient pas signataires ou n’aient pas ratifié les textes juridiques pertinents.
Enfin, il existe actuellement un blocage au niveau des Nations Unies au sujet des armes létales autonomes. Il n’y a ni définition claire, ni perception commune de risques, et ni volonté d’agir. Cela freine de fait l’élaboration d’une convention.
Il serait peut-être opportun d’avancer de façon constructive, en favorisant les échanges entre les deux groupes précités, et en avançant par le biais du Soft Law. Ce fonctionnement permettrait d’établir des principes généraux et un code de conduite, en s’inspirant par exemple des approches du domaine Cyber.
Armes létales autonomes – Enjeux éthiques et implication du secteur privé
Présentation d’Alice Lane, consultante en transformation digitale. Diplômée de la Queen Mary University de Londres, les réflexions d’Alice portent sur l’implication du secteur privé dans le développement des armes autonomes.
Pour développer et engager des phases de tests de leurs propres systèmes d’armes autonomes létales, beaucoup de forces armées étatiques ont choisi de faire appel au secteur privé. Ce choix s’explique par deux facteurs : le secteur privé est souvent beaucoup plus avancé en ce qui concerne l’intelligence artificielle et des systèmes qui fonctionneraient en autonomie, et les forces armées ne disposent pas de toutes les compétences requises en interne pour le développement de tels systèmes. Or, ce basculement vers le secteur privé pose plusieurs questions éthiques.En premier lieu, le fonctionnement logique des entreprises repose sur leur chiffre d’affaires et leur obligation d’honorer les contrats conclus. Ensuite, dans la mesure où le produit final et son utilisation restent à ce stade peu juridiquement encadrés, il est possible, aussi bien pour les gestionnaires que pour les développeurs, de faire abstraction de certains paramètres : des algorithmes étant programmés par des « civils », mais les systèmes d’armes autonomes maniés par les militaires, on peut soupçonner que la mentalité « civile » et ses paramètres se distinguent nettement de la déontologie militaire. Il faut également prendre en compte l’infiltration de biais implicites dans les algorithmes : le gender bias par exemple, ou bien des biais raciaux ont été mis en évidence, ce qui pousse à s’interroger sur la « boîte noire » que constituent ces systèmes.
Par ailleurs, les questions éthiques soulevées relèvent aussi de la conception de l’être humain et de la responsabilité juridique. Comme indiqué par Joanne, le droit international humanitaire pose des questions éthiques. Certaines sont liées à la conception-même de l’être humain. L’homicide par une machine, et non par un être humain constitue-t-il une violation des Droits de l’Homme, même si ladite machine aurait correctement identifié sa cible ? La victime serait-elle dégradée par cette mort, car déclarée indigne de conflit via interaction humaine ? Dans tous les cas, le deuil est rendu plus difficile par cette distanciation vis-à-vis de l’acteur humain.
Loin de ces considérations conceptuelles qui peuvent paraître très abstraites, des questions de responsabilité juridique se posent. Les machines, comme les êtres humains, commettent des erreurs. Si un soldat et ses supérieurs doivent répondre d’une éventuelle bavure, qu’en est-il pour un système autonome ? Qui est responsable : l’armée qui a utilisé le système, l’ingénieur qui l’avait programmé, l’entreprise qui l’avait commercialisé ? Que se passerait-il si des systèmes autonomes disponibles sur le marché tombaient dans les mains de terroristes ? Certains acteurs du secteur privé sont en mesure d’accumuler d’énormes quantités de données et d’en déduire des enseignements sur des individus ; en ce sens, leur éventuelle proximité avec des systèmes d’armes autonomes est inquiétante.
Les armes létales autonomes en elles-mêmes peuvent être considérées comme problématiques d’un point de vue éthique. Ce problème s’accentue si l’on y ajoute l’implication du secteur privé dans toutes les phases de leur développement, de la conception à la commercialisation.
Cas pratique : implications stratégiques de l’utilisation du Cloud par les forces armées
Présentation de Clotilde Bômont, doctorante allocataire à l’Université Panthéon-Sorbonne et chercheure associée à l’Institut de Recherche Stratégique de l’Ecole Militaire (IRSEM). Clotilde est spécialiste des questions liées aux services d’information militaires et au Cloud Computing dans la Défense.
Le Cloud est une réponse technique conçue par le secteur privé aux défis du stockage, du traitement et de la mutualisation de données. Au lieu de stocker des données sur des ordinateurs individuels, elles sont stockées sur des serveurs en « nuages de données » accessibles et exploitables selon des critères fixés par les utilisateurs. L’utilisation du Cloud croît d’environ 17% par an. Cette technologie s’intègre dans un contexte multiplication croissante de données, elle-même due à une multitude de connections entre utilisateurs, entre utilisateurs et objets, et entre objets eux-mêmes. La complexification du système qui en résulte rend le traitement et l’exploitation de données très difficiles.
L’intérêt qu’ont les forces armées et du ministère des Armées à utiliser le Cloud paraît évident : pour les forces armées, créer et utiliser des « nuages de données » dans le cadre d’une opération serait un atout tactique et opérationnel. Pour le ministère, rassembler toutes les données du personnel pour optimiser la gestion des ressources humaines par exemple serait également d’un grand intérêt. Mais intégrer la technologie Cloud dans des systèmes à usage militaire, et même à usage strictement administratif est complexe.
Peut-on réellement externaliser ces services auprès de prestataires tiers ?
Ces réflexions mettent en exergue la nature géopolitique du Cloud, qui est avant tout un objet géographique s’appuyant sur des infrastructures physiques, les Data Centers, centres de stockage de données, localisés sur des territoires capables de fournir de l’énergie, des artères de transport et de la main d’œuvre qualifiée.
Néanmoins, le Cloud a aussi des effets extraterritoriaux car il n’est pas confiné dans des frontières nationales. Tout d’abord, il est accessible de n’importe quel endroit du monde connecté à Internet. Ensuite, les Etats sur le sol desquels se trouvent des Data Centers ont au moins théoriquement accès aux données qui appartiennent à des pays tiers, ce qui constitue une potentielle atteinte à la souveraineté de ces derniers. Enfin, certains Data Centers devraient respecter la législation du pays qui les hébergent, et ne le font pas.
La souveraineté numérique nationale et le Cloud dominé par les acteurs (privés) américains font donc difficilement bon ménage. C’est pourquoi la France tente actuellement de mettre sur pied un Cloud souverain. Il existe également des initiatives européennes en ce sens. En parallèle, les acteurs privés américains tentent de protéger leurs parts de marché en prenant leurs distances avec le gouvernement américain.
Au niveau des forces armées, l’intégration du Cloud est complexe. En dehors des questions sécuritaires liées à la protection des données sensibles, le Cloud crée des problèmes organisationnels (incompatibilités de systèmes informatiques, formation du personnel, …), sociaux (différence de valeurs entre univers militaire et secteur privé) et d’un point de vue des ressources humaines (difficulté de recruter du personnel qualifié).
Le Cloud est donc un enjeu de puissance : celui qui maîtrise le Cloud maîtrise une grande partie des données mondiales. L’accès à ces réalités numérisées porteuses d’informations exploitables forme le socle du développement de nouvelles technologies fondées sur l’intelligence artificielle.
#aide #dons