Headline

L’OTAN cherche à encadrer l’utilisation de l’intelligence artificielle à des fins militaires

L'OTAN cherche à encadrer l'utilisation de l'intelligence artificielle à des fins militaires
L’OTAN cherche à encadrer l’utilisation de l’intelligence artificielle à des fins militaires © NATO

Comment réglementer l’utilisation de l’intelligence artificielle dans le secteur militaire au niveau mondial ? Vaste sujet sur lequel réfléchit actuellement l’Organisation du traité de l’Atlantique nord (OTAN), alliance politique et militaire qui regroupe 30 pays dont 21 membres de l’Union européenne.

De prime abord, l’OTAN constitue un cadre propice à l’adoption d’une telle réglementation car il rassemble de grandes puissances telles que les Etats-Unis. C’est en tout cas ce que pense Mircea Geoana, le secrétaire général délégué de l’OTAN.

Nous avons plus que jamais besoin les uns des autres. Aucun pays ou aucun continent ne pourra à lui seul rivaliser dans cette ère de compétition entre les grandes puissances“, a-t-il déclaré dans une interview accordée à Politico.

Un arsenal publié d’ici cet été
L’OTAN devrait publier un ensemble de règles d’ici cet été. Il identifiera des moyens d’exploiter les systèmes d’apprentissage automatique de manière responsable, réglementera les applications militaires de cette technologie et fournira “une plateforme permettant aux alliés de tester leur IA pour voir si elle est conforme aux normes de l’OTAN”, précise David van Weel, le secrétaire général adjoint de l’OTAN pour les défis de sécurité émergents.

Ainsi, “si un adversaire utilisait des systèmes autonomes alimentés par l’IA d’une manière qui n’est pas compatible avec nos valeurs et notre morale, cela aurait des implications en matière de défense car nous aurions besoin de contrer ces systèmes“, affirme David van Weel, qui pointe du doigt Pékin qui renforcerait actuellement ses systèmes d’armement autonomes.

Un consensus totalement absent
Mais les pays membres de l’OTAN sont à des stades très différents sur ce sujet. De leurs côtés, les Etats-Unis désirent accroître l’utilisation de l’IA dans le secteur militaire. Au contraire, la plupart des pays européens n’ont pas fait de cette question une priorité dans les années à venir.

“Il n’est absolument pas surprenant que les Etats-Unis aient une stratégie d’IA militaire avant d’avoir une stratégie nationale sur l’IA“, explique à Politico Ulrike Franke, chercheuse au sein du Conseil européen des relations internationales (ECFR), un think tank qui promeut le développement d’une véritable politique étrangère européenne.

L’Europe a pris le chemin inverse, ajoute-t-elle. Elle cherche d’abord à adopter une réglementation générale avant de se pencher sur le cas spécifique de l’utilisation de l’IA à des fins militaires. En effet, dans son livre blanc publié en février 2020, la Commission européenne a volontairement précisé qu’elle ne traitait pas de cette question. Elle fera donc l’objet d’un texte annexe.

Les SALA, un sujet de discorde
Le sujet des systèmes d’armes létales autonomes (SALA), appelés abusivement “robots tueurs”, est également une source de désaccords entre les membres de l’OTAN. La France, le Royaume-Uni et les Etats-Unis développent ces technologies et s’opposent à un traité les interdisant tandis ce que la Belgique et l’Allemagne s’inquiètent de leurs développements.

L’un des problèmes est la divergence d’interprétation des règles en matière de droit des conflits armés. Sur la notion de “dommage collatéral” par exemple, l’Armée américaine estime qu’un tel dommage est quantifié en fonction de la valeur de la cible. Les autres Etats considèrent que les dommages collatéraux se calculent par rapport à l’avantage présent et concret d’une opération. Les systèmes autonomes, en fonction de leur nationalité, appliqueraient donc des régimes différents.

Leave a Reply

Your email address will not be published. Required fields are marked *