Risque lié à l’usage de l’intelligence artificielle

Le 25 février, Bastien Lachaud interpelait le gouvernement au sujet de l’usage de l’intelligence artificielle dans les processus de confrontations entre les armées. Elles font peser un risque accru de confrontations, risque qu’il est nécessaire de prendre en compte. M. Bastien Lachaud alerte Mme la ministre des armées sur les

Partager

Le 25 février, Bastien Lachaud interpelait le gouvernement au sujet de l’usage de  l’intelligence artificielle dans les processus de confrontations entre les armées. Elles font peser un risque accru de confrontations, risque qu’il est nécessaire de prendre en compte.

M. Bastien Lachaud alerte Mme la ministre des armées sur les risques d’escalade dans les conflits liés à l’usage de l’intelligence artificielle par les armées. Le think tank « Rand Corporation » a publié une étude inquiétante sur les conséquences de l’utilisation des systèmes d’intelligence artificielle, dans le cadre de confrontations entre grandes puissances militaires, susceptibles de développer de tels systèmes. En effet, il ressort de cette étude fondée notamment sur des simulations de confrontations que l’emploi des systèmes d’intelligence artificielle augmente considérablement les risques d’escalade, et le niveau de conflictualité entre les différents acteurs. L’usage de ces systèmes augmenterait proportionnellement la rapidité de la confrontation armée, et couperait d’autant plus vite la voie de la désescalade diplomatique et la recherche d’une solution pacifique. Plusieurs arguments sont développés : l’usage des systèmes automatiques permet une plus grande prise de risque de la part de chacun des acteurs. N’étant pas susceptibles d’avoir peur, de renoncer en fonction de facteurs de décision humains, les décideurs craignant peut-être moins leur perte que celle de vies humaines, les risques pris sont accrus. Or, s’agissant de systèmes automatiques, les adversaires hésitent moins, eux aussi, à les détruire s’ils en détectent l’intrusion. Aussi la réplique est plus rapide, et le risque de réplique est accru. Or la riposte à cette réplique peut, elle, ne pas se limiter aux systèmes automatiques et devenir létale. Deuxièmement, par nature les systèmes d’intelligence artificielle répondent à un programme prédéfini, qui aura certes pu faire un « apprentissage », mais correspondra toujours à un nombre de paramètres limités, et ne pourra pas s’adapter ou avoir un doute suffisant, comme pourrait l’avoir une personne, à une situation particulière. L’indécision humaine, et le temps de réflexion nécessaire à une personne pour agir, vérifier, prendre des ordres complémentaires au vu de la situation sur le terrain, sont autant de facteurs qui permettent d’éviter l’escalade immédiate. Les systèmes autonomes ne les ont pas et « appliquent » strictement la doctrine d’emploi, là où il faudrait parfois temporiser. Troisièmement, l’intelligence artificielle présente une vulnérabilité particulière au niveau cyber. Car l’aide à la décision que ces systèmes permettent peut être faussée par des actions hostiles, manipulation délibérée, hackage. Ces systèmes par nature faillibles comportent de surcroît cet aléatoire de la manipulation de leurs données. Dans l’histoire, plusieurs cas rappellent l’importance de l’intelligence humaine pour éviter l’escalade, qui aurait pu aller jusqu’à la guerre nucléaire. Il ne faudrait pas que l’usage aveugle des systèmes d’intelligence artificielle et autonomes puisse conduire à une telle escalade, qui aurait des conséquences irréversibles sur la paix, sur les équilibres mondiaux, voire sur la possibilité même d’une vie humaine sur terre en cas d’escalade nucléaire. Aussi, il souhaite apprendre de sa part quelle est la doctrine de la France face à cette menace spécifique d’escalade. Il souhaiterait également savoir quelles initiatives elle entend prendre au niveau international afin de prévenir ce risque d’escalade.

Le 16 juin, le ministère répondait :

L’intelligence artificielle (IA) reste un moyen et non une finalité en soi : elle ne substitue pas à l’être humain, quand bien même elle effectuerait certaines tâches pour lui. La France soutient le développement de l’IA dans le domaine militaire, qu’elle soumet toutefois au respect de trois principes : le respect du droit international en vigueur (en particulier le droit international humanitaire) ; une interaction homme-machine permettant de superviser/contrôler suffisamment le système d’arme ; une responsabilité du commandement humain, seul responsable légitime pour définir et valider les règles de fonctionnement, d’emploi et d’engagement des systèmes d’armes. Il est donc primordial que la prise de décision ultime sur l’emploi de la force létale reste la prérogative d’un commandement humain, militaire, organisé, et subordonné aux décisions du politique. Il s’agit là d’un impératif propre à tout État démocratique et c’est la position défendue par la France dans les enceintes internationales. Le ministère des armées a publié en septembre 2019 un document stratégique sur l’intelligence artificielle qui précise le cadre dans lequel doivent s’inscrire les utilisations de l’intelligence artificielle. Par ailleurs, un comité d’éthique ministériel incluant des personnalités qualifiées a été mis en place et formulera des recommandations dans ce domaine. Le rapport de la Rand Corporation intitulé « Deterrence in the age of thinking machines » nécessite des précautions dans son exploitation car les IA qu’il mentionne (« True deep learning ») n’existent pas encore, de même qu’il n’y a pas de garantie que ce soit technologiquement possible. Comme indiqué dans le rapport, des biais existent dans la réalisation de cette étude notamment le fait que les joueurs ont été encouragés à être agressifs dans leurs décisions afin de favoriser l’escalade. Par ailleurs, les décisions prises par les IA, bien que plus rapides, ne conduisent pas toujours à des effets immédiats. Ce temps de réalisation de l’action laisse l’opportunité à l’homme de réagir. Enfin, il est nécessaire de rappeler que la modélisation et la mise en équation d’une situation tactique militaire sont extrêmement complexes (nombreux systèmes dynamiques – dans le temps et l’espace – nécessitant de très nombreuses variables), d’un niveau supérieur à celui observé dans le monde civil. Par ailleurs, la France ne souhaite pas aller vers des systèmes autonomes, qui pourraient s’affranchir des règles fixées par l’être humain et ne présentent donc pas d’intérêt opérationnel. Ainsi, loin de risquer d’accroître le niveau de violence dans un conflit, l’apport des systèmes automatiques permet d’augmenter les performances des soldats leur permettant ainsi de répondre de façon plus adaptée aux situations. En outre, le soutien de l’IA peut permettre de retarder l’emploi de la force en temps de crise et par là même de laisser au compétiteur plus de marge de manœuvre pour reculer agissant ainsi comme un outil de mitigation du risque d’escalade.

Recherche
Contactez-moi

Écrivez-moi un message dans la boîte contact ci-dessous !