Risque lié à l’usage de l’intelligence artificielle

Le 25 février, Bastien Lachaud interpelait le gouvernement au sujet de l’usage de  l’intelligence artificielle dans les processus de confrontations entre les armées. Elles font peser un risque accru de confrontations, risque qu’il est nécessaire de prendre en compte.

M. Bastien Lachaud alerte Mme la ministre des armées sur les risques d’escalade dans les conflits liés à l’usage de l’intelligence artificielle par les armées. Le think tank « Rand Corporation » a publié une étude inquiétante sur les conséquences de l’utilisation des systèmes d’intelligence artificielle, dans le cadre de confrontations entre grandes puissances militaires, susceptibles de développer de tels systèmes. En effet, il ressort de cette étude fondée notamment sur des simulations de confrontations que l’emploi des systèmes d’intelligence artificielle augmente considérablement les risques d’escalade, et le niveau de conflictualité entre les différents acteurs. L’usage de ces systèmes augmenterait proportionnellement la rapidité de la confrontation armée, et couperait d’autant plus vite la voie de la désescalade diplomatique et la recherche d’une solution pacifique. Plusieurs arguments sont développés : l’usage des systèmes automatiques permet une plus grande prise de risque de la part de chacun des acteurs. N’étant pas susceptibles d’avoir peur, de renoncer en fonction de facteurs de décision humains, les décideurs craignant peut-être moins leur perte que celle de vies humaines, les risques pris sont accrus. Or, s’agissant de systèmes automatiques, les adversaires hésitent moins, eux aussi, à les détruire s’ils en détectent l’intrusion. Aussi la réplique est plus rapide, et le risque de réplique est accru. Or la riposte à cette réplique peut, elle, ne pas se limiter aux systèmes automatiques et devenir létale. Deuxièmement, par nature les systèmes d’intelligence artificielle répondent à un programme prédéfini, qui aura certes pu faire un « apprentissage », mais correspondra toujours à un nombre de paramètres limités, et ne pourra pas s’adapter ou avoir un doute suffisant, comme pourrait l’avoir une personne, à une situation particulière. L’indécision humaine, et le temps de réflexion nécessaire à une personne pour agir, vérifier, prendre des ordres complémentaires au vu de la situation sur le terrain, sont autant de facteurs qui permettent d’éviter l’escalade immédiate. Les systèmes autonomes ne les ont pas et « appliquent » strictement la doctrine d’emploi, là où il faudrait parfois temporiser. Troisièmement, l’intelligence artificielle présente une vulnérabilité particulière au niveau cyber. Car l’aide à la décision que ces systèmes permettent peut être faussée par des actions hostiles, manipulation délibérée, hackage. Ces systèmes par nature faillibles comportent de surcroît cet aléatoire de la manipulation de leurs données. Dans l’histoire, plusieurs cas rappellent l’importance de l’intelligence humaine pour éviter l’escalade, qui aurait pu aller jusqu’à la guerre nucléaire. Il ne faudrait pas que l’usage aveugle des systèmes d’intelligence artificielle et autonomes puisse conduire à une telle escalade, qui aurait des conséquences irréversibles sur la paix, sur les équilibres mondiaux, voire sur la possibilité même d’une vie humaine sur terre en cas d’escalade nucléaire. Aussi, il souhaite apprendre de sa part quelle est la doctrine de la France face à cette menace spécifique d’escalade. Il souhaiterait également savoir quelles initiatives elle entend prendre au niveau international afin de prévenir ce risque d’escalade.