Sciences
Faut-il interdire les robots tueurs ?
Le sujet avait engendré cet été une forte polémique durant l’été entre Elon Musk, le fondateur Tesla et SpaceX, et le créateur de Facebook, Mark Zuckerberg. En cause : le danger des IA (intelligences artificielles) pour les êtres humains s’ils en perdaient le contrôle. Mais Elon Musk tire également le signal d’alarme sur un autre sujet qui en découle : les robots tueurs intelligents.
Le serial entrepreneur a même publié le 20 août dernier une lettre ouverte, cosignée par 115 autres dirigeants d’entreprises high tech. Tous mettent en garde contre l’utilisation potentielle des IA dans les armes létales. Ils appellent à une prise de conscience du public et des politiques face à une technologie qui ne nous menace pas encore, mais dont le potentiel de nuisance est fort. Impossible de ne pas penser au Skynet du film « Terminator », sorti en 1984, dans lequel les machines prenaient conscience d’elles-même et se débarrassaient de l’espèce humaine. “Les travaux dans le domaine de l'intelligence artificielle progressent très rapidement", affirme Raphaël Cherrier, fondateur de Qucit et signataire de la lettre ouverte. Ce genre de sujets doit se décider à l’échelle mondiale, donc vous imaginez l’inertie… Si on ne commence pas à s’en préoccuper suffisamment en amont, on peut être surpris.” Avec cette lettre ouverte, précise Jérôme Monceaux, fondateur de la société Spoon spécialisée dans les robots interactifs, "nous voulons alerter contre les machines qui analysent l'environnement, déterminent une cible et l'exécutent."
Si des armes encore inexistantes alarment déjà certains professionnels, c'est que la question de leur faisabilité ne se pose plus. "Développer une arme offensive capable de prendre une décision et de tuer n'est pas quelque chose de si compliqué que ça, affirme Jérôme Monceaux. Ce n'est pas un déballage technologique incroyable." Et si les drones armés ne tuent pas encore de manière autonome, c'est pour une raison morale. "Il y a encore une barrière éthique", précise M. Monceaux. "Mais si elle existe, c’est parce que la technologie n’est pas assez fiable, ajoute Raphaël Cherrier. Le jour où elle le sera à 99,9%, la barrière éthique deviendra plus difficile à défendre." Pour Jérôme Monceaux, tout le débat porte sur la déresponsabilitation d'un tel dispositif offensif autonome. Qui prend la décision de tuer ? "Cette lettre ouverte propose de ne jamais confier à une machine cette décision. Il faut qu'elle soit portée par un homme, de manière à ce que l'on puisse remonter la chaîne des responsabilités. »
Le serial entrepreneur a même publié le 20 août dernier une lettre ouverte, cosignée par 115 autres dirigeants d’entreprises high tech. Tous mettent en garde contre l’utilisation potentielle des IA dans les armes létales. Ils appellent à une prise de conscience du public et des politiques face à une technologie qui ne nous menace pas encore, mais dont le potentiel de nuisance est fort. Impossible de ne pas penser au Skynet du film « Terminator », sorti en 1984, dans lequel les machines prenaient conscience d’elles-même et se débarrassaient de l’espèce humaine. “Les travaux dans le domaine de l'intelligence artificielle progressent très rapidement", affirme Raphaël Cherrier, fondateur de Qucit et signataire de la lettre ouverte. Ce genre de sujets doit se décider à l’échelle mondiale, donc vous imaginez l’inertie… Si on ne commence pas à s’en préoccuper suffisamment en amont, on peut être surpris.” Avec cette lettre ouverte, précise Jérôme Monceaux, fondateur de la société Spoon spécialisée dans les robots interactifs, "nous voulons alerter contre les machines qui analysent l'environnement, déterminent une cible et l'exécutent."
Si des armes encore inexistantes alarment déjà certains professionnels, c'est que la question de leur faisabilité ne se pose plus. "Développer une arme offensive capable de prendre une décision et de tuer n'est pas quelque chose de si compliqué que ça, affirme Jérôme Monceaux. Ce n'est pas un déballage technologique incroyable." Et si les drones armés ne tuent pas encore de manière autonome, c'est pour une raison morale. "Il y a encore une barrière éthique", précise M. Monceaux. "Mais si elle existe, c’est parce que la technologie n’est pas assez fiable, ajoute Raphaël Cherrier. Le jour où elle le sera à 99,9%, la barrière éthique deviendra plus difficile à défendre." Pour Jérôme Monceaux, tout le débat porte sur la déresponsabilitation d'un tel dispositif offensif autonome. Qui prend la décision de tuer ? "Cette lettre ouverte propose de ne jamais confier à une machine cette décision. Il faut qu'elle soit portée par un homme, de manière à ce que l'on puisse remonter la chaîne des responsabilités. »