"Faire Des Robots Tueurs Est Une Très, Très Mauvaise Idée" - Vue Alternative

Table des matières:

"Faire Des Robots Tueurs Est Une Très, Très Mauvaise Idée" - Vue Alternative
"Faire Des Robots Tueurs Est Une Très, Très Mauvaise Idée" - Vue Alternative

Vidéo: "Faire Des Robots Tueurs Est Une Très, Très Mauvaise Idée" - Vue Alternative

Vidéo:
Vidéo: 7 vrais ROBOTS les plus DANGEREUX 🤖 2024, Mai
Anonim

Clearpath Robotics a été fondée il y a six ans par trois amis d'université qui partagent une passion pour la fabrication d'objets. 80 spécialistes de la société testent des robots tout terrain comme le Husky, un robot à quatre roues utilisé par le département américain de la Défense.

Rauque

Image
Image

Ils fabriquent également des drones et ont même construit le bateau robotique Kingfisher. Cependant, ils ne construiront jamais une chose à coup sûr: un robot qui peut tuer.

Clearpath est la première et jusqu'à présent la seule entreprise de robots à s'engager à ne pas construire de robots tueurs. La décision a été prise l'année dernière par le co-fondateur et CTO Ryan Garipay, et a même fait appel à des experts qui appréciaient la position éthique unique de Clearpath.

L'éthique des entreprises de robotique est récemment revenue au premier plan. Vous voyez, nous sommes avec un pied dans un futur où des robots tueurs existeront. Et nous ne sommes pas encore complètement prêts pour eux.

Bien sûr, il reste encore un long chemin à parcourir. La société coréenne Dodam Systems, par exemple, construit une tourelle robotique autonome appelée Super aEgis II. Il utilise des caméras thermiques et des télémètres laser pour identifier et attaquer des cibles jusqu'à 3 kilomètres de distance. Les États-Unis expérimenteraient également des systèmes de missiles autonomes.

Vidéo promotionelle:

À deux pas des «terminateurs»

Les drones militaires comme le Predator sont actuellement actionnés par l'homme, mais Garipai dit qu'ils seront très bientôt entièrement automatiques et autonomes. Et cela l'inquiète. Très. «Les systèmes d'armes létales autonomes peuvent désormais sortir de la chaîne de montage. Mais les systèmes d'armes mortelles, qui seront fabriqués conformément aux normes éthiques, ne sont même pas prévus."

Image
Image

Pour Garipay, le problème réside dans les droits internationaux. Il y a toujours des situations de guerre dans lesquelles le recours à la force semble nécessaire, mais il peut aussi mettre en danger des passants innocents. Comment créer des robots tueurs qui prendront les bonnes décisions dans n'importe quelle situation? Comment pouvons-nous déterminer nous-mêmes quelle devrait être la bonne décision?

Nous voyons déjà des problèmes similaires avec l'exemple du transport autonome. Disons qu'un chien traverse la route. La voiture robotique devrait-elle faire un écart pour éviter de heurter le chien mais mettre ses passagers en danger? Et si ce n'était pas un chien, mais un enfant? Ou un bus? Imaginez maintenant une zone de guerre.

«Nous ne pouvons pas nous entendre sur la façon de rédiger un manuel pour une telle voiture», déclare Garipay. "Et maintenant, nous voulons également passer à un système qui doit décider indépendamment d'utiliser la force létale ou non."

Fais des trucs sympas, pas des armes

Peter Asaro a passé ces dernières années à faire pression pour une interdiction des robots tueurs dans la communauté internationale, en tant que fondateur du Comité international pour le contrôle des armées robotiques. Il estime que le moment est venu pour "une interdiction internationale claire de leur développement et de leur utilisation". Cela permettra à des entreprises comme Clearpath de continuer à faire des choses cool, a-t-il déclaré, "sans craindre que leurs produits puissent être utilisés pour violer les droits de l'homme et menacer les civils".

Les missiles autonomes présentent un intérêt pour les militaires car ils résolvent un problème tactique. Lorsque des drones télécommandés, par exemple, fonctionnent dans des conditions de combat, il n'est pas rare que l'ennemi bloque les capteurs ou la connexion réseau de sorte que l'opérateur humain ne puisse pas voir ce qui se passe ou contrôler le drone.

Garipay dit qu'au lieu de développer des missiles ou des drones qui peuvent décider eux-mêmes de la cible à attaquer, l'armée doit dépenser de l'argent pour améliorer les capteurs et la technologie de brouillage.

«Pourquoi ne prenons-nous pas l'investissement que les gens aimeraient faire pour construire des robots tueurs autonomes et ne l'investissons-nous pas pour rendre la technologie existante plus efficace? il dit. «Si nous nous fixons un défi et surmontons cet obstacle, nous pouvons faire en sorte que cette technologie fonctionne dans l'intérêt des gens, pas seulement des militaires.

Récemment, on a aussi parlé davantage des dangers de l'intelligence artificielle. Elon Musk craint qu'une IA incontrôlable puisse détruire la vie telle que nous la connaissons. Musk a fait don de 10 millions de dollars le mois dernier à la recherche en intelligence artificielle.

L'une des grandes questions sur la façon dont l'IA affectera notre monde est de savoir comment elle fusionnera avec la robotique. Certains, comme Andrew Ng, chercheur chez Baidu, craignent que la prochaine révolution de l'IA prenne des emplois. D'autres comme Garipay craignent que cela prenne des vies.

Garipay espère que ses collègues, scientifiques et constructeurs de machines réfléchiront à ce qu'ils font. C'est pourquoi Clearpath Robotics a pris le parti des gens. "Bien que nous ne puissions pas parier 10 millions de dollars en tant qu'entreprise, nous pouvons parier sur notre réputation."

Recommandé: