Weaponised l’IA est à venir. Sont algorithmique jamais guerres de notre avenir? | Ben Tarnoff

0
14

Le mois dernier a marqué le 17ème anniversaire de 9/11. Avec lui est venu une nouvelle étape: nous avons été en Afghanistan aussi longtemps que quelqu’un qui est né après les attentats est maintenant assez vieux pour aller se battre. Ils peuvent également servir dans les six autres endroits où nous sommes officiellement en guerre, pour ne pas mentionner les 133 pays où les forces d’opérations spéciales ont mené des missions dans tout le premier semestre 2018.

Les guerres de 9/11 continuer, avec aucune fin en vue. Maintenant, le Pentagone est d’investir massivement dans des technologies qui s’intensifie. En embrassant les derniers outils que la technologie de l’industrie a à offrir, l’armée américaine est la création d’un formulaire automatisé de la guerre – qui permettra d’augmenter considérablement sa capacité à faire la guerre partout pour toujours.

Vendredi, le département de la défense ferme de la période de soumission pour l’un des plus gros contrats de technologie dans son histoire: l’Entreprise Commune de Défense de l’Infrastructure (Jedi). Jedi est un projet ambitieux visant à créer un système infonuagique qui NOUS sert des forces partout dans le monde, des analystes derrière un bureau en Virginie aux soldats en patrouille au Niger. Le contrat vaut autant que 10 milliards de dollars sur 10 ans, qui est pourquoi les grandes entreprises de haute technologie sont de durs combats pour la gagner. (Pas de Google, cependant, où une campagne de pression par les travailleurs forcés de gestion de tomber hors de la course.)

Au premier coup d’œil, les Jedi pourraient ressembler juste un autre projet de modernisation informatique. Gouvernement, IL a tendance à courir une juste distance derrière la Silicon Valley, même dans un lieu aussi généreusement financé par le Pentagone. Avec quelque 3,4 millions d’utilisateurs et de 4 millions d’appareils, le département de la défense empreinte numérique est immense. Même une partie de sa charge de travail à un fournisseur de cloud comme Amazon sera sans aucun doute améliorer l’efficacité.

Mais le véritable moteur de la Jedi est le désir de weaponize IA – ce que le département de la défense a commencé à appeler “algorithmique de guerre”. La mise en commun de l’armée de données dans un cloud modernes plate-forme, et l’utilisation de la machine-learning services, que ces plateformes permettent d’analyser les données, les Jedi vont aider le Pentagone réaliser son IA ambitions.

Pourquoi enseigner les pilotes de drones à propos de l’éthique quand c’est des robots qui vont nous tuer? | Andrew Brown

Lire plus

L’échelle de ces ambitions a grandi de plus en plus évident au cours des derniers mois. En juin, le Pentagone a créé l’Articulation Artificielle Intelligence Center (JAIC), qui sera chargé de superviser les quelque 600 AI des projets actuellement en cours dans l’ensemble du ministère, à un coût prévu de $1,7 milliard. Et en septembre, la Defense Advanced Research projects Agency (Darpa), le Pentagone légendaire de R&D de l’aile, a annoncé qu’il allait investir jusqu’à 2 milliards de dollars sur les cinq prochaines années dans IA recherche d’armes.

Jusqu’à présent, les rapports du Pentagone AI frénésie de dépenses a surtout porté sur les perspectives de l’utilisation d’armes autonomes – Terminator-style de tueur de robots qui fauchent les gens vers le bas sans aucune intervention d’un opérateur humain. C’est en effet effrayant, dans un futur proche scénario, et une interdiction mondiale autonome de l’armement de la nature de ceux recherchés par la Campagne ” Stop Killer Robots est absolument essentiel.

Mais l’IA a déjà commencé le recâblage de la guerre, même si elle n’a pas (encore) pris la forme littérale des Terminateurs. Il y a moins de cinématiques, mais tout aussi effrayant façons de weaponize l’IA. Vous n’avez pas besoin d’algorithmes de tirer sur la gâchette pour les algorithmes de jouer un rôle extrêmement dangereux.

Pour comprendre ce rôle, elle aide à comprendre les difficultés particulières posées par l’forever guerre. La mise à mort elle-même n’est pas particulièrement difficile. Avec un budget militaire de plus grande que celle de la Chine, la Russie, l’Arabie Saoudite, l’Inde, la France, la grande-Bretagne et le Japon réunis, et près de 800 bases à travers le monde, les états-unis ont une abondance de puissance de feu et une capacité inégalée à déployer que la puissance de feu n’importe où sur la planète.

L’armée américaine sait tuer. La partie la plus difficile est de savoir à qui la tuer. Dans une approche plus traditionnelle de la guerre, il vous suffit de tuer l’ennemi. Mais qui est l’ennemi dans un conflit avec aucune frontière nationale, pas de fixe champs de bataille, et pas un des adversaires?

C’est l’éternelle question de l’éternité de la guerre. Il est également un élément clé de sa conception. L’imprécision de l’ennemi, c’est ce qui a permis de résoudre le conflit de continuer pendant près de deux décennies, et de l’étendre à plus de 70 pays – une aubaine pour les entrepreneurs, les bureaucrates et les politiciens qui vivent en NOUS le militarisme. Si la guerre est un racket, dans les mots de marine légende Smedley Butler, le forever war est l’un de la plus longue des inconvénients encore.

Mais l’imprécision de l’ennemi crée aussi de défis. C’est une chose de regarder une carte du Nord du Vietnam, et de chercher les endroits à la bombe. Il est tout à fait autre à tamiser à travers de vastes quantités d’informations provenant de tous les coins du monde afin d’identifier un bon candidat pour un drone de grève. Quand l’ennemi est partout, l’identification de la cible devient beaucoup plus de main-d’œuvre. C’est là où AI – ou, plus précisément, l’apprentissage machine. L’apprentissage de la Machine peuvent vous aider à automatiser l’un des plus long et fastidieux, les aspects de l’forever war: trouver des personnes à tuer.

Nous détenons des gens avec le pouvoir de rendre des comptes. Pourquoi ne pas les algorithmes? | Hannah Fry

Lire plus

Le Pentagone Projet Maven est déjà de mettre cette idée en pratique. Maven, aussi connu comme l’Algorithmique de la Guerre de l’Équipe inter-Fonctionnelle, a fait les manchettes récemment, pour susciter un employé de la révolte à Google plus de l’implication de la société. Maven est le militaire “pathfinder” de l’IA du projet. Sa phase initiale consiste à utiliser l’apprentissage de la machine à scanner drone vidéo pour aider à identifier les personnes, les véhicules et les bâtiments pourrait être intéressant de bombardement.

“Nous avons les analystes en regardant la vidéo full-motion, à regarder les écrans 6, 7, 8, 9, 10, 11 des heures à un moment,” dit le directeur de projet, le Lt Gen Jack Shanahan. Maven est un logiciel qui automatise le travail, puis les relais de ses découvertes à un humain. Jusqu’à présent, il a été un grand succès: le logiciel a été déployé sur six emplacements de combat au Moyen-Orient et en Afrique. L’objectif est à terme de charger le logiciel sur les drones eux-mêmes, afin qu’ils puissent localiser des cibles en temps réel.

Ne pas cette technologie, d’améliorer la précision, réduisant ainsi le nombre de victimes civiles? C’est un argument commun fait par les échelons supérieurs dans les deux du Pentagone et de la Silicon Valley afin de défendre leur collaboration sur des projets comme Maven. Code de l’Amérique Jen Pahlka met-il en termes de “couteaux affûtés” versus “terne couteaux”: plus nette couteaux peuvent aider les militaires à sauver des vies.

Dans le cas de militarisé AI, cependant, les couteaux en question ne sont pas particulièrement forte. Il ne manque pas d’histoires d’horreur de ce qui se passe quand l’homme de la surveillance est confiée à des défauts ou des préjugés algorithmes algorithmes qui ne peut pas reconnaître les visages noirs, ou que renforcer les préjugés raciaux dans les services de police et de condamnation pénale. Voulons-nous vraiment le Pentagone à l’aide de la même technologie pour aider à déterminer qui obtient une bombe sur la tête?

Mais le problème plus profond avec l’argument humanitaire à algorithmique de la guerre est l’hypothèse que l’armée américaine est essentiellement bienveillant de la force. Plusieurs millions de personnes dans le monde seraient en désaccord. En 2017 à lui seul, les états-unis et des alliés des frappes en Irak et en Syrie ont tué pas moins de 6 000 civils. De tels chiffres ne suggèrent pas un peu honnête erreurs ici et là, mais systémique de l’indifférence des “dommages collatéraux”. En effet, le gouvernement AMÉRICAIN a, à plusieurs reprises bombardé des civils, des rassemblements, tels que les mariages, dans l’espoir de tuer une cible de grande valeur.

En outre, la distinction entre civils et combattants est très poreux, dans l’ère de l’forever guerre. Un rapport de l’Intercepter suggère que les militaires AMÉRICAINS étiquettes à ceux qu’elle tue dans des frappes “ciblées” comme “ennemi tué dans l’action”, même si elles n’étaient pas l’une des cibles. Le soi-disant “signature strikes” menée par l’armée américaine et la CIA jouer des astuces similaires avec le concept du combattant. Ce sont des attaques de drones sur les individus dont l’identité est inconnue, mais qui sont soupçonnés d’être des militants basés sur l’affichage de certains “signatures” – qui peut être aussi vague que militaire-âgés de sexe masculin dans un domaine particulier.

Le problème n’est pas de la qualité des outils, en d’autres mots, mais l’institution brandissant. Et l’IA ne fera que rendre cette institution plus brutale. Le forever guerre exige que les états-unis voit des ennemis partout. AI promet de trouver les ennemis plus vite – même si tout ce qu’il faut pour être considéré comme un ennemi fait montre d’un comportement que l’un (classée) de la machine-modèle d’apprentissage associés à des activités hostiles. Appeler la mort par le big data.

L’IA a également le potentiel de faire de l’à jamais la guerre, plus permanente, en donnant certaines des plus grandes sociétés du pays un enjeu dans la perpétuent. La Silicon Valley a toujours eu des liens étroits avec l’armée américaine. Mais algorithmique guerre va amener de grosses tech plus profondément dans le complexe militaro-industriel, et de donner des milliardaires comme Jeff Bezos, un puissant encouragement pour assurer à jamais la guerre ne dure éternellement. Les ennemis seront trouvés. L’argent sera faite.