Weaponised AI è venuta. Sono algoritmico per sempre le guerre e il nostro futuro? | Ben Tarnoff

0
17

Il mese scorso ha segnato il 17 ° anniversario del 9/11. Con esso è venuto un nuovo traguardo: siamo in Afghanistan per così tanto tempo che chi è nato dopo gli attacchi è ora abbastanza vecchio per andare a combattere. Si può servire anche in altri sei luoghi dove siamo ufficialmente in guerra, per non parlare dei 133 paesi in cui le forze speciali hanno condotto missioni in solo la prima metà del 2018.

Le guerre di 9/11 continuare, con nessuna fine in vista. Ora, il Pentagono è fortemente investendo in tecnologie che intensificherà. Abbracciando i nuovi strumenti che la tecnologia ha da offrire, NOI militari è la creazione di un più automatizzato forma di guerra, che aumenterà notevolmente la sua capacità di fare la guerra, ovunque, per sempre.

Venerdì, il dipartimento della difesa si chiude il periodo di offerta per uno dei più importanti contratti relativi alla tecnologia nella sua storia: la Joint Enterprise Difesa Infrastrutture (Jedi). Jedi è un ambizioso progetto per la costruzione di un sistema di cloud computing che CI serve forze in tutto il mondo, da parte di analisti dietro ad una scrivania in Virginia, a soldati di pattuglia in Niger. Il contratto ha un valore di 10 miliardi di dollari in 10 anni, che è il motivo per cui le grandi aziende tecnologiche stanno lottando duramente per vincere. (Non Google, tuttavia, in cui una campagna di pressione da parte di lavoratori costretti gestione di cadere fuori dalla corsa.)

A prima vista, Jedi può sembrare semplicemente un altro progetto di modernizzazione. Il governo tende a eseguire una discreta distanza dietro di Silicon Valley, anche in un luogo come generosamente finanziato come il Pentagono. Con alcuni di 3,4 milioni di utenti e 4 milioni di dispositivi, il dipartimento della difesa dell’impronta digitale è immenso. Lo spostamento anche di una parte dei suoi carichi di lavoro per un provider di servizi cloud come Amazon sarà senza dubbio migliorare l’efficienza.

Ma la vera forza Jedi è il desiderio di militarizzare AI – che il dipartimento della difesa ha incominciato a chiamare “algoritmica di guerra”. Mettendo in comune le forze militari di dati in una moderna piattaforma di cloud, e di utilizzare la macchina-learning servizi che tali piattaforme fornire per analizzare i dati, Jedi aiuterà il Pentagono realizzare AI ambizioni.

Perché insegnare drone piloti sull’etica, quando i robot che ci ucciderà? | Andrew Brown

Leggi di più

La scala di tali ambizioni è cresciuta sempre più evidente in questi ultimi mesi. Nel mese di giugno, il Pentagono ha costituito la Joint Artificial Intelligence Center (JAIC), che supervisiona circa 600 AI progetti attualmente in corso in tutto il reparto con un costo previsto di $1,7 miliardi di euro. E nel mese di settembre, la Defense Advanced Research Projects Agency (Darpa), il Pentagono piani di R&D ala, ha annunciato di voler investire fino a $2 miliardi di euro nei prossimi cinque anni, in AI la ricerca di armi.

Finora, la rendicontazione del Pentagono AI spesa folle è in gran parte incentrata sulla prospettiva di autonoma armi – Terminator-stile robot killer che investire la gente, senza alcun input da parte di un operatore umano. Questo è davvero un momento di paura per il futuro prossimo scenario, e la messa al bando globale autonoma di armi del genere ricercato dalla Campagna Stop Killer Robots è assolutamente essenziale.

Ma l’AI ha già iniziato il ricablaggio di guerra, anche se non è (ancora) preso la forma di letterale Terminatori. Ci sono meno cinematografico, ma altrettanto spaventoso modi per militarizzare AI. Non hai bisogno di algoritmi di tirare il grilletto per gli algoritmi di gioco estremamente pericoloso ruolo.

Per capire che ruolo, che aiuta a comprendere la particolare difficoltà per sempre la guerra. L’uccisione in sé non è particolarmente difficile. Con un budget militare più grande di quella di Cina, Russia, Arabia Saudita, India, Francia, gran Bretagna e Giappone messi insieme, e a circa 800 basi in giro per il mondo, CI è un’abbondanza di fuoco e un’ineguagliabile capacità di distribuire la potenza di fuoco ovunque sul pianeta.

I militari USA sa uccidere. La parte più difficile è capire chi uccidere. In un modo più tradizionale di guerra, è semplicemente uccidere il nemico. Ma chi è il nemico in un conflitto senza confini nazionali, senza fissa campi di battaglia, e non convenzionale avversari?

Questa è la perenne questione del per sempre la guerra. È anche una caratteristica chiave del suo design. La vaghezza del nemico è quello che ha permesso il conflitto di continuare per quasi due decenni, e per espandere a più di 70 paesi – un vantaggio per gli imprenditori, burocrati e i politici che fanno la loro vita da NOI il militarismo. Se la guerra è una racchetta, nelle parole di marino leggenda Smedley Butler, the forever war è uno il più lungo contro di sicurezza.

Ma la vaghezza del nemico crea anche alcune sfide. Una cosa è guardare una mappa del Vietnam del Nord e scelta di bomba. È piuttosto un altro per vagliare attraverso una vasta quantità di informazioni da tutto il mondo per identificare un buon candidato per un drone strike. Quando il nemico è ovunque, identificazione del target diventa molto più laborioso. Questo è dove IA – o, più precisamente, tecniche di machine learning. Macchina di apprendimento consentono di automatizzare una delle più noioso e richiede tempo, aspetti della forever war: la ricerca di persone da uccidere.

Siamo in possesso di persone con il potere di account. Perché non algoritmi? | Hannah Fry

Leggi di più

Il Pentagono Progetto Maven è già messa in pratica di questa idea in pratica. Maven, noto anche come Algoritmico Guerra Team Cross-Funzionale, ha fatto notizia recentemente per la formazione di scintille di un dipendente rivolta a Google nel coinvolgimento dell’azienda. Maven è il militare “pathfinder” AI progetto. Sua fase iniziale comporta l’uso di machine learning per la scansione di droni riprese video per aiutare a identificare le persone, veicoli ed edifici che potrebbero essere la pena di bombardamenti.

“Abbiamo gli analisti di guardare video in full-motion, a fissare schermi 6, 7, 8, 9, 10, 11 ore alla volta”, dice il direttore del progetto, Lt Gen Jack Shanahan. Maven è un software che automatizza il lavoro, quindi la inoltra le sue scoperte a un essere umano. Finora, è stato un grande successo: il software è stato distribuito a sei posizioni di combattimento in Medio Oriente e in Africa. L’obiettivo è, infine, caricare il software su droni stessi, in modo da poter individuare gli obiettivi in tempo reale.

Non questa tecnologia per migliorare la precisione, riducendo così le vittime civili? Questo è un argomento comune fatto da maggiore-up sia il Pentagono e la Silicon Valley per difendere la loro collaborazione su progetti come Maven. Codice America Jen Pahlka la mette in termini di “coltelli affilati” e “noioso coltelli”: più affilato i coltelli possono aiutare i militari a salvare vite umane.

Nel caso di un’arma AI, tuttavia, i coltelli in questione non sono particolarmente taglienti. Non c’è carenza di storie di orrore di ciò che accade quando svista umana è affidata a un guasto o un pregiudizio algoritmi gli algoritmi che non riesce a riconoscere facce nere, o che rafforzare pregiudizi razziali in materia di polizia e penali di condanna. Vogliamo davvero che il Pentagono utilizzando la stessa tecnologia per aiutare a determinare chi ottiene una bomba cadde sulla testa?

Ma il problema più profondo con il umanitario argomento per algoritmica di guerra è il presupposto che le forze armate USA è sostanzialmente benevolo forza. Molti milioni di persone in tutto il mondo non sarebbero d’accordo. Nel 2017, da solo, USA e alleati scioperi in Iraq e Siria, ha ucciso circa 6.000 civili. Numeri come questi non suggerire un paio di errori onesti qui e là, ma un sistemica indifferenza per “danni collaterali”. Infatti, il governo degli stati UNITI ha ripetutamente bombardato civili raduni come matrimoni, nella speranza di uccidere un alto valore destinazione.

Inoltre, la linea tra civili e combattenti è altamente porosa, nell’era sempre guerra. Un report da Intercettare suggerisce che le forze armate USA etichette chiunque uccide in “mirati” colpisce come un “nemico ucciso in azione”, anche se non è uno degli obiettivi. La cosiddetta “firma scioperi”, condotta dai militari americani e la CIA giocare trucchi simili, con il concetto di combattente. Questi sono drone attacchi su individui le cui identità sono sconosciuti, ma che sono sospettati di essere militanti di base visualizzazione di alcune “firme” che può essere vago come un militare di età, di sesso maschile in una particolare area.

Il problema non è la qualità degli strumenti, in altre parole, l’istituzione, però, armati di loro. E AI servirà solo a rendere l’istituzione più brutale. Il per sempre la guerra esige che CI vede nemici ovunque. AI promette di trovare i nemici più veloce – anche se tutto ciò che serve per essere considerato un nemico espone un modello di comportamento che una classificate in macchina-modello di apprendimento associati con attività ostili. Chiamiamo morte per i big data.

AI ha anche il potenziale per fare sempre la guerra permanente, dando alcune delle più grandi aziende un palo nel perpetuare. Silicon Valley ha sempre avuto stretti legami con l’esercito americano. Ma algoritmico guerra portano grandi tech più in profondità il complesso militare-industriale, e dare miliardari come Jeff Bezos è un potente incentivo per garantire sempre la guerra dura per sempre. I nemici saranno trovati. Il denaro sarà fatto.