Killer Robots: ancora nessuna legge internazionale ne governa l’uso

Foto: Boeing

I tecnocrati dei militari di tutto il mondo sono impegnati in una corsa agli armamenti per sviluppare robot killer completamente autonomi. I sostenitori affermano che renderà la guerra più efficiente e tuttavia più “umana” perché un numero inferiore di persone verrebbe ucciso.

Questo è un pensiero folle. Il rischio di uso improprio da parte di governo canaglia e autoritario e terroristi è del 100 percento. Tuttavia, i tecnocrati inventano perché possono, non perché vi è una dimostrata necessità di farlo. ⁃ Editor TN

I paesi stanno rapidamente sviluppando “robot killer” – macchine con intelligenza artificiale (AI) che uccidono in modo indipendente – ma si stanno muovendo a passo di lumaca concordando regole globali sul loro uso nelle guerre future, avvertendo gli esperti di tecnologia e diritti umani.

Da droni e missili a carri armati e sottomarini, i sistemi di armi semi-autonomi sono stati usati per decenni per eliminare gli obiettivi nella guerra moderna – ma tutti hanno la supervisione umana.

Drammatizzazione / Simulazione

Nazioni come gli Stati Uniti, la Russia e Israele stanno ora investendo nello sviluppo di sistemi letali di armi autonome (LAWS) che possono identificare, colpire e uccidere una persona sola – ma ad oggi non ci sono leggi internazionali che ne regolano l’uso.

“È necessario un qualche tipo di controllo umano … Solo gli umani possono esprimere giudizi specifici sul contesto di distinzione, proporzionalità e precauzioni in combattimento”, ha dichiarato Peter Maurer, Presidente del Comitato Internazionale della Croce Rossa (CICR).

“(Costruire il consenso) è il grande problema che stiamo affrontando e non sorprende, quelli che oggi hanno investito molte capacità e hanno alcune abilità che promettono vantaggi per loro, sono più riluttanti di quelli che non lo fanno.”

Il CICR ha supervisionato l’adozione delle Convenzioni di Ginevra del 1949 che definiscono le leggi di guerra e i diritti dei civili alla protezione e all’assistenza durante i conflitti e si impegna con i governi ad adattare queste regole alla guerra moderna.

Ricercatori di intelligenza artificiale, analisti della difesa e robotici affermano che LEGGI come i robot militari non si limitano più al regno della fantascienza o dei videogiochi, ma stanno avanzando rapidamente dalle schede di progettazione grafica ai laboratori di ingegneria della difesa.

Nel giro di pochi anni, potrebbero essere schierati dai militari di stato sul campo di battaglia, aggiungono, dipingendo scenari distopici di sciami di droni che si muovono attraverso una città o città, scansionando e uccidendo selettivamente i loro obiettivi in ​​pochi secondi.

Death by Algorithm

Ciò ha sollevato preoccupazioni etiche da parte di gruppi per i diritti umani e alcuni esperti di tecnologia che affermano che dare alle macchine il potere della vita e della morte viola i principi della dignità umana.

Non solo le LEGGI sono vulnerabili alle interferenze e alla pirateria informatica che porterebbe ad un aumento delle morti civili, ma aggiungono, ma il loro dispiegamento solleverebbe domande su chi sarebbe ritenuto responsabile in caso di uso improprio.

“Non essere confuso dall’assurdità di quanto saranno intelligenti queste armi”, ha dichiarato Noel Sharkey, presidente del Comitato internazionale per il controllo delle armi robotizzate.

“Semplicemente non puoi fidarti di un algoritmo – non importa quanto intelligente – cercare, identificare e uccidere il bersaglio corretto, specialmente nella complessità della guerra”, ha detto Sharkey, che è anche un esperto di intelligenza artificiale e robotica presso l’Università britannica di Sheffield .

Leggi la storia completa qui …

Fonte: https://www.technocracy.news/

®wld