IL RISCHIO DI UN ABBASSAMENTO DELLA SOGLIA DI DETERRENZA È GIÀ EVIDENTE: SE VIENI PROVOCATO, SARAI PIÙ PROPENSO A RISPONDERE CON LE ARMI SE SAI DI POTER ATTACCARE SENZA SUBIRE PERDITE…
Massimo Gaggi per “il Corriere della Sera”
Missili lanciati con precisione chirurgica su obiettivi militari. Niente «boots on the ground», soldati che avanzano coi loro scarponi in territorio nemico. Zero vittime da un lato e dall' altro. L'attacco lanciato da Usa, Francia e Gran Bretagna per punire Assad dopo il bombardamento chimico di Douma verrà forse archiviato come un avvertimento «muscolare» più che come un vero e proprio atto di guerra. Ma è anche un' azione che ci avvicina sempre di più allo scenario della «guerra automatica» verso il quale ci sta portando lo sforzo tecnologico delle principali potenze del Pianeta.
Non solo missili e droni, gli aerei-robot che già oggi sono in grado di colpire ovunque: dagli arsenali e dai centri di ricerca delle industrie tecnologiche più avanzate escono in continuazione prototipi di droni sottomarini, navi da attacco in superficie e per la caccia ai sommergibili prive di equipaggio, carri armati automatici e, soprattutto, killer robot. Non siamo lontani dallo scenario di Terminator : automi da schierare in battaglia più rapidi e potenti della fanteria umana, destinata ad essere sbaragliata senza pietà.
Il tutto gestito da un'intelligenza artificiale sempre più progredita che una volta impostata potrebbe prendere decisioni di vita e di morte in modo autonomo, senza più interventi umani.
Scenari agghiaccianti che pongono problemi inediti: dalla possibile perdita del controllo della tecnologia da parte dell' uomo a quello della valutazione in termini giuridici e anche politici delle responsabilità in un conflitto.
Come reagire se vieni colpito non dalle armi di uno Stato che ti dichiara guerra, ma da un drone attivato in modo automatico da un sistema di sorveglianza «intelligente» al manifestarsi di certe condizioni di pericolo?
Aumenterebbe esponenzialmente il rischio di scatenare un vero conflitto perché si reagisce con troppa durezza a un attacco partito per un errore. Ipotesi in parte ancora remote, in parte destinate a concretizzarsi entro pochissimi anni e rispetto alle quali già dal 2013 si è messo in modo un movimento che chiede la messa al bando delle cosiddette Laws, Lethal autonomous weapons systems , armi autonome letali. Ma il rischio di un abbassamento della soglia di deterrenza è già evidente: se vieni provocato, sarai più propenso a rispondere con le armi se sai di poter attaccare senza subire perdite.
Sono in molti a ritenere che Londra e Parigi hanno deciso di non lasciare soli gli Stati Uniti in Siria perché c' era la possibilità di conseguire il risultato politico derivante da una dimostrazione di forza, senza rischiare praticamente nulla, almeno sul campo di battaglia. Un vero antipasto di guerra automatica. E anche un po' virtuale, visto che dall' incrocio di razzi, fake news e manovre di disinformazione, è venuta fuori l' accusa dei russi secondo i quali i missili francesi non sono mai arrivati sul bersaglio.
Nonostante tutti gli sforzi di chi cerca di fermare la corsa verso la creazione di veri e propri eserciti robotizzati, le possibilità di successo sono minime. Lanciata cinque anni fa con un appello firmato da premi Nobel, scienziati come Steven Hawking e imprenditori come Elon Musk, Steve Wozniak e Mustafa Suleyman di Alphabet-Google, la campagna internazionale Stop Killer Robots ha obbligato le potenze a confrontarsi spesso su questo problema in sede Onu. Ma le cinque conferenze che l' Onu ha dedicato alla corsa verso la guerra automatica (l' ultima pochi giorni fa a Ginevra) non hanno dato risultati, anche se 22 Paesi si sono espressi ufficialmente contro.
Tutti sono decisi a rifiutare ogni limite all' uso della tecnologia sul campo di battaglia: l' America perché convinta di poter trarre vantaggio dalla sua leadership tecnologica, Cina e Russia perché sperano di poter colmare, il gap strategico che oggi le separa dagli Stati Uniti nelle armi convenzionali.
Ci sono stati casi, come quello delle mine anti-uomo, in cui un accordo di messa al bando si è rivelato efficace. Ma le potenze tecnologiche non vogliono sentir parlare di limiti per l' intelligenza artificiale: bloccare la ricerca militare, dicono, danneggerebbe anche quella civile. E nessuno accetta di legarsi le mani quando nemmeno si sa bene in quale direzione evolverà la tecnologia.
Fonte: qui
Nessun commento:
Posta un commento