L’Intelligenza Artificiale di macchine assassine in guerra

Nell’immagine di copertina il cane-robot ‘Wolfgang 001’ in dotazione all’esercito tedesco. Può lanciare droni autonomamente, con la sua Intelligenza Artificiale. Gli avvertimenti degli stessi sviluppatori sulle incognite della Intelligenza artificiale addestrata per uccidere autonomamente nei conflitti del futuro. Salvo poi decidere di comandare loro contro la stupidità umana da sottomettere o eliminare

Macchine assassine a loro scelta

Un episodio raccontato dal direttore del centro di intelligenza artificiale della Us Air Force, e riportato da Luca Celada sul Manifesto. La missione simulata di un drone programmato per distruggere le antiaeree nemiche. Quando l’operatore umano ha tentato di revocare manualmente le direttive, il drone lo ha classificato come un atto di sabotaggio della missione primaria e ha ‘deciso’ di neutralizzare l’interferenza bombardando la torre (virtuale) dei controllori umani. «La frettolosa smentita dell’aeronautica –precisa Calerda-, non ha evitato che la storia rinforzasse il turbine di dubbi sollevato attorno ai pericoli dell’intelligenza artificiale e, in questo caso, sui sistemi cosiddetti di ‘autonomia letale’».

‘Autonomia letale’

I ‘lethal autonomous weapons systems’ (LAWS), armi letali che utilizzano sensori per acquisire obiettivi, e algoritmi per determinare – indipendentemente da input umani – quali colpire e distruggere. In pratica, robot assassini, che applicano l’intelligenza artificiale alla forza letale a comando umano. Una utopia negativa fantascientifica che, come stiamo scoprendo, è già in parte acquisita, e, secondo il Pentagono, «destinato a caratterizzare il futuro dei conflitti armati».

Uccidere più e meglio

Nelle parole di un istruttore militare di West Point, intervistato dai giornalisti della radio pubblica americana: «Il nostro mestiere è uccidere, perché quindi non dovremmo avvalerci di ogni tecnologia che ci permetta di farlo in modo più efficiente e, possibilmente, con minori danni collaterali?».

Le incognite dell’intelligenza Artificiale

Le incognite nella IA superano quelle di ogni precedente tecnologia, ammettono scienziati e militari assieme. Per la parte militare i primi dubbi riguardano l’impossibilità di prevedere future ‘autocorrezioni’ di sistemi espressamente progettati per il progressivo autoapprendimento (machine learning) e l’opportunità di dare loro facoltà di uccidere.

«O, per usare le parole di Geoffrey Hinton, uno dei padri – e ora grande pentito – dell’intelligenza artificiale, ‘siamo su treno in corsa che a breve potrebbe iniziare a costruire da sé le proprie rotaie’».

‘AI’ senza via di scampo?

Le applicazioni belliche della ‘Intelligenza Artificiale’ costituiscono un azzardo enorme, militare ed etico. L’incognita principale riguarda la rapidità di evoluzione di una tecnologia di partenza che saprà imparare e migliorare sé stessa, auto-generando modifiche alla propria programmazione. Per arrivare dove e a cosa? Verso un livello sovrumano di intelligenza o uno scatto improvviso distruttivo oltre la macchina?

Teorema ‘rana bollita’

Quesito/dubbio: è applicabile il teorema della «rana bollita», teorizzato dal filosofo americano Noam Chomsky, e che fa riferimento ai Popoli che accettando passivamente, il degrado, le vessazioni, la scomparsa dei valori, dell’etica, ne accettano di fatto la deriva. Quello che altri ricercatori chiamano «FOOM» (dall’onomatopeia fumettistica di un supereroe che spicca il volo? Deviazioni e trasposizioni di significati  fantascientifici.

Teorema ‘Skynet’

Skynet è un’immaginaria rete di supercomputer descritta nel ciclo cinematografico del Terminator come antagonista principale. A marzo più di mille addetti al settore (cominciando da Elon Musk), hanno firmato una petizione per una pausa volontaria nello sviluppo delle ‘tecnologie pensanti’, per avere il tempo di adeguare al meglio le normative. Ma potrebbe essere già tardi. Molti esperti  ritengono sia già stata varcata la soglia tecnologica. E, petizione a parte, nessuno crede davvero che vi sarà uno stop allo sviluppo.

Ucraina, sperimentazione sul campo di battaglia

Il ruolo acquisito dalla tecnologia nel conflitto ucraino, già combattuto da droni kamikaze e missili intercettati da missili: la guerra di algoritmo contro algoritmo. Top secret militare, ma da un rapporto dell’Onu, almeno una prima operazione interamente autonoma di macchine contro combattenti in carne e ossa nel 2020 in Libia, quando droni esplosivi forniti dalla Turchia al governo di Tripoli avrebbero attaccato «di loro volontà» le milizie orientali di Khalifa Haftar in ritirata.

Rischio estinzione

È assodato che le tre superpotenze, Usa, Russia e Cina (più Israele) sono già impegnate in una corsa agli armamenti ‘intelligenti’, che ognuno giustifica, secondo la logica dell’escalation, con i progressi compiuti dagli avversari. In particolare la Cina, generalmente considerata il paese più avanzato, e quello che ha apertamente dichiarato l’obbiettivo di diventare leader mondiale entro il 2030. In fatto di robot letali saremmo dunque già in piena fase ‘dottor Stranamore’.

Altri Articoli
Remocontro