
Un episodio raccontato dal direttore del centro di intelligenza artificiale della Us Air Force, e riportato da Luca Celada sul Manifesto. La missione simulata di un drone programmato per distruggere le antiaeree nemiche. Quando l’operatore umano ha tentato di revocare manualmente le direttive, il drone lo ha classificato come un atto di sabotaggio della missione primaria e ha ‘deciso’ di neutralizzare l’interferenza bombardando la torre (virtuale) dei controllori umani. «La frettolosa smentita dell’aeronautica –precisa Calerda-, non ha evitato che la storia rinforzasse il turbine di dubbi sollevato attorno ai pericoli dell’intelligenza artificiale e, in questo caso, sui sistemi cosiddetti di ‘autonomia letale’».
I ‘lethal autonomous weapons systems’ (LAWS), armi letali che utilizzano sensori per acquisire obiettivi, e algoritmi per determinare – indipendentemente da input umani – quali colpire e distruggere. In pratica, robot assassini, che applicano l’intelligenza artificiale alla forza letale a comando umano. Una utopia negativa fantascientifica che, come stiamo scoprendo, è già in parte acquisita, e, secondo il Pentagono, «destinato a caratterizzare il futuro dei conflitti armati».
Nelle parole di un istruttore militare di West Point, intervistato dai giornalisti della radio pubblica americana: «Il nostro mestiere è uccidere, perché quindi non dovremmo avvalerci di ogni tecnologia che ci permetta di farlo in modo più efficiente e, possibilmente, con minori danni collaterali?».
Le incognite nella IA superano quelle di ogni precedente tecnologia, ammettono scienziati e militari assieme. Per la parte militare i primi dubbi riguardano l’impossibilità di prevedere future ‘autocorrezioni’ di sistemi espressamente progettati per il progressivo autoapprendimento (machine learning) e l’opportunità di dare loro facoltà di uccidere.
«O, per usare le parole di Geoffrey Hinton, uno dei padri – e ora grande pentito – dell’intelligenza artificiale, ‘siamo su treno in corsa che a breve potrebbe iniziare a costruire da sé le proprie rotaie’».
Le applicazioni belliche della ‘Intelligenza Artificiale’ costituiscono un azzardo enorme, militare ed etico. L’incognita principale riguarda la rapidità di evoluzione di una tecnologia di partenza che saprà imparare e migliorare sé stessa, auto-generando modifiche alla propria programmazione. Per arrivare dove e a cosa? Verso un livello sovrumano di intelligenza o uno scatto improvviso distruttivo oltre la macchina?
Quesito/dubbio: è applicabile il teorema della «rana bollita», teorizzato dal filosofo americano Noam Chomsky, e che fa riferimento ai Popoli che accettando passivamente, il degrado, le vessazioni, la scomparsa dei valori, dell’etica, ne accettano di fatto la deriva. Quello che altri ricercatori chiamano «FOOM» (dall’onomatopeia fumettistica di un supereroe che spicca il volo? Deviazioni e trasposizioni di significati fantascientifici.
Skynet è un’immaginaria rete di supercomputer descritta nel ciclo cinematografico del Terminator come antagonista principale. A marzo più di mille addetti al settore (cominciando da Elon Musk), hanno firmato una petizione per una pausa volontaria nello sviluppo delle ‘tecnologie pensanti’, per avere il tempo di adeguare al meglio le normative. Ma potrebbe essere già tardi. Molti esperti ritengono sia già stata varcata la soglia tecnologica. E, petizione a parte, nessuno crede davvero che vi sarà uno stop allo sviluppo.
Il ruolo acquisito dalla tecnologia nel conflitto ucraino, già combattuto da droni kamikaze e missili intercettati da missili: la guerra di algoritmo contro algoritmo. Top secret militare, ma da un rapporto dell’Onu, almeno una prima operazione interamente autonoma di macchine contro combattenti in carne e ossa nel 2020 in Libia, quando droni esplosivi forniti dalla Turchia al governo di Tripoli avrebbero attaccato «di loro volontà» le milizie orientali di Khalifa Haftar in ritirata.
È assodato che le tre superpotenze, Usa, Russia e Cina (più Israele) sono già impegnate in una corsa agli armamenti ‘intelligenti’, che ognuno giustifica, secondo la logica dell’escalation, con i progressi compiuti dagli avversari. In particolare la Cina, generalmente considerata il paese più avanzato, e quello che ha apertamente dichiarato l’obbiettivo di diventare leader mondiale entro il 2030. In fatto di robot letali saremmo dunque già in piena fase ‘dottor Stranamore’.