venerdì 14 dicembre 2018

Incubo apocalisse: falsi presidenti e guerra nucleare da finta a vera

DARPA, l’agenzia di ricerca dei progetti per la Difesa USA, ricca a milioni. DeepFake, video falso, facilissimo ormai da realizzare quasi da casa.
-E l’incubo di un falso Trump che annuncia in tv una falso attacco nucleare. Con le bombe atomiche che poi diventano vere.
-C’è da sperare nelle solite esagerazioni di Trump. Matto com’è, mica tanto facile da imitare.
-E Crozza DeepFake

DARPA e DeepFake

Incubo apocalisse: falsi presidenti con falsa guerra nucleare. Ma se poi diventa vera?
Lo raccontano Eugenio Santagata, Andrea Melegari in Cyber, rilanciato da Analisi Difesa. L’incubo degli esperti della DARPA (l’agenzia di ricerca dei progetti per la Difesa USA) potrebbe avverarsi nel momento in cui venisse pubblicato un falso video in cui un falso Donald Trump annuncia di aver lanciato un attacco nucleare contro la Corea del Nord. O contro la Cina, se preferite. Con grande probabilità, prima di aver dimostrato che si tratta di un deepfake, un video falso, il mondo si potrebbe trovare invischiato in una guerra nucleare vera. L’analisi, a fil di logica e di terrore si basa su due fattori che rendono questo rischio decisamente reale.

Fattori di rischio reale

Primo: la fiducia che generalmente riponiamo in un’immagine o in un video è molto elevata. Se vediamo con i nostri occhi (o crediamo di avere visto un avvenimento reale), allora significa che è veramente accaduto. L’esempio citato è quello di Instagram. Una foto postata che può essere vista dalla quasi la totalità dei followers, realizzando un effetto immediatezza senza precedenti. Il che aumenta il grado di attendibilità che si da’ al materiale fruito. Che sia fake o deepfake viene dopo, e a quel punto non conta, perché l’inganno è riuscito. Secondo rischio, è che nell’arco di qualche mese, creare un deepfake estremamente realistico e credibile sarà alla portata di moltissime persone.

Se l’imitato è mezzo matto

Le nuove tecnologie di AI-Artificial Intelligence (dettagli troppo difficili per noi) renderanno molto più facile manipolare foto aggiungendo persone e/o oggetti ad immagini già esistenti, o creare video in cui inserire persone (e dialoghi con voci originali) a proprio piacimento. «E siccome tra gli obiettivi della DARPA vi è anche quello di ricercare soluzioni in grado di mitigare il cosiddetto “effetto sorpresa”, recentemente sono stati investiti 68 milioni di dollari per lo sviluppo di tecniche per identificare immagini e video manipolati». Secondo la DARPA, minaccia certa alla sicurezza nazionale degli Stati Uniti, e quindi, il ‘che fare’.

Più difficili le ‘imitazioni’

Intanto rendere un più difficile la realizzazione di falsi Trump o Kim o Putin che siano, per ridurre almeno la lista dei potenziali nemici. Ma siccome la tecnologia non si ferma, usare la stessa Artificial Intelligence per svelare i deepfake (a loro volta creati dalla Artificial Intelligence. Nelle mani dei robot e computer. Un po’ da film di Stranamore, contromosse di corsa, «prima che il deepfake diventi virale». Allarmismo? A noi sembrerebbe di si ma loro, quelli DARPA invitano i social media a fare investimenti in Ricerca&Sviluppo per sviluppare filtri di selezione per smascherare un deepfake.

Minaccia nazionale Crozza

Considerazione finale tutta italiana: ma se i leaders del mondo dicessero qualche cretinata in meno rendendosi meno facilmente caricaturabili, non sarebbe già una contro mossa da miliardi di dollari di difesa nazionale? Oppure fare come noi in Italia. Non sappiamo se la mossa strategica di sicurezza nazionale sia gestita da Aise, o Aisi e dal Dis che vuol farsi vero servizio segreto con la Cyber sicurezza, ma Crozza è certamente un clone, un deepfake, un fake video o una fake image, e Andrea Zalone, un AI, Artificial Intelligence. Se tra un fake e l’altro, vi avanza qualche premier, anche usato…

Potrebbe piacerti anche