Quando il software bacato uccide

war

Che il settore militare sia quello più all'avanguardia è un dato di fatto. Molti degli oggetti o dei servizi che utilizziamo abitualmente derivano da scoperte e tecnologie effettuate in ambito militare. Esempio classico è Internet stessa, nata come Arpanet durante la guerra fredda.

Ovviamente i software che gestiscono apparati militari sono tanti e di svariato genere. Prendendo spunto dal down di Facebook di qualche giorno fa, diventa interessante capire cosa succede quando un software militare presenta un baco. L'occasione ce la danno Wired e TheRegister con due articoli dallo stesso filo conduttore.

Wired racconta la storia di Stanislav Petrov, tenente colonnello dell'Armata Rossa. Il fatto si svolge nel 1983, caso vuole, lo stesso anno in cui nelle sale cinematografiche viene proiettato Wargames. Petrov presta servizio presso il Serpukhov-15, un superbunker segreto in cui vengono tenuti sotto controllo i satelliti anti attacco atomico. Una notte il sistema segnala l'allarme: gli Stati Uniti hanno lanciato 5 missili balistici verso la Russia. Non si tratta di un periodo tranquillo: la tensione è alta. La Nato sta stuzzicando i sovietici con una serie di esercitazioni militari, mentre i sovietici hanno abbattuto un volo di linea sud coreano entrato nel proprio spazio aereo. L'allarme non sembra quindi essere il classico fulmine a ciel sereno.

Petrov riesce però a ragionare. Possibile che gli Usa scatenino un attacco nucleare con sole cinque testate? Con una bella dose di sangue freddo fa rapporto ai superiori indicando il falso allarme. I fatti gli danno ragione e viene dapprima lodato, poi usato come capro espiatorio ed incolpato di essere la causa del falso allarme, nel più classico stile in voga in Unione Sovietica. La Guerra Fredda è ancora in corso ed i russi non possono ammettere pubblicamente che un satellite abbia scambiato un riflesso solare con un'arma atomica. Ma cosa sarebbe accaduto se Petrov e poi via via gli alti gradi sovietici, non avessero usato la testa e si fossero attenuti ai dati informatici?

Cosa succede quando in ambito militare si usa un software bacato? Ma soprattutto, chi si prende la responsabilità di utilizzare un software quando si sa che è "nato male"? Le cose si fanno ancora più complicate quando ci si mettono di mezzo anche i servizi segreti. Secondo The Register, la Cia avrebbe usato un software illegale ma soprattutto inaccurato, sui droni che sorvolano l'Asia Centrale. Vediamo di riassumere alcuni punti dell'ingarbugliata vicenda.

Netezza è una società di data warehousing acquisita proprio in questi giorni da IBM, è fornitore della Cia e produce un sistema hardware chiamato NPS. Intelligent Integration Systems (IISi) è invece una piccola compagnia, partner di Netezza, che produce un pacchetto di analisi per la localizzazione, chiamato "Geospatial". Ebbene secondo IISi, Netezza avrebbe mentito alla Cia, affermando che avrebbe potuto installare il software di IISi in poco tempo sul proprio NPS. Tutto vero? Non proprio. Se Netezza utilizzava l'architettura IBM Power PC, ISSi utilizzava invece più economici X86: Geospatial non sarebbe stato in grado di girare sui nuovi NPS. Da qui al rifiuto della commessa da parte di IISi, il passo è breve.

Secondo l'accusa Netezza avrebbe perciò illegalmente e frettolosamente effettuato un reverse engeneering del codice: il risultato è una imprecisione che può arrivare fino a 13 metri. Pare che, nonostante fosse a conoscenza dell'errore, la Cia abbia comunque accettato il software di Netezza. Dal punto di vista legale, IISi sta tentando un'ingiunzione che vieti l'utilizzo del software da parte di Netezza e della Cia, in qualsiasi contesto.

Di come la Cia sia arrivata a Netezza e di come siano stati concordati i termini del contratto, è una questione complessa e che ci interessa poco. Come potete immaginare, non tutti nelle due aziende erano a conoscenza del fatto che il proprio prodotto avrebbe equipaggiato il Predator B. E' emblematico quanto affermato da Richard Zimmerman, CTO di IISi, dopo aver saputo dell'interesse della Cia: "My reaction was one of stun, amazement that they want to kill people with my software that doesn't work", che potremmo tradurre con "La mia reazione è stata di stupore perchè vogliono uccidere la gente con il mio software che non funziona", con il riferimento alla questione PowerPC/X86.

Questo ci porta alla domanda iniziale. Quando il sofware è in grado di far prendere decisioni che hanno ripercussioni catastrofiche, chi garantisce l'assenza di bug? Chi certifica che il tutto sia stato fatto a "regola d'arte"? Certo, il campo militare non è l'unico impiego in cui l'informatica non può sbagliare, ricordiamo su tutti i software usati in ambito medico. Ma così come ci scandalizziamo per i casi di malasanità, non possiamo che allarmarci ed indignarci dall'approssimazione con la quale la vicenda russa e quella dei droni Cia siano state trattate.

Foto | Flickr

  • shares
  • Mail
12 commenti Aggiorna
Ordina: