La NSA piégée par un simple Web crawler ?

Cloud
edward-snowden-nsa-web-crawler

Plusieurs outils banalisés parmi lesquels des robots d’indexation auraient suffi à l’ancien consultant Edward Snowden pour subtiliser à la NSA 1,7 million de documents classifiés.

Un rapport émis par le Pentagone fait la lumière sur les techniques potentiellement exploitées par Edward Snowden pour infiltrer les systèmes informatiques de la NSA.

L’ancien consultant – que l’on ne présente plus – aurait dérobé 1,7 million de documents classifiés en exploitant des logiciels peu coûteux et largement disponibles. Tout en effectuant au quotidien son travail d’administrateur, il aurait notamment recouru à des « Web crawlers », ces robots qui recherchent, indexent et effectuent des sauvegardes automatiques.

L’agence américaine de renseignement, dont l’une des missions consiste à protéger les infrastructures et les systèmes d’information nationaux d’attaques sophistiquées, aurait donc échoué à prévenir une « simple attaque de l’intérieur », comme le note Silicon.fr. Pire pour la crédibilité du service : Edward Snowden serait parvenu à tromper son monde trois ans après la diffusion de documents secrets sur Wikileaks.

Condamné à 35 ans de prison en août dernier, le militaire Bradley Manning aurait utilisé des techniques similaires dans cette affaire. Quant à Edward Snowden, réfugié en Russie depuis l’été 2013, il fait toujours l’objet de trois accusations aux Etats-Unis : deux pour espionnage et une pour vol de documents d’Etat, chacune étant passible de 10 ans de prison.

—— A voir aussi ——
Quiz ITespresso.fr : que savez-vous de l’école 42 ?

Crédit illustration : RLRRLRLL – Shutterstock.com

Lire aussi :