Pour gérer vos consentements :

A quand le boom du Big Data ?

1,9 Zo (Zettaoctets) – soit 1.900.000.000.000.000.000.000 (1,9 x 10 puissance 21) octets, ou encore 1,9 milliard de Téraoctets (To), également exprimé en sextillion ou en trilliard d’octets – c’est le volume de données que nous auront créé ou dupliqué en 2011…

Soit l’équivalent de l’ensemble de la capacité de stockage de l’information en 2007 ! Oubliés l’Exa ou le Tera, nous passons désormais au Zetta.

Il devient difficile d’imaginer ce que cela représente. Avant, des images comme une pile de papier qui relierait la Terre à la Lune parlaient à notre intellect.

Aujourd’hui, nous pourrions évoquer la distance de la Terre à Mars ou de la Terre au Soleil, cela dépasse le cadre de notre vision, et donc ne signifierait plus grand chose. En revanche, au sein des organisations, cela se traduit très simplement : de plus en plus de données à stocker, où les mettre et à quel prix ?

Une problématique technologique

La problématique n’est pas seulement économique, mais également technologique : l’entreprise dispose-t-elle des moyens nécessaires pour s’équiper et pour administrer ses données aujourd’hui et demain, et surtout pour les analyser ? Pour Matt Oostveen, directeur de recherche chez IDC Australie, la réponse est dans le Big Data, souligne Silicon.fr.

Le volume des données, en particulier non structurées, qui s’accumulent ne permet plus de les traiter avec des outils classiques, comme les bases de données.

C’est là qu’intervient le Big Data, une approche différente du traitement, de l’analyse et de l’extraction de la donnée qui passe par la refonte de l’architecture de stockage et de réseau du système d’information.

La recherche porte sur le traitement en temps réel du flux des données, la consolidation de l’information provenant de multiples origines et sous de multiples formats, la logique des bases de données, le marquage (tag), etc.

De nombreux acteurs se positionnent aujourd’hui sur ce marché en devenir. Nous pouvons même considérer que les premières technologies sont suffisamment mures pour généraliser le Big Data. L’une des clés de son adoption est dans le serveur.

La performance des processeurs et la quantité de mémoire qu’ils embarquent aujourd’hui dans le silicium et sur la RAM (la mémoire « vive ») permettent désormais d’exécuter des bases de données avec de très grands volumes directement en mode « in memory ». La performance des technologies d’aujourd’hui se met au service de la donnée.

L’automatisation en réponse à la hausse des données

Demeure cependant un constat qui pourrait se révéler à terme dramatique : face à l’augmentation exponentielle du volume des données stockées, le nombre des administrateurs du stockage n’augmente pas !

Cette problématique est d’autant plus sérieuse que dans les organisations, un nombre conséquent de processus liés à la gestion du stockage sont encore manuels. Là encore, pour Matt Oostveen, la réponse est dans le Big Data, ou tout du moins dans un volet de ces technologies : l’automatisation.

Celle-ci passe bien évidemment par la virtualisation, qui dans beaucoup d’entreprises affiche également un déficit d’automatisation. De nombres réponses sont encore à construire, probablement dans le nuage…

Au fait, préparons nous au futur : la prochaine unité de mesure du volume des données numériques sera le YottaOctets (YottaBytes), soit 10 puissance 24 octets.

Crédit photo : Copyright Nmedia – Fotolia.com

Recent Posts

Avec Phi-3-mini, Microsoft va-t-il convertir les PME à la GenAI ?

Microsoft lance Phi-3-mini, un petit modèle de langage (SLM) qui s'adresse aux entreprises ne disposant…

12 heures ago

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

3 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

4 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago