Pour gérer vos consentements :

L’avenir s’annonce florissant pour le marché du big data

La gestion et l’analyse des données non structurées qui envahissent les systèmes d’information réclament l’usage de nouveaux outils et services, de matériels et logiciels, de frameworks, réunis sous le vocable de big data.

Selon les analystes IDC, ce marché devrait progresser de 40% par an jusqu’en 2015, soit sept fois plus rapidement que l’ensemble des technologies de communication et d’information.

Le big data apporte une réponse à deux problématiques : la première concerne les énormes volumes de données qui sont désormais créés au quotidien, souligne Silicon.fr.

À ce titre, 90% des données qui circulent actuellement dans le monde auraient, selon IBM, était générées au cours des deux dernières années, ce qui donne la mesure de la difficulté et de l’épreuve qui attend les organisations dans les prochaines années.

La seconde, qui en découle, porte sur la capacité à rechercher, à extraire et à analyser les informations non structurées qui représentent la très grande majorité de ces données. De quoi créer de nouvelles opportunités pour les acteurs du marché.

De multiples approches

Si le marché du big data devrait connaître en moyenne une expansion de 40% annuellement, le rythme de progression ne sera pas le même selon qu’il touche les serveurs (27,3%), le logiciel (34,2%), ou le stockage (61,4%).

De même, plusieurs approches pourront être adoptées pour déployer une solution : des appliances, de l’outsourcing, voire du cloud computing. Mais il s’agira ici moins de choix technologiques que de choix d’usages, qui appartiendront aux organisations.

Enfin, IDC voit trois scénarios principaux pour le déploiement de la technologie big data, qui vont imposer des choix stratégiques innovants pour le stockage (scale-out) et le traitement des données (Hadoop et MapR) :

– Déploiement pour des données collectées supérieures à 100 To dans un environnement In Memory (les données demeurent dans la mémoire des serveurs et non pas sur les disques) ;
– Déploiement sur des technologies de messagerie en très grands volumes et en temps réel pour la capture et l’analyse des données (majoritairement non structurées) ;
– Déploiement sur des métiers où les volumes de données encore réduites aujourd’hui vont grossir très rapidement.

Crédit photo : Copyright Nmedia – Fotolia.com

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

3 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

2 mois ago