DOSSIERS
Au cœur du big data, décryptage du phénomène Hadoop
Par La rédaction, publié le 24 février 2012
La boîte à outils taillée pour l’analyse d’énormes volumes de données non structurées incarne à elle seule le concept de big data. Tour d’horizon d’une technologie qui rebat les cartes de l’analytique.
Depuis un an, l’engouement du marché pour le big data se manifeste principalement sur une de ses composantes : l’analyse de données. Le phénomène résulte clairement de la montée en puissance d’Hadoop, un framework open source réputé pour sa puissance d’indexation, de transformation, de recherche ou d’élaboration de modèles sur de très gros volumes de données.
Pour autant, Hadoop soulève plusieurs questions. Celles, notamment, des compétences requises pour être apprivoisé. Ou encore celles de la nature des analyses fournies. Une chose est certaine en tout cas, au cours de ces dix dernières années, Hadoop aura fait ses preuves et contribué au succès de plusieurs géants du web. Et aujourd’hui, il aiguise l’appétit de tous les acteurs amenés à gérer de la donnée.
Pour aller plus loin
Retrouvez un dossier complet sur le phénomène « big data » dans le N° 2117 de 01 Business & Technologies. Avec un zoom particulier sur les besoins d’analyse dans les différents secteurs (industrie, santé, grande distribution, etc).