Data / IA
Big data : du battage médiatique à l’implémentation opérationnelle
Par La rédaction, publié le 12 janvier 2016
Nick Heudecker, Directeur de recherche, Gartner
Les responsables des informations et du traitement analytique ont cessé d’appréhender les nouvelles technologies et sources de données comme quelque chose d’inconnu. Le traitement analytique utilisant de multiples structures et sources de données est devenu la norme. Le big data est passé du stade de phénomène médiatique à celui de marché précoce.
Une réalité d’abord attestée par des données économiques. Les investissements dans le domaine ont commencé à se stabiliser au cours des douze derniers mois, ce qui coïncide avec l’entrée en 2015 du big data dans le creux des désillusions. Bien connue pour les cycles médiatiques, l’entrée dans cette étape est un signe de maturité. Il est admis que toute tendance d’adoption représentant plus de 20 % du marché informatique global a dépassé le simple phénomène médiatique pour entrer dans la définition de marché précoce. Ce passage atteste que les premiers gains sont consolidés et que les meilleures pratiques et standards commencent à se développer. Encore plus significatif, des cycles médiatiques liés à ce domaine, mais indépendants, émergent. Il ne s’agit plus de parler de big data, mais de ses quatre composantes : gestion des informations d’entreprise ; infrastructure des informations ; informatique décisionnelle ; et traitement analytique avancé. Le battage médiatique autour du big data est désormais éclipsé par l’aspect pratique. La technologie et les ressources informationnelles commencent à offrir des solutions concrètes en complément des applications déjà en place.
UNE OFFRE QUI ÉVOLUE RAPIDEMENT
Toutes les offres ne sont pas encore disponibles. Les fournisseurs traditionnels se doivent donc d’ajouter rapidement à leurs solutions ce qui leur manque pour répondre à ces besoins. Challenge différent, mais tout aussi sensible pour les nouveaux acteurs sur ce marché. La demande croissante de solutions concrètes exige que ces derniers mûrissent rapidement leurs offres. Il s’agit par exemple d’optimisation distribuée, de contrôle des processus, d’intégration à l’infrastructure exis-tante ou encore de gouvernance. Limite toutefois à ce challenge, le rythme de renouvellement des infrastructures et des logiciels qui s’exécutent dessus est plus proche des huit ans que de deux ans comme le veut la croyance populaire.
En outre, si les nouveaux fournisseurs de technologies font face à une pression grandissante pour mettre en place ces fonctionnalités, beaucoup de fournisseurs de technologies traditionnels ont commencé à étendre de manière offensive leurs solutions et produits existants afin d’adopter de nouveaux modèles de traitement et de nouvelles méthodes analytiques dès 2013, voire avant. Les ressources financières et en recherche et développement que ces entreprises possèdent leur permettent de combler les lacunes fonctionnelles rapidement. Il ne reste pour les nouveaux fournisseurs qu’une fenêtre étroite pour gagner en maturité. Aujourd’hui, cette fenêtre peut représenter à peine 18 mois. Après cela, la consolidation commence. Les solutions prometteuses, bien qu’immatures, seront rachetées et seul un petit nombre restera en place d’ici 2020. Les autres connaîtront un lent déclin, même si certaines se feront une place en tant qu’acteurs de niches.
ANALYSE DE DONNÉES « MULTISTRUCTURÉES »
Dans les organisations, cette entrée dans une phase de maturité s’accompagne d’une demande accrue en termes de fonctionnalités avancées. Il s’agit notamment de pouvoir analyser tout type de données indépendamment de leur structure. Cette nouvelle attente « multistructurée » figurait au cœur du battage médiatique autour du big data. Les données mul-tistructurées sont communément assimilées aux don-nées de fi hiers journaux, au texte, aux informations géospatiales, aux données de machines ou capteurs ainsi qu’aux données de médias sociaux, entre autres. Ces sources de données sont tout sauf non structurées et elles étaient souvent connues d’une communauté d’utilisateurs et d’architectes, mais totalement étrangères à une autre.
Sur le terrain, il s’agit d’abord d’éviter de mener un projet big data de façon isolée. L’identification de pratiques professionnelles nouvelles, de nouvelles approches analytiques, qui sont le plus souvent complé-mentaires à celles existantes, mais ne les remplacent pas, peut amener à lancer des projets métier. L’un des enjeux majeurs est de garder une cohérence entre ces projets, aussi bien en ce qui concerne les sources de données et les technologies utilisées, que pour les traitements analytiques et le contrôle d’accès. Il est nécessaire de penser ces projets à l’échelle de l’organi-sation pour éviter de créer de nouveaux silos de don-nées. Autre facteur à prendre en compte : jusqu’en 2018, 90 % des réservoirs de données déployés seront inutilisables, car ils seront submergés de ressources en informations capturées pour des cas d’utilisation incertains.
RECOMMANDATIONS
Commencez par préciser la demande de votre entreprise quand il s’agit de mettre en œuvre des solutions de big data. Si la demande est immédiate ou pressante, adoptez une approche favorisant les meilleures solutions de leur catégorie, le cas échéant. Pour les fournisseurs qui n’ont pas de solutions d’entreprise complètes, exploitez leurs nouvelles techno-logies de manière opportuniste. Ajoutez les capacités de commandement et de contrôle des technologies traditionnelles dans une approche hybride qui offre la gestion de la charge de travail, la sécurité et l’ac-cès sémantique et qui prend en charge les langages courants. Recherchez des technologies de solutions ponctuelles qui s’intègrent spécifiquement aux infrastructures et solutions d’entreprise existantes.
Lorsque vous utilisez une approche favorisant les meilleures solutions de leur catégorie à la place d’une approche de l’ingénierie la mieux adaptée, estimez les coûts d’intégration correspondants. Passer par un pilote, un POC (Proof of concept), permet de s’as-surer de la faisabilité globale du projet, et de vérifie la possibilité des nouvelles applications de s’intégrer avec le SI existant tant au niveau des sources de don-nées que des applications. Il s’agit également et dans le même esprit de vérifier l’aptitude à se conformer aux standards internes à l’organisation en vigueur.
Très concrètement, lorsque vous rencontrez un nouveau type de ressources informationnelles, déterminez s’il est similaire à des ressources existantes déjà utilisées pour le traitement analytique ou dans une solution d’intégration existante. Développez un ensemble de standards pour déterminer une « distance » par rapport aux solutions existantes et introduisez un standard pour définir quand il convient d’envisager de nouvelles approches d’intégration, pour un nouveau traitement des données ou un nouveau traitement analytique. Il s’agit globalement de passer par une approche bimodale pour mettre en œuvre ces projets.
Maintenir les applications en place tout en intégrant les innovations indispensables au développement de l’activité fait courir des risques d’incohérences à différents niveaux, notamment à celui des standards en vigueur dans l’entreprise. Une approche bimodale consiste à maintenir les applications stabilisées pour répondre aux exigences de production et de sécurité (le mode 1), et à développer dans un autre mode, plus itératif, les applications expérimentales (le mode 2).
Adoptez ce dernier pour l’expérimentation rapide et prévoyez l’inclusion de nouvelles technologies, le cas échéant, en suivant une approche de l’ingénierie la mieux adaptée. Utilisez une structure des capacités attendues en matière d’infrastructure des informations pour effectuer le suivi des différentes capacités qui sont gérées dans l’entreprise. Avant d’étendre l’infrastructure, effectuez une analyse des écarts pour voir si l’ajout est justifié. Enfin, soyez préparé à restructurer et redévelopper les solutions lorsque vous passerez de l’expérimentation à la production. La prise en compte de tous ces facteurs et de toutes ces recommandations est un gage de réussite de l’opérationnalisation du big data dans toute organisation.