Intervention d'Oxiwiz sur l'impact du RGPD dans la stratégie digitale
septembre 16, 2019Comparatif des frameworks PHP sur 2022 et 2021
septembre 20, 2019Si les techniques de business intelligence avaient déjà marqué leur époque en mettant au jour des méthodes et des outils révolutionnaires d’exploitation des informations de l’entreprise, avec le big data des limites sont largement franchies. Les nouvelles frontières du big data sont celles d’océans de données qu’il est impossible d’appréhender de façon cohérente avec les outils traditionnels de traitement de l’information.
Des entrepôts d’entreprise
La business intelligence est basée sur l’utilisation de méthodes et d’outils capables d’exploiter les données d’entreprise afin d’en tirer profit pour mettre au point des stratégies commerciales gagnantes. Celles-ci incluent les gains d’avantages compétitifs sur les marchés ainsi que la quête d’une stabilité dans leur acquisition.
Les outils et méthodes communément utilisés pour exploiter ces vastes entrepôts de données sont le reporting, le data mining, les analyses prédictives, le minage de texte et bien d’autres. Les décideurs au sein des entreprises disposent alors d’atouts indéniables pour optimiser leurs politiques commerciales et leurs choix stratégiques en général.
Aux univers informationnels du business intelligence
Par rapport au business intelligence, le big data met la barre encore plus haut. Là il ne s’agit plus de concentrer et d’analyser de grandes quantités d’informations produites par une entreprise. Il faut plutôt faire face à un tsunami de données qui se déverse en permanence sur un secteur d’activité particulier. Un exemple communément utilisé en illustration est celui des nouvelles entrées et des requêtes sur Wikipedia, l’encyclopédie en ligne.
Les flux sont tels qu’il est impossible d’utiliser les modèles relationnels et statistiques, comme les logiciels de visualisation, qui ne sont plus adaptés. Il faut recourir à l’emploi à de nouvelles méthodes comme l’analyse prédictive. Pour être capable d’endiguer ces torrents de données on fait appel à de nouveaux types d’architectures matérielles et logicielles, en général massivement parallèles. D’une planète d’entreprise à quelques terabytes on passe allègrement à des univers de plusieurs petabytes.