actu-fr

La grande question du Big Data

By 31 juillet 2019 No Comments

Souhaitant tirer parti de la data, les entreprises se trouvent face à un défi de taille : traiter plus de données, plus rapidement et à moindre coût.

Le potentiel de la data, réputé important en termes de développement économique, suscite l’intérêt de beaucoup d’entreprises. Une difficulté se pose pourtant : la data brute ne produit aucune valeur en soi. Pour que les entreprises puissent dégager des revenus supplémentaires à partir de cette ressource, il est nécessaire qu’elles mettent en place un processus de traitement et d’exploitation de la data. Dans ce contexte, plusieurs enjeux font jour.

Premièrement, l’exploitation de la data est un processus cher, qui engage trois coûts principaux : ceux en matière de personnel ; ceux en matière de logiciels ; ceux en matière de serveurs. Si le prix des serveurs a été fortement réduit ces dernières années (notamment avec le développement des offres d’hardware à grande échelle par Amazon), les coûts d’ingénierie restent très élevés, du fait d’un manque d’offre sur le marché du travail ne répondant pas à une demande toujours plus importante.

Deuxièmement, l’implantation de ces processus devient une nécessité pour le développement futur des entreprises. Une étude conduite par Accenture montre ainsi que 4 dirigeants sur 5 pensent que les entreprises ne prenant pas le virage du Big Data perdront leurs avantages compétitifs, voire qu’elles pourraient disparaître [1].

Pourtant, malgré leur compréhension de ces enjeux, les entreprises restent peu nombreuses à réaliser des investissements en matière d’analytique. Selon une étude menée par Pure Storage, près de ¾ des entreprises ne maîtrisent pas la masse des données qu’elles collectent [2]. La raison est simple : les technologies actuelles de traitement et d’exploitation de la donnée présentent encore de nombreuses limites.

L’une d’entre elles réside dans les performances de ces outils en matière de « time-to-data ». Cette notion désigne le temps nécessaire pour passer d’une data brute inexploitable à la mise à disposition, au moyen d’outils de visualisation, d’informations précises, complètes et pertinentes. Plus le time-to-data d’un projet est élevé, plus les investissements analytiques seront chers et risqués. Or, les projets de Business Intelligence (BI) ou de Big Data voient leur time-to-data osciller entre plusieurs heures et plusieurs mois en fonction de la variété et de la quantité de data à traiter.

Une question majeure se pose donc ici aux entreprises : comment réduire le time-to-data à un minimum et ainsi rendre les investissements analytiques moins coûteux, plus performants et plus agiles ?

Téléchargez le livre blanc « Les nouveaux défis du Big Data » ici.

[1] Accenture, Big Success with Big Data Survey, 2014
[2] Pure Storage, Le Big Échec du Big Data, 2016

Leave a Reply

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considérerons que vous acceptez l'utilisation des cookies. Plus d'information

Les paramètres de cookies sur ce site sont configurés pour "autoriser les cookies" afin de vous offrir la meilleure expérience de navigation possible. Si vous continuez à utiliser ce site Web sans modifier vos paramètres de cookies ou si vous cliquez sur "Accepter" ci-dessous, vous consentez à cela.

Fermer