Autres domaines d’expertise de l’agence:

Présentation de l'agence

Les actualités BI

Vous avez besoin de plus d’informations ?

Contactez notre agence
au +33 (0)1.72.69.03.21

Inscrivez vous à notre newsletter et recevez nos actualités par email:

Actualités de notre agence

« Page précédente

Page: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Page suivante »

Avis d'expert: les nouvelles technologies « Data »

Par Fabien Barbaud, Directeur Technique de Public-Idées, spécialiste du marketing à la performance.

Le concept de Data est présent depuis plusieurs années dans le domaine du marketing. Ce qui présente actuellement le renouveau de la Data est l’ensemble des moyens technologiques utilisés pour la traiter à grande échelle. Grâce aux DMP, on peut l’organiser, la segmenter, l’agréger ou encore la scénariser. La prolongation réside dans le fait de l’activer, dans un objectif média.

Avant tout, définir les objectifs pour choisir le bon outil

Pour pouvoir définir l’outil que l’on va exploiter, il est important de connaître la finalité de la donnée, qui peut être traitée en temps réel, mais aussi stockée pour pouvoir être ré-exploitée par la suite grâce à des outils plus performants. Quelques exemples :

Hadoop, qui permet de manipuler par Map & Reduce une grande quantité de données en les distribuant dans un cluster de machines et, théoriquement, de traiter une masse de données infinie. C’est la plus répandue et bénéficie d’une communauté open source active, mais reste une infrastructure lourde, qui nécessite un environnement riche en Data pour être déployé. Elle est utile à partir de 20 téraoctets de données, ce qui représente une masse non négligeable en fonction du domaine d’intervention.

Les bases de données « clé valeur » comme Redis permettent de collecter et d’accéder à une grande masse d’informations très rapidement. Elles consistent à utiliser une clé indexée en mémoire qui fait référence à une donnée texte brute. Le modèle de données est simplifié à l’extrême pour viser une efficacité de lecture optimale.

Plus la complexité est élevée dans le traitement de la donnée, plus un point d’interaction entre les données sera nécessaire et plus le traitement sera effectué à posteriori de la collecte.

D’autres types de bases de données sont également utilisés, les NoSQL, telles que MongoDB. Elles permettent de stocker des objets complexes, différents les uns des autres et apportent une souplesse nécessaire à la collecte d’environnements en perpétuel évolution.

Doit-on sélectionner la donnée à collecter ? Stocker de l’information inexploitée coûte cher

Dans un processus Big Data, l’objectif est de collecter un maximum d’information afin d’obtenir une bonne couverture sur l’environnement étudié. Sans limite technique et budgétaire, toute la data qu’il est possible de capter doit être conservée. Plus les données seront larges et différentiées, plus Les résultats obtenus seront pertinents.

Au démarrage de la collecte, il est nécessaire de choisir un spectre large de données. Au fur et à mesure de leur exploitation, les algorithmes s’améliorent et les modèles s’affinent. Nous sommes donc de plus en plus en mesure d’écrémer les données à conserver. L’information inexploitée coûte cher. Aussi bien lors de la collecte que de la conservation. Un ratio coût / efficacité doit être pris en compte pour optimiser la rentabilité du processus Big Data.

 Faire du sur-mesure pour acquérir de nouveaux clients

La technologie permet une segmentation et une catégorisation fine du client (ancienneté, fréquence d’achats, nature de l’achat, …). Ces informations permettent d’établir un ciblage efficace et d’adapter au mieux la communication.

Les technologies Big Data ouvrent des champs d’application diverses qui peuvent adresser des problématiques très différentes suivant l’environnement de l’annonceur. Il est donc possible de proposer des solutions sur mesure en adaptant les modèles de traitement et en mutualisant l’expérience du client et de nos Data Scientist.

La modélisation personnalisée est un enjeu majeur pour les annonceurs. Bien qu’il existe des similitudes dans les comportements de leurs clients, la typologie de chaque audience doit être étudiée. Une offre dédiée doit être construite pour répondre au mieux à la spécificité de chaque annonceur.

 De l’intelligence dans le traitement de la Data…

Au-delà de la collecte de la bonne information, il est nécessaire d’apporter de la valeur par l’utilisation d’algorithmes poussés. Ils permettent de donner du sens et de l’expertise à la donnée.

Le cœur du métier est de collecter la Data au bon endroit, au bon moment, avec intelligence et expertise. Pour ce faire, deux types de profils sont nécessaires pour un travail de qualité et une meilleure efficacité dans l’exploitation. Un Data Scientist tout d’abord. C’est celui qui travaille sur la réalisation de modèles prédictifs, structure la donnée en espaces multiples et rend intelligible la masse d’informations. Ensuite, un Analyste Dataminer qui devra être le lien entre le client et ses données, pour mettre en œuvre la construction de modèles spécifiques, comprendre où collecter l’information, comment l’utiliser et dans quel sens.

Techniquement, lors de l’exploitation, il faut savoir répondre à plusieurs questions pour faire preuve d’efficacité : les données obtenues suffisent-elles ? Doit-on collecter de l’information supplémentaire ? Va-t-on devoir recouper des informations pour qu’elles soient plus pertinentes ? Un processus d’A/B testing est-il nécessaire pour connaître l’adéquation du profil à la cible du client ? La construction de l’environnement Data avec le client est-elle pertinente ?

Cette mécanique est une des bases principales pour réussir des campagnes efficaces.

L’identification unique pour lier tous les types de données

Les données peuvent se trouver sur des espaces très différents (temps, comportemental, déclaratif, CRM, terminaux, …). Elles doivent cependant être ramenées au même utilisateur en identifiant un internaute de façon unique sur l’ensemble des bases de données (internes et/ou externes).

Pour lier ces données, nous utilisons plusieurs technologies comme le fingerprint et le cross device pour ramener chaque information au même utilisateur et augmenter la couverture. Site internet, application mobile et réseaux sociaux, chaque support est important pour récolter les informations et pouvoir retraiter efficacement les différents événements.

L’optimisation de l’exploitation de la Data réside dans l’intelligence et l’expérience utilisées. Grâce à des profils experts et à une technologie adaptée, on constate un gain de temps et une simplification du travail, deux points primordiaux pour une campagne média réussie. 

 Je reste à votre disposition pour toute demande, notamment si vous souhaitez vous entretenir plus en détails avec notre expert Fabien Barbaud, Directeur technique de Public-Idées, spécialiste marketing à la performance.

 

 

Les Dark Data, un gisement à exploiter grâce au Big Data

L’analyse de David-Stéphane Fala, Directeur Conseil, Practice Big Data de Micropole  

Le volume des données numériques double tous les ans et représente désormais près de 98 % des informations dans le monde…

L’heure est au Big Data, porteur de valeur pour les données externes, mais aussi pour les données internes non exploitées, ou Dark Data, véritable gisement pour les entreprises.

À la clé : une source d’économies et de réels gains de productivité. Tous les jours, 2,5 trillions d’octets de données sont générées dans le monde, selon IBM.

Conséquence : 90 % des données existantes aujourd’hui ont été créées au cours des deux dernières années...

Et parmi cette masse d’informations, certaines produites par l’entreprise ne sont pas exploitées, que ce soit par manque de moyens financiers ou par méconnaissance.

Or, ces Dark Data possèdent une vraie valeur intrinsèque pour l’entreprise et constituent une mine d’informations opérationnelles qu’il ne faut pas négliger. 

Comment catégoriser ces Dark Data ?   Il existe 3 raisons pour lesquelles ces données ‘obscures’ restent très peu exploitées à ce jour :

non identifiées elles ne sont donc pas collectées,
· identifiées, il est trop compliqué de les exploiter avec les technologies classiques,
· disponibles au sein du SI, elles ne sont pas exploitables en l'état.

Mais heureusement, ces Dark Data fonctionnent à l'inverse de la matière noire (Dark Matter) : il est possible de les identifier, de les quantifier et de les rendre exploitable, pour en tirer les bénéfices. 

Replacer la DSI au centre de l’entreprise et de ses performancesDans un rapport de 2010, McKinsey prédisait une augmentation de 60 % de la marge d’exploitation des retailers qui utiliseraient pleinement ces Big Data. Imaginez les possibilités offertes par l’exploitation des données internes non ou peu exploitées !

Comment intégrer alors l’ensemble de ces données non métier, produites par l‘entreprise ou la DSI, et leur donner du sens ? Grâce au Big Data !

Aujourd’hui, il est désormais possible de stocker ces données et donc de les analyser. 

Quelles conséquences directes pour l’entreprise ?

La problématique essentielle liée aux Dark Data (après le travail d'identification) est lié à leur volumétrie conséquente et à la variété de leur format.

Le Big Data apporte la possibilité de mieux connecter les systèmes de production au système d’information, en apportant les outils permettant l'exploitation des données de type "machine" (log, capteurs, archives, etc.). À la clé pour la DSI : une diminution des coûts et une capacité d’analyse inégalable.

L’avantage ? Pouvoir intervenir de manière proactive sur les machines et réduire ainsi les temps d’arrêt. Désormais, la DSI va pouvoir obtenir une vision globale de ce qui est produit, et intégrer l’ensemble des informations à la plateforme, ce qui va ainsi améliorer son ROI. 

Les possibilités sont infinies : impliquer d’autres projets et d’autres métiers sur la plateforme, interconnecter différents systèmes, relier et connecter les capteurs présents dans les systèmes de production...

La DSI peut alors exploiter les logs, ces journaux d’activités produits par les applications ou les outils de production, et ainsi anticiper les problèmes. Ce qui permettra un downtime réduit et des gains de productivité conséquents.

 

« Page précédente

Page: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Page suivante »

Nos services

Aide à la rédaction du cahier des charges

Analyse de votre activité

Entretiens personnalisés

Rédaction du cahier des charges

» Nos services en détails

Votre projet BI

Notre équipe vous guide dans la réalisation de votre projet BI.

Cahier des charges BI

Grâce à notre outil, rédigez votre cahier des charges BI en ligne et gratuitement.

Les solutions de gestion BI

Retrouvez ci-dessous une sélection de nos partenaires:

 

» Toutes les solutions logicielles BI

Le cabinet reflex-BI est une agence de conseils se spécialisant dans les solutions BI. Nous offrons comme service : l’audit de votre système actuel, la rédaction de votre cahier des charges, l’aide au choix dans la sélection de la solution pour votre entreprise et enfin des conseils en infrastructure. Vous pouvez également consulter notre liste d’éditeurs BI, les différentes solutions BI et un classement des outils BI par branche. Notre aide au choix est personnalisée tout comme la mise en place de votre projet BI. Nous vous donnons la possibilité de consulter notre documentation en ligne : livres blancs BI, cahiers des charges BI et d’autres documents BI. Besoin d’aide sur d’autres thématiques IT? Consultez nos offres ERP, Comptabilité, Paie et CRM.