Autres domaines d’expertise de l’agence:

Présentation de l'agence

Les actualités BI

Vous avez besoin de plus d’informations ?

Contactez notre agence
au +33 (0)1.72.69.03.21

Inscrivez vous à notre newsletter et recevez nos actualités par email:

Actualités de notre agence

« Page précédente

Page: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Page suivante »

IBM intègre Twitter dans ses services analytiques

IBM a officialisé un partenariat avec Twitter en 2014.

IBM a souhaité grâce à ce partenariat, intégrer dans ses services analytiques, des données issues du réseau social.

Les consultants du réseau d'IBM Global Business Services, peuvent utiliser Twitter pour enrichir leurs prestations de conseil auprès des clients de la firme.

Selon IBM ce service permet d'aider à mieux connaître les tendances du marché en analysant la perception des consommateurs. Les informations de Twitter seront  accessibles sur la plate-forme Hadoop de Big Blue, via les systèmes préconfigurés BigInsights on Cloud.

IBM souhaite également, connecter Twitter avec le service ExperienceOne, concernant la relation client. IBM souhaite également étendre ses offres pour des banques, du retail ou encore des transports.

 IBM souhaiterait égalemnet se rapprocher d’autres médias sociaux ou plates-formes communautaires pour améliorer ses outils décisionnels.

 

Avis d'expert: sécuriser la nouvelle ère du Big Data

Christophe Auberger, Directeur Technique France chez Fortinet

À l’heure du numérique, l’information constitue la nouvelle monnaie. Et pour obtenir cette information, les entreprises analysent leurs données – et un grand nombre - pour la connaissance qu’elles peuvent en extraire.

A l’échelle du commerce en ligne et des réseaux sociaux, le volume des données est très important, compte tenu des centaines de millions de smartphones et d’équipements clients. A l’échelle des données grand public, médicales ou liées à l’univers de la recherche, ce volume peut être gigantesque, issu de capteurs et d’instruments recueillant de larges volumes de données brutes, à partir d’une source unique (à l’instar des instruments de surveillance d’un moteur d’avion lors d’un vol), ou des 26 milliards d’équipements qui constitueront à terme l’Internet des Objets.

La ruée vers l’or à laquelle nous assistons actuellement en matière de collecte et d’analyse du Big Data, alimenté de plus en plus par l’Internet des Objets, crée de nouveaux défis pour les réseaux et la sécurité des centres de données, et ceci dans trois domaines clés :
En premier lieu, celui de l’agrégation des données. Progressivement, plutôt que de traiter les données brutes et de réduire leur volume au niveau de la source, les données brutes sont transférées et stockées de manière centralisée. Ceci permet de les analyser de différentes façons et dans la durée.

Aujourd’hui, les entreprises transfèrent des téraoctets de données tous les jours et sur des distances importantes. Cette inflation en matière de volumes implique de renforcer les capacités des cœurs de réseau et des centres de données, comme, par exemple, migrer vers des performances de 100GbE pour assurer le transfert de flux individuels de données à des débits de 10Gbps à minima.

Cette évolution met à l’épreuve les outils de sécurité en périphérie de réseau (pare-feux notamment), d’autant que nombre d’entre eux ne sont pas adaptés à des volumes aussi importants et à des sessions aussi nombreuses. A titre d’exemple, un pare-feu équipé de ports en 10 GbE ou de performances agrégées de 40 Gbps ne disposent pas forcément de ressources de traitement interne pour gérer un flux à 10 Gbps. La congestion liée au trafic d’entreprise classique sur les LAN est susceptible de saturer davantage les ressources mémoire et CPU, impliquant un ralentissement ou un décrochage des flux importants.

Dans un second temps, le traitement constitue un défi. Les flux liés au Big Data ne sont pas symétriques : les données brutes entrantes ne ressortent pas forcément dans les mêmes formats et volumes. Les données conservées dans les espaces de stockage sont généralement analysées via des serveurs intermédiaires. Le volume de données est ensuite réduit et restitué, souvent via des serveurs Web en front-end, en tant qu’informations synthétiques et donc de faible volume, nécessaires à la visibilité.

C’est suite à cette étape que les données sortent du centre de données. Ceci implique une bande passante plus importante, mais aussi davantage de trafic latéral (à savoir au sein du centre de données), comparé au trafic de type entrée-sortie. De nombreuses études estiment que le trafic latéral compte aujourd’hui jusqu’à 70% du trafic total au sein des centres de données, et que cette tendance continuera à progresser compte tenu de la multiplication des traitements analytiques du Big Data.

Le trafic latéral doit être segmenté et inspecté, pour neutraliser les mouvements latéraux liés aux menaces APT et aux attaques ciblées, mais aussi pour sécuriser les données en elles-mêmes, celles confidentielles notamment. La sécurité réseau doit évoluer d’une architecture de type périmétrique ou passerelle, vers une architecture hybride et multi-niveaux, pour prendre en charge un trafic latéral virtualisé et abstrait qui résulte de l’adoption des technologies de virtualisation serveurs et réseau, ainsi que du Cloud Computing.

Enfin, le troisième défi est celui de l’accès aux données. En matière de Big Data, les données sont archivées sur de longue période, d’où des interrogations : quelles sont les personnes autorisées à accéder à quelles données et pour quelles raisons? Souvent, les données ne sont pas stockées au même endroit mais peuvent être associées et analysées ensemble. Chaque ensemble de données contient des informations sensibles et susceptibles d’être soumises à réglementation ou à des audits internes.

De plus, il existe souvent plusieurs équipes d’analystes et de chercheurs qui recherchent des informations différentes. Un acteur majeur de l’industrie pharmaceutique a ainsi montré l’exemple, mettant les recherches et résultats de ses analyses Big Data à la portée de différents profils : collaborateurs internes, sous-traitants, stagiaires ou encore invités. Pour chacun de ces profils, une sandbox d’analyse distincte a été créée, pour accorder des droits d’accès spécifiques à des ensembles de données identifiés comme pouvant être consultés et associés.

Dans ce contexte, les directions informatiques doivent revisiter les fondamentaux de la sécurité informatique, plutôt que de s’engager dans des étapes supplémentaires pour sécuriser leur centre de données. Dans de nombreux cas, l’infrastructure même de leur centre de données est actuellement en phase de consolidation, et transformée compte tenu du Big Data, du cloud computing et des initiatives SaaS. Dans le cadre de cette transformation, les directions informatiques devraient privilégier une architecture présentant les caractéristiques suivantes :

· Hautes performances – Prise en charge des volumes importants de données grâce à un renchérissement des débits sur le réseau et des ports hautes performances (40 ou 100GbE) et denses. L’évolutivité est également un impératif pour répondre à la croissance du volume des données.

· Sécurisée – Repenser la sécurité du périmètre réseau en segmentant davantage pour se protéger des mouvements latéraux des données, et assurer la surveillance des menaces sophistiquées ou émanant de l’intérieur.

· Consolidée – intégration de différentes fonctionnalités de sécurité, des fonctions classiques (pare-feu, VPC, antivirus et prévention des intrusions) aux fonctions évoluées de protection évoluée contre les menaces (Advanced Threat Protection), une authentification forte et le contrôle d’accès.

Enfin, les entreprises sont invitées à tirer profit du Big Data pour renforcer leur sécurité. Avec d’avantage de points de contrôle et de monitoring déployés sur le réseau et dans les centres de données, une plateforme SIEM (Security Information and Event Management) et des outils de gestion des logs capables d’agréger les volumes toujours plus importants de logs de sécurité et d’événements, il devient possible d’obtenir des informations décisionnelles en matière de sécurité, pour protéger le Big Data mais aussi le centre de données dans sa globalité.

 

« Page précédente

Page: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Page suivante »

Nos services

Aide à la rédaction du cahier des charges

Analyse de votre activité

Entretiens personnalisés

Rédaction du cahier des charges

» Nos services en détails

Votre projet BI

Notre équipe vous guide dans la réalisation de votre projet BI.

Cahier des charges BI

Grâce à notre outil, rédigez votre cahier des charges BI en ligne et gratuitement.

Les solutions de gestion BI

Retrouvez ci-dessous une sélection de nos partenaires:

 

» Toutes les solutions logicielles BI

Le cabinet reflex-BI est une agence de conseils se spécialisant dans les solutions BI. Nous offrons comme service : l’audit de votre système actuel, la rédaction de votre cahier des charges, l’aide au choix dans la sélection de la solution pour votre entreprise et enfin des conseils en infrastructure. Vous pouvez également consulter notre liste d’éditeurs BI, les différentes solutions BI et un classement des outils BI par branche. Notre aide au choix est personnalisée tout comme la mise en place de votre projet BI. Nous vous donnons la possibilité de consulter notre documentation en ligne : livres blancs BI, cahiers des charges BI et d’autres documents BI. Besoin d’aide sur d’autres thématiques IT? Consultez nos offres ERP, Comptabilité, Paie et CRM.