Auteur

Auteur

Auteur

À l'ère numérique actuelle, les entreprises doivent relever le défi de suivre le rythme sans précédent de data , ainsi que la multitude de systèmes d'entreprise et de technologies numériques qui collectent toutes sortes de data. À cela s'ajoute la nécessité d'analyser rapidement et efficacement ces volumes considérables de data tirer des informations et des connaissances permettant de maximiser leur valeur commerciale. Par conséquent, data sont devenues un pilier essentiel permettant aux entreprises de déployer efficacement data qui favorisent la prise de décisions commerciales data en temps opportun et leur confèrent un avantage concurrentiel.

« Les solutionsData et d'intelligenceData se multiplient au sein des entreprises pour favoriser leur croissance. Celles-ci doivent mettre en place data data qui serviront de base solide au déploiement data à grande échelle. data doivent être spécialement conçues pour répondre aux besoins des entreprises, car leur efficacité dépend entièrement des informations et de l'intelligence qu'elles permettent d'obtenir ; elles doivent également être conçues pour s'adapter à l'évolution future, en tirant parti des progrès constants des services et des technologies data . »
Oussama Ahmad, associé Data chez Artefact

Principaux objectifs de la Data Big Data

data visent à éliminer data et à intégrer les différents types de data nécessaires à la mise en œuvre de solutions avancées data et d'intelligence data . Elles offrent une infrastructure évolutive et flexible permettant de collecter, de stocker et d'analyser de grands volumes de data multiples sources. Ces plateformes doivent s'appuyer sur les meilleurs services et technologies data et répondre à trois objectifs clés :

  • Centraliser data : une data Big data doit permettre de briser data en ingérant et en stockant automatiquement data de types et de tailles variés, provenant à la fois data d'entreprise et data tierces. Elle doit devenir le data central data , offrant une source unique et fiable pour toutes data nécessaires aux solutions data .

  • Mettre en place des solutions data : une data Big data doit offrir une infrastructure solide permettant de développer, d'exécuter et de déployer différents types de solutions d'analyse (du simple reporting à l'apprentissage automatique avancé), selon les besoins, afin de répondre aux exigences de l'entreprise en matière d'informations et de connaissances nécessaires à la prise de décision.

  • Garantir un accès conforme et sécurisé aux data aux applications: grâce à une data Big data , les entreprises doivent être en mesure d'offrir data consolidé et sécurisé data à l'ensemble des parties prenantes, tant internes qu'externes. Cette plateforme doit également stocker, traiter et diffuser data le respect data et réglementations locales data , ainsi que des normes internationales et des bonnes pratiques.

Infrastructure de la Data Big Data

Il existe plusieurs options d'infrastructure pour une data Big data : entièrement sur site, entièrement cloud hybride cloud, chacune présentant ses propres avantages et défis. Les entreprises doivent tenir compte d'un certain nombre de facteurs lorsqu'elles choisissent l'option d'infrastructure la plus appropriée pour leur data Big data , notamment les exigences data et de localisation data , l'intégration data , les exigences en termes de fonctionnalités et d'évolutivité, ainsi que les coûts et les délais. Une architecture entièrement cloud offre des coûts réduits et plus prévisibles, des services et des intégrations prêts à l'emploi, ainsi qu'une évolutivité rapide, mais ne permet pas de contrôler le matériel et peut ne pas être conforme aux réglementations data et de résidence data . Une architecture entièrement sur site offre un contrôle total sur le matériel et data , est généralement conforme aux réglementations en matière de confidentialité et de résidence, mais entraîne des coûts plus élevés et nécessite une planification à long terme pour l'évolutivité. Une architecture hybride cloud offre le meilleur des deux mondes, facilitant une migration complète vers le cloud une date ultérieure, mais peut nécessiter une configuration plus complexe.

De nombreuses entreprises optent pour une infrastructure hybride pour leurs data , soit parce qu'elles sont tenues de conserver data hautement sensibles data telles que data clients et financières) sur leurs propres serveurs, soit en raison du manque de fournisseurs cloud (CSP) certifiés par les pouvoirs publics et répondant aux exigences locales data et de localisation data . Ces organisations préfèrent également conserver data cloud ou non sensibles dans le cloud optimiser les coûts de stockage et de ressources de calcul, et de tirer parti des services data et d'apprentissage automatique prêts à l'emploi proposés par les CSP. D'autres organisations, qui ne sont soumises à aucune exigence organisationnelle ou réglementaire en matière de data au sein de l'entreprise ou du pays, optent pour une infrastructure entièrement cloud afin de bénéficier d'un délai de mise en œuvre plus court, de coûts optimisés et de ressources facilement évolutives.

class="lazyload

Figure 1 : Infrastructure Data hybride Cloud sur site

Une data implique généralement la mise en place de sept couches principales qui reflètent le data , depuis data« databrutes datajusqu’aux « informations », puis aux « connaissances ». Les organisations doivent soigneusement réfléchir aux services et outils adaptés requis pour chacune de ces couches afin de garantir un flux de données fluide et une génération efficace de data . Ces services et outils doivent remplir des fonctions clés dans chaque couche de la data , comme le montre la figure 2 : Data Data .

class="lazyload

Figure 2 : Data Data Big Data

Évolution de la Data Big Data

Le développement d'une data doit se dérouler en plusieurs étapes, en commençant par une plateforme minimale viable (MVP) puis en procédant à des mises à niveau progressives. Une organisation doit synchroniser l'évolution de sa data avec les exigences croissantes en matière data et data intelligence plus étendues et plus rapides pour la prise de décisions commerciales. Ces exigences accrues ont une incidence sur la complexité de la data en termes de solutions data , de volumes et de types data , ainsi que d'utilisateurs internes et externes. L'évolution de la data comprend l'ajout de ressources de stockage et de calcul supplémentaires, de fonctionnalités avancées, ainsi que des améliorations en matière de sécurité et de gestion de la plateforme.

class="lazyload

Figure 3 : Évolution Data mégadonnées

« Nous avons constaté que de nombreuses entreprises ont tendance à mettre en place, dès le départ, data dotées de fonctionnalités avancées et superflues, ce qui augmente le coût total de possession de la technologie. Le déploiement data devrait commencer par une plateforme minimale viable, puis évoluer en fonction des besoins opérationnels et technologiques. Dès les premières étapes de la mise en place de la plateforme, les entreprises devraient mettre en œuvre une structure solide data et de gestion data qui garantisse data , la confidentialité et la sécurité data , ainsi que le respect des data locales et régionales en matière data . »
 Anthony Cassab, directeur Data chez Artefact

Lignes directrices pour une Data évolutive

data doit être conçue selon des principes architecturaux clés afin de garantir sa pérennité, en permettant une évolutivité aisée des ressources, la portabilité entre différentes cloud sur site et cloud , la mise à niveau et le remplacement des services, ainsi que l'extension des mécanismes data et de partage data .

  • data modulaires: toutes les couches de la plateforme doivent être clairement définies et intégrées, depuis la couche data jusqu'à la couche data et de BI. Chaque couche doit s'appuyer sur les meilleurs services ou outils disponibles, ce qui implique généralement que l'architecture ne repose pas sur une solution de type « boîte noire » et permette la configuration et l'intégration d'outils et de services autonomes offrant des fonctionnalités spécifiques.

  • Applications conteneurisées: la plateforme doit conteneuriser les procédures et les applications data , de traitement et d'analyse data à l'aide de plateformes d'orchestration telles que Kubernetes. Les conteneurs offrent un mécanisme de packaging logique permettant d'abstraire les applications de leur environnement d'exécution, ce qui facilite l'exécution de charges de travail conteneurisées sur divers types d'infrastructures. Cela facilite la portabilité des applications de la plateforme entre différentes cloud sur site et cloud , ainsi que leur déploiement sur plusieurs clouds.

  • Architecture basée sur les microservices: les applications de la plateforme doivent être décomposées en microservices, chacun remplissant une fonction spécifique et interagissant avec les autres. Cela facilite le développement et la maintenance des applications, permet le déploiement et la mise à l'échelle indépendants des microservices, et rend possible la livraison rapide et fréquente d'applications complexes de grande envergure.

  • Services et outils standard: Le choix des outils et des services pour la plateforme doit privilégier les normes industrielles communes (normes ouvertes) et limiter la dépendance vis-à-vis de ceux qui sont spécifiques à un fournisseur de technologies donné. Par exemple, la plateforme doit inclure cloud communs à plusieurs fournisseurs cloud . Cela facilite la migration entre différentes cloud sur site et cloud , ainsi quecloud , ce qui permet de réduire les coûts et les délais.

  • data solide: dès le départ, la plateforme doit intégrer un cadre data solide, sous la forme d'outils, de services, de processus, de contrôles et de règles qui garantissent un suivi et une amélioration continus de data , un accès sécurisé aux data data , la protection de la vie privée, un stockage et un traitement conformes, ainsi qu'une gestion normalisée data des métadonnées. Cela facilite la mise à l'échelle des ressources et des capacités de la plateforme, ainsi que l'adoption généralisée des solutions data et l'utilisation des ensembles de données disponibles.

« Une plateforme adaptable et modulaire, capable d'évoluer au gré des besoins de l'entreprise, est préférable à une plateforme de type « boîte noire », certes bien intégrée, mais offrant des possibilités de personnalisation limitées. Ces architectures de plateforme peuvent être déployées entièrement ou partiellement dans le cloud tirer parti des avantages du cloud , tels que l'évolutivité et la rentabilité, tout en respectant les exigences en matière de confidentialité et de sécurité imposées par les réglementations sur data . »
Faisal Najmuddin, responsable Data chez Artefact

En résumé, une data Big data apporte de nombreux avantages aux organisations, tels que la centralisation data , la mise en place de solutions data avancée data et l'accès à l'échelle de l'entreprise aux solutions et sources data . Cependant, la mise en œuvre d'une data Big data implique un certain nombre de décisions stratégiques, telles que le choix de la ou des infrastructures appropriées, l'adoption d'une architecture évolutive, la sélection de services standardisés et « migrables », la prise en compte rigoureuse des réglementations data et, enfin, la définition d'un plan d'évolution optimal étroitement lié aux besoins de l'entreprise et maximisant le retour sur data .