18.8 C
New York

Pour les API d’entreprise, l’intégration Zero-Copy est-elle le David du Goliath du Massive Knowledge ?


données binaires numériques bleues sur écran d'ordinateur
Picture : gonin/Adobe Inventory

Dans « Le roi et moi » de Rodgers et Hammerstein, le roi explique au « moi » que l’abeille vole toujours de fleur en fleur, la fleur ne vole jamais d’abeille en abeille. Cette justification de la jalousie n’a pas volé avec Mme Anna, mais elle a du sens lorsqu’elle est appliquée à la relation entre les purposes et les données : les données doivent-elles voler d’une software à l’autre, ou les données doivent-elles rester en place comme une fleur et laisser les purposes s’en approcher ? à ses situations ?

Un nouveau cadre, formulé comme une norme ouverte qui vient de recevoir l’imprimatur du gouvernement canadien, maintient les données solidement enracinées.

Sauter à:

Qu’est-ce que l’intégration sans copie ?

Zero-Copy Integration est une initiative défendue par la société canadienne de données collaboratives Cinchy. Il vise à renverser le logiciel d’entreprise Intégration API paradigme avec un modèle totalement nouveau – l’entreprise l’appelle dataware – qui maintient les données efficacement enracinées tout en éliminant la complexité et la redondance des données du processus d’intégration des logiciels d’entreprise.

Avantages de l’intégration sans données

Les partisans de l’intégration zéro copie et des logiciels de données affirment que le cadre réduira les coûts de stockage des données, améliorera les performances des équipes informatiques, améliorera la confidentialité et la sécurité des données et stimulera l’innovation dans les systèmes de santé publique, de recherche sociale, de banque ouverte et de durabilité grâce à des improvements dans :

  • Développement et enrichissement d’purposes.
  • Analyses prédictives.
  • Jumeaux numériques.
  • Technologie consumer 360.
  • Intelligence artificielle et apprentissage automatique.
  • Automatisation du flux de travail.
  • Modernisation du système hérité.

VOIR: Massive knowledge contre les bonnes données : devenir plus productif dans le cloud (TechRepublic)

Mardi, le Conseil de gouvernance numérique du Canada et l’affiliation à however non lucratif Knowledge Collaboration Alliance, créée par Cinchy, ont annoncé la norme CAN/CIOSC 100-9, Gouvernance des données – Partie 9 : Intégration sans copie, une norme nationale approuvée par le Conseil des normes de Canada, à publier en tant que norme ouverte.

En savoir plus sur l’annonce et le Conseil de gouvernance numérique du Canada dans cet article TechRepublic.

L’intégration sans copie vise à éliminer les silos de données pilotés par l’API

L’idée de base, selon Dan DeMers, PDG de Cinchy, est que le cadre vise à supprimer les silos de données d’software en utilisant la collaboration de données basée sur l’accès par rapport à l’intégration de données normal basée sur l’API qui implique de copier les données et de les personnaliser avec un codage complexe spécifique à l’software. Cela serait fait par des contrôles d’accès définis dans la couche de données. Cela impliquerait également :

  • Gouvernance des données through des produits de données et intendance fédéréepas des équipes centralisées.
  • Priorisation de la « centration sur les données » et des métadonnées actives sur le code complexe.
  • Priorité à la modularité de la resolution plutôt qu’à la conception monolithique.

L’initiative a déclaré que les projets viables pour l’intégration sans copie incluent le développement de nouvelles purposes, l’analyse prédictive, jumeaux numériquesdes vues consumer à 360°, l’opérationnalisation de l’IA/ML et l’automatisation des flux de travail, ainsi que la modernisation des systèmes hérités et l’enrichissement des purposes SaaS.

DeMers, qui est également membre du comité method de la norme, promet une révolution dans les données.

« À un second donné dans un monde de complexité croissante, vous tombez d’une falaise, nous pensons donc que nous sommes au début de la révolution de la simplification », a-t-il déclaré. « Le fait est que les données deviennent de plus en plus centrales, et la façon dont nous les partageons se fait avec des API et ETL, qui implique la création de copies et augmente considérablement la complexité et le coût. Cela représente la moitié de la capacité informatique de chaque organisation complexe de la planète, et chaque année cela devient plus cher.

Il a ajouté que ce qui est encore plus préoccupant, c’est que chaque fois qu’une copie est générée, un sure degré de contrôle est perdu.

« Si je dirige une banque et que j’ai un millier d’purposes, et qu’elles ont toutes besoin d’interagir avec une représentation de mon consumer, et qu’en faisant cela, je copie cette représentation, j’ai maintenant un millier de copies de ce consumer », a déclaré DeMers. « Remark puis-je protéger cela ? »

VOIR: Liste de contrôle de la gouvernance des données pour votre organisation (TechRepublic Premium)

Sécurité grâce aux frameworks Zero-Copy

Les lois décrivant la propriété des données limitent la manière dont les organisations ou les gouvernements peuvent utiliser ces données – mais ce sont des lois, pas des contrôles systématiques, a noté DeMers. Un level clé de l’argument de l’intégration sans données et de l’adoption par le Canada d’un cadre en principe est qu’il facilite la sécurité des données en limitant l’accès et le contrôle.

« Zero Copy est un changement de paradigme automobile il vous permet d’intégrer des contrôles dans les données elles-mêmes », a déclaré DeMers. « Parce qu’il est basé sur l’accès et non sur la copie, l’accès peut être accordé et il peut être révoqué, alors que les copies sont éternelles et que vous pouvez rapidement perdre le contrôle de qui les possède, et toute tentative de limiter ce que font les organisations lorsqu’elles obtiennent une copie est difficile . « 

Cinchy vise une « structure de tissu de données » pour transformer les entrepôts de données, les lacs et/ou maisons du lac dans des référentiels qui peuvent actualiser à la fois les logiciels analytiques et opérationnels. C’est ainsi que les purposes peuvent y accéder, et non transporter des copies de données vers le jardin clos de l’software.

DeMers a fait valoir que la création et le stockage de copies coûtent de l’argent, à la fois en raison des pipelines de stockage et de données et du temps que l’informatique doit consacrer à la gestion des itérations de données générées par des centaines ou des milliers d’purposes qu’une entreprise peut héberger.

« Les copies de données nécessitent un stockage ; la création de la copie et sa synchronisation utilisent non seulement le stockage, mais également le calcul », a-t-il déclaré. « Si vous imaginez que la plupart des processus s’exécutent actuellement sur des serveurs de la banque, ils déplacent et rapprochent des copies de données, ce qui constitue une consommation d’énergie. »

Il a ajouté que la copie et le déplacement de données créent des opportunités d’introduire des erreurs. Si deux systèmes connectés par un pipeline de données se désynchronisent, les données peuvent être perdues ou corrompues, ce qui réduit la qualité des données. Avec une seule copie des données utilisées collectivement par tous les systèmes, il n’y a aucune likelihood que les enregistrements apparaissent différemment dans différents contextes.

L’intégration Zero-Copy est-elle un rêve du métro de LA ?

Matt McLarty, directeur de la technologie de MuleSoft de Salesforce, convient que la réplication des données est un problème everlasting.

« Pas même la réplication des données, mais l’existence de données sémantiquement équivalentes à différents endroits », a-t-il déclaré.

Il le voit un peu comme Los Angeles et les métros : une excellente idée en principe, mais personne ne va démolir Los Angeles et le reconstruire autour des transports en commun.

« C’est à la fois un énorme problème mais aussi une réalité incontournable », a-t-il déclaré. « D’après un énoncé de problème, oui, mais je dirais qu’il existe plusieurs catégories de logiciels dans l’espace, y compris Salesforce Genie, tout sur la façon dont vous exploitez toutes les données consumer largement dispersées dans l’écosystème. »

VOIR: Étude : Les entreprises ont plus de 1 000 purposes, mais seulement un tiers sont intégrées (TechRepublic)

Éléphants opérationnels et zèbres analytiques s’abreuvant au même lac de données

La plupart des entreprises, a expliqué McLarty, ont deux énormes domaines de données qui, bien qu’ils ne soient pas contradictoires, doivent vivre séparément : les données opérationnelles et données analytiques. Les données opérationnelles sont utilisées par des purposes destinées aux utilisateurs telles que les companies bancaires mobiles ; les données analytiques extraient les données du flux des activités opérationnelles et les utilisent pour l’analyse et l’intelligence commerciales.

« Ils ont toujours vécu séparément en raison des différences de traitement », a-t-il déclaré. « Sur le plan opérationnel, il y a un traitement à grande vitesse et à grande échelle et analytiquement, de petits groupes internes traitent de gros chiffres.

DeMers a expliqué que ce que les logiciels de données font, entre autres, consiste à incorporer une « construction de données opérationnelle ». Cela, a-t-il dit, permet une intégration « dernière fois » de sources de données externes à une structure basée sur un « réseau d’ensembles de données » succesful d’alimenter des modèles commerciaux illimités.

« Une fois créés, ces modèles peuvent être facilement opérationnalisés en tant qu’expériences basées sur des métadonnées ou exposés en tant qu’API pour alimenter les conceptions UX à faible code et à code professional », a-t-il déclaré, ajoutant que cela élimine le besoin de mettre en place de nouvelles bases de données, d’effectuer des opérations level à pointez l’intégration des données ou définissez des protections de données spécifiques à l’software.

« Un autre idea de base associé à la technologie des logiciels de données est » l’intelligence collaborative « , qui est créée à la suite d’utilisateurs et de systèmes connectés, enrichissant simultanément les informations au sein du réseau d’ensembles de données », a-t-il déclaré.

DeMers a déclaré que les utilisateurs autorisés à accéder à un ensemble de données par ses propriétaires obtiennent une interface appelée « navigateur de données » offrant une « expérience en libre-service ».

« En principe, cela fonctionne un peu comme Google Docs, où plusieurs collègues collaborent sur un livre blanc ou une proposition commerciale tandis que le logiciel suggest automatiquement des recommendations grammaticales et gère les rôles, les autorisations, les variations et la sauvegarde », a-t-il déclaré.

DeMers a ajouté que le résultat last est des données tremendous enrichies et auto-protégées qui peuvent être interrogées instantanément par les équipes pour alimenter des tableaux de bord illimités, des vues à 360° et d’autres projets d’analyse.

Les entreprises vont-elles simplifier ou « embrasser le chaos ? »

Selon certaines estimations, les entreprises empruntent la voie « embrasser le chaos » pour trouver de nouvelles approches qui concèdent que les cadres de données d’entreprise resteront complexes et de sort LA. Ceux-ci inclus maillage de données frameworks et systèmes d’automatisation et d’apprentissage automatique créant des modèles qui intègrent différents sorts de données.

« Je pense que le plus grand changement en ce second dans le monde des données est que les deux mondes – analytique et opérationnel – entrent en collision », a déclaré McLarty. « Ce qui se passe maintenant, en raison du mouvement du Massive Knowledge et de l’apprentissage automatique, c’est le codage dérivé des données – écrire du code avec des données, ingérer des données et produire des modèles d’apprentissage automatique basés sur les données que je peux mettre dans mes purposes. »

DeMers a déclaré que le paradigme des logiciels de données permet des ideas de maillage de données.

« Exiger qu’une seule équipe gère chaque ensemble de données dans l’organisation est un chemin sûr vers l’échec. gouvernance des données, » il a dit.

Il a également fait valoir que dans une organisation centrée sur les données, les gestionnaires de données devraient refléter la granularité de votre organigramme.

« Cette approche de la gouvernance fédérée des données organisée autour de domaines de données et de produits de données est le maillage de données, et c’est une grande partie de l’établissement d’une entreprise plus agile », a déclaré DeMers.

Les silos de données rendent cela difficile en raison de l’intégration de données level à level illimitée qu’elle implique.

Libération des données de l’software

Sylvie Veilleux, ancienne directrice de l’data de Dropbox, a déclaré que les silos de données sont un élément fondamental du Logiciel en tant que service écosystème, mais c’est un problème que les logiciels de données peuvent résoudre.

« Chaque software répond à un objectif spécifique et distinctive, et elles tendent de plus en plus vers une spécialisation, a-t-elle déclaré. « Plus l’adoption du SaaS se poursuit, ce qui est très sain en termes d’accès aux outils pour l’entreprise, plus elle crée continuellement une centaine, des milliers ou plus de silos de données dans les grandes entreprises. Ce nombre continuera d’augmenter sans que nous ayons à adopter une toute nouvelle approche de notre façon de penser les purposes de données. »

Elle a déclaré que les logiciels de données et l’intégration sans données permettaient aux entreprises d’éliminer les intégrations de données supplémentaires en permettant à l’software de se connecter à une supply de données réseau.

« Cela change notre façon de travailler en faisant pivoter le processus des données captives d’une software pour les garder sur un réseau, permettant ainsi aux utilisateurs de collaborer et en donnant aux entreprises un accès en temps réel », a déclaré Veilleux.

Avec la migration des référentiels de données vers le cloud, une aubaine pour la collaboration, les entreprises bénéficient de plus de flexibilité et de coûts réduits, mais à quel prix pour la sécurité et les menaces ? Télécharger cette politique TechRepublic Premiumqui comprend des directives qui vous aideront à assurer une gestion sécurisée des données dans le cloud pour l’intégrité et la confidentialité des informations détenues par l’entreprise.

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles