class="lazyload

NEUIGKEITEN / DATA BERATUNG

28. Oktober 2020
Data Plattformen haben die Art und Weise revolutioniert, wie Marken data speichern, analysieren und nutzen - aber um sie effizienter zu nutzen, müssen sie damit beginnen, data Governance als Code einzubetten, schreiben Justine Nerce, Data Consulting Director, und Jean-Baptiste Charruey, Manager Data Engineering, bei Artefact.

Während sich die Weltwirtschaft von dem ersten Schock des Coronavirus zu erholen beginnt, ist eine Phase der Konsolidierung und Neubewertung durch die Unternehmen zu erwarten. Der Bedarf an Innovation ist jedoch ungebrochen, auch wenn die Budgets knapp sind. Die Einführung neuer Produkte und Dienstleistungen macht immer noch macht immer noch über 25 % der Gesamteinnahmen und Gewinne aus.

 

Innovation muss sich auf genaue, hochwertige data stützen. Damit dies möglich ist, benötigen die Unternehmen jedoch eine Grundlage aus leicht zugänglichen, dokumentierten und standardisierten data , auf die sie zurückgreifen können. Die Entwicklungszyklen für neue Produkte und Dienstleistungen werden immer kürzer und wettbewerbsfähiger, so dass die Unternehmen ihren Ansatz für data weiterentwickeln müssen, um mithalten zu können.

 

Der Aufstieg der data hat Unternehmen bei der Beschleunigung des Zugangs zu data gute Dienste geleistet, insbesondere jenen, die die nächste Generation von AI entwickeln wollen. Es ist jedoch klar, dass Marken jetzt einen robusteren, effizienteren und qualitativ hochwertigeren Ansatz benötigen, um ihre data unabhängig vom Fall zu machen - wartbar, betriebsbereit und skalierbar für jede cloud, On-Premise- oder Hybrid-Infrastruktur.

 

Der Aufstieg und Fall der Plattform data

Unternehmen revolutionieren ständig ihren Ansatz für data , um sich Marktvorteile zu verschaffen. Im Laufe der Jahrzehnte sind die data Lagerhäuser - große Lagerstätten für gefilterte data - den data Seen gewichen - riesige, zentralisierte Lager für unraffinierte Rohwaren data. Diese riesigen Lager von data haben sich jedoch als unhandlich und schwer zu verwalten erwiesen. Die Vorlaufzeiten verlängerten sich, da es keinen klaren, agilen Prozess zur Rationalisierung der Entwicklung gab.

Infolgedessen bewegen wir uns von den alten monolithischen Umgebungen hin zu einer stärker verteilten data Architektur, die auf mehreren data Plattformen basiert. Dabei handelt es sich um eine Reihe von Software und Diensten, die einen data See umgeben, um die data besser nutzbar zu machen. Unternehmen bauen oft mehrere data Plattformen für jeden Geschäftsbereich und für jedes neue Projekt auf. Auf diese Weise erhalten die Entwicklungsteams schnellen Zugriff auf die data und die Erkenntnisse, die sie benötigen, um einen neuen Geschäftswert zu schaffen, der ihren aktuellen Bedürfnissen entspricht.

Mit der Dezentralisierung geht jedoch eine Fragmentierung und Duplizierung einher. Viele Unternehmen investieren viel Zeit und Ressourcen in den Aufbau einer data Plattform für eine bestimmte Umgebung. Für das nächste Projekt oder den nächsten Anwendungsfall müssen sie dann alles noch einmal machen, wobei es je nach den technischen Kenntnissen des Teams zu erheblichen Diskrepanzen kommt. Die Kosten multiplizieren sich um ein Vielfaches, da die Teams bei jedem neuen Projekt praktisch bei Null anfangen.

Ein Großteil der wertvollsten Arbeit, die Unternehmen heute leisten - auch im Bereich artificial intelligence - ist abteilungs- und bereichsübergreifend. Qualitativ hochwertige data muss von verschiedenen Teams und unterschiedlichen data Plattformen gemeinsam genutzt werden, um ihr volles Potenzial auszuschöpfen. Doch wie lässt sich die Qualität aufrechterhalten, wenn data einer ganzen Reihe von widersprüchlichen Richtlinien unterliegt? Es muss ein Kompromiss gefunden werden, der den Teams die Möglichkeit gibt, data vor Ort anzupassen und zu erstellen, und der gleichzeitig die Standardisierung des Ansatzes ermöglicht, um eine solide technologische Grundlage zu schaffen.   

Geben Sie das Netz data ein. 

Ohne ein Bindeglied zwischen den verschiedenen Bereichen werden die Plattformen von data nicht die Qualität data und die Kosteneffizienz bieten, die Marken für eine schnelle Entwicklung benötigen. Glücklicherweise haben sie die Möglichkeit, ihren Ansatz weiterzuentwickeln. Sie sollten ihre data Architektur von einer disparaten Sammlung von data Plattformen zu dem weiterentwickeln, was Zhamak Dehghani definiert dies als ein "data Netz"..

Ein data Mesh ist eine Architektur, in der verteilte data Plattformen, die unabhängigen funktionsübergreifenden Teams gehören, über ein "Netz" gemeinsamer Richtlinien, Governance und Tools verbunden sind. Dieser Ansatz verleiht den data Plattformen Flexibilität und Widerstandsfähigkeit, indem er eine gemeinsame Basis schafft und den Teams gleichzeitig die Freiheit gibt, ihren eigenen Bereich anzupassen.

 

Mit diesem Ansatz wird die Plattform data von einem einmaligen Projekt zu einem langfristigen Vermögenswert, da Doppelarbeit und unnötiger Ressourcenabbau vermieden werden. Der Nachteil des data Netzes ist jedoch, dass die einzelnen Teams viel Arbeit leisten müssen, um die Industrialisierung abzuschließen. Dies kann zeitaufwändig sein und zu einem Ergebnis führen, das bei weitem nicht perfekt ist. Eine Vorlage, die alle Anforderungen für eine produktionsreife Lösung abdeckt, ist von entscheidender Bedeutung. Doch wie sollte diese Vorlage aussehen? 

Die Hauptkomponente ist eine Reihe gemeinsamer Codes, die für alle data Plattformen gelten. Dieser "data Sentinel" ist eine Mischung aus Lösungen, die die Verarbeitung und Analyse von data und den Übergang zur Industrialisierung erleichtern. Seine Aufgabe ist es, alle data Abläufe - wie die Erfassung von Metadaten und die Bereinigung - durch die Entwicklung von Modulen rund um data Qualität und Dokumentation zu überwachen und zu rationalisieren.

Ein data Sentinel befreit data Teams und Spezialisten von den alltäglichen und sich wiederholenden Aufgaben der data Verwaltung. Stattdessen können sie sich auf strategischere und innovativere Aufgaben konzentrieren, die neue Werte für das Unternehmen schaffen

Das Herzstück von data sentinel, data governance as code, sollte fest in das Plattformdesign eingebettet sein und mit jedem neuen Anwendungsfall weitergeführt werden. Dank data governance as code ist data von Anfang an "owned", von hoher Qualität, dokumentiert, gesichert und konform sowie über data Modelle in der gesamten Organisation leicht zugänglich.

Innovation zum Alltag machen

Data Plattformen sollten sich entwickelnde Produkte sein, die für die data Aktivierung und einen schnellen geschäftlichen Nutzen gedacht sind. Wenn sie für verschiedene Anwendungsfälle und Anforderungen gemeinsam genutzt werden, machen sie Innovationen und Erfindungen schneller und kostengünstiger. Die Gegenseitigkeit von Diensten kann die Umsetzungsgeschwindigkeit um 40 % verringern und den Abteilungen helfen, Mehrwert zu schaffen, indem sie die data Qualität und Vielfalt bieten, die für ihre Anwendungsfälle erforderlich sind.

Unternehmen haben ständig neue Anwendungsfälle und Produkte zu entwickeln, vor allem in der derzeitigen Situation. Ein auf Gegenseitigkeit beruhender data Governance as Code-Ansatz bietet einen End-to-End-Prozess, mit dem diese Anwendungsfälle wirklich industrialisiert werden können. Qualitativ hochwertige, genaue data können über eine robuste, hochgradig vorlagengestützte Lösung problemlos zwischen Projekten und Teams ausgetauscht werden. Es wird keine Zeit verschwendet, wenn Erkenntnisse für ein neues Produkt benötigt werden

 

Technologie allein ist nicht genug. Damit die Plattform data funktioniert, müssen Sie einen iterativen und übergreifenden Ansatz verfolgen. Nur so wird Innovation in Ihrem Unternehmen zum Alltag.

Zuerst veröffentlicht von ITPortal.com

class="lazyload

Interessieren Sie sich für digitales und data Marketing?

Melden Sie sich für Data Digest an, den Newsletter von Artefact, und erhalten Sie jeden Monat praktische Ratschläge, Einblicke und Meinungen in Ihren Posteingang.

Melden Sie mich an!