Drei unverzichtbare Voraussetzungen vor der Umstellung des data auf einen AI
Die meisten Unternehmen sind noch nicht bereit, ihren data aus der Dashboard-Ära durch einen AI zu ersetzen. Der aktuelle „State of Data Analytics“-Bericht von Salesforce zeigt, dass 84 % der Führungskräfte data Analytik der Meinung sind, ihre Strategien müssten grundlegend überarbeitet werden, bevor AI erfolgreich umgesetzt werden können. Die Führungskräfte schätzen, dass 26 % ihrer data unzuverlässig data , nur 43 % geben an, über formelle data zu verfügen, und rund 50 % sind nicht zuversichtlich, zeitnahe Erkenntnisse generieren und bereitstellen zu können. Gleichzeitig glauben 70 %, dass die wertvollsten Erkenntnisse in unstrukturierten data verborgen sind. Die Schlussfolgerung ist klar: Das Hindernis ist nicht der Enthusiasmus, sondern die Grundlage, und diese Grundlage muss sich ändern, bevor agentenbasierte Systeme skalieren können.
Agentische AI data in Handlungssysteme, die Verträge und Tickets lesen, Kameras überwachen, Anrufe abhören, Zusammenhänge mit Protokollen und Ereignissen herstellen und anschließend Maßnahmen ergreifen. Dashboards können Verzögerungen tolerieren, Agenten hingegen nicht; Compliance lässt sich durch Dokumentation gewährleisten, Agenten erfordern jedoch Kontrollen zur Laufzeit. Bevor ein Unternehmen einen AI einführt, müssen drei Elemente unverzichtbar sein: Multimodalität als Standard, Streaming als Betriebsmodus und Governance als Laufzeitsystem. Die folgenden Abschnitte setzen diese Überzeugungen in architektonische Entscheidungen um, die agentische Workloads im Produktionsmaßstab bewältigen.
Multimodal als Standard
Die Behandlung von Dokumenten, Bildern, Audio-, Video- und Protokolldaten als zweitrangige Ressourcen schränkt die Fähigkeiten von Agenten von vornherein ein. Eine für Agenten geeignete Plattform speichert Tabellen und Tensoren als gleichwertige Elemente in einem einzigen Katalog mit einem einheitlichen Herkunftssystem und einem konsistenten Zugriffsmodell, sodass hochdimensionale Medien denselben Lebenszyklus durchlaufen können wie relationale data. In der Praxis bedeutet dies in Blöcke oder Kacheln unterteilte Layouts, die Teilauslesungen und die Extraktion von Regionen von Interesse ermöglichen; inhaltsadressierte Identifikatoren mit versionierten Sidecar-Metadaten, sodass jedes Artefakt reproduzierbar ist; sowie native Array- und Spaltenformate, die Prädikats- und Koordinaten-Pushdown ermöglichen. Text und Dokumente erfordern Einbettungen als primäre Ableitung, die deterministisch generiert, mit ihren Quellen versioniert und mit klaren Kompromissen indiziert werden, zum Beispiel HNSW, wenn der Recall im Vordergrund steht, IVF PQ, wenn Speicher und Latenz ausgeglichen werden müssen, und hybride dichte sowie lexikalische Indizierung, wenn Produktcodes und -nummern entscheidend sind. Die Abfrage sollte Evidenzbündel wie Passagen, Seiten, Frames oder Clips zurückgeben, da Agenten über Evidenz statt über isolierte Teilzeichenfolgen argumentieren.
Die größten Vorteile ergeben sich aus der Fusion, doch ist Fusion nur dann sinnvoll, wenn die Ausrichtung auf Plattformebene gelöst ist. Eine frühzeitige Fusion erfasst feinkörnige Interaktionen, wie beispielsweise die Ausrichtung von Textabschnitten auf Bildbereiche, während eine späte Fusion modalitätsspezifische Modelle bis zu einer Entscheidungsgrenze beibehält; hybride Ansätze kombinieren beides, sofern die Interaktionspunkte klar definiert sind. Die Ausrichtung ist dabei der schwierige Teil. Die zeitliche Synchronisation von Ereignissen über Quellen mit unterschiedlichen Abtastraten hinweg, die räumliche Registrierung über Sensoren hinweg und die semantische Verknüpfung, sodass eine Bestellnummer in einem PDF, ein Kamerabild aus Spur drei, ein Vibrationsspitzenwert und ein Ledger-Ereignis auf dasselbe Geschäftsobjekt zurückgeführt werden können, sind Funktionen, die in die Katalog- und Herkunftsebene gehören. Ohne dieses gemeinsame Verständnis von Zeit, Identität und Herkunft werden Agenten den Kontext falsch interpretieren oder auf veraltete Signale reagieren. Angesichts der Tatsache, dass 70 % der Führungskräfte glauben, dass die wertvollsten Erkenntnisse in unstrukturierten data liegen, kann Multimodalität kein Add-on für Phase zwei sein. Sie ist die Grundeinstellung, die den Kontext erschließt.
Streaming als Betriebsmodus
Agentic Work führt ein zentrales Service-Level-Ziel ein: die Entscheidungslatenz, also die Zeit zwischen einem Signal aus der realen Welt und einer akzeptablen Aktion. Um dieses Ziel zu erreichen, ist eine „Streaming First“-Plattform erforderlich. Das Rückgrat bildet ein Ereignisprotokoll, das als System of Record fungiert, wobei Schemata beim Schreiben durchgesetzt werden und die Semantik der Ereigniszeit durch Wasserzeichen gesteuert wird, sodass Zeitfenster die geschäftliche Realität widerspiegeln und nicht die Reihenfolge des Eintreffens. Auf diesem Rückgrat laufen zustandsbehaftete Stream-Prozessoren, die einen dauerhaften lokalen Zustand aufrechterhalten, Rückstau vorhersehbar handhaben, „heiße“ Streams mit „kalten“ data verknüpfen und Entscheidungen ausgeben, anstatt lediglich transformierte Zeilen. Um die Überprüfung und Begründung sowohl durch Menschen als auch durch Agenten zu unterstützen, wird eine Echtzeit-Analyseschicht eingesetzt, die Daten direkt aus dem Protokoll bezieht und Anfragen in weniger als einer Sekunde über sich kontinuierlich aktualisierende Tabellen beantwortet.
Der „Hot Path“ und der „Cold Path“ sollten in derselben Fabric angesiedelt sein. Land-Streams werden in offene Tabellenformate mit ACID-Transaktionen und Zeitreise-Funktionen umgewandelt, sodass replays, Backfills, Audits und Trainings durchgeführt werden können, ohne die Pipeline zu blockieren. Dadurch wird die falsche Wahl zwischen „schnell und kurzlebig“ auf der einen Seite und „beständig und langsam“ auf der anderen Seite aufgehoben. Operative Disziplin schließt den Kreislauf. Definieren Sie Verzögerungsbudgets und Rücknahme-Regeln, dokumentieren Sie replay Dead-Letter-Runbooks und nutzen Sie Canary-Deployments mit gespiegeltem Datenverkehr, damit Rollouts reversibel sind. Wenn diese Praktiken vorhanden sind, können Betrugs-Agenten vor der Abrechnung blockieren, die Personalisierung kann sich während der Sitzung anpassen, Zuverlässigkeits-Agenten können Wartungsarbeiten planen, sobald Abweichungen auftreten, und Service-Agenten können eskalieren, wenn die Frustration steigt, anstatt erst nach der Abwanderung.
Governance als Laufzeitsystem
Mit zunehmender Autonomie wird Vertrauen zum entscheidenden Faktor. Dokumentation und regelmäßige Audits verhindern keine Fehlentscheidungen; dies tut hingegen die Kontrolle zur Laufzeit. Zwei Maßnahmen stellen diese Kontrolle sicher. Erstens: Setzen Sie data beim Schreiben durch, sodass Produzenten Schemata, Semantik und Aktualitätsziele veröffentlichen, das Register inkompatible Änderungen blockiert oder in die Quarantäne leitet, Konsumenten ihre Erwartungen angeben und Vorfälle automatisch gemeldet werden, wenn diese Erwartungen verletzt werden, sodass die Berechtigungen der Agenten herabgestuft werden, bis sich die Bedingungen wieder normalisieren. Zweitens: Bewerten Sie Richtlinien als Code bei jeder Aktion, unabhängig davon, ob diese von einem Menschen oder einem Agenten ausgelöst wird. Wenn ein Tool oder ein Datensatz angefordert wird, sollte eine Policy-Engine bewerten, wer den Aufruf tätigt, zu welchem Zweck, für welche data, unter welchem Risiko und mit welchen Verpflichtungen – beispielsweise das Anhängen eines Nachweispakets, das Schwärzen sensibler Felder oder das Erfordernis einer menschlichen Mitunterzeichnung ab einem bestimmten Schwellenwert. Das Ergebnis muss eine signierte Entscheidung und ein überprüfbarer Prüfpfad sein.
Die Sicherheit erfordert einen Zero-Trust-Ansatz, der von einer Sicherheitsverletzung ausgeht und jeden Aufruf überprüft. Das Prinzip der geringsten Berechtigungen, kontinuierliche Überprüfung, die Ausführung von Tools in einer Sandbox und strenge Ausgangskontrollen sind Grundvoraussetzungen, während agentenspezifische Risiken wie Prompt-Injection, Retrieval Poisoning und Tool-Missbrauch Telemetrie und Eindämmung zur Laufzeit erfordern und nicht nur eine modellzentrierte Feinabstimmung. Die Herausforderungen werden in derselben Salesforce-Studie deutlich: Nur 43 % der Führungskräfte geben an, über formelle Governance-Rahmenwerke zu verfügen, 89 % der Teams, die bereits AI einsetzen, AI ungenaue oder irreführende Ergebnisse erlebt, und 88 % sagen, dass AI neue Governance- und Sicherheitsansätze AI . Bewährte Governance bedeutet, dass die Plattform aufzeigen kann, wer mit welchen data unter welcher Richtlinie unter Verwendung welcher Modell- oder Toolversion gehandelt hat und wie bei Bedarf ein Rollback durchgeführt werden kann – genau das unterscheidet beeindruckende Pilotprojekte von Systemen, die Audits überstehen.
Wie die drei Elemente zusammenwirken
Der Blueprint ist ein dynamisches System, das Produzenten, Speicher, Rechenleistung und Richtlinien miteinander verbindet, ohne dass dabei Übergaben stattfinden, die das Vertrauen untergraben. Produzenten senden Änderungsereignisse und speichern Artefakte wie PDFs, Bilder, Audio- und Videodateien in einem blockbasierten Speicher, während ein globaler Katalog Assets, Eigentumsverhältnisse, Herkunftsdaten und geltende Richtlinien erfasst. data normalisieren, redigieren, betten ein und richten aus, und die resultierenden Merkmale und Einbettungen fließen in indizierte Speicher mit dokumentierten Abrufprofilen. Stateful-Stream-Prozessoren reichern die Daten an und treffen Entscheidungen in Echtzeit, und eine Echtzeit-Analyseoberfläche macht neue Fakten für Menschen und Agenten sichtbar. Parallel dazu werden dieselben Ereignisse in offene Lakehouse-Tabellen mit ACID-Semantik und Zeitreise-Funktionen eingestuft, sodass Echtzeit- und historische Ansichten in einem einzigen, geregelten Substrat zusammenleben. Agenten interagieren über Tools mit eng gefassten, auf dem Prinzip der geringsten Berechtigungen basierenden Zugriffsrechten; jeder Aufruf wird anhand von Richtlinien überprüft, und jede Aktion wird signiert und mit der Herkunftsverfolgung verknüpft. Dieses Muster schließt die Lücken in Bezug auf Vertrauen, Aktualität und Zugänglichkeit, die eine Skalierung verhindern.
Fazit
Unternehmen, die AI skalieren wollen, AI dem Drang widerstehen, Agent-Funktionen einfach an einen Stack aus der Dashboard-Ära anzuhängen. Zunächst muss sich die Grundlage ändern. Machen Sie Multimodalität zum Standard, damit jedes nützliche Signal in einem einzigen Katalog mit gemeinsamer Identität, Zeitstempel und Herkunft gespeichert wird und der Abruf somit aussagekräftige Erkenntnisse statt nur Fragmente liefert. Machen Sie Streaming zum Betriebsmodus, damit Entscheidungen die Ereigniszeit berücksichtigen und innerhalb eines definierten Latenzbudgets getroffen werden, während dieselben Streams zur Überprüfung und zum Lernen in offenen Tabellen landen. Erweitern Sie die Governance von Präsentationsfolien auf die Laufzeit, indem Sie Verträge beim Schreiben durchsetzen, Richtlinien bei jeder Aktion bewerten, Zero Trust auf Tools und data anwenden und kontinuierlich beobachten, damit die Autonomie angehalten oder herabgestuft wird, wenn die Qualität nachlässt. Zusammengenommen ersetzen diese Maßnahmen eine Berichtsgrundlage durch eine Handlungsgrundlage. Agenten arbeiten dann mit aktuellen multimodalen Belegen innerhalb expliziter Leitplanken, mit integrierten Erklärungen – so werden Pilotprojekte zur Produktion und AI Mehrwert statt Ausnahmen.

BLOG






