Drei unverzichtbare Voraussetzungen für die Umstellung des data auf einen AI

Die meisten Unternehmen sind noch nicht bereit, einen data aus der Dashboard-Ära durch einen AI zu ersetzen. Die jüngste Salesforce-Studie "State of Data & Analytics" zeigt, dass 84 % der Führungskräfte im Bereich data und Analytik sagen, dass ihre Strategien komplett überarbeitet werden müssen, bevor AI erfolgreich sein können. Die Führungskräfte schätzen, dass 26 % ihrer data nicht vertrauenswürdig sind, nur 43 % verfügen über formale data , und rund 50 % sind nicht davon überzeugt, dass sie in der Lage sind, zeitnahe Erkenntnisse zu generieren und zu liefern. Gleichzeitig sind 70 % der Meinung, dass die wertvollsten Erkenntnisse in unstrukturierten data verborgen sind. Die Schlussfolgerung liegt auf der Hand: Das Hindernis ist nicht der Enthusiasmus, sondern die Grundlage, und diese Grundlage muss sich ändern, bevor agentische Systeme skaliert werden können.

Agentische AI verwandelt data in Aktionssysteme, die Verträge und Tickets lesen, Kameras beobachten, Anrufe abhören, mit Protokollen und Ereignissen korrelieren und dann ausführen. Dashboards können Verzögerungen tolerieren, Agenten hingegen nicht; die Einhaltung von Vorschriften kann durch Dokumentation erfolgen, während Agenten Kontrollen zur Laufzeit benötigen. Bevor ein Unternehmen einen AI ausruft, müssen drei Elemente unverhandelbar sein: Multimodalität als Standard, Streaming als Betriebsmodus und Governance als Laufzeitsystem. In den folgenden Abschnitten werden diese Überzeugungen in architektonische Entscheidungen umgesetzt, mit denen sich agentenbasierte Arbeitslasten im Produktionsmaßstab bewältigen lassen.

Multimodal als Standard

Die Behandlung von Dokumenten, Bildern, Audio- und Videodaten sowie Protokollen als zweitklassige Assets schränkt die Agentenfähigkeit von vornherein ein. Eine für Agenten geeignete Plattform speichert Tabellen und Tensoren als Peers unter einem Katalog mit einem einheitlichen Abstammungssystem und einem konsistenten Zugriffsmodell, sodass hochdimensionale Medien denselben Lebenszyklus durchlaufen können wie relationale data. In der Praxis bedeutet dies: Chunked- oder Kachel-Layouts, die partielle Lesevorgänge und die Extraktion von Interessensgebieten ermöglichen; inhaltsadressierte Bezeichner mit versionierten Sidecar-Metadaten, damit jedes Artefakt reproduzierbar ist; und native Array- und Spaltenformate, die Prädikate und Koordinaten-Pushdown ermöglichen. Texte und Dokumente erfordern Einbettungen als primäres Derivat, die deterministisch generiert, mit ihren Quellen versioniert und mit klaren Kompromissen indiziert werden, z. B. HNSW, wenn der Abruf dominiert, IVF PQ, wenn Speicher und Latenzzeit ausgeglichen werden müssen, und hybride dichte plus lexikalische Indizierung, wenn Produktcodes und -nummern wesentlich sind. Das Retrieval sollte Evidenzbündel wie Passagen, Seiten, Frames oder Clips zurückgeben, da Agenten eher über Evidenz als über isolierte Teilstrings nachdenken.

Die größten Vorteile ergeben sich aus der Fusion, die jedoch nur dann sinnvoll ist, wenn der Abgleich auf der Ebene der Plattform gelöst wird. Die frühe Fusion erfasst feinkörnige Interaktionen, wie z. B. die Ausrichtung von Textabschnitten an Bildregionen, die späte Fusion bewahrt modalitätsspezifische Modelle bis zu einer Entscheidungsgrenze, und hybride Ansätze kombinieren beide, wenn die Interaktionspunkte gut definiert sind. Das Ausrichten ist der schwierige Teil. Die zeitliche Synchronisierung von Ereignissen zwischen Quellen mit unterschiedlichen Abtastraten, die räumliche Registrierung zwischen Sensoren und die semantische Verknüpfung, so dass eine Auftragskennung in einer PDF-Datei, ein Kamerabild von Spur drei, eine Erschütterungsspitze und ein Ledger-Ereignis demselben Geschäftsobjekt zugeordnet werden können, sind Fähigkeiten, die in die Katalog- und Abstammungsschicht gehören. Ohne diese gemeinsame Vorstellung von Zeit, Identität und Herkunft werden Agenten den Kontext nur erahnen können oder auf veraltete Signale reagieren. In Anbetracht der Tatsache, dass 70 % der Führungskräfte der Meinung sind, dass die wertvollsten Erkenntnisse in unstrukturierten data enthalten sind, kann Multimodalität kein Add-on der zweiten Phase sein. Sie ist der Standard, der den Kontext freischaltet.

Streaming als Betriebsmodus

Die Agentenarbeit führt ein zentrales Ziel auf der Dienstebene ein: die Entscheidungslatenz, also die Zeit zwischen einem realen Signal und einer akzeptablen Handlung. Um dieses Ziel zu erreichen, ist eine Streaming-First-Plattform erforderlich. Das Rückgrat ist ein Ereignisprotokoll, das als Aufzeichnungssystem fungiert, mit Schemata, die beim Schreiben erzwungen werden, und einer Ereigniszeitsemantik mit Wasserzeichen, so dass Fenster die geschäftliche Wahrheit und nicht die Ankunftsreihenfolge widerspiegeln. Auf diesem Backbone laufen zustandsbehaftete Stream-Prozessoren, die einen dauerhaften lokalen Zustand aufrechterhalten, Rückstaus vorhersehbar behandeln, heiße Streams mit kalten data verbinden und Entscheidungen und nicht nur transformierte Zeilen ausgeben. Um die Überprüfung und Rechtfertigung durch Menschen und Agenten zu unterstützen, platzieren Sie eine Echtzeit-Analyseschicht, die direkt aus dem Protokoll einliest und sekundenschnelle Abfragen über kontinuierlich aktualisierte Tabellen beantwortet.

Der heiße Pfad und der kalte Pfad sollten sich in derselben Struktur befinden. Landen Sie Datenströme in offenen Tabellenformaten mit ACID-Transaktionen und Zeitreisen, so dass replays, Backfills, Audits und Schulungen durchgeführt werden können, ohne dass die Pipeline einfriert. Dadurch wird die falsche Wahl zwischen schnell und flüchtig auf der einen Seite und langlebig und langsam auf der anderen Seite aufgehoben. Operative Disziplin schließt den Kreis. Definieren Sie Verspätungsbudgets und Rückzugsregeln, dokumentieren Sie replay und Dead-Letter-Runbooks, und verwenden Sie Canary-Implementierungen mit gespiegeltem Datenverkehr, damit Rollouts reversibel sind. Wenn diese Praktiken vorhanden sind, können Betrugsagenten vor der Abrechnung blockieren, Personalisierungsagenten können sich während der Sitzung anpassen, Zuverlässigkeitsagenten können Wartungsarbeiten planen, wenn die Abwanderung zum ersten Mal auftritt, und Serviceagenten können eskalieren, wenn die Frustration zunimmt, anstatt nach der Abwanderung.

Governance als Laufzeitsystem

Wenn die Autonomie zunimmt, wird Vertrauen zum Tor. Dokumentation und regelmäßige Audits verhindern keine Fehlentscheidungen, sondern Kontrolle zur Laufzeit. Zwei Maßnahmen schaffen diese Kontrolle. Erstens: Durchsetzung von data beim Schreiben, so dass die Hersteller Schemata, Semantik und Aktualitätsziele veröffentlichen, die Registrierung inkompatible Änderungen blockiert oder sie in die Quarantäne leitet, die Verbraucher ihre Erwartungen erklären und Vorfälle automatisch ausgelöst werden, wenn die Erwartungen verletzt werden, so dass die Berechtigungen der Agenten herabgestuft werden, bis sich die Bedingungen erholen. Zweitens: Bewertung der Richtlinie als Code für jede Aktion, unabhängig davon, ob sie von einem Menschen oder einem Agenten ausgelöst wird. Wenn ein Tool oder ein Datensatz angefordert wird, sollte eine Richtlinien-Engine bewerten, wer zu welchem Zweck, mit welchen data, unter welchem Risiko und mit welchen Verpflichtungen anruft, z. B. das Anhängen eines Beweispakets, das Schwärzen sensibler Felder oder das Erfordernis einer menschlichen Mitunterschrift oberhalb eines bestimmten Schwellenwerts. Das Ergebnis muss eine unterzeichnete Entscheidung und ein prüfbares Protokoll sein.

Die Sicherheit erfordert eine Null-Vertrauenshaltung, die von einer Verletzung ausgeht und jeden Aufruf verifiziert. Least Privilege, kontinuierliche Überprüfung, Tool-Ausführung in einer Sandbox und strenge Egress-Kontrolle sind Grundvoraussetzungen, während agenten-spezifische Risiken wie Prompt Injection, Retrieval Poisoning und Tool-Missbrauch eher Telemetrie und Eindämmung zur Laufzeit erfordern als modellzentriertes Tuning allein. In der gleichen Studie von Salesforce wird deutlich, was auf dem Spiel steht: Nur 43 % der Führungskräfte verfügen über formale Governance-Rahmenwerke, 89 % der Teams, die bereits AI einsetzen, haben ungenaue oder irreführende Ergebnisse erlebt, und 88 % sagen, dass AI neue Governance- und Sicherheitsansätze erfordert. Bewährte Governance bedeutet, dass die Plattform zeigen kann, wer, mit welchen data, unter welcher Richtlinie, mit welchem Modell oder welcher Tool-Version gehandelt hat und wie man bei Bedarf ein Rollback durchführt, was Piloten, die beeindrucken, von Systemen unterscheidet, die Audits überleben.

Wie die drei Elemente zusammenkommen

Die Blaupause ist ein lebendiges System, das Produzenten, Speicher, Datenverarbeitung und Richtlinien miteinander verbindet, ohne dass es zu vertrauenserweckenden Übergaben kommt. Produzenten senden Änderungsereignisse und legen Artefakte wie PDFs, Bilder, Audio- und Videodateien in Chunked-Storage ab, während ein globaler Katalog Assets, Eigentümer, Abstammung und geltende Richtlinien registriert. data normalisieren, redigieren, betten ein und richten aus, und die resultierenden Merkmale und Einbettungen fließen in indizierte Speicher mit dokumentierten Abrufprofilen. Zustandsabhängige Stream-Prozessoren reichern die Daten an und treffen Entscheidungen, und eine analytische Oberfläche in Echtzeit macht neue Fakten für Menschen und Agenten sichtbar. Parallel dazu fließen dieselben Ereignisse in offene Lakehouse-Tabellen mit ACID-Semantik und Zeitreisen, so dass Echtzeit- und historische Ansichten in einem kontrollierten Substrat leben. Die Agenten interagieren mit Hilfe von Tools, die die geringsten Rechte gewähren; jeder Aufruf wird anhand von Richtlinien überprüft, und jede Aktion wird signiert und mit der Historie verknüpft. Mit diesem Muster werden die Lücken in Bezug auf Vertrauen, Aktualität und Zugänglichkeit geschlossen, die eine Skalierung verhindern.

Schlussfolgerung

Unternehmen, die AI skalieren wollen, sollten dem Drang widerstehen, Agentenfunktionen auf einen Stack aus der Dashboard-Ära zu schrauben. Die Grundlage muss sich zuerst ändern. Machen Sie Multimodalität zum Standard, damit jedes nützliche Signal in einem Katalog mit gemeinsamer Identität, Zeit und Herkunft enthalten ist und die Abfrage eher Beweise als Fragmente liefert. Machen Sie Streaming zum Betriebsmodus, damit Entscheidungen die Ereigniszeit respektieren und innerhalb eines definierten Latenzzeitbudgets ankommen, während dieselben Streams in offenen Tabellen zur Prüfung und zum Lernen landen. Verbessern Sie die Governance von Folien auf die Laufzeit, indem Sie Verträge beim Schreiben durchsetzen, Richtlinien bei jeder Aktion bewerten, Zero Trust auf Tools und data anwenden und kontinuierlich beobachten, so dass die Autonomie pausiert oder herabgestuft wird, wenn die Qualität nachlässt. Zusammengenommen ersetzen diese Maßnahmen ein Berichtssubstrat durch ein Aktionssubstrat. Agenten arbeiten dann auf der Grundlage frischer multimodaler Daten innerhalb expliziter Leitplanken und mit eingebauten Erklärungen. So werden Piloten zu Produzenten und AI schafft Werte statt Ausnahmen.