PoCs im Bereich AI generativen AI vor allem in großen Unternehmen stark verbreitet. Aufgrund ihrer Komplexität wurden jedoch nur wenige Initiativen in die industrielle Praxis umgesetzt.

Hanan Ouazan, Partnerin und AI Generative AI bei Artefact, zieht in diesem Artikel von Christophe Auffray, Journalist bei LeMagIT, Bilanz und untersucht Möglichkeiten zur Verbesserung.

„Die Einführung generativer artificial intelligence unter französischen Unternehmen bei weitem nicht einheitlich. Die Unternehmensgröße bleibt ein entscheidender Faktor. Die meisten großen Konzerne haben jedoch bereits Maßnahmen ergriffen (Strategie, Proof of Concept usw.); nur wenige hinken heute noch hinterher.“
Hanan Ouazan, AI für generative AI bei Artefact

Im Gegensatz dazu sind Kleinstunternehmen und KMU zurückhaltender. „Nicht alle Organisationen sind auf derselben Wellenlänge“, betont Hanan. „Großunternehmen sind die ersten, die sich mit dem Thema befassen. Das bedeutet aber nicht, dass die ‚Großen‘ die Technologie bereits erfolgreich im Griff haben.“

Die Komplexität der Industrialisierung

„Vor einem Jahr hatten wir bereits die größte Herausforderung bei AI generativen AI erkannt, nämlich deren industrielle Umsetzung. […] Vor einigen Jahren artificial intelligence ein Proof-of-Concept (PoC) im Bereich artificial intelligence [klassischen] artificial intelligence drei bis vier Monate. Bei der generativen KI reichen möglicherweise schon zwei bis drei Wochen aus. Die industrielle Umsetzung ist hingegen eine ganz andere Geschichte. Unternehmen erkennen zunehmend die Grenzen von PoC-Initiativen.“

Hinzu kommt das Problem der Akzeptanz, insbesondere bei „eingebetteten AIwie Copilots. Die Nutzung ist nicht selbstverständlich. Darüber hinaus muss sich der ROI dieser Tools erst noch zeigen.
Auch hauseigene Lösungen, also solche, die „selbst entwickelt“ statt „gekauft“ werden, sind nicht immun gegen Akzeptanzprobleme.

Trotz dieser Hindernisse zeigen sich einige Branchen im Bereich AI generativen AI als besonders dynamisch, darunter der Einzelhandel und die Luxusgüterbranche. Auch wenn die Fortschritte in letzterer laut dem GenAI-Spezialisten Artefacthinter den ursprünglichen Erwartungen zurückblieben. Das Bankwesen und das Gesundheitswesen sollen noch weiter hinterherhinken, was jedoch größtenteils auf Probleme cloud der Einhaltung von Vorschriften zurückzuführen ist.

RAG, Search 2.0, Automatisierung, Kreativität: Vier Bereiche und vier Reifegrade

Auch auf Branchenebene ist eine zweigleisige Entwicklung zu beobachten. Laut Hanan liegt die Industrie im Wettlauf um die Einführung vorn.

Doch selbst bei den etabliertesten Akteuren stellen die Industrialisierung und die Skalierung (sowohl hinsichtlich der Akzeptanz als auch der Technologie) nach wie vor Hindernisse dar. Die Anwendungsfälle konzentrieren sich auf Retrieval-Augmented Generation (RAGs) für die Dokumentensuche in „häufig vernachlässigten Datenbanken“.

Die Indexierung von Inhalten zielt sowohl auf interne (zur Steigerung der Produktivität) als auch auf externe (über dialogorientierte Schnittstellen) Anwendungen ab. Hanan nennt das Beispiel eines Herstellers, der an einem Projekt arbeitet, um seinen Produktkatalog für Kunden online zugänglich zu machen – über einen Chatbot.

Im Einzelhandel AI generative AI genutzt, um die Suche neu zu gestalten. „Search 2.0“, das auf GenAI basiert, würde das Sucherlebnis durch die Formulierung eines Bedarfs grundlegend verändern.

Ohne den Namen des Einzelhändlers zu nennen, Artefact an der Entwicklung einer Lösung, die auf der absichtsbasierten Suche basiert. „In Zukunft wird die Suche Teil einer Erlebnislogik sein“, prognostiziert der AI generative AI .

Eine dritte Kategorie von Anwendungsfällen ist die Automatisierung. Dazu gehört die Analyse von Nachrichten und Gesprächsprotokollen aus den Callcentern der Vertriebspartner, um Störfaktoren oder Probleme zu identifizieren.

„Wir erfassen alle Anrufe, transkribieren sie und analysieren sie anschließend, um ein Dashboard zu erstellen. Anhand dieser Übersicht können wir beispielsweise erkennen, dass 3.000 Anrufe ein bestimmtes Produkt betreffen, das Kunden kleiner einschätzen als auf dem Produktblatt abgebildet. Man kann bis auf diese Detailebene hinabgehen.“

Bisher war diese Stimmungsanalyse nicht effektiv genug. Jetzt kann sie sogar Ironie erkennen.

Die Automatisierung umfasst auch Anwendungen wie Trendanalysen in sozialen Netzwerken oder data für den Backoffice-Bereich im Bank- und Versicherungswesen.

Die vierte Kategorie ist Kreativität. „Dieser Bereich ist noch nicht so weit fortgeschritten, wie ich erwartet hatte, aber er kommt langsam in Schwung“, bemerkt Hanan. Artefact mit Kunden Artefact , um Direktmarketing zu automatisieren, beispielsweise durch die Personalisierung („Kontextualisierung“) von SMS-Nachrichten, um Abonnements auf der Grundlage von Kriterien wie dem Gerät des Empfängers zu generieren.

Auch die Bildgenerierung für Werbezwecke gewinnt zunehmend an Bedeutung. Diese Anwendungsfälle werden jedoch durch die rechtliche Unsicherheit hinsichtlich des Urheberrechts und data bildgenerierende KI-Systeme behindert. Die von bestimmten Anbietern, darunter Adobe, zugesagten rechtlichen Garantien könnten Hindernisse in diesem Bereich beseitigen.

Die Anwendungsbereiche generativer AI mittlerweile gut definiert. Die Auswirkungen im Hinblick auf einen tatsächlichen Wandel müssen jedoch relativiert werden, da nur wenige Projekte bereits in der Praxis umgesetzt werden und noch weniger für Endnutzer zugänglich sind.

„Es gibt eine Vielzahl sicherer GPT-Tools. Aber deren Entwicklung ist nicht besonders schwierig. Da es sich zudem um interne Anwendungen handelt, sind die Risiken begrenzt.“

Kosten, Benutzererfahrung, Qualität und Wandel sind entscheidend für die Industrialisierung

Für Hanan Ouazan ist der Grund für diese Bewertung im Jahr 2024 klar: die Komplexität der Industrialisierung. Dafür gibt es eine Reihe von Gründen, nicht zuletzt die Kosten: Die Nutzungsgebühren können schnell in die Höhe schnellen.

Allerdings haben nicht alle Unternehmen den ROI ihrer Anwendungsfälle richtig eingeschätzt. Die Nutzung von LLMs verursacht Kosten, die die Einnahmen bei weitem übersteigen – unabhängig davon, ob dies erwartet wurde oder nicht. Und obwohl die Kosten pro Nutzung dieser Lösungen im letzten Jahr deutlich gesunken sind, machen sie Anwendungen mit der Zeit komplexer und schwieriger zu warten.

Dieses Kostenproblem lässt sich beispielsweise durch eine „Optimierungslogik“ angehen, um die Kosten einer Chatbot-Konversation zu senken. Ein Chat wird auf der Grundlage des Umfangs der Frage und der Antwort abgerechnet. Und jede neue Frage wird dem Konversationsverlauf hinzugefügt, wodurch sich die Gesamtkosten jeder Anfrage erhöhen.

„Bei einem Industriekunden überwachen wir jede Interaktion mit dem Chatbot. So können wir Kosten und Ursachen ermitteln. Es könnte zum Beispiel sein, dass der Chatbot Schwierigkeiten hat, ein Produkt zu identifizieren, was zu einer Zunahme der Nachrichtenaustausche führt. Die Überwachung ist unerlässlich, um Korrekturmaßnahmen ergreifen zu können.“

Auch die Benutzererfahrung ist ein entscheidender Faktor. Um diese zu gewährleisten, ist die Latenz wichtig, doch sie hat ihren Preis. Auf Azure kann es erforderlich sein, Provisioned Throughput Units (PTUs) zu abonnieren, also „dedizierte und teure verwaltete Ressourcen“.

Ohne Rücksicht auf die Menschen gibt es keine erfolgreiche Umsetzung

Hanan Ouazan nennt auch die Qualität als eine Herausforderung für die Industrialisierung. Die Messung und Überwachung der Qualität bedeute, „die richtigen Bausteine für die Bewertung zu etablieren […] Auf bestimmten sensiblen Nutzerpfaden setzen wir eine AI ein, AI Aufgabe es ist, die Antwort einer anderen AI zu validieren. Echtzeit-Bewertungsprozesse stellen sicher, dass die Qualität der Antworten AIgenerativen AIgewahrt bleibt“, erklärt er. „Außerdem integrieren wir Rückkopplungsschleifen, die Nutzerreaktionen nutzen, um die Ergebnisse zu verbessern.“

Die Industrialisierung stößt schließlich auf menschliche Hindernisse. Um in dieser Phase erfolgreich zu sein, sind Prozessänderungen erforderlich. So AI beispielsweise der Übergang von einem herkömmlichen Chatbot zu einer auf generativer AI basierenden Version den Beruf des Kundendienstmitarbeiters.

„Solche Veränderungen müssen unterstützt werden, insbesondere bei der Validierung von Chatbot-Antworten. Ein Teil der Konversation kann AI Validierung einer AI anvertraut werden. Und wenn Menschen eingreifen, ist es besser, sie dabei zu unterstützen, um die Bearbeitungszeit zu verkürzen. Und wenn ein Mensch Anmerkungen macht, AI die AI lernen, einen positiven Kreislauf in Gang zu setzen.“

Hanan plädiert zudem dafür, die Akzeptanz bei den Nutzern zu fördern und die Benutzererfahrung im Blick zu behalten.„Die Einführung sollte nicht mühsam sein. Diesen Ansatz Artefact in einem Projekt zur Verbesserung data in der Produktdatenbank eines Herstellers Artefact . Die Nutzer sollten sich nicht an generative AI anpassen müssen. Es ist Aufgabe der AI an sie anzupassen, insbesondere an ihre Arbeitsweise.“

So Artefact beispielsweise seine Lösung zur Erstellung von Produktdatenblättern Artefact , die ursprünglich für die direkte Integration in das PIM-System konzipiert war – ein Tool, das von den Mitarbeitern des genannten Projekts wenig geschätzt wurde.

„Unsere Vorgehensweise bei generativen AI besteht darin, ein Unternehmen auszuwählen und dessen tägliche Aufgaben zu ermitteln, um diejenigen zu identifizieren , bei denen AI den Menschen ersetzen oder das Werkzeug optimieren AI . Die Herausforderung besteht darin, das zu automatisieren, was automatisiert werden kann und was für die Arbeit schwierig ist, und die Arbeitsbedingungen für die Mitarbeiter dort zu verbessern, wo dies möglich ist. Und das ist ohne Interaktion mit den Zielnutzern nicht zu bewerkstelligen. Andernfalls wird die Akzeptanz gleich null sein.“

Benutzerschulung: Einstellen des Cursors

Wie sieht es mit der Schulung zur Eingabe von Prompts aus? Für Hanan steht der Nutzer im Mittelpunkt. Artefact Mitarbeiter in der CRAFT-Methode (Context, Role, Action, Format, Target Audience), die den korrekten Einsatz von AI definiert. Erfahrene Nutzer können in der Bedienung der Modelle und der Tools, in die diese integriert sind, geschult werden. Einige Nutzergruppen sind jedoch nach wie vor an die Verwendung von Schlüsselwörtern gewöhnt.

Das Unternehmen schult seine Mitarbeiter darin, wie man Anfragen in natürlicher Sprache stellt. Außerdem wurde die Funktion zur Umformulierung eingeführt. Wenn Schlüsselwörter (PUK-Code) eingegeben werden, formuliert das Tool die Anfrage um: „Suchen Sie Ihren PUK-Code?“

„Es gibt einen Schieberegler, der entsprechend der Zielgruppe, für die das Tool gedacht ist, angepasst werden muss. Aber ich glaube, dass mit der Verbesserung der Fähigkeiten generativer AI die Eingabe von Prompts irgendwann überflüssig werden wird“, erklärt Hanan.

Zwei zukünftige Projekte im Fokus

Im Jahr 2024 gibt es im Bereich der generativen AI zwei Schwerpunkte. Der erste betrifft die Einführung dieser Technologie und die Ermittlung von Veränderungen in Bezug auf Berufe, Karrieren und Qualifikationen.

Der zweite Punkt ist die Skalierung. Diese wird auf zwei Ebenen erprobt: auf der Ebene der Unternehmensführung (Priorisierung von Anforderungen, ROI und Steuerung von Initiativen) und auf der Ebene der GenAI-Plattform.

Hanan stellt einen Anstieg der Anzahl von RAGs fest, ein Phänomen, das auf die zahlreichen durchgeführten Proof-of-Concepts zurückzuführen ist. Infolgedessen müssen Unternehmen die in ihren Experimenten verwendeten Bausteine rationalisieren.

„Morgen müssen wir RAG als data betrachten. Es hat seinen Platz als Produkt im Unternehmen, genauso wie LLM seinen Platz als Produkt hat.“

„Viele Menschen dachten, GenAI sei eine Art Wundermittel, das sie von den Zwängen der Vergangenheit befreien würde. In Wirklichkeit bringt GenAI jedoch noch mehr Einschränkungen mit sich“, warnt der Experte Artefact.

Diese Entwicklung ist Teil eines kontinuierlichen Prozesses. Nach DevOps und MLOps, das speziell auf AI ausgerichtet ist, zeichnet sich nun LLMOps ab. „Die mit MLOps definierten Sicherheitsvorkehrungen sind nach wie vor relevant. Wir müssen sie jedoch ergänzen, um Kosten, Halluzinationen und die generative Dimension der Modelle zu berücksichtigen“, schließt Hanan.

Lesen Sie den Artikel unter

class="lazyload

.