PoCs im generativen Bereich AI haben sich vor allem in großen Unternehmen verbreitet. Aufgrund ihrer Komplexität haben sich jedoch nur wenige Initiativen durchgesetzt.

Hanan Ouazan, Partner und Leiter von Generative AI bei Artefact, zieht in diesem Artikel von Christophe Auffray, Journalist bei LeMagIT, eine Bilanz der Situation und zeigt Wege zur Verbesserung auf.

"Die Einführung des generativen Ansatzes artificial intelligence ist in den französischen Unternehmen alles andere als einheitlich. Die Größe bleibt ein entscheidender Faktor. Aber die meisten großen Konzerne haben Maßnahmen ergriffen (Strategie, PoC usw.); nur wenige hinken heute noch hinterher."
Hanan Ouazan, Leiter der Abteilung Generative AI Artefact

Im Gegensatz dazu sind VSEs und KMUs eher zögerlich. "Nicht alle Organisationen sind auf der gleichen Wellenlänge", betont Hanan. "Große Unternehmen sind die ersten, die das Thema aufgreifen. Das heißt aber nicht, dass die 'Großen' die Technologie erfolgreich gebändigt haben."

Die Komplexität der Industrialisierung

"Vor einem Jahr haben wir bereits die Hauptschwierigkeit generativer AI Projekte vorausgesehen, nämlich ihre Industrialisierung. [...] Vor ein paar Jahren dauerte ein PoC im [klassischen] artificial intelligence drei bis vier Monate. Für GenAI könnten zwei bis drei Wochen ausreichen. Die Industrialisierung hingegen ist eine ganz andere Geschichte. Die Unternehmen erkennen die Grenzen von PoC-Initiativen."

Hinzu kommt das Problem der Akzeptanz, insbesondere bei "eingebetteten AI" Lösungen wie Copilots. Die Nutzung ist nicht selbstverständlich. Darüber hinaus muss der ROI dieser Tools erst noch ermittelt werden.
Auch firmeninterne Lösungen, d. h. "selbst gemacht" im Gegensatz zu "gekauft", sind nicht immun gegen Akzeptanzprobleme.

Trotz dieser Hindernisse erweisen sich einige Sektoren als dynamisch, wenn es um generative AI geht, darunter der Einzelhandel und Luxusgüter. Auch wenn die Fortschritte in letzterem Bereich geringer sind als ursprünglich erwartet, so der GenAI-Spezialist von Artefact. Das Bankwesen und das Gesundheitswesen hinken angeblich noch weiter hinterher, was jedoch größtenteils auf Cloud- und Compliance-Probleme zurückzuführen ist.

RAG, Suche 2.0, Automatisierung, Kreativität: Vier Familien und vier Reifegrade

Auch auf Branchenebene sind Fortschritte in zwei Geschwindigkeiten zu beobachten. Hanan zufolge hat die Industrie bei der Einführung die Nase vorn.

Doch selbst bei den ausgereiftesten Akteuren sind die Industrialisierung und die Skalierung (in Bezug auf Einführung und Technologie) nach wie vor Hindernisse. Die Anwendungsfälle konzentrieren sich auf Retrieval-Augmented Generation (RAGs) für das Abrufen von Dokumenten in "häufig vernachlässigten Datenbanken".

Die Indizierung von Inhalten zielt sowohl auf interne (für die Produktivität) als auch auf externe Anwendungen (über Konversationsschnittstellen) ab. Hanan führt das Beispiel eines Herstellers an, der an einem Projekt beteiligt war, um seinen Produktkatalog für Kunden online zugänglich zu machen - über einen Chatbot.

Im Einzelhandel wird die generative AI genutzt, um die Suche neu zu denken. Die Suche 2.0, die auf GenAI basiert, würde das Sucherlebnis durch das Ausdrücken eines Bedürfnisses verändern.

Ohne den Namen des Einzelhändlers zu nennen, arbeitet Artefact an der Entwicklung einer Lösung, die auf der absichtlichen Suche basiert. "Morgen wird die Suche Teil einer Erlebnislogik sein", prognostiziert der generative AI Lead.

Eine dritte Kategorie von Anwendungsfällen ist die Automatisierung. Dazu gehört die Analyse von Nachrichten und Transkripten aus Callcentern von Vertriebsunternehmen, um Störfaktoren oder Probleme zu identifizieren.

"Wir sammeln alle Anrufe, transkribieren sie und analysieren sie dann, um ein Dashboard zu erstellen. So können wir zum Beispiel sehen, dass 3.000 Anrufe ein bestimmtes Produkt betreffen, das die Kunden für kleiner halten als auf dem Produktblatt abgebildet. Man kann bis zu diesem Detailgrad gehen.

Bisher war diese Stimmungsanalyse nur unzureichend wirksam. Jetzt kann sie sogar Ironie erkennen.

Die Automatisierung umfasst auch Anwendungen wie die Trendanalyse in sozialen Netzwerken oder die Echtzeit-Erfassung data für das Back-Office von Banken und Versicherungen.

Die vierte Familie ist die Kreativität. "Dieser Bereich ist noch nicht so weit fortgeschritten, wie ich erwartet hatte, aber er beginnt sich zu entwickeln", bemerkt Hanan. Artefact arbeitet mit Kunden zusammen, um das Direktmarketing zu automatisieren, z. B. durch die Personalisierung ("Kontextualisierung") von SMS-Nachrichten, um Abonnements auf der Grundlage von Kriterien wie dem Gerät des Empfängers zu erstellen.

Auch die Bilderzeugung für die Werbung ist im Kommen. Diese Verwendungszwecke werden jedoch durch die Rechtsunsicherheit in Bezug auf das Urheberrecht und die Schulung data für bildgenerierende KI behindert. Die von einigen Verlagen, darunter Adobe, zugesagten rechtlichen Garantien könnten die Hindernisse in diesem Bereich beseitigen.

Die Anwendungen des generativen Ansatzes AI sind inzwischen gut formalisiert. Die Auswirkungen im Hinblick auf die tatsächliche Umsetzung müssen jedoch relativiert werden, da nur wenige Projekte in Produktion sind und noch weniger für Endnutzer zugänglich sind.

"Es gibt eine Fülle von sicheren Werkzeugen vom Typ GPT. Aber es ist nicht besonders schwierig, sie zu entwickeln. Und da es sich um interne Anwendungen handelt, sind die Risiken begrenzt.

Kosten, Benutzererfahrung, Qualität und Wandel sind der Schlüssel zur Industrialisierung

Für Hanan Ouazan ist der Grund für diese Einschätzung für 2024 klar: die Komplexität der Industrialisierung. Dafür gibt es eine Reihe von Gründen, nicht zuletzt die Kosten: Die Nutzungsgebühren können schnell eskalieren.

Allerdings haben nicht alle Unternehmen den ROI ihrer Anwendungsfälle vorhergesehen. Der Verbrauch von LLM führt zu Ausgaben, die die Einnahmen bei weitem übersteigen, ob nun vorhergesehen oder nicht. Und obwohl der Preis pro Nutzung dieser Lösungen im letzten Jahr deutlich gesunken ist, werden die Anwendungen dadurch komplexer und sind im Laufe der Zeit schwieriger zu warten.

Dieses Kostenproblem kann mit einer "Optimierungslogik" angegangen werden, um beispielsweise die Kosten für eine Chatbot-Konversation zu senken. Ein Chat wird nach dem Umfang von Frage und Antwort abgerechnet. Und jede neue Frage fügt dem Verlauf der Konversation hinzu, was die Gesamtkosten jeder Anfrage erhöht.

"Für einen Industriekunden überwachen wir jede Chatbot-Interaktion. So können wir Kosten und Ursachen messen. Es könnte zum Beispiel sein, dass der Chatbot Schwierigkeiten hat, ein Produkt zu identifizieren, was zu einer Vervielfachung der Austauschvorgänge führt. Die Überwachung ist unerlässlich, um korrigierende Maßnahmen zu ergreifen."

Auch das Nutzererlebnis ist ein wichtiger Parameter. Um dies zu gewährleisten, ist die Latenz wichtig, aber sie ist mit Kosten verbunden. Auf Azure kann es erforderlich sein, Provisioned Throughput Units (PTUs) zu abonnieren, "dedizierte und teure verwaltete Ressourcen".

Keine erfolgreiche Einführung ohne Berücksichtigung der Menschen

Auch Hanan Ouazan nennt die Qualität als eine Herausforderung für die Industrialisierung. Qualität zu messen und zu überwachen bedeutet, "die richtigen Evaluierungsbausteine einzusetzen [...] Auf bestimmten sensiblen Nutzerpfaden setzen wir ein AI ein, dessen Aufgabe es ist, die Antwort eines anderen AI zu validieren. Echtzeit-Evaluierungsprozesse stellen sicher, dass die Qualität der Antworten des generativen AIaufrechterhalten wird", erklärt er. "Wir integrieren auch Feedback-Schleifen, die die Antworten der Nutzer nutzen, um die Ergebnisse zu verbessern.

Die Industrialisierung stößt schließlich auf das menschliche Hindernis. Der Erfolg in dieser Phase erfordert Prozessänderungen. Der Übergang von einem traditionellen Chatbot zu einer generativen Version AI verändert beispielsweise den Beruf des Kundenbetreuers.

"Ein solcher Wandel muss unterstützt werden, insbesondere bei der Validierung von Chatbot-Antworten. Ein Teil der Konversation kann einer AI zur Validierung anvertraut werden. Und wenn ein Mensch eingreift, ist es besser, ihn zu unterstützen, um die Bearbeitungszeit zu verkürzen. Und wenn ein Mensch Kommentare abgibt, muss AI lernen, um einen positiven Kreislauf in Gang zu setzen.

Hanan plädiert auch dafür, die Benutzerakzeptanz zu fördern und die Benutzererfahrung im Auge zu behalten. "Die Einführung sollte nicht schmerzhaft sein. Dies ist der Ansatz, den Artefact in einem Projekt zur Verbesserung der Qualität von data in einer Produktdatenbank für einen Hersteller umgesetzt hat. Der Einzelne sollte sich nicht an die generative AI anpassen müssen. Es liegt an AI , sich an sie anzupassen, insbesondere an die Art und Weise, wie sie arbeiten."

So überdachte Artefact beispielsweise seine Lösung zur Erstellung von Produktdatenblättern, die ursprünglich direkt in das PIM integriert werden sollte - ein Werkzeug, das von den Mitarbeitern des zitierten Projekts wenig geschätzt wurde.

"Unsere Methode für generative AI Projekte besteht darin, ein Unternehmen auszuwählen und seine täglichen Aufgaben zu identifizieren, um diejenigen zu bestimmen, für die AI den Menschen ersetzen oder das Werkzeug modifizieren wird. Die Herausforderung besteht darin, zu automatisieren, was automatisiert werden kann und was für die Arbeit schwierig ist, und zu erhöhen, was unter menschlichen Arbeitsbedingungen erhöht werden kann. Und dies kann nicht ohne Interaktion mit dem Zielbenutzer geschehen. Andernfalls wird die Akzeptanz gleich null sein."

Benutzerschulung: Einstellen des Cursors

Wie sieht es mit der zeitnahen Schulung aus? Für Hanan dreht sich alles um den Benutzer. Artefact schult die Mitarbeiter in der CRAFT-Methode (Context, Role, Action, Format, Target Audience), die die korrekte Verwendung von AI definiert. Für reifere Benutzer ist es möglich, sie in der Bedienung von Modellen und den Werkzeugen, die sie integrieren, zu schulen. Einige Bevölkerungsgruppen sind jedoch noch an die Verwendung von Schlüsselwörtern gewöhnt.

Das Unternehmen schult seine Mitarbeiter über die Möglichkeit, Anfragen in natürlicher Sprache zu stellen. Es hat auch eine Umformulierung eingeführt. Bei der Eingabe von Schlüsselwörtern (Puk-Code) formuliert das Tool um: "Suchen Sie nach Ihrem Puk-Code?"

"Es gibt einen Schieberegler, der je nach der Zielgruppe, für die das Tool bestimmt ist, angepasst werden muss. Ich denke aber, dass mit der Verbesserung der generativen Lösungen von AI irgendwann keine Eingabeaufforderung mehr nötig sein wird", erklärt Hanan.

Zwei zukünftige Projekte im Fokus

Im Jahr 2024 gibt es zwei Hauptschwerpunkte im Bereich der generativen AI. Der erste Bereich betrifft die Übernahme, d. h. die Ermittlung von Veränderungen bei Berufen, Laufbahnen und Fähigkeiten.

Die zweite ist die Skalierung. Dies wird auf zwei Ebenen erprobt: Governance (Priorisierung von Bedürfnissen, ROI und Steuerung von Initiativen) und die GenAI-Plattform.

Hanan beobachtet einen Anstieg der Zahl der RAGs, ein Phänomen, das auf die vielen PoCs zurückzuführen ist, die durchgeführt werden. Infolgedessen müssen die Unternehmen die in ihren Experimenten verwendeten Bausteine rationalisieren.

"Morgen müssen wir die RAG als ein Produkt von data betrachten. Es hat einen Platz als Produkt im Unternehmen, genauso wie LLM einen Platz als Produkt hat.

"Viele Menschen dachten, GenAI sei eine magische Sache, die sie von den Zwängen der Vergangenheit befreien würde. In Wirklichkeit bringt GenAI sogar noch mehr Zwänge mit sich", mahnt der Experte von Artefact.

Diese Entwicklung ist Teil eines Kontinuums. Nach DevOps und dann MLOps, das sich speziell mit AI befasst, entsteht nun LLMOps. "Die mit MLOps definierten Sicherheitsvorkehrungen sind immer noch relevant. Aber wir müssen sie ergänzen, um die Kosten, Halluzinationen und die generative Dimension von Modellen zu berücksichtigen", schließt Hanan.

Lesen Sie den Artikel auf

class="img-responsive

.