Ein Artikel, der von Artefact in Zusammenarbeit mit der French Tech Corporate Community für den Medium-Blog verfasst wurde.
Die Fülle und Vielfalt der Reaktionen auf ChatGPT und andere generative KI-Systeme – seien sie nun skeptisch oder begeistert – zeigen, welche Veränderungen sie bewirken und welche Auswirkungen sie weit über die üblichen Technologiekreise hinaus haben. Dies steht in krassem Gegensatz zu früheren AI, die im Wesentlichen prädiktiv waren und meist Gegenstand von Artikeln oder Dissertationen waren, die sich auf den Bereich von Forschung und Innovation beschränkten.
Auch für Unternehmen AI generative AI von früheren Formen künstlicher Intelligenz. Vergleicht man sie mit den ähnlichsten Technologien, wie beispielsweise der Verarbeitung natürlicher Sprache (NLP) für Textkorpora oder dem Computer Vision für audiovisuelle data, so bringen generative KIs vier wesentliche Veränderungen mit sich, die Unternehmen im Zuge ihrer Experimente zunehmend erkennen.
Erstens beschleunigt generative AI im Vergleich zu früheren AI die Umsetzung von Anwendungsfällen AI , indem sie den Proof of Concept vorantreibt. Zweitens eröffnet sie völlig neue Möglichkeiten und ermöglicht eine einfachere, effizientere und kostengünstigere Aufbereitung unstrukturierter data. Darüber hinaus AI die mit generativer AI erzielten Ergebnisse im Vergleich zu den zuvor verwendeten Modellen in Bezug auf Qualität, Quantität und Vielfalt neuartig. All diese Faktoren bedeuten, dass wir den gestiegenen Erwartungen der Endnutzer gerecht werden müssen, die durch den Hype um diese Technologie noch verstärkt werden. Wir gehen im Folgenden auf diese vier Punkte ein.
Generative AI eine schnellere Überprüfung des Mehrwerts von Anwendungsfällen
Im Bereich der generativen AI erfolgt die Umsetzung von Anwendungsfällen oft schneller und weniger arbeitsintensiv als bei früheren KI-Systemen. Der bei AI generativen AI verfolgte Ansatz AI häufig mit dem Zusammenbauen von Legosteinen verglichen, bei dem bereits vorhandene Bausteine kombiniert werden können, um neue Ergebnisse zu erzielen. Diese einfache Experimentier- und Umsetzungsmöglichkeit kann zu kürzeren Entwicklungszyklen führen. Zudem beschleunigt ein dialogorientierter Interaktionsmodus mit den Nutzern die Akzeptanz.
Ein data lässt sich auf ein geschäftliches Problem, data, ein Modell und eine Eingabeaufforderung reduzieren. Bislang war die Erstellung und Optimierung des Modells der komplexeste und zeitaufwändigste Teil des Prozesses. Mit generativer AI wird dieser Schritt vereinfacht. Generative AI vortrainierte, einsatzbereite Modelle AI , sodass Unternehmen von fortgeschrittenem Fachwissen profitieren können, ohne viel Zeit in die Entwicklung und Verfeinerung von Modellen investieren zu müssen. In der Praxis sind Modelle (wie Azure GPT 4.0) „on-demand“ zugänglich oder können über APIs (wie Googles Gemini Pro BARD) bereitgestellt werden. Einige Anbieter bieten sogar speziell abgestimmte Modelle für bestimmte Fachgebiete an, beispielsweise zur Generierung von juristischen, medizinischen oder finanziellen Texten.
Sobald das Modell bereitgestellt ist, bleibt nur noch die Aufgabe, das generative AI zu „verankern“, d. h. die vom Modell generierten Ergebnisse mit Informationen aus der realen Welt zu verknüpfen, um das Modell so einzuschränken, dass es innerhalb eines vorgegebenen Rahmens reagiert. Dies beinhaltet oft das Hinzufügen von Einschränkungen oder zusätzlichen Informationen, um das Modell dazu anzuleiten, Ergebnisse zu erzeugen, die in einem bestimmten Kontext kohärent und relevant sind. Dies ist jedoch bei weitem nicht mit dem Zeitaufwand für das Training der AI vergleichbar, die wir bisher verwendet haben.
Nehmen wir das Beispiel eines Anwendungsfalls zur wortgetreuen Analyse in einem Callcenter, um unseren Standpunkt zu verdeutlichen. Laut einer Artefact dauerte die Entwicklung eines solchen Anwendungsfalls unter Verwendung von Modellen, die auf früherer AI basierten, in der Regel drei bis vier Wochen ab dem Zeitpunkt, an dem die data abgerufen und aufbereitet data . Heute dauert dieser Prozess dank generativer AI nur noch eine Woche – eine Beschleunigung um mehr als das Dreifache. Die größte Herausforderung besteht darin, die geeignete Geschäftsklassifizierung auszuwählen, um das Modell anzupassen.
Generative AI den Anwendungsbereich der AI data, die bisher kaum genutzt oder falsch verwendet wurden
Manche Ölfelder sind nur dann rentabel, wenn die Ölpreise in die Höhe schnellen. Das gleiche Prinzip lässt sich auch auf data anwenden. Bestimmte unstrukturierte data nun dank generativer AI ausgewertet werden, was ein völlig neues Feld an verwertbaren data das Training oder die Feinabstimmung von Modellen eröffnet und zahlreiche Perspektiven für domänenspezifische Anwendungen bietet.
Und es zeichnet sich eine neue Perspektive ab: die generativen KI-Systeme, die in der Lage sind, jede Art von data ihren Trainingsprozessen zu verarbeiten und zu kombinieren, wodurch die zeitaufwändige und mühsame Arbeit der Strukturierung und Qualitätsverbesserung von data diese nutzbar zu machen, umgangen wird. Eine Perspektive, die nach derzeitigem Stand noch nicht verwirklicht ist.
AI generative AI nicht nur von einem echten Durchbruch bei den Aufmerksamkeitsmechanismen profitiert. Sie hat auch von der stetig wachsenden – und unverzichtbaren – Rechenleistung der Maschinen profitiert.
Aufmerksamkeitsmechanismen funktionieren ähnlich wie die Fähigkeit eines Menschen, sich auf einen wichtigen Teil eines Bildes oder Textes zu konzentrieren, wenn er versucht, etwas zu verstehen oder zu erschaffen. Stellen Sie sich vor, Sie versuchen, eine Landschaft nach einem Foto zu zeichnen. Anstatt das gesamte Bild auf einmal zu betrachten, konzentrieren Sie sich auf bestimmte Teile, die wichtig erscheinen, wie beispielsweise Berge oder Bäume. Dies hilft Ihnen, wichtige Details besser zu verstehen und eine genauere Zeichnung anzufertigen. In ähnlicher Weise ermöglichen Aufmerksamkeitsmechanismen dem Modell, sich bei der Generierung von Inhalten auf bestimmte Teile eines Bildes oder Textes zu konzentrieren. Anstatt alle Eingaben auf einmal zu verarbeiten, kann sich das Modell auf die relevantesten und wichtigsten Teile konzentrieren, um genauere und aussagekräftigere Ergebnisse zu erzielen. Dadurch lernt es, Bilder, Texte oder andere Arten von Inhalten effizienter und realistischer zu erstellen.
Aufmerksamkeitsmechanismen lassen sich sehr gut parallelisieren. Der Einsatz mehrerer Aufmerksamkeitsmechanismen ermöglicht eine umfassendere und robustere Darstellung von data, was zu einer verbesserten Leistung bei verschiedenen Aufgaben wie maschineller Übersetzung, Textgenerierung, Sprachsynthese, Bildgenerierung und vielen anderen führt.
Infolgedessen sind Anwendungsfälle, die vor nicht allzu langer Zeit noch unmöglich schienen, nun vollständig realisierbar. Dies gilt beispielsweise für die Berechnung der Redezeit in den Medien während Präsidentschaftswahlkämpfen. Noch vor zwei Jahren war die genaue Berechnung der Redezeit jedes einzelnen Kandidaten ein mühsamer Vorgang. Heute ist dies dank des Einsatzes generativer AI möglich.
Was die Rechenleistung betrifft, veröffentlichte OpenAI vor sechs Jahren eine Analyse, aus der hervorgeht, dass der Rechenaufwand bei den bedeutendsten AI seit 2012 exponentiell gestiegen ist, mit einer Verdopplungszeit von 3,4 Monaten (zum Vergleich: Das Moore’sche Gesetz sah eine Verdopplungszeit von zwei Jahren vor). Seit 2012 hat sich dieser Wert um mehr als das 300.000-Fache erhöht (eine Verdopplungszeit von zwei Jahren würde lediglich eine Ver siebenfachung bewirken).
Generative AI erfordern für das Training oft enorme Rechenleistung, zumal die Modelle als Generalisten konzipiert sind und für das Training riesige Mengen an Inhalten benötigen. Zur Verarbeitung großer Datensätze und zur Ausführung komplexer Optimierungsalgorithmen sind leistungsstarke Rechenressourcen wie High-End-GPUs oder TPUs erforderlich. Die neue NVIDIA A100 Tensor Core GPU scheint eine beispiellose Beschleunigung zu bieten. Laut Nvidia bietet die A100 eine bis zu 20-mal höhere Leistung als die Vorgängergeneration und lässt sich in sieben GPU-Instanzen partitionieren, um sich dynamisch an wechselnde Anforderungen anzupassen. Berichten zufolge verfügt sie zudem über die weltweit schnellste Speicherbandbreite mit über zwei Terabyte pro Sekunde (TB/s) für die Ausführung der größten Modelle und Datensätze.
Es sei darauf hingewiesen, dass Fortschritte in der Rechnertechnik ein wesentlicher Faktor für die Entwicklung der artificial intelligence waren. Solange sich dieser Trend fortsetzt, sollten wir uns auf die Auswirkungen von Systemen einstellen, die die heutigen Fähigkeiten bei weitem übertreffen und die Grenzen weiter verschieben werden, wobei wir stets den Nutzen dieser Systeme gegen die damit verbundenen Kosten abwägen müssen, insbesondere im Hinblick auf Energie und Umwelt. Wir werden diese Punkte in einem künftigen Artikel erörtern.
Generative AI die Vielfalt, Qualität und Quantität der erzielten Ergebnisse
Generative AI unterscheidet sich AI von früheren AI der Auswirkungen auf die von ihren Modellen erzeugten Ergebnisse. Nicht nur die Menge der erzeugten Ergebnisse hat zugenommen, sondern auch deren Qualität und Vielfalt. All diese positiven Aspekte müssen jedoch durch die geringere Reproduzierbarkeit generativer AI relativiert werden.
Wenn wir uns das Bild eines Puzzles vor Augen führen, lässt sich data mit dessen Zusammensetzung vergleichen, wobei jedes data ein Puzzleteil data , das angeordnet werden muss, um ein zusammenhängendes Bild zu ergeben. AI eine entscheidende Rolle dabei, fehlende data zu ergänzen, data sie die verfügbaren Informationen nutzt, um diese fehlenden Teile abzuleiten und nachzubilden. Generative AI über das bloße Vervollständigen bestehender data hinaus, data sie neue data schafft, die von bereits Vorhandenem data . Dieser Prozess erweitert die Analysefähigkeiten und ermöglicht es, aus bestehenden data neue Informationen zu gewinnen, wodurch der generative Aspekt in den Vordergrund rückt.

Im Gegensatz zu früheren AI, deren Ergebnisse oft sehr ähnlich ausfallen, sind generative AI in der Lage, eine größere Vielfalt an Ergebnissen zu erzeugen, indem sie verschiedene Varianten und Alternativen ausprobieren. Diese größere Vielfalt ermöglicht es, reichhaltigere und vielfältigere Inhalte zu generieren, wodurch der Fokus von der Quantität auf die Qualität verlagert wird und ein breiteres Spektrum an Bedürfnissen und Vorlieben abgedeckt wird.
OpenAI war kürzlich in Hollywood, um sein neuestes Modell namens „Sora“ vorzustellen, das in der Lage ist, Videos aus Text zu generieren. „Zu hören, dass es all diese Dinge kann, ist eine Sache, aber die Fähigkeiten tatsächlich zu sehen, war verblüffend“, sagte der Hollywood-Produzent Mike Perry und hob dabei die Vielfalt und Qualität der Möglichkeiten hervor, die generative AI bietet.
Da generative AI jedoch einen größeren Raum an Möglichkeiten erkunden können, sind sie unter Umständen weniger reproduzierbar als frühere KI-Systeme, was die Genauigkeit der Ergebnisse beeinträchtigt. Konkret bedeutet dies, dass es schwieriger ist, bei jeder Ausführung des Modells exakt dieselben Ergebnisse zu erzielen, was bei bestimmten geschäftskritischen Anwendungen Herausforderungen hinsichtlich der Zuverlässigkeit und Vorhersagbarkeit mit sich bringen kann.
Diese Einschränkung stellt eine große Herausforderung für Anwendungen generativer AI dar AI präzise Antworten erfordern. Und genau an diesem Bereich arbeiten Unternehmen derzeit: Sie wollen Modelle besser auf hochspezifische Fachgebiete spezialisieren, um die Genauigkeit der Antworten zu verbessern, und die Robustheit regelbasierter Modelle oder Abfragen auf strukturierten data der Benutzerfreundlichkeit und Interaktion generativer KI-Systeme verbinden, indem sie letztere mit den Ergebnissen der ersteren verknüpfen.
Gestiegene Erwartungen seitens der Endnutzer
Was das Management von Erwartungen und die Beziehung der Endnutzer zur Technologie angeht, AI generative AI einige spezifische Herausforderungen AI . Aufgrund ihrer Fähigkeit, schnell Ergebnisse zu liefern, AI generative AI besonders hohe Erwartungen wecken. Umgekehrt können das Auftreten von „Halluzinationen“ und unerwünschten Ergebnissen das Vertrauen der Nutzer in diese Lösungen erheblich untergraben.
Generative AI in der Lage, Ergebnisse schnell und automatisiert zu liefern, was bei den Endnutzern den Eindruck erwecken kann, dass die Technologie alle ihre Probleme sofort und effizient lösen kann. Dies kann zu überzogenen Erwartungen hinsichtlich der tatsächlichen Leistungsfähigkeit generativer AI führen und zu Enttäuschung, wenn die Ergebnisse diesen hohen Erwartungen nicht vollständig gerecht werden.
Generative AI natürlich nicht perfekt und kann manchmal unerwartete oder unerwünschte Ergebnisse hervorbringen, wie etwa inkonsistente, falsche oder unangemessene Inhalte. Das Auftreten solcher unerwünschten Ergebnisse kann zu einem Vertrauensverlust der Endnutzer in die Technologie führen und deren Zuverlässigkeit und Nützlichkeit in Frage stellen. Es kann zudem Bedenken hinsichtlich data und data Datenschutzes aufkommen lassen, wenn unerwartete Ergebnisse die Integrität der von generativer AI generierten Informationen beeinträchtigen.
Im Februar 2023 lieferte Googles Chatbot Bard (umbenannt in Gemini) falsche Informationen, als er zu den Entdeckungen des James-Webb-Weltraumteleskops der NASA befragt wurde. Er behauptete fälschlicherweise, das Teleskop habe die ersten Fotos eines Exoplaneten aufgenommen. Diese Aussage ist falsch, da die ersten Fotos eines Exoplaneten bereits aus dem Jahr 2004 stammen, während das James-Webb-Teleskop erst 2021 gestartet wurde (Quelle: CNET France-Team, 2024).
Es ist daher von entscheidender Bedeutung, dass die Endnutzer generativer AI sich ihrer Grenzen bewusst sind. Aus diesem Grund bemühen sich die meisten Unternehmen, die diese Lösungen einsetzen, die Nutzer bei der Anwendung zu unterstützen: Sie bieten Schulungen zum Verfassen von Prompts an, erläutern die Grenzen dieser Systeme, klären, welche Erwartungen erfüllt werden können und welche nicht, und weisen auf die geltenden data hin.
Mehr als ein Jahr nach der Veröffentlichung von ChatGPT sind die Erwartungen an diese neue Technologie nach wie vor hoch. Der damit verbundene Nutzen hat sich jedoch noch nicht in konkreten Anwendungsfällen niedergeschlagen. In unserem nächsten Artikel werden wir Themen im Zusammenhang mit der Einführung der Technologie in Unternehmen und ihrer Verbreitung innerhalb der Organisation erörtern.
Unter der Leitung von:

BLOG





