Auf der Artefact AI , die am 20. April 2023 stattfand, AI führende Experten auf dem Gebiet der generativen AI ihr Wissen und tauschten Ideen über diese neue Technologie sowie darüber aus, wie Unternehmen sie zur Steigerung ihrer geschäftlichen Produktivität nutzen können.
Die neuesten generativen AI sind in der Lage, anspruchsvolle Gespräche mit Nutzern zu führen, aus ihren data scheinbar originelle Inhalte (Bilder, Audio, Text) zu erstellen und manuelle oder repetitive Aufgaben wie das Verfassen von E-Mails, das Programmieren oder die Erstellung komplexer Dokumente zu übernehmen. Für Entscheidungsträger ist es heute unerlässlich, eine klare und überzeugende AI generative AI zu entwickeln und data sowie der Konzeption von AIGen-Geschäftslösungen Priorität einzuräumen.
Veranstalter und Hauptredner:
Generative AI: Erkundung neuer kreativer Horizonte
In seiner Eröffnungsrede zur Konferenz bemerkte Vincent Luciani: „Überall sind die Menschen begeistert von dieser neuen Technologie und den Auswirkungen, die sie auf Unternehmen und Mitarbeiter haben wird. Bislang AI es AI bei AI relativ deterministische Anwendungen, die durch maschinelles Lernen ergänzt AI . Wir konnten zwar vorhersagen, personalisieren und optimieren, aber nicht wirklich etwas erschaffen.“
„Doch heute erleben wir zum ersten Mal eine echte Interaktion zwischen Mensch und Maschine. Aus dieser Technologie und diesen Algorithmen entsteht nun eine echte Form von Intelligenz, auch wenn die Wissenschaftsgemeinde in der Frage gespalten ist, ob es sich dabei um eine Revolution oder eine Evolution handelt…
„Wir haben bereits über ‚Augmented Humans‘ oder ‚Augmented Activities‘ gesprochen: Bald werden wir über ‚Augmented Businesses‘ sprechen.“ Bevor er einen kurzen Überblick über die Themen gab, die auf der Konferenz behandelt werden sollten, und das Wort an die Hauptredner übergab, erinnerte er das audience daran, audience
„Trotz der ständigen Einführung neuer generativer AI ist Zurückhaltung entscheidend: Eine erfolgreiche geschäftliche Transformation geschieht nicht über Nacht, sondern erfordert Reflexion, Recherche und Vorbereitung.“Vincent Luciani, Geschäftsführer und Mitbegründer von Artefact
Perspektiven und Chancen auf dem AI für generative AI
Die erste Hauptrednerin, Hanan Ouazan, begann mit einem Überblick über Textmodelle, ausgehend von Googles bahnbrechender Veröffentlichung„Attention is all you need“aus dem Jahr 2017 , das zur Entwicklung der Transformers führte, die die Grundlage fast aller heute verwendeten großen Sprachmodelle (LLMs) bilden. „Wie Sie wissen, braucht Forschung Zeit, aber heute befinden wir uns in einer Phase der Beschleunigung, in der wir jeden Tag neue Modelle sehen, die den besseren Zugang zu data Infrastruktur nutzen.“
Hanan beleuchtete verschiedene Aspekte der Demokratisierung und Zugänglichkeit generativer AI und hob dabei insbesondere die rasante Verbreitung dieser Technologie hervor: „Das Tempo ist atemberaubend: ChatGPT erreichte in nur fünf Tagen 1 Million Nutzer.“
Im Hinblick auf Strategien für das Training von LLM-Modellen ging er auf die Vorteile von Vortraining, Feinabstimmung und Prompt-Engineering ein, wobei er für jeden dieser Bereiche Anwendungsbeispiele aus der Industrie anführte und die Entscheidungsmatrix für Modellstrategien Artefactvorstellte.

Neben den Betriebskosten, der Leistungsfähigkeit und den Einschränkungen sprach Hanan auch über Change Management und die AI Auswirkungen generativer AI auf Arbeitsplätze.
„Das wird unsere Arbeitsweise sicherlich verändern, aber wir bei Artefact glauben nicht, dass dadurch Berufe verschwinden werden: Es wird vielmehr die Menschen, die diese Berufe ausüben, in ihren Fähigkeiten stärken.“Hanan Ouazan, Partner für Data und Leiterin des Bereichs Generative AI Artefact
Eine generative, AI Foto-Plattform für den E-Commerce
Der Hauptredner Matthieu Rouif ist CEO und Mitbegründer von PhotoRoom, einer App, die es ihren bereits 80 Millionen Nutzern ermöglicht, mit einem Smartphone Fotos in Studioqualität zu erstellen – mithilfe von Stable Diffusion, einer generativen AI für Bilder.
Seit dem durch die COVID-19-Pandemie ausgelösten Boom der E-Commerce-Marktplätze werden jedes Jahr zwei Milliarden Fotos bearbeitet. Dabei spielt die PhotoRoom-App eine wichtige Rolle, indem sie das Freistellen, die Schattenwiedergabe und die Erstellung realistischer Hintergründe für Händler automatisiert. „Wir nutzen generative AI unseren Kunden Fotos zu liefern, die aussehen, als wären sie von einem professionellen Fotografen aufgenommen worden, und fügen in weniger als einer Sekunde sogar einzigartige, realistische, AI Hintergründe hinzu“, sagt Matthieu.

„Wir unterstützen unsere Kunden beim Ausbau ihres Geschäfts, indem wir ihnen eine große Auswahl an hochwertigen, kostengünstigen Fotos zur Verfügung stellen, die ihrer Marke gerecht werden und ihre Produkte im bestmöglichen Licht präsentieren, um Kunden zu gewinnen und zu binden.“Matthieu Rouif, Geschäftsführer und Mitbegründer von PhotoRoom
AI Unternehmen neu denken
Igor Carron ist CEO und Mitbegründer von LightOn, einem französischen Unternehmen, das hinter der neuen generativen AI Paradigm steht, die leistungsfähiger ist als GPT-3. Die Plattform bietet die fortschrittlichsten Modelle für den Betrieb von Servern und data gewährleistet data data für Unternehmen.
In seiner Grundsatzrede sprach Igor über die Anfänge seines Unternehmens. „Als wir LightOn 2016 gründeten, entwickelten wir Hardware, die Licht nutzte, um Berechnungen für AI durchzuführen. Es war ein ungewöhnlicher Ansatz, aber er funktionierte – unsere Optical Processing Unit (OPU), der weltweit erste photonische AI , wird mittlerweile von Forschern auf der ganzen Welt genutzt und wurde in einen der größten Supercomputer der Welt integriert.
„Seit 2020, nach dem Erscheinen von GPT, haben wir daran gearbeitet, herauszufinden, wie wir unsere Hardware nutzen können, um eigene LLMs zu entwickeln – sowohl für den eigenen Gebrauch als auch für externe Kunden. Wir haben gelernt, wie man LLMs entwickelt, und sind darin sogar ziemlich gut geworden. Aber als wir 2021 und 2022 zum ersten Mal mit Leuten sprachen, hatten sie keine Ahnung von GPT-3, also mussten wir unsere audience aufklären.
„Wir haben gemeinsam mit einem Kunden ein größeres Modell entwickelt, das kürzlich mit 40 Milliarden Parametern veröffentlicht wurde. Es wurde auf einzigartige Weise trainiert, um mit GPT-3 mithalten zu können, kommt dabei jedoch mit weitaus weniger Parametern aus. Das bedeutet, dass man eine deutlich weniger hardwareintensive Infrastruktur benötigt und das Modell nutzen kann, ohne dass es ein Vermögen kostet.“
Igor hebt den Wert großer Sprachmodelle hervor und sagt:
„Ich glaube, dass die meisten Unternehmen in Zukunft auf LLM setzen werden … Diese Tools werden es ihnen ermöglichen, aus ihren eigenen data echten Mehrwert zu generieren.“Igor Carron, Geschäftsführer und Mitbegründer von LightOn
„Was wir unseren Kunden heute anbieten, ist ein Produkt namens Paradigm: Es ermöglicht Unternehmen, ihre eigenen data innerhalb ihrer Organisation zu verwalten und diese data wiederzuverwenden, data ihre Modelle neu data trainieren und data verbessern. So wird sichergestellt, dass ihre internen Prozesse oder Produkte von den Erkenntnissen profitieren können, die aus der Interaktion mit ihren LLMs gewonnen werden.“
„Viele Akteure im französischen oder europäischen Ökosystem sind von der AI oder anderen nordamerikanischen Konkurrenten abhängig.“ Igor warnt: „Die Gefahr beim Senden Ihrer data eine öffentliche API besteht darin, dass diese zur Schulung nachfolgender Modelle wiederverwendet werden. Nehmen wir also an, Leute aus der Bergbauindustrie, die buchstäblich wissen, wo man Gold findet, senden ihre technischen reports … Wenn man dann in ein paar Jahren ChatGPT-8 oder -9 oder was auch immer fragt: ‚Wo ist das Gold?‘, wird es einem sagen, wo das Gold ist!“ Er empfiehlt Unternehmen nachdrücklich, die intern data zum Trainieren ihrer Modelle zu nutzen.
Eine nationale Strategie für generative Artificial Intelligence
Yohann Ralle, der letzte Hauptredner, ist AI generative AI im französischen Ministerium für Wirtschaft, Finanzen sowie industrielle und digitale Souveränität. Er begann mit der Erläuterung seiner „Zauberformel“ für die Entwicklung eines hochmodernen LLM: Rechenleistung + Datensätze + Grundlagenforschung:
„Was die Rechenleistung angeht, hat die französische Regierung in eine digitale Gemeinschaftseinrichtung investiert, den Supercomputer Jean Zay, der speziell für die AI konzipiert wurde. Er hat das Training des europäischen mehrsprachigen BLOOM- Modells ermöglicht.“Yohann Ralle, AI für generative AI im französischen Ministerium für Wirtschaft, Finanzen sowie industrielle und digitale Souveränität.

„Was Datensätze angeht, haben Initiativen wie Agdatahub dazu beigetragen, Lern- und data zu bündeln, zu annotieren und zu qualifizieren, data AI effiziente und vertrauenswürdige AI zu entwickeln AI was auch zur Wettbewerbsfähigkeit Frankreichs beitragen kann. Was die Grundlagenforschung betrifft, hat die nationale Strategie dazu beigetragen, das Ökosystem AI und -Entwicklung zu strukturieren, und zwar durch die Gründung der 3IA-Institute, die Finanzierung von Doktorandenverträgen, den Start der Projekte IRT Saint Exupéry und SystemX sowie zahlreiche Ausbildungsprogramme für Studierende und vieles mehr in ganz Frankreich und Europa.“
AI Thema generative AI unter der Leitung von Vincent Luciani, CEO von Artefact
Hat AI den Turing-Test AI (d. h. hat AI eine Intelligenz auf menschlichem Niveau AI )?
Zwar stieß die Frage auf gemischte Reaktionen, doch herrscht allgemein Einigkeit darüber, dass zwar Intelligenz vorhanden ist, aber keine Intentionalität.
Matthieu: „Ich glaube schon … Man hat das Gefühl, dass da jemand ist, solange man nicht nach Daten fragt. Es gibt eine zeitliche Komponente, die nicht funktioniert.“
Igor: „Meine Frage ist: Warum hast du diese Frage gestellt? Denn der Turing-Test ist für die Wirtschaft nicht besonders interessant. Aber was die Interaktion angeht, ja, da kann man sagen, dass AI den Test bestanden AI .“
Yohann: „Der Turing-Test ist sehr subjektiv. Es birgt ein Risiko, wenn wir AI menschliche Eigenschaften zuschreiben, wenn wir sie vermenschlichen. Erinnern Sie sich an den Fall des Google-Ingenieurs Blake Lemoine, der glaubte, der LaMDA-Chatbot, mit dem er sprach, sei zu einem empfindungsfähigen Wesen geworden … Der Turing-Test ist eine interessante Übung, mehr nicht.“
Hanan: „Was ChatGPT angeht, sind wir auf einem guten Weg, aber wir sind noch nicht ganz am Ziel.“
Ist die Einführung von ChatGPT eine Revolution, eine Evolution oder Teil eines Kontinuums?
Igor: „Auch wenn die langfristigen Auswirkungen von ChatGPT auf große Sprachmodelle (LLMs) noch nicht vollständig abzusehen sind, werden sich im Laufe der Zeit neue Anwendungsmöglichkeiten für diese Technologien ergeben, die bedeutende gesellschaftliche Auswirkungen haben werden. Die Diskussion ist interessant, doch entscheidend sind letztlich die wissenschaftlichen Arbeiten, in denen Verbesserungen an den LLMs detailliert beschrieben werden. Die aktuellen und potenziellen praktischen Anwendungen dieser Modelle sollten nicht übersehen oder unterschätzt werden.“
Was sind die vielversprechendsten Anwendungsfälle für Unternehmen? Bots, Bildgenerierung?
Hanan: „Natürlich waren Chatbots schon immer ein wichtiger Bestandteil AI werden auch weiterhin eine wichtige Anwendungsmöglichkeit darstellen, denn dank ChatGPT kann man heute innerhalb von 48 Stunden einen Chatbot einrichten, indem man ihn einfach mit einer Datenbank verbindet – das ist einfach unglaublich. Eine weitere Anwendungsmöglichkeit ist die Entwicklung autonomer Agenten, die bestimmte Aufgaben ohne menschliches Zutun ausführen können, wie zum Beispiel ein Reiseagent, der alle Tickets, Hotels und Restaurantreservierungen für eine Italienreise bucht.“
Yohann: „Ich sehe viele Möglichkeiten für Plugins auf CGT-Basis, wie Kayak oder Booking. Ich glaube, dass dies die digitale Landschaft neu gestalten wird, wobei OpenAI die Aggregatoren bündeln wird.“
Igor: „Ich sehe Möglichkeiten zur Anpassung von LLMs für Unternehmen. Über data hinaus werden Unternehmen allmählich verstehen, wie sie unstrukturierte data nutzen und mit firmeneigenen LLMs data echten Mehrwert aus ihren data generieren können. Gleichzeitig glaube ich, dass wir dank ChatGPT dramatische Veränderungen in der Art und Weise erleben werden, wie Menschen im Internet suchen und es nutzen.“
Vincent: Ich glaube, es wird eine Verschmelzung von internen data LLMs zu einer Art „Master-FAQ+“ geben, die über Such- oder Augmented-Agents abgefragt werden kann. Das Konzept der Suchanfragen entwickelt sich weiter: Werden die Menschen morgen ein oder viele Keywords kaufen, oder werden sie ein Konzept kaufen? In der Werbung war das Ziel immer, menschen- und audience zu sein; jetzt, da wir personenbezogene data schützen, bewegen wir uns in Richtung Kontextorientierung. Und das kann zu interessanterer Werbung führen.“
Wie wird generative AI heute in Unternehmen AI ? Hat sie Auswirkungen auf die Beschäftigung?
Matthieu: „Wir haben das Glück, dass einer unserer Wettbewerbsvorteile darin besteht, dass AI unserer DNA liegt. Wir fördern intern den Einsatz generativer Tools. Unser Technikteam nutzt Copilot für die Entwicklung, und unsere Programmierer setzen sowohl ChatGPT als auch Copilot ein. Mit diesen Tools sind wir kreativer. Was die Personalpolitik angeht, wachsen wir, daher planen wir, neue Mitarbeiter einzustellen … aber gleichzeitig können wir mit hervorragender Software auch mit kleineren Teams mehr erreichen.“
Igor: „Wir haben schon immer mit einem kleinen Team – sieben oder acht Leuten – gearbeitet, um denselben hohen technischen Standard zu erreichen wie beispielsweise Google, wo die Teams zehnmal so groß sind. Unsere kleinen Teams erzielen eine völlig unverhältnismäßig große Wirkung. Es ist ein Irrglaube, dass man ein großes Team braucht, um Großes zu erreichen.“
Yohann: „Vor zehn Jahren kam eine US-Studie zu dem Ergebnis, dass AI 20 Jahren 47 % der Arbeitsplätze durch AI verloren gehen würden, aber wir sehen, dass dies nicht eintritt. Eine aktuellere OECD-Studie bezifferte diesen Anteil auf eher 14 %. Ich denke, wir sollten in Aufgaben denken, nicht in Arbeitsplätzen. Wie in einer aktuellen OpenAI-Studie erwähnt, werden 80 bis 90 % der Arbeitsplätze von generativer AI beeinflusst werden AI doch das bedeutet eigentlich, dass 90 % der Beschäftigten bei 10 % ihrer Aufgaben davon betroffen sein werden. Interessant ist, dass die Vorstellung von Berufen, von denen wir dachten, sie seien für AI unantastbar, infrage AI , etwa in den Bereichen Kreativität, Recht, Finanzen und anderen. Die französische Regierung hat Le LaborIA ins Leben gerufen, um diese Fragen zu untersuchen.“
Welche Einschränkungen ergeben sich hinsichtlich der Souveränität und der Vorschriften für diese Modelle?
Hanan: „Die erste Einschränkung betrifft das geistige Eigentum (IP). Derzeit gibt es drei Arten von Modellen: öffentliche Modelle wie ChatGPT, bei denen die data übermittelten data für kommerzielle Zwecke genutzt werden können; private Modelle ohne IP-Eigentümer, wie Googles API auf Lambda; und selbst installierte Open-Source-Modelle. Data ist ein Problem, da GPT und PaLM nicht in europäischem, sondern in amerikanischem Besitz sind.“
Yohann: „Regulierungsfragen sind in Europa ein großes Thema. Italien hat die Nutzung von ChatGPT vollständig verboten, bis geklärt ist, ob die Anwendung den Datenschutzbestimmungen der DSGVO entspricht. OpenAI muss hinsichtlich der Verwendung personenbezogener data äußerst transparent sein, data es beispielsweise einen Haftungsausschluss vorlegt, in dem erklärt wird, dass personenbezogene data verwendet werden, data indem es den Nutzern die Möglichkeit gibt, data zu widersprechen und ihre data löschen zu lassen. Ein weiteres Problem im Zusammenhang mit den Einschränkungen von LLMs sind Halluzinationen: Sie geben oft falsche Antworten, was schwerwiegende Folgen haben kann, wenn die Anfrage eine Persönlichkeit des öffentlichen Lebens betrifft und das Modell eine „Fake News“-Geschichte generiert, die der betreffenden Person echten Schaden zufügen kann.“
Vincent: „Hast du dich mit dem Thema geistiges Eigentum und den Problemen befasst, die durch die Klage von Getty Images gegen Stability AI aufgeworfen wurden? Es gibt viele Fragen dazu, wie Bilder aus dem Internet gesammelt werden, um Modelle zu trainieren …“
Yohann: „Wir denken darüber nach. Open Source könnte ein Weg sein, um saubere, urheberrechtsfreie Datenbanken und Datensätze zu erstellen, die geistiges Eigentum respektieren.“
Matthieu: „Was personenbezogene data Produkte angeht: Was ChatGPT, Midjourney oder PhotoRoom so gut funktionieren lässt, sind nicht personenbezogene data, sondern Kundenfeedback.“
Yohann: „Nutzerfeedback ist ideal, aber bei großen Sprachmodellen ist dessen Erfassung unerschwinglich teuer.“
Igor: „Wo ist das Geld? Das ist meine Frage. Alle Probleme, die ihr angesprochen habt, sind technischer Natur, und wir können sie erst lösen, wenn wir die Mittel haben, um Ingenieure einzustellen und ein Ökosystem aufzubauen – und dazu sind wir einfach noch nicht bereit.“
Glauben Sie, dass es angesichts der zunehmenden Entwicklung von LLMs zu einem „GPU-Krieg“ kommen wird?
Yohann: „Das ist ein echtes Risiko. Momentan herrscht hier ein Monopol von NVIDIA – sie kontrollieren den Markt und die Preise. Leider gibt es in Europa keine echten Konkurrenten. Es handelt sich per Definition um eine begrenzte Ressource, eine seltene Ressource, daher ist es ein harter Kampf.“
Matthieu: „Die mangelnde Verfügbarkeit von GPUs schränkt nicht nur unsere Produktivität stark ein, sondern auch das Wachstum von Unternehmen in ganz Europa.“
Igor: „Da wir als Hardware-Hersteller angefangen haben, hatten wir dieses Problem bereits 2016 … Heute gibt es Mitarbeiter bei unseren Mitbewerbern, deren Hauptaufgabe darin besteht, genügend GPUs für das Training von Modellen zu beschaffen … Der Markt wächst rasant, aber die Chip-Produktion kann weltweit nicht mithalten.“
Hanan: „Es wird zwangsläufig zu einem GPU-Engpass kommen, aber wir können lernen, effizienter zu arbeiten – das müssen wir sogar. Und wir müssen uns überlegen, wie wir Open Source in unsere Unternehmen integrieren können, und nicht nur, wie wir die neuesten Technologien nutzen.“
Wo sehen Sie den größten Mehrwert für die Zukunft? Open-Source-Modelle? LLMs?
Matthieu: „Bei PhotoRoom nutzen wir Open Source – das ermöglicht es uns, schneller voranzukommen und unser eigenes geistiges Eigentum zu entwickeln. Wir haben in Paris eine große Hugging-Face-Community, die uns wichtiges Feedback gibt.“
Igor: „Wir nutzen LLMs, sind aber nicht an dieses Geschäftsmodell gebunden. Wir könnten Open Source nutzen. Wichtig ist, dass wir in der Lage sind und wissen, wie wir unsere proprietären data wiederverwenden können, data zukünftige Modelle zu trainieren. Das Ziel ist eine Branche, die diese Modelle für andere Unternehmen anpasst.“
Yohann: „Die Entwicklung von Open Source im Vergleich zu proprietärer Software hat AI generative AI vorangetrieben. Die AI hat zusammengearbeitet, damit andere Akteure von dieser Grundlagenforschung profitieren und ihre eigenen Modelle entwickeln konnten. Ich frage mich, ob die Leistungsfähigkeit dieser Open-Source-Modelle nicht hinter der proprietärer Modelle zurückbleibt, aber das kann sich ändern. Auf jeden Fall muss man sich fragen, ob Google es nicht bereut, den Zugang zu seiner ChatGPT-Technologie freigegeben zu haben!“
Im Anschluss an die Podiumsdiskussion fand eine audience statt, bei der es zu einer besonders lebhaften Diskussion über den Mangel an Frauen in der Tech-Branche kam. Yohann erläuterte mehrere Maßnahmen, die die französische Regierung im Bildungsbereich ergriffen hat und die sich speziell an Mädchen und Frauen richten, während Vincent darüber sprach, was die Artefact of Data, die Initiative Artefact und andere Tech-Unternehmen unternehmen, um diese Situation zu verbessern.
Es wurden weitere Fragen zur Barrierefreiheit bei der Nutzung von LLMs durch Menschen mit Autismus und anderen Behinderungen gestellt; zum Problem der AI ; zu den Maßnahmen, die Unternehmen zum Schutz der Umwelt planen; sowie zur Rolle Europas im Vergleich zu Frankreich beim data. Um zu erfahren, wie die Teilnehmer diese Fragen beantwortet haben, sehen Sie sich die replay der Konferenz an.

BLOG





