AI für den Finanzgipfel von Artefact - 17. September 2024 - Paris

Die wichtigsten Erkenntnisse aus der Podiumsdiskussion mit Hugues Even, Group Chief Data Officer bei BNP Paribas, Matteo Dora, CTO bei Giskard, Guillaume Bour, Head of Enterprise EMEA bei Mistral AI, Anne-Laure Giret, Head of Google Cloud AI GTM, EMEA South bei Google Cloud, und Hanan Ouazan, Partner & Generative AI Lead bei Artefact.

AI Sprachmodelle zur Verbesserung des Kundenservices

Diese Diskussion beleuchtet die transformative Rolle von AI Sprachmodellen im Kundenservice und konzentriert sich auf ihre realen Anwendungen und Herausforderungen in verschiedenen Branchen, insbesondere im Bankwesen. Im Mittelpunkt der Diskussion steht der Einsatz von AI zur Automatisierung und Verbesserung von Kundeninteraktionen, z. B. über E-Mail- und Sprachkanäle, mit Tools, die den Kontext verstehen, Aufgaben priorisieren und Antworten vorschlagen und so die Effizienz und Kundenzufriedenheit verbessern.

AI Unterstützung bei der E-Mail- und Sprachverarbeitung

Hugues berichtet, wie AI bei der Bearbeitung von E-Mails hilft, indem es sie kategorisiert, nach Prioritäten ordnet und weiterleitet und gleichzeitig Antworten zur Überprüfung vorschlägt. Für Sprachinteraktionen generiert AI Zusammenfassungen nach dem Anruf, Aktionspunkte und Erkenntnisse, die für zukünftige Meetings genutzt werden können. Diese Tools helfen Banken, die Servicequalität zu verbessern, indem sie den Inhalt und den Tonfall von Interaktionen analysieren und damit über die herkömmlichen Methoden des Kundenfeedbacks hinausgehen.

AI Rationalisierung der wichtigsten Bankprozesse

Das Gespräch befasst sich auch mit der Rolle von AIin wichtigen Bankprozessen wie Kreditanträgen und Kundenanmeldung. AI Mit Hilfe von Sprachmodellen und Computer Vision hilft bei der Überprüfung von Dokumenten und dem Abgleich von Informationen, um diese Prozesse zu optimieren. Die Teilnehmer heben hervor, wie sich die Rolle der generativen AIvon einfachen, geskripteten Chatbots zu fortschrittlichen Gesprächsassistenten entwickelt, die eine breite Palette von Anfragen bearbeiten und einen persönlicheren Service bieten.

Übergang zu Gesprächsassistenten auf der Grundlage von LLMs

Eine wichtige Erkenntnis aus der Diskussion ist der Übergang zu Konversationsassistenten, die von großen Sprachmodellen (LLMs) angetrieben werden, die dynamischere Antworten als bisherige Chatbots bieten. Diese Modelle müssen jedoch auf bestimmte Kontexte und Branchen abgestimmt werden, was Anpassungen wie Low-Rank-Adaption erfordert. Die Diskussion unterstreicht, wie wichtig es ist, die Kontrolle über diese AI Systeme zu behalten, insbesondere bei sensiblen data, und hebt die Zusammenarbeit mit AI Anbietern wie Mistral hervor, um data Sicherheit und Leistung zu gewährleisten.

Herausforderungen bei der Skalierung von AI in der Produktion

Die Skalierung von AI in der Produktion bringt Herausforderungen mit sich, wie data Governance, Leistung und Sicherheit. Die Aufrechterhaltung der Effizienz und Erklärbarkeit der Modelle von AI bei gleichzeitiger Gewährleistung der Cybersicherheit ist für einen groß angelegten Einsatz unerlässlich. In der Diskussion wird darauf hingewiesen, dass kontinuierliche Modellaktualisierungen erforderlich sind, um den sich entwickelnden Kunden- und Regulierungsanforderungen gerecht zu werden, und dass die Schulung der Benutzer über die AI Tools für den Erfolg entscheidend ist.

Optimierung der Modellgröße für Kosteneffizienz

Zur Bewältigung der Leistungsherausforderungen von AI erklärt Guillaume Bour, dass die Verringerung der Modellgröße unter Beibehaltung der Genauigkeit und Kosteneffizienz der Schlüssel zur Skalierung ist. Sie erwähnen auch, dass die Kombination kleiner Modelle mit orchestrierten Arbeitsabläufen die Leistung optimieren und die Kosten senken kann, ohne die Qualität zu beeinträchtigen. Beobachtbarkeit und Überwachungssysteme sind für die Aufrechterhaltung dieser Modelle in Echtzeit-Produktionsumgebungen von entscheidender Bedeutung.

Abschwächung der AI Halluzinationen durch strenge Tests

Schließlich wird das Problem der AI "Halluzinationen", also der Erteilung falscher Informationen, erörtert. Strenge Tests sind unerlässlich, um solche Fehler bei der Interaktion mit Kunden zu vermeiden. Die Zusammenarbeit zwischen Unternehmen wie BNP und Discard stellt sicher, dass die Systeme von AI vor der Einführung gründlich getestet werden, um die Risiken zu minimieren. Die Überwachung nach der Einführung ist ebenfalls von entscheidender Bedeutung, um Probleme im Laufe der Zeit zu erkennen und zu beheben, da Änderungen der Kundenanforderungen, Vorschriften und des externen Umfelds die Leistung von AI beeinflussen.