AI Finance Summit von Artefact 17. September 2024 – Paris

Die wichtigsten Erkenntnisse aus der Podiumsdiskussion mit Hugues Even, Group Chief Data bei BNP Paribas, Matteo Dora, CTO bei Giskard, Guillaume Bour, Head of Enterprise EMEA bei Mistral AI, Anne-Laure Giret, Head of Google Cloud AI , EMEA South bei Google Cloud, und Hanan Ouazan, Partner & Generative AI bei Artefact.

AI -Sprachmodelle zur Verbesserung des Kundenservice

Diese Diskussion beleuchtet die transformative Rolle von AI im Kundenservice und konzentriert sich dabei auf ihre praktischen Anwendungen und Herausforderungen in verschiedenen Branchen, insbesondere im Bankwesen. Im Mittelpunkt steht der Einsatz von AI Automatisierung und Optimierung AI Kundeninteraktionen, beispielsweise über E-Mail- und Sprachkanäle, mithilfe von Tools, die den Kontext verstehen, Aufgaben priorisieren und Antwortvorschläge unterbreiten und so die Effizienz und Kundenzufriedenheit steigern.

AI bei der E-Mail- und Sprachverarbeitung

Hugues erläutert, wie AI bei der Bearbeitung von E-Mails AI , indem sie diese kategorisiert, priorisiert und weiterleitet und gleichzeitig Antwortvorschläge zur Überprüfung unterbreitet. Bei Sprachinteraktionen AI nach dem Gespräch Zusammenfassungen, Aktionspunkte und Erkenntnisse, die für künftige Besprechungen genutzt werden können. Diese Tools helfen Banken dabei, die Servicequalität zu verbessern, indem sie den Inhalt und den Tonfall von Interaktionen analysieren und damit über herkömmliche Methoden des Kundenfeedbacks hinausgehen.

AI wichtige Bankprozesse

Das Gespräch befasst sich auch mit der Rolle AIin zentralen Bankprozessen wie Kreditanträgen und der Kundenanmeldung. Mithilfe von Sprachmodellen und Computer Vision unterstützt AI die Überprüfung von Dokumenten und den Abgleich von Informationen, um diese Prozesse zu optimieren. Die Teilnehmer heben hervor, wie sich die Rolle AIgenerativen AIvon einfachen, vorprogrammierten Chatbots hin zu fortschrittlichen Gesprächsassistenten entwickelt, die eine Vielzahl von Anfragen bearbeiten und einen individuelleren Service bieten.

Der Übergang zu Sprachassistenten auf Basis von LLMs

Eine wichtige Erkenntnis aus der Diskussion ist der Übergang zu Sprachassistenten, die auf großen Sprachmodellen (LLMs) basieren und dynamischere Antworten liefern als bisherige Chatbots. Diese Modelle müssen jedoch auf bestimmte Kontexte und Branchen abgestimmt werden, was Anpassungen wie die Low-Rank-Adaption erfordert. Die Diskussion unterstreicht, wie wichtig es ist, die Kontrolle über diese AI zu behalten, insbesondere im Umgang mit sensiblen data, und hebt die Zusammenarbeit mit AI wie Mistral hervor, um data und Leistungsfähigkeit zu gewährleisten.

Herausforderungen bei der Skalierung von AI der Produktion

Die Skalierung von AI der Produktion bringt Herausforderungen mit sich, wie beispielsweise data , Leistung und Sicherheit. Die Aufrechterhaltung der Effizienz und Erklärbarkeit AI bei gleichzeitiger Gewährleistung der Cybersicherheit ist für einen groß angelegten Einsatz unerlässlich. In der Diskussion wird darauf hingewiesen, dass kontinuierliche Modellaktualisierungen erforderlich sind, um den sich wandelnden Anforderungen von Kunden und Regulierungsbehörden gerecht zu werden, und dass die Schulung der Nutzer im Umgang mit AI entscheidend für den Erfolg ist.

Optimierung der Modellgröße im Hinblick auf Kosteneffizienz

Um die Herausforderungen AI zu bewältigen, erklärt Guillaume Bour, dass die Reduzierung der Modellgröße bei gleichbleibender Genauigkeit und Kosteneffizienz der Schlüssel zur Skalierung ist. Er weist zudem darauf hin, dass die Kombination kleiner Modelle mit koordinierten Arbeitsabläufen die Leistung optimieren und so Kosten senken kann, ohne dass dabei Abstriche bei der Qualität gemacht werden müssen. Observability- und Überwachungssysteme sind entscheidend für den Betrieb dieser Modelle in Echtzeit-Produktionsumgebungen.

Minderung von AI durch strenge Tests

Abschließend wird das Thema AI – also der Bereitstellung falscher Informationen – erörtert. Um solche Fehler im Kundenkontakt zu vermeiden, sind strenge Tests unerlässlich. Durch Kooperationen zwischen Unternehmen wie BNP und Discard wird sichergestellt, dass AI vor ihrer Einführung gründlich getestet werden, um Risiken zu minimieren. Auch die Überwachung nach der Einführung ist von entscheidender Bedeutung, um Probleme im Laufe der Zeit zu erkennen und zu beheben, da sich Veränderungen bei den Kundenanforderungen, den Vorschriften und dem externen Umfeld auf AI auswirken.