AI para a Cúpula de Finanças por Artefact - 17 de setembro de 2024 - Paris

Principais aprendizados do painel de discussão com Hugues Even, Group Chief Data Officer da BNP Paribas, Matteo Dora, CTO da Giskard, Guillaume Bour, Head of Enterprise EMEA da Mistral AI, Anne-Laure Giret, Head of Google Cloud AI GTM, EMEA South at Google Cloud, e Hanan Ouazan, Partner & Generative AI Lead da Artefact.

AI Modelos de linguagem que aprimoram o atendimento ao cliente

Esta discussão destaca a função transformadora dos modelos de linguagem AI no atendimento ao cliente, concentrando-se em suas aplicações e desafios do mundo real em vários setores, especialmente o bancário. A conversa enfatiza a implementação do AI para automatizar e aprimorar as interações com os clientes, como por meio de canais de e-mail e voz, com ferramentas que entendem o contexto, priorizam tarefas e sugerem respostas, melhorando assim a eficiência e a satisfação do cliente.

AI auxiliar no processamento de e-mail e voz

Hugues compartilha como o AI auxilia no processamento de e-mails, categorizando, priorizando e encaminhando-os, além de sugerir respostas para revisão. Para interações de voz, o AI gera resumos pós-chamada, itens de ação e insights que podem ser usados em reuniões futuras. Essas ferramentas ajudam os bancos a melhorar a qualidade do serviço, analisando o conteúdo e o tom das interações, indo além dos métodos tradicionais de feedback do cliente.

AI Simplificação dos principais processos bancários

A conversa também aborda a função do AInos principais processos bancários, como aplicativos de empréstimo e integração de clientes. AI O chatbot, usando modelos de linguagem e visão computacional, ajuda a verificar documentos e a cruzar informações para agilizar esses processos. Os participantes destacam como a função generativa do AIestá evoluindo de simples chatbots com script para assistentes de conversação avançados que lidam com uma ampla gama de consultas e oferecem um serviço mais personalizado.

Transição para assistentes de conversação com tecnologia de LLMs

Uma das principais conclusões da discussão é a transição para assistentes de conversação alimentados por grandes modelos de linguagem (LLMs), que oferecem respostas mais dinâmicas do que os chatbots anteriores. No entanto, esses modelos precisam ser ajustados para contextos e setores específicos, exigindo ajustes como a adaptação de baixo nível. A discussão ressalta a importância de manter o controle sobre esses sistemas AI , especialmente com data sensíveis, e destaca as colaborações com provedores AI como a Mistral para garantir a segurança e o desempenho do data .

Desafios de dimensionar o AI na produção

O dimensionamento da AI na produção apresenta desafios, como a governança, o desempenho e a segurança da data . Manter a eficiência e a explicabilidade dos modelos AI e, ao mesmo tempo, garantir a segurança cibernética são essenciais para a implantação em grande escala. A discussão observa a necessidade de atualizações contínuas do modelo para atender às crescentes demandas regulatórias e dos clientes, e que a educação dos usuários sobre as ferramentas AI é fundamental para o sucesso.

Otimização do tamanho do modelo para eficiência de custo

Para enfrentar os desafios de desempenho do site AI , Guillaume Bour explica que reduzir o tamanho do modelo e, ao mesmo tempo, manter a precisão e a relação custo-benefício é fundamental para o dimensionamento. Eles também mencionam que a combinação de modelos pequenos com fluxos de trabalho orquestrados pode otimizar o desempenho, reduzindo os custos sem sacrificar a qualidade. A observabilidade e os sistemas de monitoramento são cruciais para manter esses modelos em ambientes de produção em tempo real.

Atenuando a alucinação do AI por meio de testes rigorosos

Por fim, é discutida a questão da "alucinação" do AI , ou seja, o fornecimento de informações incorretas. Testes rigorosos são essenciais para evitar esses erros nas interações com os clientes. As colaborações entre empresas como a BNP e a Discard garantem que os sistemas AI sejam exaustivamente testados antes da implementação para reduzir os riscos. O monitoramento pós-implantação também é fundamental para identificar e resolver problemas ao longo do tempo, pois as mudanças nas demandas dos clientes, nas regulamentações e no ambiente externo afetam o desempenho do AI .