Cúpula AI Finanças da Artefact 17 de setembro de 2024 - Paris

Principais lições aprendidas no painel de discussão com Hugues Even, Data Grupo do BNP Paribas; Matteo Dora, Diretor de Tecnologia da Giskard; Guillaume Bour, Diretor de Negócios Corporativos para a região EMEA da Mistral AI; Anne-Laure Giret, Diretora deAI Cloud Cloud Google Cloud para Cloud EMEA Sul; e Hanan Ouazan, Sócia e AI Generativa da Artefact.

Modelos AI que aprimoram o atendimento ao cliente

Esta discussão destaca o papel transformador dos modelos AI no atendimento ao cliente, com foco em suas aplicações práticas e nos desafios enfrentados em diversos setores, especialmente no setor bancário. A conversa enfatiza a implantação da AI automatizar e aprimorar as interações com os clientes, por exemplo, por meio de canais de e-mail e voz, com ferramentas que compreendem o contexto, priorizam tarefas e sugerem respostas, aumentando assim a eficiência e a satisfação do cliente.

AI no processamento de e-mails e chamadas

Hugues explica como AI no processamento de e-mails, categorizando-os, priorizando-os e encaminhando-os, além de sugerir respostas para revisão. No caso das interações por voz, AI resumos pós-chamada, ações a serem tomadas e insights que podem ser utilizados em reuniões futuras. Essas ferramentas ajudam os bancos a melhorar a qualidade do atendimento, analisando o conteúdo e o tom das interações, indo além dos métodos tradicionais de feedback do cliente.

AI os principais processos bancários

A conversa também aborda o papel AIem processos bancários essenciais, como pedidos de empréstimo e integração de clientes. AI, utilizando modelos de linguagem e visão computacional, ajuda a verificar documentos e a cruzar informações para agilizar esses processos. Os participantes destacam como o papel AIgenerativa está evoluindo, passando de chatbots simples e programados para assistentes conversacionais avançados, capazes de lidar com uma ampla variedade de consultas e oferecer um atendimento mais personalizado.

Transição para assistentes conversacionais baseados em modelos de linguagem grande (LLMs)

Uma das principais conclusões da discussão é a transição para assistentes conversacionais baseados em grandes modelos de linguagem (LLMs), que oferecem respostas mais dinâmicas do que os chatbots anteriores. No entanto, esses modelos precisam ser ajustados a contextos e setores específicos, exigindo adaptações como a adaptação de baixa dimensão. A discussão ressalta a importância de manter o controle sobre esses AI , especialmente no que diz respeito a data confidenciais, e destaca colaborações com AI , como a Mistral, para garantir data e o desempenho.

Desafios da implantação em escala AI produção

A ampliação da AI ambiente de produção apresenta desafios, como data , desempenho e segurança. Manter a eficiência e a explicabilidade AI , ao mesmo tempo em que se garante a segurança cibernética, é essencial para a implantação em larga escala. A discussão destaca a necessidade de atualizações contínuas dos modelos para atender às crescentes demandas dos clientes e regulatórias, e que a capacitação dos usuários sobre AI é fundamental para o sucesso.

Otimização do tamanho do modelo para obter uma boa relação custo-benefício

Para enfrentar os desafios AI , Guillaume Bour explica que reduzir o tamanho dos modelos, mantendo a precisão e a eficiência de custos, é fundamental para a escalabilidade. Ele também menciona que a combinação de modelos pequenos com fluxos de trabalho orquestrados pode otimizar o desempenho, reduzindo custos sem sacrificar a qualidade. Os sistemas de observabilidade e monitoramento são cruciais para manter esses modelos em ambientes de produção em tempo real.

Mitigando AI por meio de testes rigorosos

Por fim, é abordada a questão da AI — ou seja, o fornecimento de informações incorretas. Testes rigorosos são essenciais para evitar tais erros nas interações com os clientes. Parcerias entre empresas como o BNP e a Discard garantem que AI sejam exaustivamente testados antes da implantação, a fim de mitigar riscos. O monitoramento pós-implantação também é fundamental para identificar e resolver problemas ao longo do tempo, uma vez que mudanças nas demandas dos clientes, nas regulamentações e no ambiente externo afetam AI .