Cumbre AI las finanzas organizada por Artefact 17 de septiembre de 2024 - París

Principales conclusiones de la mesa redonda con Hugues Even, Data grupo en BNP Paribas; Matteo Dora, director de tecnología en Giskard; Guillaume Bour, director de empresa para EMEA en Mistral AI; Anne-Laure Giret, directora deAI Google Cloud para el sur de EMEA en Google Cloud; y Hanan Ouazan, socia y AI generativa en Artefact.

Los modelos AI mejoran el servicio al cliente

Este debate pone de relieve el papel transformador de los modelos AI en la atención al cliente, centrándose en sus aplicaciones prácticas y en los retos que plantean en diversos sectores, especialmente en el bancario. La conversación hace hincapié en el uso de AI automatizar y mejorar las interacciones con los clientes, por ejemplo, a través del correo electrónico y los canales de voz, mediante herramientas que comprenden el contexto, priorizan las tareas y sugieren respuestas, mejorando así la eficiencia y la satisfacción del cliente.

AI en el procesamiento de correos electrónicos y mensajes de voz

Hugues explica cómo AI a gestionar los correos electrónicos clasificándolos, priorizándolos y redirigiéndolos, al tiempo que sugiere respuestas para su revisión. En el caso de las interacciones de voz, AI resúmenes posteriores a la llamada, medidas a tomar y conclusiones que pueden utilizarse en futuras reuniones. Estas herramientas ayudan a los bancos a mejorar la calidad del servicio mediante el análisis del contenido y el tono de las interacciones, yendo más allá de los métodos tradicionales de recabación de opiniones de los clientes.

AI los procesos bancarios clave

La conversación también aborda el papel AIen procesos bancarios clave, como las solicitudes de préstamos y la incorporación de clientes. AI, mediante modelos lingüísticos y visión artificial, ayuda a verificar documentos y a cotejar información para agilizar estos procesos. Los participantes destacan cómo el papel AIgenerativa está evolucionando, pasando de simples chatbots con guiones preestablecidos a asistentes conversacionales avanzados que gestionan una amplia variedad de consultas y ofrecen un servicio más personalizado.

Transición hacia los asistentes conversacionales basados en modelos de lenguaje grande (LLM)

Una de las conclusiones clave del debate es la transición hacia los asistentes conversacionales basados en grandes modelos de lenguaje (LLM), que ofrecen respuestas más dinámicas que los chatbots anteriores. Sin embargo, estos modelos deben ajustarse a contextos y sectores específicos, lo que requiere modificaciones como la adaptación de bajo rango. El debate subraya la importancia de mantener el control sobre estos AI , especialmente cuando se trata de data sensibles, y destaca la colaboración con AI como Mistral para garantizar data y el rendimiento.

Retos de la implementación a gran escala de AI entornos de producción

La ampliación de AI entornos de producción plantea retos como data , el rendimiento y la seguridad. Mantener la eficiencia y la explicabilidad AI , al tiempo que se garantiza la ciberseguridad, es esencial para su implementación a gran escala. En el debate se señala la necesidad de actualizar continuamente los modelos para satisfacer las cambiantes exigencias de los clientes y la normativa, y se destaca que la formación de los usuarios en el uso de AI es fundamental para el éxito.

Optimización del tamaño del modelo para lograr una mejor relación coste-eficacia

Para hacer frente a los retos AI , Guillaume Bour explica que reducir el tamaño de los modelos sin perder precisión ni rentabilidad es clave para la escalabilidad. También señala que la combinación de modelos pequeños con flujos de trabajo coordinados puede optimizar el rendimiento, reduciendo los costes sin sacrificar la calidad. Los sistemas de observabilidad y monitorización son fundamentales para mantener estos modelos en entornos de producción en tiempo real.

Mitigar AI mediante pruebas rigurosas

Por último, se aborda la cuestión de AI —es decir, el suministro de información incorrecta—. Es fundamental realizar pruebas rigurosas para evitar este tipo de errores en las interacciones con los clientes. La colaboración entre empresas como BNP y Discard garantiza que AI se sometan a pruebas exhaustivas antes de su implementación, con el fin de mitigar los riesgos. La supervisión posterior a la implementación también es fundamental para identificar y resolver los problemas a lo largo del tiempo, ya que los cambios en las demandas de los clientes, la normativa y el entorno externo afectan AI .