AI para la Cumbre de Finanzas por Artefact - 17 de septiembre de 2024 - París
Principales conclusiones de la mesa redonda con Hugues Even, Director de Data del Grupo en BNP Paribas, Matteo Dora, Director de Tecnología en Giskard, Guillaume Bour, Director de Empresa para EMEA en Mistral AI, Anne-Laure Giret, Directora de Google Cloud AI GTM, EMEA Sur en Google Cloud, y Hanan Ouazan, Socio y Director de AI Generativa en Artefact.
AI Modelos lingüísticos que mejoran el servicio al cliente
Este debate pone de relieve el papel transformador de los modelos lingüísticos AI en la atención al cliente, centrándose en sus aplicaciones y retos reales en diversos sectores, en particular la banca. La conversación hace hincapié en el despliegue de AI para automatizar y mejorar las interacciones con los clientes, por ejemplo a través del correo electrónico y los canales de voz, con herramientas que comprenden el contexto, priorizan las tareas y sugieren respuestas, mejorando así la eficiencia y la satisfacción del cliente.
AI asistencia en el tratamiento del correo electrónico y la voz
Hugues explica cómo AI ayuda a procesar los correos electrónicos categorizándolos, priorizándolos y enrutándolos, al tiempo que sugiere respuestas para su revisión. Para las interacciones de voz, AI genera resúmenes posteriores a la llamada, elementos de acción y perspectivas que pueden utilizarse en futuras reuniones. Estas herramientas ayudan a los bancos a mejorar la calidad del servicio analizando el contenido y el tono de las interacciones, yendo más allá de los métodos tradicionales de opinión de los clientes.
AI agilizar los principales procesos bancarios
La conversación también aborda el papel de AIen procesos bancarios clave, como las solicitudes de préstamos y la incorporación de clientes. AI, utilizando modelos lingüísticos y visión por ordenador, ayuda a verificar documentos y cruzar información para agilizar estos procesos. Los participantes destacan cómo el papel de AIestá evolucionando desde simples chatbots con guiones a avanzados asistentes conversacionales que gestionan una amplia gama de consultas y ofrecen un servicio más personalizado.
Transición a los asistentes conversacionales con tecnología LLM
Un aspecto clave del debate es la transición a asistentes conversacionales basados en grandes modelos lingüísticos (LLM), que ofrecen respuestas más dinámicas que los anteriores chatbots. Sin embargo, estos modelos deben ajustarse a contextos e industrias específicos, lo que requiere ajustes como la adaptación a rangos bajos. El debate subraya la importancia de mantener el control sobre estos sistemas AI , especialmente con los sensibles data, y destaca las colaboraciones con proveedores de AI como Mistral para garantizar la seguridad y el rendimiento de data .
Retos de la ampliación de AI en producción
El escalado de AI en producción plantea retos, como la gobernanza, el rendimiento y la seguridad de data . Mantener la eficiencia y la explicabilidad de los modelos de AI al tiempo que se garantiza la ciberseguridad es esencial para el despliegue a gran escala. En el debate se señala la necesidad de actualizar continuamente los modelos para satisfacer las demandas cambiantes de los clientes y la normativa, y que la formación de los usuarios sobre las herramientas de AI es fundamental para el éxito.
Optimizar el tamaño de los modelos para reducir costes
Para abordar los retos de rendimiento de AI , Guillaume Bour explica que reducir el tamaño de los modelos manteniendo la precisión y la rentabilidad es clave para la ampliación. También menciona que combinar modelos pequeños con flujos de trabajo orquestados puede optimizar el rendimiento, reduciendo los costes sin sacrificar la calidad. La observabilidad y los sistemas de supervisión son cruciales para mantener estos modelos en entornos de producción en tiempo real.
Mitigación de la alucinación AI mediante pruebas rigurosas
Por último, se aborda la cuestión de la "alucinación" -proporcionar información incorrecta- en AI . Para evitar este tipo de errores en las interacciones con los clientes es esencial realizar pruebas rigurosas. La colaboración entre empresas como BNP y Discard garantiza que los sistemas AI se prueban a fondo antes de su implantación para mitigar los riesgos. La supervisión posterior al despliegue también es fundamental para detectar y resolver problemas a lo largo del tiempo, ya que los cambios en las demandas de los clientes, la normativa y el entorno externo afectan al rendimiento de AI .