As demonstrações de conceito (PoCs) em AI generativa AI multiplicado, principalmente em grandes empresas. No entanto, poucas iniciativas foram implementadas em escala industrial devido à sua complexidade.

Hanan Ouazan, sócia e AI generativa na Artefact, faz um balanço da situação e analisa formas de melhorar neste artigo de Christophe Auffray, jornalista do LeMagIT.

“A adoção da artificial intelligence generativa artificial intelligence longe de artificial intelligence uniforme entre as empresas francesas. O porte da empresa continua sendo um fator determinante. No entanto, a maioria dos grandes grupos já tomou medidas (estratégia, PoC, etc.); hoje, apenas alguns ainda estão ficando para trás.”
Hanan Ouazan, AI generativa na Artefact

Em contrapartida, as microempresas e as pequenas e médias empresas mostram-se mais hesitantes. “Nem todas as organizações estão na mesma sintonia”, destaca Hanan. “As grandes empresas são as primeiras a abordar o assunto. Mas isso não significa que os ‘grandes’ tenham conseguido dominar a tecnologia.”

A complexidade da industrialização

“Há um ano, já tínhamos previsto a principal dificuldade dos AI generativa, ou seja, sua industrialização. […] Há alguns anos, uma prova de conceito (PoC) em artificial intelligence [clássica] artificial intelligence três a quatro meses. Para a IA generativa, duas a três semanas podem ser suficientes. A industrialização, por outro lado, é uma história completamente diferente. As empresas estão percebendo as limitações das iniciativas de PoC.”

A isso se soma o problema da adoção, especialmente no caso de soluções AI, como os copilotos. A adoção não é garantida. Além disso, o retorno sobre o investimento dessas ferramentas ainda precisa ser determinado.
As soluções internas, ou seja, as “desenvolvidas internamente” em vez das “adquiridas”, também não estão imunes a problemas de adoção.

Apesar desses obstáculos, alguns setores estão se mostrando dinâmicos no que diz respeito à AI generativa, incluindo o varejo e o setor de artigos de luxo. Mesmo que, no caso deste último, o progresso tenha sido menor do que o inicialmente esperado, segundo o especialista em GenAI Artefact. Diz-se que os setores bancário e de saúde estão ainda mais atrasados, mas isso se deve, em grande parte, a questões cloud à conformidade.

RAG, Search 2.0, Automação, Criatividade: Quatro categorias e quatro estágios de desenvolvimento

Também é possível observar um progresso em duas velocidades no nível setorial. Segundo Hanan, a indústria está à frente na corrida pela adoção.

Mas mesmo entre os participantes mais experientes, a industrialização e a ampliação (em termos de adoção e tecnologia) continuam sendo obstáculos. Os casos de uso concentram-se na Geração Aumentada por Recuperação (RAGs) para a recuperação de documentos em “bancos de dados frequentemente negligenciados”.

A indexação de conteúdo destina-se tanto a aplicações internas (para aumentar a produtividade) quanto externas (por meio de interfaces conversacionais). Hanan cita o exemplo de um fabricante envolvido em um projeto para tornar seu catálogo de produtos acessível aos clientes online – por meio de um chatbot.

No setor de varejo, AI generativa AI sendo usada para repensar a pesquisa. A Pesquisa 2.0, baseada na IA generativa, transformaria a experiência de pesquisa por meio da expressão de uma necessidade.

Sem revelar o nome do varejista, Artefact colaborando no desenvolvimento de uma solução baseada na pesquisa por intenção. “No futuro, a pesquisa fará parte de uma lógica de experiência”, prevê o AI generativa.

Uma terceira categoria de casos de uso é a automação. Isso inclui a análise de mensagens e transcrições dos call centers dos distribuidores para identificar pontos de fricção ou problemas.

“Recolhemos todas as chamadas, transcrevemos e, em seguida, analisamos para criar um painel de controle. Essa visualização nos permite ver, por exemplo, que 3.000 chamadas dizem respeito a um produto específico que os clientes consideram menor do que a imagem apresentada na ficha do produto. É possível chegar a esse nível de detalhe.”

Anteriormente, essa análise de sentimentos não era suficientemente eficaz. Agora, ela consegue até mesmo detectar ironia.

A automação também abrange aplicações como a análise de tendências nas redes sociais ou data em tempo real para operações administrativas em bancos e seguradoras.

A quarta área é a criatividade. “Essa área está menos avançada do que eu esperava, mas está começando a decolar”, observa Hanan. Artefact com os clientes para automatizar o marketing direto, como a personalização (“contextualização”) de mensagens SMS para gerar assinaturas com base em critérios como o dispositivo do destinatário.

A geração de imagens para fins publicitários também está ganhando espaço. No entanto, essas aplicações são prejudicadas pela incerteza jurídica em torno dos direitos autorais e data de treinamento data IAs geradoras de imagens. As garantias legais prometidas por certas editoras, incluindo a Adobe, poderiam eliminar as barreiras nessa área.

As aplicações da AI generativa já AI bem estabelecidas. No entanto, o impacto em termos de transformação efetiva precisa ser avaliado com cautela, já que poucos projetos estão em fase de produção e menos ainda estão acessíveis aos usuários finais.

“Existem inúmeras ferramentas seguras do tipo GPT. Mas não é algo muito difícil de desenvolver. Além disso, como as aplicações são internas, os riscos são limitados.”

Custo, experiência do usuário, qualidade e mudança são fundamentais para a industrialização

Para Hanan Ouazan, a razão por trás dessa avaliação de 2024 é clara: a complexidade da industrialização. Há várias razões para isso, entre as quais se destaca o custo: as taxas de utilização podem aumentar rapidamente.

No entanto, nem todas as empresas previram o retorno sobre o investimento (ROI) de seus casos de uso. O uso de LLMs gera despesas que ultrapassam em muito as receitas, sejam elas previstas ou não. E, embora o custo por uso dessas soluções tenha caído significativamente ao longo do último ano, elas tornam as aplicações mais complexas e difíceis de manter ao longo do tempo.

Essa questão de custo pode ser resolvida com uma “lógica de otimização” para reduzir o custo de uma conversa com um chatbot, por exemplo. Um chat é cobrado com base no tamanho da pergunta e da resposta. E cada nova pergunta é adicionada ao histórico da conversa, aumentando o custo total de cada consulta.

“Para um cliente do setor industrial, monitoramos todas as interações do chatbot. Isso nos permite avaliar custos e identificar as causas. Por exemplo, pode ser que o chatbot esteja tendo dificuldade para identificar um produto, o que leva a uma multiplicação das trocas de mensagens. O monitoramento é essencial para tomar medidas corretivas.”

A experiência do usuário também é um parâmetro fundamental. Para garantir isso, a latência é importante, mas tem um custo. No Azure, pode ser necessário assinar Unidades de Taxa de Transferência Provisionadas (PTUs), “recursos gerenciados dedicados e caros”.

Não há adoção bem-sucedida sem levar as pessoas em consideração

Hanan Ouazan também cita a qualidade como um desafio para a industrialização. Medir e monitorar a qualidade significa “implementar os fundamentos de avaliação adequados […] Em certos fluxos de usuários sensíveis, implantamos uma AI função é validar a resposta de outra AI. Os processos de avaliação em tempo real garantem que a qualidade das respostas AIgenerativa seja mantida”, explica ele. “Também integramos ciclos de feedback que aproveitam as respostas dos usuários para melhorar os resultados.”

A industrialização acaba por se deparar com o obstáculo humano. O sucesso nesta fase exige mudanças nos processos. Por exemplo, a transição de um chatbot tradicional para uma versão baseada em AI generativa AI a profissão de atendimento ao cliente.

“Essa mudança precisa ser apoiada, especialmente no processo de validação das respostas dos chatbots. Parte da conversa pode ser confiada a uma AI validação. E quando os humanos intervêm, é melhor auxiliá-los para reduzir o tempo de processamento. E quando um humano faz uma anotação, a AI aprender a dar início a um ciclo virtuoso.”

Hanan também defende que se incentive a adoção pelos usuários e que se tenha em mente a experiência do usuário.“A adoção não deve ser um processo difícil. Essa foi a abordagem que Artefact em um projeto para melhorar data no banco de dados de produtos de um fabricante. As pessoas não devem ter que se adaptar à AI generativa. Cabe à AI adaptar a elas, especialmente à maneira como trabalham.”

Por exemplo, Artefact sua solução de geração de fichas técnicas de produtos, que havia sido originalmente concebida para se integrar diretamente ao PIM — uma ferramenta pouco apreciada pelos funcionários do projeto em questão.

“Nosso método para AI generativa consiste em selecionar uma empresa e identificar suas tarefas diárias, a fim de distinguir aquelas nas quais AI o ser humano ou modificará a ferramenta. O desafio é automatizar o que pode ser automatizado e o que é mais complexo na função, além de melhorar o que pode ser aprimorado nas condições de trabalho dos funcionários. E isso não pode ser feito sem interagir com o usuário-alvo. Caso contrário, a adoção será nula.”

Treinamento do usuário: Ajustando o cursor

E quanto ao treinamento rápido? Para Hanan, o foco está totalmente no usuário. Artefact os funcionários no método CRAFT (Contexto, Função, Ação, Formato, Audience), que define o uso correto da AI. Para usuários experientes, é possível treiná-los na operação dos modelos e das ferramentas que os integram. No entanto, alguns grupos ainda estão acostumados ao uso de palavras-chave.

A empresa está orientando os funcionários sobre a possibilidade de fazer consultas em linguagem natural. Também introduziu a reformulação. Quando palavras-chave (código PUK) são inseridas, a ferramenta reformula a frase: “Você está procurando seu código PUK?”

“Existe um controle deslizante que precisa ser ajustado de acordo com o público-alvo da ferramenta. Mas acho que, à medida que as capacidades AI generativa melhorarem, eventualmente não haverá mais necessidade de fornecer prompts”, esclarece Hanan.

Dois projetos futuros em destaque

Em 2024, há duas áreas principais de foco no campo da AI generativa. A primeira diz respeito à adoção, identificando mudanças nas profissões, carreiras e competências.

O segundo é a ampliação. Isso está sendo testado em dois níveis: governança (priorização de necessidades, retorno sobre o investimento e orientação de iniciativas) e a plataforma de IA Gerativa.

Hanan observa um aumento no número de RAGs, um fenômeno impulsionado pelas inúmeras demonstrações de conceito (PoCs) que estão sendo realizadas. Como resultado, as empresas precisarão racionalizar os componentes básicos utilizados em seus experimentos.

“Amanhã teremos que pensar no RAG como um data . Ele tem seu lugar como produto na empresa, assim como o LLM tem seu lugar como produto.”

“Muitas pessoas achavam que a GenAI era algo mágico que as libertaria das restrições do passado. Na realidade, a GenAI traz ainda mais restrições”, adverte o especialista Artefact.

Essa evolução faz parte de um processo contínuo. Após o DevOps e, em seguida, o MLOps, voltado especificamente para AI, surge agora o LLMOps. “As salvaguardas definidas com o MLOps continuam relevantes. Mas precisamos ampliá-las para levar em conta os custos, as alucinações e a dimensão generativa dos modelos”, conclui Hanan.

Leia o artigo em

class="lazyload

.