As PoCs no site generativo AI se proliferaram, principalmente em grandes empresas. Mas poucas iniciativas foram industrializadas devido à sua complexidade.

Hanan Ouazan, sócio e líder da Generative AI na Artefact, faz um balanço da situação e analisa maneiras de melhorar neste artigo de Christophe Auffray, jornalista da LeMagIT.

"A adoção do artificial intelligence generativo está longe de ser uniforme entre as empresas francesas. O tamanho continua sendo um fator determinante. Mas a maioria dos grandes grupos já tomou medidas (estratégia, PoC, etc.); apenas alguns ainda estão atrasados."
Hanan Ouazan, líder da Generative AI na Artefact

Em contrapartida, as VSEs e as PMEs são mais hesitantes. "Nem todas as organizações estão no mesmo comprimento de onda", ressalta Hanan. "As grandes empresas são as primeiras a abordar o assunto. Mas isso não significa que os 'grandes' conseguiram domar a tecnologia com sucesso."

A complexidade da industrialização

"Há um ano, já havíamos previsto a principal dificuldade dos projetos generativos do AI , ou seja, sua industrialização. [...] Há alguns anos, uma PoC no artificial intelligence [clássico] levava de três a quatro meses. Para a GenAI, duas ou três semanas podem ser suficientes. A industrialização, por outro lado, é uma história completamente diferente. As empresas estão percebendo as limitações das iniciativas de PoC."

AIIsso é agravado pelo problema da adoção, especialmente para soluções "incorporadas", como o Copilots. O uso não é um dado adquirido. Além disso, o ROI dessas ferramentas ainda não foi determinado.
As soluções internas, ou seja, "fabricadas" em vez de "compradas", também não estão imunes aos problemas de adoção.

Apesar desses obstáculos, alguns setores estão se mostrando dinâmicos no que diz respeito à geração de AI, incluindo varejo e produtos de luxo. Mesmo que, neste último, o progresso tenha sido menor do que o inicialmente esperado, de acordo com o especialista em GenAI do Artefact. Diz-se que os setores bancário e de saúde estão mais atrasados, mas isso se deve principalmente a problemas de nuvem e conformidade.

RAG, Pesquisa 2.0, Automação, Criatividade: Quatro famílias e quatro maturidades

O progresso em duas velocidades também pode ser observado em nível setorial. De acordo com Hanan, o setor está à frente na corrida pela adoção.

Mas, mesmo entre os participantes mais maduros, a industrialização e o dimensionamento (em termos de adoção e tecnologia) continuam sendo obstáculos. Os casos de uso se concentram em RAGs (Retrieval-Augmented Generation) para recuperação de documentos em "bancos de dados frequentemente negligenciados".

A indexação de conteúdo é destinada a aplicativos internos (para produtividade) e externos (por meio de interfaces de conversação). Hanan cita o exemplo de um fabricante envolvido em um projeto para tornar seu catálogo de produtos acessível aos clientes on-line, por meio de um chatbot.

No varejo, a AI generativa está sendo usada para repensar a pesquisa. A Busca 2.0, baseada na GenAI, transformaria a experiência de busca por meio da expressão de uma necessidade.

Sem citar o nome do varejista, o Artefact está colaborando no projeto de uma solução baseada na busca intencional. "Amanhã, a pesquisa fará parte de uma lógica de experiência", prevê o líder generativo da AI .

Uma terceira categoria de casos de uso é a automação. Isso inclui a análise de mensagens e transcrições das centrais de atendimento do distribuidor para identificar problemas ou irritantes.

"Coletamos todas as chamadas, transcrevemo-las e depois as analisamos para criar um painel de controle. Essa visualização nos permite ver, por exemplo, que 3.000 chamadas são sobre um determinado produto que os clientes acham que é menor do que a imagem na ficha do produto. É possível chegar a esse nível de detalhe."

Anteriormente, essa análise de sentimentos não era suficientemente eficaz. Agora, ela pode até detectar a ironia.

A automação também abrange aplicativos como a análise de tendências em redes sociais ou a captura em tempo real do site data para serviços bancários e seguros de back-office.

A quarta família é a criatividade. "Essa área está menos avançada do que eu esperava, mas está começando a decolar", observa Hanan. Artefact trabalha com clientes para automatizar o marketing direto, como a personalização ("contextualização") de mensagens SMS para gerar assinaturas com base em critérios como o dispositivo do destinatário.

A geração de imagens para publicidade também está surgindo. No entanto, esses usos são prejudicados pela incerteza jurídica em torno dos direitos autorais e do treinamento data para IAs geradoras de imagens. As garantias legais prometidas por alguns editores, incluindo a Adobe, podem remover barreiras nessa área.

As aplicações do AI generativo estão bem formalizadas. Entretanto, o impacto em termos de transformação real precisa ser qualificado, pois poucos projetos estão em produção e menos ainda estão acessíveis aos usuários finais.

"Há uma abundância de ferramentas seguras do tipo GPT. Mas não é a coisa mais difícil de desenvolver. Além disso, como os aplicativos são internos, os riscos são limitados."

Custo, experiência do usuário, qualidade e mudança são fundamentais para a industrialização

Para Hanan Ouazan, a causa dessa avaliação de 2024 é clara: a complexidade da industrialização. Há vários motivos para isso, entre os quais o custo: as taxas de usuário podem aumentar rapidamente.

No entanto, nem todas as empresas previram o ROI de seus casos de uso. O consumo de LLM resulta em despesas que excedem em muito as receitas, sejam elas previstas ou não. E, embora o preço por uso dessas soluções tenha caído significativamente no último ano, elas tornam os aplicativos mais complexos e difíceis de manter ao longo do tempo.

Esse problema de custo pode ser resolvido com a "lógica de otimização" para reduzir o custo de uma conversa com o chatbot, por exemplo. Um bate-papo é cobrado com base no tamanho da pergunta e da resposta. E cada nova pergunta é adicionada ao histórico da conversa, aumentando o custo total de cada consulta.

"Para um cliente industrial, monitoramos cada interação do chatbot. Isso nos permite medir os custos e as causas. Por exemplo, pode ser que o chatbot esteja tendo dificuldade para identificar um produto, o que leva a uma multiplicação de trocas. O monitoramento é essencial para tomar medidas corretivas."

A experiência do usuário também é um parâmetro essencial. Para garantir isso, a latência é importante, mas tem um custo. No Azure, pode ser necessário assinar as PTUs (Provisioned Throughput Units), "recursos gerenciados dedicados e caros".

Não há adoção bem-sucedida sem levar em conta as pessoas

Hanan Ouazan também cita a qualidade como um desafio para a industrialização. Medir e monitorar a qualidade significa "implementar os blocos de construção de avaliação corretos [...] Em determinados caminhos sensíveis do usuário, implantamos um AI cuja função é validar a resposta de outro AI. Os processos de avaliação em tempo real garantem que a qualidade das respostas do gerador AIseja mantida", explica ele. "Também integramos loops de feedback que aproveitam as respostas dos usuários para melhorar os resultados."

A industrialização acaba encontrando o obstáculo humano. O sucesso nesse estágio exige mudanças no processo. Por exemplo, a mudança de um chatbot tradicional para uma versão baseada em AI generativo altera a profissão de atendimento ao cliente.

"Essa mudança precisa ser apoiada, especialmente no processo de validação das respostas do chatbot. Parte da conversa pode ser confiada a um AI para validação. E quando os humanos intervêm, é melhor ajudá-los a reduzir o tempo de processamento. E quando um humano faz anotações, o AI precisa aprender a iniciar um ciclo virtuoso."

Hanan também pede que se apoie a adoção do usuário e que se tenha em mente a experiência do usuário. "A adoção não deve ser dolorosa. Essa é a abordagem que Artefact implementou em um projeto para melhorar a qualidade data em um banco de dados de produtos para um fabricante. As pessoas não devem ter que se adaptar à AI generativa. Cabe ao AI adaptar-se a elas, especialmente à maneira como trabalham."

Por exemplo, a Artefact repensou sua solução de geração de fichas técnicas de produtos, que foi originalmente projetada para se integrar diretamente ao PIM - uma ferramenta pouco apreciada pelos funcionários do projeto citado.

"Nosso método para projetos generativos da AI é selecionar uma empresa e identificar suas tarefas diárias para distinguir aquelas para as quais a AI substituirá o ser humano ou modificará a ferramenta. O desafio é automatizar o que pode ser automatizado e o que é difícil para o trabalho, e aumentar o que pode ser aumentado nas condições de trabalho humano. E isso não pode ser feito sem a interação com o usuário-alvo. Caso contrário, a adoção será nula."

Treinamento do usuário: Ajuste do cursor

E quanto ao treinamento imediato? Para a Hanan, o que importa é o usuário. OArtefact treina os funcionários no método CRAFT (Context, Role, Action, Format, Target Audience), que define o uso correto do AI. Para usuários maduros, é possível treiná-los na operação de modelos e nas ferramentas que os integram. No entanto, algumas populações ainda estão acostumadas com o uso de palavras-chave.

A empresa está instruindo os funcionários sobre a possibilidade de fazer consultas em linguagem natural. Ela também introduziu a reformulação. Quando palavras-chave (código puk) são inseridas, a ferramenta reformula: "Você está procurando seu código puk?"

"Há um controle deslizante e ele precisa ser ajustado de acordo com a população a que a ferramenta se destina. Mas acho que, à medida que os recursos das soluções generativas da AI melhorarem, eventualmente não haverá necessidade de solicitar", esclarece Hanan.

Dois projetos futuros em foco

Em 2024, há duas áreas principais de foco no campo da tecnologia generativa AI. A primeira diz respeito à adoção, identificando mudanças nas ocupações, carreiras e habilidades.

A segunda é o aumento de escala. Isso está sendo testado em dois níveis: governança (priorização das necessidades, ROI e iniciativas de direção) e a plataforma GenAI.

Hanan observa um aumento no número de RAGs, um fenômeno impulsionado pelas muitas PoCs que estão sendo realizadas. Como resultado, as empresas precisarão racionalizar os blocos de construção usados em seus experimentos.

"Amanhã teremos que pensar no RAG como um produto data . Ele tem um lugar como um produto na empresa, assim como o LLM tem um lugar como um produto.

"Muitas pessoas pensaram que a GenAI era algo mágico que as libertaria das restrições do passado. Na realidade, a GenAI traz ainda mais restrições", adverte o especialista do Artefact.

Essa evolução faz parte de um processo contínuo. Depois do DevOps e, em seguida, do MLOps para lidar especificamente com AI, o LLMOps está surgindo agora. "As salvaguardas definidas com MLOps ainda são relevantes. Mas precisamos acrescentá-las para levar em conta os custos, as alucinações e a dimensão generativa dos modelos", conclui Hanan.

Leia o artigo em

class="img-responsive

.