Na AI Artefact AI Artefact , realizada em 20 de abril de 2023, os principais especialistas na área de AI generativa AI seus conhecimentos e trocaram ideias sobre essa nova tecnologia e as maneiras como as empresas podem utilizá-la para aumentar a produtividade de seus negócios.
AI mais recentes AI generativa são capazes de manter conversas sofisticadas com os usuários, criar conteúdo aparentemente original (imagens, áudio, texto) a partir de seus data de treinamento e realizar tarefas manuais ou repetitivas, como redigir e-mails, programar ou sintetizar documentos complexos. É fundamental que os tomadores de decisão desenvolvam hoje uma AI clara e convincente AI generativa e priorizem data e o desenvolvimento de soluções de negócios baseadas em IA generativa.
Organizadores da conferência e palestrantes principais:
AI generativa: explorando novas fronteiras criativas
Em sua introdução à conferência, Vincent Luciani observou: “Pessoas em todo o mundo estão entusiasmadas com essa nova tecnologia e com o impacto que ela terá nas organizações e nos funcionários. Até agora, o que tínhamos em termos de AI aplicações relativamente determinísticas, complementadas pelo aprendizado de máquina. Conseguíamos prever, personalizar e otimizar, mas não realmente criar.”
“Mas hoje, pela primeira vez, estamos vendo uma interação genuína entre o homem e a máquina. Agora, uma forma real de inteligência está surgindo dessa tecnologia e desses algoritmos, mesmo que a comunidade científica esteja dividida quanto à questão de se trata-se de uma revolução ou de uma evolução…
“Já falamos sobre seres humanos aumentados ou atividades aumentadas: em breve, falaremos sobre negócios aumentados.” Antes de apresentar uma rápida visão geral dos temas que a conferência abordaria e passar a palavra aos palestrantes principais, ele lembrou ao audience
“Apesar do surgimento constante de novas AI generativa, é fundamental ter moderação: uma transformação empresarial bem-sucedida não acontece da noite para o dia; ela exige reflexão, pesquisa e preparação.”Vincent Luciani, CEO e cofundador da Artefact
Perspectivas e oportunidades no AI generativa
A primeira palestrante principal, Hanan Ouazan, começou com uma visão geral dos modelos de texto, partindo do revolucionário artigo do Google de 2017 intitulado“Attention is all you need”, que levou à criação dos Transformers, que são a base de quase todos os grandes modelos de linguagem (LLMs) em uso atualmente. “Como vocês sabem, a pesquisa leva tempo, mas hoje estamos em um período de aceleração, em que vemos novos modelos todos os dias que aproveitam o maior acesso a data infraestrutura.”
Hanan explorou várias facetas da democratização e da acessibilidade dos AI generativa, destacando, em particular, a aceleração da adoção dessa tecnologia: “O ritmo é impressionante: o ChatGPT atingiu 1 milhão de usuários em apenas cinco dias.”
No que diz respeito às estratégias de métodos de treinamento de LLM, ele abordou as vantagens do pré-treinamento, do ajuste fino e da engenharia de prompts, citando casos de uso industrial para cada uma delas e apresentando a matriz de decisão de estratégia de modelos Artefact.

Além do custo de propriedade, do desempenho e das limitações, Hanan também falou sobre gestão da mudança e sobre como AI generativa AI afetar os empregos.
“Isso certamente mudará a nossa forma de trabalhar, mas na Artefact não acreditamos que isso vá acabar com as profissões: pelo contrário, irá potencializar as pessoas que as exercem.”Hanan Ouazan, sócia Data e líder AI Gerativa AI Artefact
Uma plataforma de fotos AI generativa para o comércio eletrônico
O palestrante principal Matthieu Rouif é CEO e cofundador da PhotoRoom, um aplicativo que permite que seus já 80 milhões de usuários criem fotos com qualidade de estúdio usando um smartphone, por meio do Stable Diffusion, uma AI generativa para imagens.
Desde a explosão das plataformas de comércio eletrônico impulsionada pela pandemia da COVID-19, dois bilhões de fotos são editadas todos os anos. E o aplicativo PhotoRoom está desempenhando um papel importante ao automatizar o recorte, a exibição de sombras e a geração de fundos realistas para os comerciantes. “Usamos AI generativa AI oferecer aos clientes fotos que parecem ter sido tiradas por um fotógrafo profissional, chegando até a adicionar fundos exclusivos e realistas AI em menos de um segundo”, diz Matthieu.

“Ajudamos nossos clientes a expandir seus negócios, fornecendo-lhes uma grande variedade de fotos de alta qualidade e baixo custo que respeitam sua marca e apresentam seus produtos da melhor maneira possível, a fim de atrair e fidelizar clientes.”Matthieu Rouif, CEO e cofundador da PhotoRoom
Repensando AI as empresas
Igor Carron é o CEO e cofundador da LightOn, uma empresa francesa responsável pela nova AI generativa Paradigm, que é mais potente que o GPT-3. Ela oferece os modelos mais avançados para a gestão de servidores e data garantindo data data para as empresas.
Em seu discurso de abertura, Igor falou sobre as origens de sua empresa. “Quando criamos a LightOn em 2016, estávamos desenvolvendo hardware que utilizava a luz para realizar cálculos de AI. Era uma abordagem incomum, mas funcionou – nossa Unidade de Processamento Óptico (OPU), o primeiro AI fotônico AI do mundo, já foi utilizada por pesquisadores em todo o mundo e integrada a um dos maiores supercomputadores do mundo.
“Desde 2020, após o surgimento do GPT, temos trabalhado para descobrir como nosso hardware poderia ser usado para criar nossos próprios LLMs – tanto para nosso próprio uso quanto para clientes externos. Aprendemos a criar LLMs e, na verdade, ficamos bastante bons nisso. Mas quando conversamos com as pessoas pela primeira vez em 2021 e 2022, elas não tinham a menor ideia do que era o GPT-3, então tivemos que educar nosso audience.
“Trabalhamos com um cliente para criar um modelo de maior porte, lançado recentemente com 40 bilhões de parâmetros, treinado de maneira única para competir com o GPT-3, mas utilizando muito menos parâmetros. Isso significa que é possível ter uma infraestrutura que exige muito menos recursos de hardware e utilizá-la sem que isso custe os olhos da cara.”
Igor destaca a importância dos grandes modelos de linguagem e afirma:
“Acho que, no futuro, a maioria das empresas utilizará modelos de linguagem de grande escala (LLM)… Essas ferramentas permitirão que elas gerem valor real a partir de seus próprios data.”Igor Carron, CEO e cofundador da LightOn
“O que oferecemos aos clientes hoje é um produto chamado Paradigm: ele permite que as empresas gerenciem seus próprios data dentro de suas organizações e reutilizem esses data retreinar e aprimorar esses modelos. Isso garante que seus processos internos ou produtos possam se beneficiar da inteligência obtida a partir de suas interações com seus LLMs.
“Muitos no ecossistema francês ou europeu dependem da AI ou de outros concorrentes norte-americanos.” Igor adverte: “O perigo de enviar seus data uma API pública é que eles serão reutilizados para treinar modelos sucessivos. Então, digamos que pessoas do setor de mineração, que sabem literalmente onde encontrar ouro, enviem seus reports técnicos reports ela… Em alguns anos, se você perguntar ao ChatGPT-8 ou -9 ou qualquer outro: ‘Onde está o ouro?’, ele dirá onde está o ouro!” Ele recomenda enfaticamente que as empresas comecem a usar os data geram internamente para treinar seus modelos.
Uma estratégia nacional para Artificial Intelligence Generativa
Yohann Ralle, o último palestrante principal, é AI generativa no Ministério da Economia, Finanças e Soberania Industrial e Digital da França. Ele começou explicando sua “fórmula mágica” para desenvolver um LLM de última geração: poder computacional + conjuntos de dados + pesquisa fundamental:
“No que diz respeito ao poder computacional, o governo francês investiu em um bem comum digital, o supercomputador Jean Zay, projetado para atender à AI . Isso possibilitou o treinamento do modelo multilíngue europeu BLOOM.”Yohann Ralle, AI generativa do Ministério da Economia, Finanças e Soberania Industrial e Digital da França.

““No que diz respeito aos conjuntos de dados, iniciativas como o Agdatahub têm ajudado a agregar, anotar e qualificar data de aprendizagem e teste data desenvolver AI eficiente e confiável AI o que também pode contribuir para a competitividade francesa. Quanto à pesquisa fundamental, a estratégia nacional ajudou a estruturar o ecossistema AI e desenvolvimento AI com a criação dos institutos 3IA, o financiamento de contratos de doutorado, o lançamento dos projetos IRT Saint Exupéry e SystemX, diversos programas de formação de estudantes e muito mais em toda a França e na Europa.”
Mesa AI sobre AI generativa moderada por Vincent Luciani, CEO da Artefact
AI já AI no Teste de Turing (ou seja, AI já AI um nível de inteligência comparável ao humano)?
Embora a questão tenha suscitado reações contraditórias, o consenso geral é que, embora haja de fato inteligência, não há intencionalidade.
Matthieu: “Acho que sim… Você sente que há alguém ali, desde que não pergunte sobre datas. Há um aspecto temporal que não funciona.”
Igor: “Minha pergunta é: por que você fez essa pergunta? Porque o teste de Turing não é muito interessante para os negócios. Mas, em termos de interação, sim, pode-se dizer AI no teste.”
Yohann: “O teste de Turing é muito subjetivo. Há um risco quando atribuímos qualidades humanas à AI, quando a antropomorfizamos. Lembrem-se do caso do engenheiro do Google Blake Lemoine, que acreditava que o chatbot LaMDA com quem conversava havia se tornado consciente… O teste de Turing é um exercício interessante, nada mais.”
Hanan: “No que diz respeito ao ChatGPT, estamos chegando perto, mas ainda não chegamos lá.”
A chegada do ChatGPT é uma revolução, uma evolução ou parte de um processo contínuo?
Igor: “Embora o impacto a longo prazo do ChatGPT nos modelos de linguagem de grande escala (LLMs) ainda não possa ser totalmente compreendido, com o tempo surgirão novos usos para essas tecnologias que terão importantes implicações sociais. A discussão é interessante, mas o fator mais importante são os artigos científicos propriamente ditos, que detalharão as melhorias nos LLMs. As aplicações práticas atuais e potenciais desses modelos não devem ser ignoradas nem subestimadas.”
Quais são os casos de uso mais promissores para as empresas? Bots, geração de imagens?
Hanan: “Obviamente, os chatbots sempre foram importantes na AI continuarão sendo um caso de uso relevante, porque agora, com o ChatGPT, é possível configurar um em 48 horas conectando-o a um banco de dados; é incrível. Outro caso de uso é a criação de agentes autônomos capazes de realizar tarefas específicas sem intervenção humana, como um agente de viagens que reserva todos os seus bilhetes, hotéis e restaurantes para uma viagem à Itália.”
Yohann: “Vejo muitas oportunidades para plugins baseados em CGT, como o Kayak ou o Booking. Acho que isso vai reestruturar o ambiente digital, onde a OpenAI vai se tornar a principal agregadora.”
Igor: “Prevejo a possibilidade de personalizar LLMs corporativos. Além data , as empresas começarão a entender como usar data não estruturados e como gerar valor real a partir de seus data com LLMs privados. Ao mesmo tempo, acho que veremos mudanças drásticas na maneira como as pessoas pesquisam e usam a internet graças ao ChatGPT.”
Vincent: Acho que haverá uma fusão entre data corporativos internos data LLMs, formando uma espécie de “Master FAQ+” que poderá ser consultada por meio de pesquisa ou agentes aumentados. O conceito de consultas está evoluindo: amanhã, as pessoas comprarão uma ou várias palavras-chave, ou comprarão um conceito? Na publicidade, o objetivo sempre foi ser baseado nas pessoas, audience; agora, à medida que protegemos data pessoais, estamos caminhando para um modelo baseado no contexto. E isso pode levar a uma publicidade mais interessante.”
Como AI generativa está AI utilizada nas organizações atualmente? Ela está afetando o mercado de trabalho?
Matthieu: “Temos sorte, pois uma de nossas vantagens competitivas é que AI está AI nosso DNA. Incentivamos o uso de ferramentas mais generativas internamente. Nossa equipe técnica usa o Copilot para desenvolvimento, e nossos programadores utilizam tanto o ChatGPT quanto o Copilot. Somos mais criativos com essas ferramentas. Quanto ao quadro de funcionários, estamos crescendo, então planejamos contratar novas pessoas… mas, ao mesmo tempo, quando temos um ótimo software, podemos fazer mais com equipes menores.”
Igor: “Sempre trabalhamos com uma equipe pequena – sete ou oito pessoas – para alcançar os mesmos altos níveis de competência técnica que o Google, por exemplo, onde as equipes são dez vezes maiores. Nossas equipes pequenas têm um impacto totalmente desproporcional. É um equívoco acreditar que é preciso uma equipe grande para alcançar grandes feitos.”
Yohann: “Há dez anos, um estudo norte-americano afirmava que 47% dos empregos seriam perdidos devido à AI 20 anos, mas podemos ver que isso não está acontecendo. Uma pesquisa mais recente da OCDE indicou que esse número está mais próximo de 14%. Acho que devemos pensar em termos de tarefas, não de empregos. Conforme mencionado em um estudo recente da OpenAI, 80% a 90% dos empregos serão afetados pela AI generativa AI mas isso significa, na verdade, que 90% dos funcionários serão afetados em 10% de suas tarefas. O que é interessante é que a noção de profissões que pensávamos serem intocáveis pela AI sendo desafiada, como as das áreas criativa, jurídica, financeira e outras. O governo francês criou o Le LaborIA para ajudar a explorar essas questões.”
Quais são as limitações em termos de soberania e regulamentação para esses modelos?
Hanan: “A primeira limitação diz respeito à Propriedade Intelectual (PI). Atualmente, temos três tipos de modelos: modelos públicos, como o ChatGPT, nos quais os data podem ser utilizados para fins comerciais; modelos privados sem um detentor de PI, como a API do Google no Lambda; e modelos de código aberto instalados pelo próprio usuário. Data é uma questão importante, uma vez que o GPT e o PaLM não são de propriedade europeia, mas sim americana.”
Yohann: “A regulamentação é uma questão importante na Europa. A Itália proibiu totalmente o uso do ChatGPT enquanto se aguarda uma investigação para determinar se o aplicativo está em conformidade com as normas de privacidade do GDPR. A OpenAI precisa ser extremamente clara quanto ao uso de data pessoais data por exemplo, um aviso informando que utiliza data pessoais data permitindo que os usuários optem por não participar data e que possam data. Outra questão relacionada às limitações dos LLMs são as alucinações: eles frequentemente dão respostas erradas, o que pode ser grave se a solicitação disser respeito a uma figura pública e o modelo gerar uma notícia falsa que possa causar danos reais à pessoa em questão.”
Vincent: “Você já se aprofundou na questão da propriedade intelectual e nos problemas levantados pelo processo movido pela Getty Images contra a Stability AI? Há muitas dúvidas sobre a coleta de imagens da internet para treinar modelos…”
Yohann: “Estamos pensando nisso. O código aberto pode ser uma forma de criar bancos de dados e conjuntos de dados transparentes e livres de direitos autorais, que respeitem a propriedade intelectual.”
Matthieu: “No que diz respeito a data pessoais data produtos: o que permite que o ChatGPT, o Midjourney ou o PhotoRoom funcionem bem não são data pessoais, mas o feedback dos clientes.”
Yohann: “O feedback dos usuários é ideal, mas coletá-lo é extremamente caro no caso dos LLMs.”
Igor: “Onde está o dinheiro? Essa é a minha pergunta. Todos os problemas que você levantou são de natureza técnica, e não podemos resolvê-los até termos os recursos necessários para contratar engenheiros e criar um ecossistema, e simplesmente ainda não estamos preparados para isso.”
Com cada vez mais LLMs sendo desenvolvidos, você acha que haverá uma “guerra” das GPUs?
Yohann: “É um risco real. Neste momento, a NVIDIA detém o monopólio aqui; eles controlam o mercado e os preços. Infelizmente, não há concorrentes de verdade na Europa. Trata-se de um recurso limitado por definição, um recurso escasso, por isso é uma batalha séria.”
Matthieu: “A falta de disponibilidade de GPUs limita severamente não só a nossa produtividade, mas também o crescimento das empresas em toda a Europa.”
Igor: “Como começamos como fabricantes de hardware, já enfrentamos esse problema em 2016… Hoje, há pessoas que trabalham para nossos concorrentes cuja função principal é conseguir GPUs suficientes para treinar modelos… O mercado está em franca expansão, mas a produção de chips não consegue acompanhar o ritmo – em nenhum lugar do mundo.”
Hanan: “Inevitavelmente haverá um gargalo na GPU, mas podemos aprender a ser mais eficientes; precisamos ser. E precisamos ver como podemos integrar o código aberto às nossas empresas, não apenas como usar todas as tecnologias mais recentes.”
Onde você vê maior potencial para o futuro? Nos modelos de código aberto? Nos LLMs?
Matthieu: “Na PhotoRoom, usamos código aberto, o que nos permite avançar mais rápido e desenvolver nossa própria propriedade intelectual. Contamos com uma grande comunidade do Hugging Face em Paris que nos dá um feedback essencial.”
Igor: “Usamos LLMs, mas não estamos presos a esse modelo de negócios. Poderíamos usar código aberto. O importante é ser capaz e saber como reutilizar nossos data proprietários data treinar modelos futuros. O objetivo é uma indústria que personalize esses modelos para outras empresas.”
Yohann: “A evolução do código aberto em comparação com o software proprietário impulsionou AI generativa. A AI trabalhou em conjunto para que outros atores pudessem se beneficiar dessa pesquisa fundamental para construir seus próprios modelos. Eu me pergunto se o desempenho desses modelos de código aberto não ficará aquém do desempenho dos modelos proprietários, mas isso pode mudar. De qualquer forma, é de se perguntar se o Google não se arrepende de ter aberto as portas para sua tecnologia ChatGPT!”
A mesa redonda foi seguida por uma sessão audience e respostas audience , com uma discussão particularmente animada sobre a escassez de mulheres no setor de tecnologia. Yohann detalhou várias medidas que estão sendo adotadas pelo governo francês na área da educação, voltadas especificamente para meninas e mulheres, enquanto Vincent falou sobre o que está sendo feito pela Artefact of Data, pela iniciativa Artefact e por outras empresas de tecnologia para tentar corrigir essa situação.
Foram levantadas outras questões sobre a inclusão no uso de LLMs por pessoas com autismo e outras deficiências; o problema das AI ; as medidas que as empresas planejam implementar para proteger o meio ambiente; e o papel da Europa em comparação com a França no que diz respeito à coleta de data na internet. Para ver como os participantes responderam a essas perguntas, assista replay da conferência.

BLOG






