A Skaff é uma incubadora
para Artefact produtos técnicos
Elevar os padrões de entrega técnica.
Melhorar o sucesso comercial.
Consolidar a artefact como líder data.
A Skaff fornece conhecimento de código aberto e soluções implementáveis para resolver problemas técnicos fundamentais
Há uma sobrecarga técnica significativa antes que os projetos data e AI possam demonstrar valor
A Skaff reconhece esse trabalho fundamental e cria aceleradores de alta qualidade para simplificar a criação e a implantação, permitindo que as equipes se concentrem no trabalho de valor agregado.
Conhecimento
Pacotes
Comece a correr
Acelere sua integração em uma tecnologia ou conhecimento especializado percorrendo um de nossos pacotes de conhecimento.
O que há na caixa?
Os pacotes de conhecimento incluem um treinamento prático de 45 minutos,
e nossas convicções coletivas sobre como
abordar o assunto.
Experimente um
Pacotes implementáveis
Elimine o clichê
Acelerar o desenvolvimento e a industrialização de projetos data usando software de código aberto disponível no mercado.
Qual é a aparência?
Esses aceleradores podem ser pacotes Python,
módulos Terraform, modelos de repositório Git,
wireframes de painéis de controle e muito mais.
Experimente um
Acelere seu aplicativo Gen AI usando
nosso kit de industrialização Langchain.
Histórias de sucesso
Patrimônio privado
Aproveitando os aceleradores GenAI da Skaff, uma equipe da Artefact demonstrou rapidamente a grande economia de tempo que poderia ser obtida por meio da indexação e consulta de data não estruturado para fusões e aquisições.
Os analistas puderam fazer perguntas sobre documentos de due diligence, estudos de mercado, entrevistas com especialistas e outros reports em linguagem natural. Isso permite o cruzamento de informações com facilidade, aumentando consideravelmente a produtividade.
Autorização verde para escalar até 1.500 usuários.
Beleza do consumidor
Ao criar uma plataforma data para dar suporte a casos de uso de marketing, o uso dos aceleradores da Skaff acelerou a implantação de data lakes, data pipelines, controle de acesso, finops e data governance.
Com isso resolvido em questão de dias, em vez de semanas ou meses, os engenheiros da data puderam se concentrar na criação de produtos data e atender a casos de uso estratégicos para a marca.
VAREJO
Para analisar o fluxo de data dos pontos de venda em um caso de uso de detecção de fraude, o acelerador de servidor dbt da Skaff foi usado para implantar e programar o pipeline de análise.
Isso permitiu que a equipe do Artefact obtivesse rapidamente insights sobre eventos de detecção de fraudes e outros incidentes
O fato de ter esse acelerador pronto para ser usado permitiu que eles reduzissem semanas do tempo de desenvolvimento e se concentrassem em seu produto.
Artigos de blog da mídia escritos por nossos especialistas em tecnologia
O alinhamento de preferências é sempre a melhor opção para aprimorar a tradução baseada em LLM? Uma análise empírica
As métricas neurais para avaliação de tradução automática (MT) têm se tornado cada vez mais proeminentes devido à sua correlação superior com julgamentos humanos em comparação com as métricas lexicais tradicionais
Choice-Learn: Modelagem de escolha em larga escala para contextos operacionais através das lentes do aprendizado de máquina
Os modelos de escolha discreta têm como objetivo prever as decisões de escolha tomadas por indivíduos em um menu de alternativas, chamado de variedade. Casos de uso bem conhecidos incluem a previsão de uma...
A era do generativo AI: O que está mudando
A abundância e a diversidade de respostas ao ChatGPT e a outras IAs generativas, sejam elas céticas ou entusiasmadas, demonstram as mudanças que elas estão provocando e o impacto...
Como a Artefact conseguiu desenvolver um sistema de carreira justo e simples para engenheiros de software
No atual setor de tecnologia, dinâmico e em constante evolução, uma carreira pode parecer um caminho sinuoso em meio a uma densa floresta de oportunidades. Com a rápida...
Por que você precisa de LLMOps
Este artigo apresenta o LLMOps, um ramo especializado que mescla DevOps e MLOps para gerenciar os desafios apresentados pelos modelos de linguagem grandes (LLMs)...
Liberando o poder da LangChain Expression Language (LCEL): da prova de conceito à produção
A LangChain se tornou uma das bibliotecas Python mais usadas para interagir com LLMs em menos de um ano, mas a LangChain era principalmente uma biblioteca...
Como lidamos com a reconciliação de ID de perfil usando o Treasure Data Unification e SQL
Neste artigo, explicamos os desafios da reconciliação de IDs e demonstramos nossa abordagem para criar um ID de perfil unificado na plataforma Customer Data , especificamente...
Snowflake's Snowday '23: Snowballing into Data Science Success
Ao refletirmos sobre as percepções compartilhadas durante o evento "Snowday", realizado nos dias 1º e 2 de novembro, uma cascata de revelações empolgantes sobre o futuro da...
Como entrevistamos e contratamos engenheiros de software na Artefact
Explicamos as habilidades que estamos procurando, as diferentes etapas do processo e os compromissos que assumimos com todos os candidatos.
Codificação de características categóricas na previsão: estamos todos fazendo isso errado?
Propomos um novo método para codificar recursos categóricos especificamente adaptados para aplicativos de previsão.
Como implantamos um sistema simples de monitoramento da vida selvagem no Google Cloud
Colaboramos com a Smart Parks, uma empresa holandesa que fornece soluções avançadas de sensores para conservar a vida selvagem ameaçada...
Implementando o Stable Diffusion no Vertex AI
Este artigo fornece um guia para a implantação do modelo Stable Diffusion, um modelo popular de geração de imagens, no Google Cloud usando o Vertex AI.