Skaff is een incubator
voor Artefact technische producten
De technische leveringsstandaarden verhogen.
Commercieel succes verbeteren.
artefact consolideren als toonaangevende data.

Skaff biedt open source kennis en inzetbare oplossingen om fundamentele technische problemen op te lossen
Er is een aanzienlijke technische overhead voordat data en AI projecten hun waarde kunnen aantonen.
Skaff erkent dit fundamentele werk en bouwt acceleratoren van hoge kwaliteit om het bouwen en implementeren te stroomlijnen, zodat teams zich kunnen richten op werk dat waarde toevoegt.
Kennis
Pakketten
Een vliegende start
Versnel je kennismaking met een technologie of expertise door een van onze kennispakketten te doorlopen.
Wat zit er in de doos?
Kennispakketten bevatten een hands-on van 45 minuten,
en onze collectieve overtuigingen over hoe
het onderwerp te benaderen.
Probeer er een
Implementeerbare pakketten
Snijd door de boilerplate heen
Versnel de ontwikkeling en industrialisatie van data projecten door gebruik te maken van open source software.
Hoe ziet het eruit?
Deze versnellers kunnen Python-pakketten zijn,
Terraform modules, Git repository sjablonen,
dashboard wireframes en nog veel meer.
Probeer er een
Versnel uw Gen AI app met behulp van
onze Langchain industrialisatiekit.
Succesverhalen
Privé vermogen
Door gebruik te maken van de GenAI-versnellers van Skaff toonde een team van Artefact al snel aan dat er veel tijd kon worden bespaard door ongestructureerde data te indexeren en te doorzoeken op fusies en overnames.
Analisten konden vragen stellen over due diligence documenten, marktonderzoeken, interviews met experts en andere reports in natuurlijke taal. Hierdoor kan informatie gemakkelijk worden vergeleken, wat de productiviteit sterk verbetert.
Greenlit om op te schalen naar 1500 gebruikers.
Consumentenpracht
Bij het bouwen van een data platform om marketing use cases te ondersteunen, versnelde het gebruik van Skaff accelerators de implementatie van data lakes, data pipelines, toegangscontrole, finops en data governance.
Nu dit in enkele dagen was afgehandeld in plaats van weken of maanden, konden de ingenieurs van data zich richten op het bouwen van data producten en het bedienen van strategische use cases voor het merk.
RETAIL
Voor het analyseren van data streaming van verkooppunten in een use case voor fraudedetectie werd de dbt-serveraccelerator van Skaff gebruikt voor het implementeren en plannen van de analysepijplijn.
Hierdoor kon het Artefact team snel inzicht krijgen in fraudedetectie en andere incidenten.
Dankzij deze versneller konden ze weken aan ontwikkelingstijd besparen en zich concentreren op hun product.
Medium blogartikelen van onze technische experts
Assortimentoptimalisatie met discrete keuzemodellen in Python
Assortimentoptimalisatie is een cruciaal proces in de detailhandel waarbij de ideale mix van producten wordt samengesteld om aan de vraag van de consument te voldoen, rekening houdend met de vele logistieke...
Is Preference Alignment altijd de beste optie om LLM-gebaseerd vertalen te verbeteren? Een empirische analyse
Neurale meetmethoden voor de evaluatie van machinevertaling (MT) worden steeds prominenter vanwege hun superieure correlatie met menselijke beoordelingen in vergelijking met traditionele lexicale meetmethoden.
Keuze-leren: Grootschalige keuzemodellering voor operationele contexten door de lens van machinaal leren
Discrete keuzemodellen zijn gericht op het voorspellen van keuzebeslissingen die individuen maken uit een menu van alternatieven, een zogenaamd assortiment. Bekende toepassingen zijn het voorspellen van een...
Het tijdperk van generatieve AI: Wat verandert er?
De overvloed en diversiteit van reacties op ChatGPT en andere generatieve AI's, of ze nu sceptisch of enthousiast zijn, tonen de veranderingen die ze teweegbrengen en de impact...
Hoe Artefact erin slaagde een eerlijk maar eenvoudig carrièresysteem voor software-ingenieurs te ontwikkelen
In de dynamische en steeds veranderende technologiesector van vandaag kan een carrièrepad vaak aanvoelen als een kronkelend pad door een dicht woud van mogelijkheden. Met snelle...
Waarom je LLMOps nodig hebt
Dit artikel introduceert LLMOps, een gespecialiseerde tak die DevOps en MLOps samenvoegt om de uitdagingen van Large Language Models (LLM's) aan te gaan...
De kracht van LangChain Expression Language (LCEL) ontketenen: van proof of concept naar productie
LangChain is in minder dan een jaar uitgegroeid tot een van de meest gebruikte Python-bibliotheken voor interactie met LLM's, maar LangChain was vooral een bibliotheek...
Hoe we de reconciliatie van profiel-ID's afhandelden met behulp van Treasure Data Unification en SQL
In dit artikel leggen we de uitdagingen van ID-reconciliatie uit en demonstreren we onze aanpak om een eenduidig profiel-ID te maken in het Customer Data Platform,...
Snowflake's Snowday '23: Snowballing into Data Wetenschappelijk succes
Terwijl we nadenken over de inzichten die zijn gedeeld tijdens het 'Snowday'-evenement op 1 en 2 november, is er een stroom van spannende onthullingen over de toekomst van...
Hoe we software engineers interviewen en aannemen bij Artefact
We bespreken de vaardigheden waarnaar we op zoek zijn, de verschillende stappen van het proces en de beloften die we aan alle kandidaten doen.
Het coderen van categorische kenmerken in voorspellingen: doen we het allemaal verkeerd?
We stellen een nieuwe methode voor om categorische kenmerken te coderen die specifiek is afgestemd op voorspellingstoepassingen.
Hoe we een eenvoudig bewakingssysteem voor wilde dieren implementeerden op Google Cloud
We hebben samengewerkt met Smart Parks, een Nederlandse organisatie die geavanceerde sensoroplossingen biedt voor het behoud van bedreigde wilde dieren...