Artefact Research Center
Die Kluft zwischen Wissenschaft und industriellen Anwendungen überbrücken.

Forschung zu transparenteren und ethischeren Modellen zur Förderung der Einführung AI .

Beispiele für AI
- AppleCard vergibt Hypotheken nach rassistischen Kriterien
- Lensa AI Selfies von Frauen
- Rassistische Bildklassifizierung auf Facebook, bei der Afroamerikaner als Affen dargestellt werden
- Microsofts Twitter-Chatbot wird nazistisch, sexistisch und aggressiv
- ChatGPT, das einen Code schreibt, in dem behauptet wird, gute Wissenschaftler seien weiße Männer
Aktuelle Herausforderung
AI sind in vielen Anwendungsfällen präzise und einfach zu implementieren, bleiben jedoch aufgrund von Black-Box-Problematiken und ethischen Bedenken unkontrollierbar.
Die MissionResearch Center Artefact Research Center.
Ein umfassendes Ökosystem, das die Lücke zwischen
Grundlagenforschung und konkreten industriellen Anwendungen schließt.


Emmanuel MALHERBE
Leiter der Forschungsabteilung
Forschungsgebiet: Deep Learning, maschinelles Lernen
Ausgehend von seiner Promotion über NLP-Modelle für die Online-Personalbeschaffung hat Emmanuel stets nach einem ausgewogenen Verhältnis zwischen reiner Forschung und wirkungsvollen Anwendungen gesucht. Zu seinen Forschungserfahrungen zählen 5G-Zeitreihenprognosen für Huawei Technologies sowie Computer-Vision-Modelle für Friseur- und Make-up-Kunden bei L’Oréal. Bevor er zu Artefact kam, war er in Shanghai als Leiter AI bei L’Oréal Asia tätig. Heute Artefact seine Position bei Artefact die perfekte Gelegenheit und ein ideales Umfeld, um die Kluft zwischen Wissenschaft und Industrie zu überbrücken und seine praxisorientierte Forschung voranzutreiben, während er gleichzeitig Einfluss auf industrielle Anwendungen nimmt.
Lesen Sie unsere neuestenResearch Center ausResearch Center Artefact Research Center
Interdisziplinäre Forschungsbereiche
Mit unserer einzigartigen Positionierung wollen wir uns den allgemeinen Herausforderungen der AI stellen, sei es im Bereich der statistischen Modellierung oder der Managementforschung.
Diese Fragen ziehen sich quer durch alle unsere Fachgebiete und beflügeln unsere Forschung.
Ein umfassendes Ökosystem, das die Lücke zwischen Grundlagenforschung und konkreten Anwendungen in der Industrie schließt.

Themen
Wir bearbeiten verschiedene Promotionsthemen an der Schnittstelle zwischen industriellen Anwendungsfällen und den Grenzen des aktuellen Stands der Technik.
Bei jedem Thema arbeiten wir mit Universitätsprofessoren zusammen und haben Zugang zu data , data es uns ermöglichen, die wichtigsten Forschungsbereiche in einem konkreten Praxisszenario zu untersuchen.
1 — Prognosen und Preisgestaltung
Modellieren Sie die Zeitreihen als Ganzes mit einem steuerbaren, multivariaten Prognosemodell. Eine solche Modellierung ermöglicht es uns, die Preisgestaltung und die Werbeplanung anzugehen, indem wir die optimalen Parameter ermitteln, die die Umsatzprognose steigern. Mit einem solchen ganzheitlichen Ansatz wollen wir Kannibalisierungseffekte und Komplementaritäten zwischen Produkten erfassen. Dies ermöglicht es uns, die Prognose so zu steuern, dass die Konsistenz der Vorhersagen gewährleistet ist.
2 — Nachvollziehbare und kontrollierbare Bewertung
Eine weit verbreitete Familie von Modellen des maschinellen Lernens basiert auf Entscheidungsbäumen: Random Forests und Boosting. Obwohl ihre Genauigkeit oft dem neuesten Stand der Technik entspricht, leiden solche Modelle unter einem „Black-Box“-Charakter, der dem Nutzer nur begrenzte Kontrollmöglichkeiten lässt. Unser Ziel ist es, ihre Erklärbarkeit und Transparenz zu verbessern, typischerweise durch eine optimierte Schätzung der SHAP-Werte bei unausgewogenen Datensätzen. Außerdem wollen wir gewisse Garantien für solche Modelle bieten, z. B. für Proben außerhalb des Trainingsdatensatzes oder durch die Einführung besserer monotoner Beschränkungen.
3 — Sortimentsoptimierung
Das Sortimentsangebot stellt für Einzelhändler ein großes geschäftliches Problem dar, das bei der Auswahl der in den Geschäften zu verkaufenden Produkte auftritt. Mithilfe großer industrieller Datensätze und neuronaler Netze wollen wir robustere und besser interpretierbare Modelle entwickeln, die das Entscheidungsverhalten der Kunden angesichts eines Produktangebots besser erfassen. Die Berücksichtigung von Kannibalisierungseffekten und Komplementaritäten zwischen Produkten sowie ein besseres Verständnis von Kundenclustern sind entscheidend für die Ermittlung eines optimalen Produktangebots in einem Geschäft.
4 – AI in Unternehmen
Die Herausforderung bei der besseren Einführung von AI Unternehmen besteht darin, einerseits die AI zu verbessern und andererseits die menschlichen und organisatorischen Aspekte zu verstehen. An der Schnittstelle zwischen qualitativer Managementforschung und Sozialforschung versucht dieser Forschungsschwerpunkt zu untersuchen, wo Unternehmen bei der Einführung AI auf Schwierigkeiten stoßen. Die bestehenden Rahmenkonzepte zur Innovationsakzeptanz sind für Innovationen im Bereich des maschinellen Lernens nicht uneingeschränkt geeignet, da es im Zusammenhang mit AI – und insbesondere bei generativer AI – typische Unterschiede hinsichtlich Regulierung, Mitarbeiterschulung oder Vorurteilen gibt.
5 – Data Nachhaltigkeit
Das Projekt wird qualitative und quantitative Forschungsmethoden einsetzen und sich mit zwei zentralen Fragen befassen: Wie können Unternehmen ihre Leistung im Bereich der sozialen und ökologischen Nachhaltigkeit effektiv messen? Warum führen Nachhaltigkeitsmaßnahmen oft nicht zu wesentlichen Veränderungen in den organisatorischen Praktiken?
Einerseits zielt das Projekt darauf ab, data Kennzahlen zu untersuchen und Indikatoren zu ermitteln, um organisatorische Abläufe mit den Zielen der sozialen und ökologischen Nachhaltigkeit in Einklang zu bringen. Andererseits wird sich das Projekt darauf konzentrieren, diese Nachhaltigkeitsmaßnahmen in konkrete Maßnahmen innerhalb der Unternehmen umzusetzen.
6 – Verzerrungen in der Bildverarbeitung
Wenn ein Modell auf der Grundlage eines Bildes eine Vorhersage trifft – beispielsweise bei der Darstellung eines Gesichts –, hat es Zugriff auf sensible Informationen wie ethnische Zugehörigkeit, Geschlecht oder Alter, die seine Schlussfolgerungen verzerren können. Unser Ziel ist es, ein Rahmenwerk zu entwickeln, mit dem sich solche Verzerrungen mathematisch messen lassen, und Methoden vorzuschlagen, um diese Verzerrungen während des Modelltrainings zu reduzieren. Darüber hinaus würde unser Ansatz Bereiche mit starken Verzerrungen statistisch aufdecken, um zu erklären, zu verstehen und zu kontrollieren, wo solche Modelle die in den data vorhandenen Verzerrungen verstärken.
7 – LLM für die Informationsgewinnung
Eine wichtige Anwendungsmöglichkeit von LLMs besteht in der Kombination mit einem Dokumentenkorpus, der bestimmtes Fachwissen oder Informationen enthält. In einem solchen Fall ist ein Schritt der Informationsgewinnung erforderlich, bei dem LLMs gewisse Einschränkungen aufweisen, beispielsweise hinsichtlich der Länge des Eingabetextes, der für die Indizierung von Dokumenten zu kurz ist. Ebenso kann es bei der endgültigen Antwort zu Halluzinationen kommen, die wir mithilfe des abgerufenen Dokuments und der Modellunsicherheit zum Zeitpunkt der Inferenz zu erkennen versuchen.
Die Teilzeitforscher Artefact
Neben unserem Forschungsteam arbeiten mehrere Mitarbeiter bei uns, die sich zeitweise der wissenschaftlichen Forschung widmen und Fachartikel veröffentlichen. Durch ihre Tätigkeit als Berater erhalten sie Einblicke in die praktischen Probleme, mit denen unsere Kunden konfrontiert sind.
Veröffentlichungen
Medium-Blogartikel unserer Technologieexperten.
Wird die Zukunft der agentenbasierten AI auf Wissensgraphen AI ?
Während Unternehmen sich beeilen, AI in die Praxis umzusetzen, stellen die meisten fest, dass ihre data nie für autonomes Schlussfolgern ausgelegt war. Heute sind bis zu 80 % der AI ...
Das Heimwerkererlebnis bereichern: Wie ADEO AI nutzt, AI Inhalte und Wissen miteinander zu verknüpfen
Die Sortimentsoptimierung ist ein entscheidender Prozess im Einzelhandel, bei dem es darum geht, die ideale Produktpalette zusammenzustellen, um der Verbrauchernachfrage gerecht zu werden, und dabei die zahlreichen logistischen Aspekte zu berücksichtigen...
MotherDuck im Überblick: Wie sich die AI Analyselösung der nächsten Generation in Ihren Data einfügt
MotherDuck erweitert die Analysefunktionen von DuckDB auf die cloud Funktionen für die Zusammenarbeit. Das Ergebnis ist eine viermal höhere Leistung als bei BigQuery sowie Kosteneinsparungen gegenüber herkömmlichen data durch...
Sortimentsoptimierung mit diskreten Wahlmodellen in Python
Die Sortimentsoptimierung ist ein entscheidender Prozess im Einzelhandel, bei dem es darum geht, die ideale Produktpalette zusammenzustellen, um der Verbrauchernachfrage gerecht zu werden, und dabei die zahlreichen logistischen Aspekte zu berücksichtigen...
Ist die Präferenzanpassung immer die beste Option zur Verbesserung der Übersetzung mit großen Sprachmodellen? Eine empirische Analyse
Neuronale Metriken zur Bewertung maschineller Übersetzung (MT) gewinnen zunehmend an Bedeutung, da sie im Vergleich zu herkömmlichen lexikalischen Metriken eine bessere Übereinstimmung mit menschlichen Bewertungen aufweisen
Choice-Learn: Groß angelegte Entscheidungsmodellierung für betriebliche Kontexte unter Einbeziehung von maschinellem Lernen
Diskrete Wahlmodelle zielen darauf ab, die Entscheidungen von Individuen aus einer Reihe von Alternativen, dem sogenannten Angebot, vorherzusagen. Zu den bekannten Anwendungsfällen gehört die Vorhersage einer...
Das Zeitalter der generativen AI: Was sich verändert
Die Fülle und Vielfalt der Reaktionen auf ChatGPT und andere generative KI-Systeme – seien sie nun skeptisch oder begeistert – zeigen, welche Veränderungen sie bewirken und welche Auswirkungen sie haben...
Wie Artefact , ein gerechtes und zugleich einfaches Karrieresystem für Softwareentwickler zu entwickeln
In der heutigen dynamischen und sich ständig weiterentwickelnden Technologiebranche kann sich der berufliche Werdegang oft wie ein gewundener Pfad durch einen dichten Wald voller Möglichkeiten anfühlen. Angesichts der rasanten...
Warum Sie LLMOps brauchen
Dieser Artikel stellt LLMOps vor, einen speziellen Zweig, der DevOps und MLOps miteinander verbindet, um die Herausforderungen zu bewältigen, die sich durch große Sprachmodelle (LLMs) ergeben...
Die Leistungsfähigkeit der LangChain Expression Language (LCEL) voll ausschöpfen: vom Proof of Concept bis zur Produktion
LangChain hat sich in weniger als einem Jahr zu einer der meistgenutzten Python-Bibliotheken für die Interaktion mit LLMs entwickelt, doch LangChain war ursprünglich vor allem eine Bibliothek...
Wie wir die Abgleichung von Profil-IDs mithilfe von Treasure Data und SQL durchgeführt haben
In diesem Artikel erläutern wir die Herausforderungen bei der ID-Abgleichung und stellen unseren Ansatz zur Erstellung einer einheitlichen Profil-ID in Data Customer Data vor, insbesondere...
Snowflake’s Snowday ’23: Mit Schwung zum Erfolg in Data
Wenn wir über die Erkenntnisse nachdenken, die während der „Snowday“-Veranstaltung am 1. und 2. November ausgetauscht wurden, ergibt sich eine ganze Reihe spannender Einblicke in die Zukunft von...




















































