Artefact Research Center
Tender puentes entre el mundo académico y las aplicaciones industriales.

Investigación sobre modelos más transparentes y éticos para fomentar la adopción AI .

Ejemplos de AI
- AppleCard concede hipotecas basándose en criterios racistas
- Lensa AI los selfies de las mujeres
- Imágenes racistas en Facebook en las que se representa a afroamericanos como monos
- El chatbot de Twitter de Microsoft se está volviendo nazi, sexista y agresivo
- ChatGPT que escribe un código en el que se afirma que los buenos científicos son hombres blancos
Reto actual
AI son precisos y fáciles de implementar en muchos casos de uso, pero siguen siendo incontrolables debido a las «cajas negras» y a cuestiones éticas.
La misiónResearch Center Artefact .
Un ecosistema completo que tiende un puente entre
la investigación fundamental y las aplicaciones industriales concretas.


Emmanuel MALHERBE
Jefe de Investigación
Área de investigación: Aprendizaje profundo, aprendizaje automático
Desde que realizó su doctorado sobre modelos de PLN adaptados a la selección de personal online, Emmanuel siempre ha buscado un equilibrio eficaz entre la investigación pura y las aplicaciones de gran impacto. Su experiencia investigadora incluye la predicción de series temporales en 5G para Huawei Technologies y modelos de visión artificial para clientes de peluquería y maquillaje en L’Oréal. Antes de incorporarse Artefact, trabajó en Shanghái como director de AI para L’Oréal Asia. Hoy en día, su puesto en Artefact una oportunidad perfecta y un entorno ideal para tender puentes entre el mundo académico y la industria, y para fomentar su investigación aplicada al mundo real al tiempo que influye en las aplicaciones industriales.
LeeResearch Center últimasResearch Center delResearch Center Artefact
Áreas de investigación transversales
Gracias a nuestro posicionamiento único, nuestro objetivo es abordar los retos generales de AI, ya sea en el ámbito de la modelización estadística o de la investigación en gestión.
Estas cuestiones son transversales a todas nuestras áreas y alimentan nuestra investigación.
Un ecosistema completo que tiende un puente entre la investigación fundamental y las aplicaciones prácticas de la industria.

Temas
Trabajamos en varios temas de doctorado que se sitúan en la intersección entre los casos de uso industriales y las limitaciones de la tecnología más avanzada.
Para cada tema, colaboramos con profesores universitarios y contamos con acceso a data industriales data nos permiten abordar las principales áreas de investigación en un escenario real concreto.
1 — Previsiones y fijación de precios
Modelar las series temporales en su conjunto mediante un modelo de previsión multivariante y controlable. Este modelo nos permitirá abordar la planificación de precios y promociones mediante la determinación de los parámetros óptimos que aumenten la previsión de ventas. Con este enfoque holístico, nuestro objetivo es captar la canibalización y la complementariedad entre productos. Esto nos permitirá controlar la previsión con la garantía de que las predicciones se mantengan coherentes.
2 — Puntuación explicable y controlable
Una familia de modelos de aprendizaje automático muy utilizada se basa en los árboles de decisión: los bosques aleatorios y el boosting. Aunque su precisión suele ser de vanguardia, estos modelos adolecen de una sensación de «caja negra», lo que limita el control del usuario. Nuestro objetivo es aumentar su explicabilidad y transparencia, normalmente mejorando la estimación de los valores SHAP en el caso de conjuntos de datos desequilibrados. También pretendemos ofrecer ciertas garantías para dichos modelos, por ejemplo, para muestras ajenas al entrenamiento o mediante la aplicación de mejores restricciones monótonas.
3 — Optimización del surtido
La selección de surtido es un problema empresarial fundamental para los minoristas que surge a la hora de elegir el conjunto de productos que se venderán en las tiendas. Mediante el uso de grandes conjuntos de datos industriales y redes neuronales, nuestro objetivo es crear modelos más sólidos e interpretables que reflejen mejor las decisiones de los clientes ante una variedad de productos. Abordar la canibalización y las complementariedades entre productos, así como comprender mejor los grupos de clientes, es clave para encontrar un conjunto de productos más óptimo en una tienda.
4 — AI en las empresas
El reto de una mejor adopción de AI las empresas consiste, por un lado, en mejorar los AI y, por otro, en comprender los aspectos humanos y organizativos. En la encrucijada entre la investigación cualitativa en gestión y la investigación social, este eje pretende explorar dónde encuentran dificultades las empresas a la hora de adoptar AI . Los marcos existentes sobre la adopción de innovaciones no son del todo adecuados para las innovaciones en aprendizaje automático, ya que existen diferencias características en materia de regulación, formación del personal o sesgos cuando se trata de AI, y más aún en el caso de AI generativa.
5 — Sostenibilidad Data
El proyecto utilizará métodos de investigación cualitativos y cuantitativos y abordará dos cuestiones fundamentales: ¿Cómo pueden las empresas medir de manera eficaz su desempeño en materia de sostenibilidad social y medioambiental? ¿Por qué las medidas de sostenibilidad a menudo no logran generar cambios significativos en las prácticas organizativas?
Por un lado, el proyecto tiene como objetivo analizar métricas data e identificar indicadores que permitan armonizar los procedimientos organizativos con los objetivos de sostenibilidad social y medioambiental. Por otro lado, el proyecto se centrará en convertir estas medidas de sostenibilidad en acciones concretas dentro de las empresas.
6 — Sesgos en la visión artificial
Cuando un modelo realiza una predicción basándose en una imagen —por ejemplo, una imagen que muestra un rostro—, tiene acceso a información sensible, como el origen étnico, el género o la edad, que puede sesgar su razonamiento. Nuestro objetivo es desarrollar un marco para medir matemáticamente ese sesgo y proponer metodologías para reducirlo durante el entrenamiento del modelo. Además, nuestro enfoque detectaría estadísticamente las zonas de mayor sesgo para explicar, comprender y controlar en qué puntos dichos modelos refuerzan el sesgo presente en los data.
7 — Modelo de lenguaje grande (LLM) para la recuperación de información
Una de las principales aplicaciones de los modelos de lenguaje grande (LLM) es su combinación con un corpus de documentos que contienen conocimientos o información de carácter industrial. En tal caso, se produce una fase de recuperación de información en la que los LLM muestran ciertas limitaciones, como el tamaño del texto de entrada, que resulta demasiado reducido para indexar documentos. Del mismo modo, el efecto de «alucinación» también puede darse en la respuesta final, algo que pretendemos detectar utilizando el documento recuperado y la incertidumbre del modelo en el momento de la inferencia.
Investigadores a tiempo parcial Artefact
Además de nuestro equipo dedicado a la investigación, contamos con varios colaboradores que dedican parte de su tiempo a la investigación científica y a la publicación de artículos. El hecho de que también trabajen como consultores les permite inspirarse en los problemas del mundo real a los que se enfrentan nuestros clientes.
Publicaciones
Artículos de blog de Medium escritos por nuestros expertos en tecnología.
¿ AI el futuro de AI agentiva de los grafos de conocimiento?
A medida que las empresas se apresuran a poner en práctica AI, la mayoría descubre que su data nunca se diseñó para el razonamiento autónomo. Hoy en día, hasta el 80 % de AI ...
Mejorar la experiencia del bricolaje: cómo ADEO utiliza AI conectar contenidos y conocimientos
La optimización del surtido es un proceso fundamental en el sector minorista que consiste en seleccionar la combinación ideal de productos para satisfacer la demanda de los consumidores, teniendo en cuenta los numerosos aspectos logísticos...
MotherDuck al detalle: cómo encaja esta solución AI análisis de última generación en tu Data
MotherDuck amplía el rendimiento analítico de DuckDB a la cloud funciones colaborativas, ofreciendo un rendimiento cuatro veces superior al de BigQuery y un ahorro de costes respecto a data tradicionales gracias a...
Optimización de surtidos con modelos de elección discreta en Python
La optimización del surtido es un proceso fundamental en el sector minorista que consiste en seleccionar la combinación ideal de productos para satisfacer la demanda de los consumidores, teniendo en cuenta los numerosos aspectos logísticos...
¿Es la alineación de preferencias siempre la mejor opción para mejorar la traducción basada en modelos de lenguaje grande? Un análisis empírico
Las métricas neuronales para la evaluación de la traducción automática (MT) han cobrado cada vez más importancia debido a su mayor correlación con las valoraciones humanas en comparación con las métricas léxicas tradicionales
Choice-Learn: Modelización de decisiones a gran escala para contextos operativos desde la perspectiva del aprendizaje automático
Los modelos de elección discreta tienen como objetivo predecir las decisiones que toman las personas al elegir entre un conjunto de alternativas, denominado «surtido». Entre los casos de uso más conocidos se encuentra la predicción de...
La era de AI generativa: qué está cambiando
La abundancia y diversidad de las reacciones ante ChatGPT y otras IA generativas, ya sean escépticas o entusiastas, ponen de manifiesto los cambios que están provocando y el impacto...
Cómo Artefact consiguió desarrollar un sistema de carrera justo y sencillo para los ingenieros de software.
En el dinámico y siempre cambiante sector tecnológico actual, la trayectoria profesional puede parecer a menudo un camino sinuoso que atraviesa un denso bosque de oportunidades. Con los rápidos...
Por qué necesita LLMOps
Este artículo presenta LLMOps, una rama especializada que fusiona DevOps y MLOps para gestionar los retos que plantean los grandes modelos lingüísticos (LLM)...
Liberar la potencia del lenguaje de expresión LangChain (LCEL): de la prueba de concepto a la producción
LangChain se ha convertido en menos de un año en una de las bibliotecas de Python más utilizadas para interactuar con los modelos de lenguaje grande (LLM), pero LangChain era principalmente una biblioteca...
Cómo gestionamos la conciliación de ID de perfiles utilizando Treasure Data y SQL
En este artículo explicamos los retos que plantea la conciliación de identificadores y mostramos nuestro enfoque para crear un identificador de perfil unificado en Data de clientes, concretamente...
Snowday ’23 de Snowflake: un efecto bola de nieve hacia el éxito en Data
Al reflexionar sobre las ideas compartidas durante el evento «Snowday», celebrado los días 1 y 2 de noviembre, surge una cascada de revelaciones apasionantes sobre el futuro de...




















































