Research Center de Artefact

Descubre las investigaciones Artefactsobre modelos más transparentes y éticos para fomentar la adopción AI .

Suscríbete aResearch Center de nuestroResearch Center Artefact en LinkedIn

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 12: nuestro artículo sobre el entrenamiento de codificadores en ICLR, un nuevo doctorado sobre recuperación generativa y EuroBERT como base para jina-embeddings

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 11: nuestro estudio y algoritmo para la puntuación desequilibrada en @AISTATS; taller sobre consumo alimentario; métodos de segmentación para RAG en @ECIR 2026

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27900%27%20height%3D%27555%27%20viewBox%3D%270%200%20900%20555%27%3E%3Crect%20width%3D%27900%27%20height%3D%27555%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 10: «LLM Hallucination» en GitHub y ECIR 2026; «Conoce a los editores» de la Academy of Management; lanzamiento de EuroLLM 22B

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 9: Informe «ESG en acción», lanzamiento del paquete WoodTapper para modelos interpretables basados en árboles, retrospectiva de 2025

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 8: EuroBERT en COLM, inicio de un doctorado sobre recuperación generativa para RAG y agentes, detector de discriminación FairGroups en ECAI

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 7: artículo sobre la detección de alucinaciones en modelos de lenguaje grande (LLM), aceptado en la Conferencia sobre Investigación en Responsabilidad Corporativa; y duplicación de la asistencia a ECML-PKDD

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 6: artículo de la ECAI sobre la discriminación por el tono de piel; artículo sobre el uso o no de modelos de lenguaje grande (LLM) para tareas de PLN; presentaciones en EURO y PFIA

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 5: artículo del ECML-PKDD sobre el modelo de elección de cesta, el corpus ArGiMi de toda la jurisprudencia francesa y nuestros robots en Vivatech

  • srcset="data:image/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%27862%27%20height%3D%27453%27%20viewBox%3D%270%200%20862%20453%27%3E%3Crect%20width%3D%27862%27%20height%3D%27453%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E"

    Research Center n.º 4: artículo de ECML-PKDD sobre data desequilibrados, charla de WMT sobre el ajuste fino de modelos de lenguaje grande (LLM) para la traducción, proyecto LLM Watermark en Alemania