En la AI Artefact AI , celebrada el 20 de abril de 2023, figuras destacadas del ámbito de AI generativa AI sus conocimientos e intercambiaron ideas sobre esta nueva tecnología y las formas en que las empresas pueden utilizarla para mejorar su productividad empresarial.
AI últimos AI generativa son capaces de mantener conversaciones sofisticadas con los usuarios, crear contenido aparentemente original (imágenes, audio, texto) a partir de sus data de entrenamiento y realizar tareas manuales o repetitivas, como redactar correos electrónicos, programar o sintetizar documentos complejos. Es fundamental que los responsables de la toma de decisiones desarrollen hoy mismo una AI clara y convincente AI generativa y den prioridad a data y al diseño de soluciones empresariales basadas en la IA generativa.
Organizadores de la conferencia y ponentes principales:
AI generativa: explorando nuevas fronteras creativas
En su introducción a la conferencia, Vincent Luciani señaló: «En todas partes, la gente está entusiasmada con esta nueva tecnología y con el impacto que tendrá en las organizaciones y los empleados. Hasta ahora, lo que teníamos en materia de AI aplicaciones relativamente deterministas complementadas con el aprendizaje automático. Éramos capaces de predecir, personalizar y optimizar, pero no realmente de crear».
«Pero hoy, por primera vez, estamos asistiendo a una interacción auténtica entre el hombre y la máquina. Ahora, de esta tecnología y estos algoritmos está surgiendo una forma real de inteligencia, aunque la comunidad científica esté dividida sobre si se trata de una revolución o de una evolución…
«Ya hemos hablado de los seres humanos aumentados o de las actividades aumentadas: pronto hablaremos de las empresas aumentadas». Antes de ofrecer una breve visión general de los temas que se tratarían en la conferencia y ceder la palabra a los ponentes principales, recordó a la Audiencia
«A pesar de la constante aparición de nuevas AI generativa, es fundamental actuar con moderación: una transformación empresarial exitosa no se consigue de la noche a la mañana, sino que requiere reflexión, investigación y preparación».Vincent Luciani, director ejecutivo y cofundador de Artefact
Perspectivas y oportunidades en el AI generativa
La primera ponente principal, Hanan Ouazan, comenzó con una visión general de los modelos de texto, partiendo del revolucionario artículo de Google de 2017 titulado«Attention is all you need», que condujo a la creación de los Transformers, que son la base de casi todos los modelos de lenguaje a gran escala (LLM) que se utilizan hoy en día. «Como saben, la investigación lleva tiempo, pero hoy en día nos encontramos en un periodo de aceleración, en el que vemos surgir cada día nuevos modelos que aprovechan un mayor acceso a data a la infraestructura».
Hanan analizó varios aspectos de la democratización y la accesibilidad de AI generativa, destacando en particular la aceleración de la adopción de esta tecnología: «El ritmo es asombroso: ChatGPT alcanzó el millón de usuarios en solo cinco días».
En lo que respecta a las estrategias de entrenamiento de los modelos de lenguaje grande (LLM), abordó las ventajas del preentrenamiento, el ajuste fino y la ingeniería de prompts, citando casos de uso industrial para cada una de ellas y presentando la matriz de decisión sobre estrategias de modelos Artefact.

Además del coste de propiedad, el rendimiento y las limitaciones, Hanan también habló sobre la gestión del cambio y las AI repercusiones de AI generativa en el mercado laboral.
«Sin duda cambiará nuestra forma de trabajar, pero en Artefact no creemos que vaya a acabar con las profesiones: potenciará a las personas que las ejercen».Hanan Ouazan, socia de Data y responsable de AI generativa AI Artefact
Una plataforma fotográfica AI generativa para el comercio electrónico
Matthieu Rouif, ponente principal, es director ejecutivo y cofundador de PhotoRoom, una aplicación que permite a sus ya 80 millones de usuarios crear fotos con calidad de estudio utilizando un smartphone, gracias a Stable Diffusion, una AI generativa para imágenes.
Desde el auge de las plataformas de comercio electrónico impulsado por la pandemia de COVID-19, se editan dos mil millones de fotos al año. Y la aplicación PhotoRoom está desempeñando un papel fundamental al automatizar el recorte, el ajuste de sombras y la generación de fondos realistas para los comerciantes. «Utilizamos AI generativa AI ofrecer a los clientes fotos que parecen tomadas por un fotógrafo profesional, e incluso añadimos fondos únicos y realistas AI en menos de un segundo», afirma Matthieu.

«Ayudamos a nuestros clientes a hacer crecer sus negocios proporcionándoles una amplia selección de fotografías de alta calidad y bajo coste que respetan su imagen de marca y presentan sus productos de la mejor manera posible para atraer y fidelizar a los clientes».Matthieu Rouif, director ejecutivo y cofundador de PhotoRoom
Un nuevo enfoque de AI las empresas
Igor Carron es el director ejecutivo y cofundador de LightOn, una Compañia francesa Compañia la nueva AI generativa Paradigm, que es más potente que GPT-3. Esta plataforma ofrece los modelos más avanzados para gestionar servidores y data garantiza data a las empresas.
En su discurso inaugural, Igor habló sobre los orígenes de su Compañia. «Cuando creamos LightOn en 2016, desarrollábamos hardware que utilizaba la luz para realizar cálculos de AI. Era un enfoque poco habitual, pero funcionó: nuestra Unidad de Procesamiento Óptico (OPU), el primer AI fotónico AI del mundo, ha sido utilizada por investigadores de todo el mundo y se ha integrado en uno de los superordenadores más grandes del mundo».
«Desde 2020, tras la aparición de GPT, hemos trabajado para averiguar cómo podríamos utilizar nuestro hardware para crear nuestros propios modelos de lenguaje a gran escala (LLM), tanto para nuestro propio uso como para clientes externos. Aprendimos a crear modelos de lenguaje grande y, de hecho, llegamos a hacerlo bastante bien. Pero cuando hablamos por primera vez con la gente en 2021 y 2022, no tenían ni idea de qué era GPT-3, así que tuvimos que educar Audiencia nuestro Audiencia objetivo.
«Hemos colaborado con un cliente para crear un modelo más grande, presentado recientemente con 40 000 millones de parámetros, entrenado de una forma única para competir con GPT-3, pero utilizando muchos menos parámetros. Esto significa que se puede disponer de una infraestructura que requiere mucho menos hardware y utilizarla sin que te cueste un ojo de la cara».
Igor destaca el valor de los modelos de lenguaje a gran escala y afirma:
«Creo que, en el futuro, la mayoría de las empresas se basarán en modelos de lenguaje grande (LLM)… Estas herramientas les permitirán generar un valor real a partir de sus propios data».Igor Carron, director ejecutivo y cofundador de LightOn
«Lo que ofrecemos hoy a los clientes es un producto llamado Paradigm: permite a las empresas gestionar sus propios data dentro de sus organizaciones y reutilizar esos data volver a entrenar y mejorar estos modelos. De este modo, se garantiza que sus procesos internos o productos puedan beneficiarse de la inteligencia obtenida a partir de sus interacciones con sus modelos de lenguaje grande (LLM).»
«Muchos en el ecosistema francés o europeo dependen de la AI o de otros competidores norteamericanos». Igor advierte: «El peligro de enviar tus data una API pública es que se reutilizarán para entrenar modelos sucesivos. Así que, supongamos que personas del sector minero, que saben literalmente dónde encontrar oro, envían sus reports técnicos reports esa API… En unos años, si le preguntas a ChatGPT-8 o -9, o lo que sea, “¿Dónde está el oro?”, ¡te dirá dónde está el oro!». Recomienda encarecidamente que las empresas empiecen a utilizar los data generan internamente para entrenar sus modelos.
Una estrategia nacional para Inteligencia Artificial generativa
Yohann Ralle, el último ponente principal, es AI generativa en el Ministerio de Economía, Finanzas y Soberanía Industrial y Digital de Francia. Comenzó explicando su «fórmula mágica» para crear un modelo de lenguaje grande (LLM) de última generación: potencia computacional + conjuntos de datos + investigación fundamental:
«En cuanto a potencia computacional, el Gobierno francés ha invertido en un recurso digital común, el superordenador Jean Zay, diseñado para estar al servicio de la AI . Esto ha permitido el entrenamiento del modelo multilingüe europeo BLOOM ».Yohann Ralle, AI generativa del Ministerio de Economía, Finanzas y Soberanía Industrial y Digital de Francia.

«En lo que respecta a los conjuntos de datos, iniciativas como Agdatahub han contribuido a agregar, anotar y calificar data de aprendizaje y prueba data desarrollar AI eficiente y fiable AI lo que también puede contribuir a la competitividad francesa. En cuanto a la investigación fundamental, la estrategia nacional ha ayudado a estructurar el ecosistema AI y desarrollo AI con la creación de los institutos 3IA, la financiación de contratos de doctorado, la puesta en marcha de los proyectos IRT Saint Exupéry y SystemX, múltiples programas de formación para estudiantes y mucho más en toda Francia y Europa».
Mesa AI sobre AI generativa moderada por Vincent Luciani, director ejecutivo de Artefact
¿Ha AI el test de Turing (es decir, ha AI un nivel de inteligencia similar al humano)?
Aunque la pregunta suscitó respuestas dispares, la opinión general es que, si bien es cierto que existe inteligencia, no hay intencionalidad.
Matthieu: «Creo que sí... Da la sensación de que hay alguien ahí, siempre y cuando no le preguntes por fechas. Hay un aspecto temporal que no funciona».
Igor: «Mi pregunta es: ¿por qué has hecho esa pregunta? Porque la prueba de Turing no es muy interesante desde el punto de vista empresarial. Pero, en cuanto a la interacción, sí, se puede decir que AI superado la prueba».
Yohann: «El test de Turing es muy subjetivo. Existe un riesgo cuando atribuimos cualidades humanas a AI, cuando la antropomorfizamos. Recordemos el caso del ingeniero de Google Blake Lemoine, que creía que el chatbot LaMDA con el que hablaba había adquirido conciencia… El test de Turing es un ejercicio interesante, nada más».
Hanan: «En cuanto a ChatGPT, nos estamos acercando, pero aún no lo hemos conseguido».
¿La llegada de ChatGPT supone una revolución, una evolución o forma parte de un proceso continuo?
Igor: «Aunque todavía no se puede comprender del todo el impacto a largo plazo de ChatGPT en los modelos de lenguaje grande (LLM), con el tiempo surgirán nuevos usos para estas tecnologías que tendrán importantes repercusiones sociales. El debate es interesante, pero lo más importante son los artículos científicos que detallarán las mejoras de los LLM. No se deben pasar por alto ni subestimar las aplicaciones prácticas actuales y potenciales de estos modelos».
¿Cuáles son los casos de uso más prometedores para las empresas? ¿Los bots, la generación de imágenes?
Hanan: «Es evidente que los chatbots siempre han sido importantes en AI seguirán siendo un caso de uso relevante, porque ahora, con ChatGPT, se puede configurar uno en 48 horas conectándolo a una base de datos; es increíble. Otro caso de uso es la creación de agentes autónomos capaces de realizar tareas específicas sin intervención humana, como una agencia de viajes que te reserve todos los billetes, hoteles y restaurantes para un viaje a Italia».
Yohann: «Veo muchas oportunidades para los complementos basados en CGT, como Kayak o Booking. Creo que esto va a reestructurar el entorno digital, donde OpenAI se convertirá en el agregador de los agregadores».
Igor: «Preveo la posibilidad de personalizar los modelos de lenguaje grande (LLM) para empresas. Más allá de data , las empresas empezarán a comprender cómo utilizar data no estructurados y cómo generar un valor real a partir de sus data mediante LLM privados. Al mismo tiempo, creo que veremos cambios radicales en la forma en que la gente busca y utiliza Internet gracias a ChatGPT».
Vincent: Creo que habrá una fusión de data corporativos internos data los LLM en una especie de «Master FAQ+» al que se podrá consultar mediante búsqueda o agentes aumentados. El concepto de consulta está evolucionando: ¿mañana la gente comprará una o muchas palabras clave, o comprará un concepto? En publicidad, el objetivo siempre fue basarse en las personas, Audiencia; ahora, al proteger data personales, nos dirigimos hacia un enfoque basado en el contexto. Y eso puede dar lugar a una publicidad más interesante».
¿Cómo se AI hoy en día AI generativa en las empresas? ¿Está afectando al empleo?
Matthieu: «Tenemos suerte, una de nuestras ventajas competitivas es que llevamos AI los genes. Fomentamos el uso de herramientas más generativas a nivel interno. Nuestro equipo técnico utiliza Copilot para el desarrollo, y nuestros programadores utilizan tanto ChatGPT como Copilot. Somos más creativos con estas herramientas. En cuanto al empleo, estamos creciendo, así que tenemos previsto contratar a gente nueva… pero, al mismo tiempo, cuando contamos con un software excelente, podemos hacer más con equipos más reducidos».
Igor: «Siempre hemos trabajado con un equipo reducido —siete u ocho personas— para alcanzar el mismo alto nivel de competencia técnica que, por ejemplo, Google, donde los equipos son diez veces más grandes. Nuestros equipos reducidos tienen un impacto totalmente desproporcionado. Es un error pensar que se necesita un equipo grande para lograr grandes cosas».
Yohann: «Hace diez años, un estudio estadounidense afirmaba que el 47 % de los puestos de trabajo se perderían debido a AI veinte años, pero vemos que eso no está ocurriendo. Una encuesta más reciente de la OCDE indicaba que la cifra se acercaba más al 14 %. Creo que deberíamos pensar en términos de tareas, no de puestos de trabajo. Como se menciona en un estudio reciente de OpenAI, entre el 80 % y el 90 % de los puestos de trabajo se verán afectados por AI generativa AI pero eso significa en realidad que el 90 % de los empleados se verán afectados en el 10 % de sus tareas. Lo interesante es que AI cuestionando la noción de profesiones que creíamos intocables por AI , como las de los ámbitos creativo, jurídico, financiero y otros. El Gobierno francés ha creado Le LaborIA para ayudar a explorar estas cuestiones».
¿Cuáles son las limitaciones en materia de soberanía y normativa que afectan a estos modelos?
Hanan: «La primera limitación tiene que ver con la propiedad intelectual (PI). Hoy en día, contamos con tres tipos de modelos: los modelos públicos, como ChatGPT, en los que los data envían pueden utilizarse con fines comerciales; los modelos privados sin titular de la propiedad intelectual, como la API de Google en Lambda; y los modelos de código abierto que se instalan por cuenta propia. Data es un problema, ya que GPT y PaLM no son de propiedad europea, sino estadounidense».
Yohann: «La normativa es un tema muy importante en Europa. Italia ha prohibido totalmente el uso de ChatGPT a la espera de que se investigue si la aplicación cumple con la normativa de privacidad del RGPD. OpenAI debe ser extremadamente clara en cuanto al uso que hace de data personales data por ejemplo, data un aviso legal data indique que utiliza data personales data permitiendo a los usuarios excluirse de data y borrar sus data. Otro problema relacionado con las limitaciones de los modelos de lenguaje grande (LLM) son las alucinaciones: a menudo dan respuestas erróneas, lo que puede ser grave si la solicitud se refiere a una figura pública y el modelo genera una noticia falsa que puede causar un daño real a la persona en cuestión».
Vincent: «¿Has analizado la cuestión de la propiedad intelectual y los problemas que plantea la demanda de Getty Images contra Stability AI? Hay muchas dudas sobre la recopilación de imágenes de Internet para entrenar modelos…»
Yohann: «Lo estamos considerando. El código abierto podría ser una forma de crear bases de datos y conjuntos de datos limpios y libres de derechos de autor que respeten la propiedad intelectual».
Matthieu: «En cuanto a data personales data los productos: lo que hace que ChatGPT, Midjourney o PhotoRoom funcionen bien no son data personales, sino los comentarios de los clientes».
Yohann: «Los comentarios de los usuarios son ideales, pero recopilarlos resulta prohibitivamente caro en el caso de los modelos de lenguaje grande (LLM)».
Igor: «¿Dónde está el dinero? Esa es mi pregunta. Todos los problemas que has planteado son de carácter técnico, y no podremos resolverlos hasta que dispongamos de los fondos necesarios para contratar ingenieros y crear un ecosistema, y sencillamente aún no estamos preparados».
Dado que cada vez se desarrollan más modelos de lenguaje grande (LLM), ¿crees que habrá una «guerra» de GPU?
Yohann: «Es un riesgo real. En este momento, NVIDIA tiene el monopolio aquí; controla el mercado y los precios. Por desgracia, no hay competidores reales en Europa. Se trata de un recurso limitado por definición, un recurso escaso, así que es una lucha dura».
Matthieu: «La falta de disponibilidad de GPU limita gravemente no solo nuestra productividad, sino también el crecimiento de las empresas en toda Europa».
Igor: «Dado que empezamos como fabricantes de hardware, ya nos enfrentamos a este problema en 2016… Hoy en día, hay personas que trabajan para nuestros competidores y cuyo trabajo a tiempo completo consiste en encontrar suficientes GPU para entrenar modelos… El mercado está en plena expansión, pero la producción de chips no da abasto, en ninguna parte del mundo».
Hanan: «Inevitablemente habrá un cuello de botella en la GPU, pero podemos aprender a ser más eficientes; tenemos que serlo. Y tenemos que ver cómo podemos integrar el código abierto en nuestras empresas, no solo cómo utilizar todas las últimas tecnologías».
¿Dónde ves un mayor potencial de valor para el futuro? ¿En los modelos de código abierto? ¿En los modelos de lenguaje grande (LLM)?
Matthieu: «En PhotoRoom utilizamos software de código abierto, lo que nos permite avanzar más rápido y desarrollar nuestra propia propiedad intelectual. Contamos con una amplia comunidad de Hugging Face en París que nos proporciona una retroalimentación esencial».
Igor: «Utilizamos modelos de lenguaje grande (LLM), pero no estamos atados a ese modelo de negocio. Podríamos utilizar código abierto. Lo importante es ser capaces de reutilizar nuestros data propios y saber cómo hacerlo data entrenar futuros modelos. El objetivo es crear un sector que personalice estos modelos para otras empresas».
Yohann: «La evolución del código abierto frente al código cerrado ha impulsado AI generativa. La AI colaboró para que otros actores pudieran beneficiarse de esta investigación fundamental y crear sus propios modelos. Me pregunto si el rendimiento de estos modelos de código abierto no será inferior al de los modelos de código cerrado, pero eso podría cambiar. En cualquier caso, ¡uno no puede evitar preguntarse si Google no se arrepentirá de haber abierto las puertas a su tecnología ChatGPT!».
Tras la mesa redonda tuvo lugar una sesión Audiencia y respuestas Audiencia , en la que se produjo un debate especialmente animado sobre la escasa presencia de mujeres en el sector tecnológico. Yohann detalló varias de las medidas que está adoptando el Gobierno francés en materia de educación y que están dirigidas específicamente a las niñas y las mujeres, mientras que Vincent habló de lo que están haciendo la Artefact of Data, la iniciativa Artefact y otras empresas tecnológicas para intentar corregir esta situación.
Se plantearon otras cuestiones sobre la accesibilidad del uso de los modelos de lenguaje grande (LLM) para personas con autismo y otras discapacidades; el problema de AI ; las medidas que las empresas tienen previsto adoptar para proteger el medio ambiente; y el papel de Europa frente al de Francia en lo que respecta a la extracción de data de Internet. Para ver cómo respondieron los participantes a estas preguntas, vea Repetición de la conferencia.

BLOG






