1

Le 20 avril 2023, cinq personnalités expertes de l’IA se sont regroupées lors de la conférence Artefact Generative AI. L’occasion de partager leurs connaissances uniques et d’échanger sur leur vision de la transition à opérer pour les entreprises avec l’IA Générative.

Les derniers modèles d'IA générative sont capables d'avoir des conversations sophistiquées avec les utilisateurs, de créer des contenus apparemment originaux (images, audio, texte) à partir de leurs données d'entraînement, et d'effectuer des tâches manuelles ou répétitives (rédaction d’emails, codage ou synthèse de documents complexes). C’est pourquoi il devient capital, pour les décideurs, d’élaborer dès maintenant une stratégie claire et efficace d'IA générative, en accordant une attention particulière à la gouvernance des données et à la conception de solutions d'AI Gen.

Animateurs et intervenants :

IA générative : explorer de nouvelles frontières créatives

L’essor de l’IA générative suscite l’enthousiasme chez ses utilisateurs curieux de l’impact qu’elle aura sur les organisations et leurs collaborateurs. “Jusqu’à présent, cette technologie se résumait à des applications relativement déterministes renforcées par l'apprentissage automatique. Nous étions capables de prédire, de personnaliser, d'optimiser, mais pas vraiment de créer”, rappelle Vincent Luciani.   

Aujourd’hui, et pour la première fois, l’homme et la machine interagissent réellement. Evolution ou révolution ? Bien que la communauté scientifique reste divisée sur cette question, il est indéniable qu’une forme d’intelligence émerge de cette technologie et de ces algorithmes. 

 “On a déjà parlé d'humains augmentés ou d'activités augmentées, on parlera bientôt d'entreprises augmentées” affirme le PDG d’Artefact. Mais attention, l’intégration des technologies d’IA générative ne sera une réussite que si les entreprises élaborent des stratégies adaptées et efficaces. 

"Malgré l'arrivée constante de nouvelles applications d'IA générative, la retenue est cruciale : la transformation réussie d'une entreprise ne se fait pas du jour au lendemain, elle nécessite de la réflexion, de la recherche et de la préparation."
Vincent Luciani, PDG et cofondateur d'Artefact

Perspectives et opportunités sur le marché de l'IA générative

Hanan Ouazan, associé et lead generative AI chez Artefact, se souvient du document révolutionnaire de Google de 2017 "L'attention est tout ce dont vous avez besoin", qui a conduit à la création des Transformers. Ces derniers sont à la base de presque tous les grands modèles de langage (LLM) utilisés aujourd'hui.

"Comme vous le savez, la recherche prend du temps, mais aujourd'hui, nous sommes dans une période d'accélération, où nous voyons chaque jour de nouveaux modèles qui capitalisent sur un plus grand accès aux données et à l'infrastructure" , précise-t-il. 

Outre les multiples facettes que présentent la démocratisation et l’accessibilité des modèles d’IA générative, l'accélération de l'adoption de cette technologie impressionne. "Le rythme est stupéfiant : ChatGPT a atteint 1 million d'utilisateurs en seulement cinq jours".

Quant aux stratégies des méthodes d'apprentissage LLM que sont le pré-entraînement, le réglage fin et l’ingénierie rapide, elles regorgent d’avantages pour les entreprises. En guise d’exemple, voici comment Artefact construit sa matrice de décision :

1

Outre le coût de possession, les performances et les limites, l’IA générative pourrait impacter la conduite du changement et l’emploi :

"L’IA générative va certainement changer nos façons de travailler, mais chez Artefact, nous ne pensons pas qu'elle va tuer les professions : elle va augmenter les humains qui les exercent."
Hanan Ouazan, Associé & Lead Generative AI chez Artefact

PhotoRoom : Une plateforme de photos alimentée par l'IA générative dédiée à l’e-commerce

Matthieu Rouif est le PDG et cofondateur de PhotoRoom, une application qui permet à ses 80 millions d'utilisateurs de créer des photos de qualité studio avec un smartphone, en utilisant Stable Diffusion, une technologie d'IA générative d’images. 

Depuis l'explosion de l’e-commerce au cours de la pandémie de COVID-19, deux milliards de photos sont éditées chaque année.
L'application PhotoRoom automatise le détourage, l'affichage des ombres et la génération d'arrière-plans réalistes pour les commerçants. "Nous utilisons l'IA générative pour offrir à nos clients des photos qui ont l'air d'avoir été prises par un photographe professionnel, en ajoutant même des arrière-plans uniques et réalistes générés par l'IA en moins d'une seconde", explique Matthieu. 

1
"Nous aidons nos clients à développer leurs activités en leur fournissant des photos abondantes, de haute qualité et à faible coût qui respectent leur marque et présentent leurs produits sous le meilleur jour possible afin d'attirer et de fidéliser les clients."
Matthieu Rouif, PDG et cofondateur de PhotoRoom

Repenser l'IA pour les entreprises : le cas Paradigm

LightOn est une entreprise française à l’origine de la nouvelle plateforme d’IA générative Paradigm, plus puissante que GPT-3. Elle apporte les modèles les plus avancés pour gérer les serveurs et la data tout en garantissant la souveraineté des données pour les entreprises. 

"Lorsque nous avons créé LightOn en 2016, introduit Igor Carron, PDG et cofondateur de LightOn, nous construisions du matériel qui utilisait la lumière pour effectuer des calculs pour l'IA. C'était une approche inhabituelle qui a fonctionné. Notre Optical Processing Unit (OPU), le premier coprocesseur photonique d'IA, a maintenant été utilisé par des chercheurs à l’international et intégré sur l'un des plus grands supercalculateurs au monde.”

Puis, à partir de 2020 et après l’apparition de GPT, LightOn a voulu utiliser son matériel pour construire ses propres LLM - aussi bien pour son usage que celui de ses clients. “Nous avons appris à fabriquer des LLM et sommes devenus assez bons dans ce domaine. Mais lorsque nous nous sommes adressés pour la première fois à des personnes en 2021 et 2022, elles n'avaient aucune idée de ce qu'était le GPT3, et nous avons donc dû éduquer notre public cible” , raconte-t-il.

"Nous avons travaillé avec un client pour créer un modèle plus large, récemment publié à 40 milliards, entraîné d'une manière unique pour concurrencer GPT3, mais en utilisant beaucoup moins de paramètres. Cela signifie que vous pouvez disposer d'une infrastructure moins lourde et l'utiliser sans qu'elle ne vous coûte les yeux de la tête.”

"À l'avenir, la plupart des entreprises seront basées sur les LLM... Ces outils leur permettront de générer une valeur réelle à partir de leurs propres données”. 
Igor Carron, PDG et cofondateur de LightOn

Paradigm permet aux entreprises clientes de gérer leurs propres flux de données en interne et de les réutiliser pour recycler et améliorer les modèles. Cela garantit que les processus ou produits peuvent bénéficier de l'intelligence tirée de leurs interactions avec leurs LLM.

Les écosystèmes français et européens restent encore, pour beaucoup, dépendants de l’Open AI API ou d’autres concurrents nord-américains. Or Igor met en garde, "le danger d'envoyer vos données à une API publique est qu'elles seront réutilisées pour former des modèles successifs. Dans quelques années, si vous demandez à ChatGPT-8 ou -9 ou autre, "Où est l'or ?", il vous dira où se trouve l'or !" C’est pourquoi le cofondateur de LightOn recommande aux entreprises de commencer à utiliser les données qu'elles génèrent en interne pour entraîner leurs modèles.

Une stratégie nationale pour l'intelligence artificielle générative

Yohann Ralle, dernier intervenant de cette table ronde et spécialiste de l’IA générative au sein de la Direction générale des entreprises, présente la stratégie nationale mise en place par le gouvernement français. Et il révèle sa “formule magique” pour construire un LLM de pointe.

"Pour la puissance de calcul, le gouvernement français a investi dans un bien commun numérique, le supercalculateur Jean Zay, conçu pour servir la communauté de l'IA. Il a permis l'entraînement du modèle européen multilingue BLOOM.”
Yohann Ralle, Chef de projet Intelligence Artificielle - Ministère de l'Economie, des Finances et de la Souveraineté Industrielle et Numérique en France.
1

"La stratégie française repose notamment sur les initiatives suivantes :
Pour les jeux de données, des initiatives telles que #Agdatahub permettent d'agréger, d'annoter et de qualifier les données d'apprentissage et de test pour développer une IA efficace et digne de confiance.
L’écosystème de recherche fondamentale et développement en IA se structurent avec la création des instituts #3IA, le financement de contrats doctoraux, les lancements des projets IRT Saint Exupéry et SystemX, de multiples programmes de formation d'étudiants, etc.

Table ronde sur l'IA générative animée par Vincent Luciani, PDG d'Artefact (retranscription)

L'IA a-t-elle passé le test de Turing et atteint le niveau d'intelligence humaine ?

Si l'intelligence de l’IA générative est bien présente, tous s’accordent à reconnaître que l'intentionnalité ne l'est pas.

Matthieu : "On peut avoir le sentiment de s’adresser à une personne réelle, tant que l’on n’aborde pas les notions de temporalités. Il y a un côté temporel qui ne fonctionne pas."
 
Igor : "Ma question est : pourquoi vous avez posé cette question ? Le test de Turing n'est pas très intéressant pour les entreprises. En revanche, en termes d'interactions, oui, on peut dire que l'IA a réussi le test."

Yohann : "Le test de Turing est très subjectif. Il y a un risque à attribuer des qualités humaines à l'IA, à l'anthropomorphiser. Rappelez-vous le cas de Blake Lemoine, ingénieur chez Google, qui a cru que le chatbot LaMDA avec lequel il parlait était devenu sensible... Le test de Turing est un exercice intéressant, rien de plus." 

Hanan :  "En ce qui concerne le ChatGPT, nous nous rapprochons de l’intelligence humaine, mais nous n'y sommes pas encore".

L'arrivée de ChatGPT est-elle une révolution, une évolution ou un élément d'un continuum ?

Igor : "Bien que l’impact à long terme de ChatGPT sur les LLM ne soit pas encore pleinement compris, de nouvelles utilisations de ces technologies émergeront au fil du temps. Elles auront d’importantes implications sociétales.
Il nous faudra porter notre attention sur les publications d'articles scientifiques détaillant les améliorations apportées aux LLM. Les applications pratiques, actuelles et à venir, de ces modèles ne doivent ni être négligées, ni sous-estimées."

Quels sont les cas d'usage les plus prometteurs pour les entreprises ? Bots, génération d'images ?

Hanan : "Évidemment, les chatbots ont toujours été importants dans l'IA et continueront à l’être. Désormais, avec Chat GPT, vous pouvez créer un chatbot en 48 heures en le connectant à une base de données. C'est incroyable !
Autre cas d'utilisation, la création d'agents autonomes qui peuvent effectuer des tâches spécifiques sans intervention humaine comme un agent de voyage qui réserve tous vos billets d'hôtels et de restaurants pour un voyage en Italie."

Yohann : "Sur ce point, on parle moins de la révolution qu’est GPT-X, qui consiste à plugger les plugins d’OpenAI sur des applications comme Kayak ou Booking.com. Je pense que cela va restructurer l'environnement numérique où ces IA génératives peuvent devenir l’interface principale de communication pour naviguer sur le web. Et cela va restructurer cet environnement numérique car OpenAI va agréger les agrégateurs."

Igor: "J'entrevois la possibilité de personnaliser les LLM d'entreprise. Au-delà des lacs de données, les entreprises commenceront à comprendre comment utiliser les données non structurées et comment générer une valeur réelle à partir de leurs données en interne avec des LLM privés. En parallèle, nous verrons des changements spectaculaires dans la façon dont les gens recherchent et utilisent Internet grâce à ChatGPT."

Vincent : “Il y aura, peut-être, une fusion des données internes de l'entreprise et des LLM dans une sorte de "Master FAQ+". Celle-ci pourra être interrogée par des agents de recherche ou des agents augmentés. La notion de requête évolue : demain, achètera-t-on un ou plusieurs mots-clés, ou achètera-t-on un concept ?
Dans la publicité, l'objectif a toujours été d'être basé sur la cible et sur l'audience. Comme nous protégeons désormais les données personnelles, nous nous dirigeons vers le contextuel. Ce qui peut mener à une publicité plus intéressante." 

Comment l'IA générative est-elle utilisée dans les organisations aujourd'hui ? A-t-elle une incidence sur l'emploi ?

Matthieu : "L’IA fait partie de notre ADN. C’est l'un de nos avantages concurrentiels. Nous encourageons l'utilisation d'outils plus génératifs en interne. Notre équipe technique utilise Copilot pour le développement. Nos codeurs utilisent à la fois ChatGPT et Copilot. Ces outils améliorent notre créativité. En ce qui concerne l'emploi, nous sommes en pleine croissance et nous prévoyons de recruter encore... bien qu’équipés d’un excellent logiciel, nous pouvons faire plus avec des équipes plus petites."

Igor : "Nous avons toujours fonctionné avec des équipes de sept ou huit personnes. Elles atteignent les mêmes niveaux de prouesses techniques que Google - par exemple - dont les équipes sont dix fois plus grandes. C'est une fausse idée de croire qu'il faut beaucoup de monde pour réaliser de grandes choses.”

Yohann  : "Il y a dix ans, une étude américaine affirmait que 47 % des emplois seraient perdus à cause de l'IA dans les vingt ans à venir. Or, ce n'est pas le cas. Une étude plus récente de l'OCDE a indiqué que ce chiffre avoisinait plutôt les 14 %. Je pense qu’il est plus juste de penser en termes de tâches, et non d'emplois.
Selon une étude récente d'OpenAI, 80 à 90 % des emplois seront impactés par l'IA générative. Ceci signifie, en réalité, que 90 % des employés seront impactés sur 10 % de leurs tâches. Et les métiers que l'on pensait intouchables comme la création, le droit ou la finance, sont aujourd’hui bousculés par l'IA. En conséquence, le gouvernement français a créé Le LaborIA pour comprendre l’évolution des pratiques des entreprises."

Quelles sont les limites en matière de souveraineté et de réglementation pour ces modèles ?

Hanan : "La première limite concerne la propriété intellectuelle. Aujourd'hui, il existe trois types de modèles : les modèles publics où les données envoyées peuvent être utilisées à des fins commerciales, comme ChatGPT ; les modèles privés sans propriétaire de PI, comme l'API de Google sur Lamba ; et les modèles open-source auto-installés.
La souveraineté des données est un problème car GPT et PaLM ne sont pas européens mais américains."

Yohann : "La réglementation est un gros problème en Europe. L'Italie a totalement interdit l'utilisation de ChatGPT dans l'attente d'une enquête sur sa conformité aux règles de confidentialité du RGPD. OpenAI doit être extrêmement claire sur son utilisation des données personnelles en présentant, par exemple, une clause de non-responsabilité indiquant qu'elle utilise des données personnelles et en permettant aux utilisateurs de refuser la collecte de données et de les effacer.
Les hallucinations sont un deuxième problème. Elles ont trait aux limites des LLM. Les hallucinations apportent souvent de mauvaises réponses. Si la demande concerne une personnalité publique et que le modèle génère une histoire de "fake news", alors elle risque de causer un réel préjudice à la personne visée."

Vincent : "Avez-vous étudié la question de la propriété intellectuelle et les problèmes soulevés par le procès intenté par Getty Images à Stability AI ? Il y a beaucoup de questions sur la recherche d'images sur Internet pour entraîner les modèles..."

Yohann : "Nous y réfléchissons. L'open source pourrait être un moyen de créer des bases de données et des ensembles de données propres, libres de droits et respectueux de la propriété intellectuelle."

Matthieu : "Concernant les données personnelles et les produits : c’est le feedback des clients qui permet à ChatGPT, Midjourney ou PhotoRoom de bien fonctionner, et non les données personnelles."

Yohann : "Le feedback des utilisateurs est idéal, mais sa collecte est prohibitive dans le cas des LLM".

Igor : "Où est l'argent ? C'est la question que je me pose. Tous les problèmes que vous avez soulevés sont d'ordre technique. Nous ne pourrons pas les résoudre tant que nous n'aurons pas les fonds nécessaires pour embaucher des ingénieurs et mettre en place un écosystème. Nous ne sommes tout simplement pas prêts pour l'instant."

Avec la construction d'un nombre croissant de LLM, pensez-vous qu'il y aura une "guerre" des GPU (Graphics Processing Unit) ?

Yohann : "C'est un risque réel. Pour l'heure, NVIDIA détient le monopole et contrôle le marché et les prix. Il n'y a pas de véritables concurrents en Europe, malheureusement. Le GPU est une ressource rare, limitée par définition, donc la bataille sera sérieuse."

Matthieu : "Le manque de disponibilité des GPU limite fortement non seulement notre productivité, mais aussi la croissance des entreprises partout en Europe."

Igor : "Depuis nos débuts en tant que producteur de matériel, nous avons déjà été confrontés à ce problème en 2016... Aujourd'hui, il y a des gens qui travaillent chez nos concurrents et dont le travail à plein temps consiste à trouver suffisamment de GPU pour entraîner les modèles... Le marché explose, mais la production de puces n'arrive pas à suivre dans le monde."

Hanan : "Il y aura inévitablement un goulot d'étranglement au niveau des GPU, mais nous pouvons apprendre à être plus efficaces, nous devons le faire. Et nous devons voir comment nous pouvons intégrer l'open source dans nos entreprises, sans se contenter seulement d’utiliser les dernières technologies."

Où voyez-vous le plus de valeur pour l'avenir ? Les modèles open source ? Les LLM ?

Matthieu : "Chez PhotoRoom, l'open source nous permet d'aller plus vite et de développer notre propre propriété intellectuelle. Nous avons une large communauté Hugging Face à Paris qui nous donne un retour d'information essentiel.”

Igor : "Nous utilisons des LLM, mais nous ne sommes pas attachés à ce modèle commercial. Nous pourrions utiliser des logiciels libres. L'important est de pouvoir et de savoir réutiliser les données propriétaires pour former de futurs modèles. L'objectif est de créer une industrie qui personnalise ces modèles pour d'autres entreprises.”

Yohann : "L'évolution de l'open source par rapport aux données propriétaires a été le moteur de l'IA générative. La communauté de l'IA travaille pour que d'autres acteurs puissent bénéficier de cette recherche fondamentale afin de construire leurs propres modèles. Je me demande si les performances de ces modèles open source ne seront pas inférieures à celles des modèles propriétaires, mais cela peut changer. En tout cas, on peut s’interroger sur d’éventuels regrets de Google d'avoir ouvert les portes de sa technologie ChatGPT !” 

En conclusion de la table à ronde, la question de la sous-représentativité des femmes dans la tech et le secteur de l’IA a animé la discussion. Si certaines mesures gouvernementales agissent en faveur de l’inclusion dans le secteur de la tech, elles doivent être accompagnées par des initiatives privées. À ce titre, Vincent présente l’Artefact School of Data et le programme RSE Women@Artefact qui favorisent les évolutions de carrières des femmes dans des métiers liés à la data et l’IA.   

D'autres interrogations ont guidé cette fin de conférence : inclusion des personnes autistes et handicapées dans les LLM, problème des hallucinations de l'IA, protection de l’environnement, rôle de l’Union européenne et de la France en matière de collecte de données, etc. Vous souhaitez en connaître les réponses ? Regardez le replay de la conférence.

Artefact Newsletter

Vous êtes intéressé par le conseil en données, le marketing digital et l'ecommerce ?
Lisez notre newsletter mensuelle pour obtenir des conseils pratiques, des idées, des études de cas, de la part de tous nos experts en données du monde entier !