class="lazyload

Op de Artefact Generative AI Conference, gehouden op 20 april 2023, deelden belangrijke spelers op het gebied van generative AI hun kennis en wisselden ideeën uit over deze nieuwe technologie en de manieren waarop bedrijven deze kunnen gebruiken om hun bedrijfsproductiviteit te verhogen.

De nieuwste generatieve AI modellen zijn in staat om geavanceerde gesprekken te voeren met gebruikers, ogenschijnlijk originele content (afbeeldingen, audio, tekst) te creëren vanuit hun training data, en handmatige of repetitieve taken uit te voeren zoals het schrijven van e-mails, codering of het synthetiseren van complexe documenten. Het is essentieel voor besluitvormers om vandaag een duidelijke en overtuigende generatieve AI strategie te ontwikkelen en prioriteit te geven aan data governance en het ontwerp van AIGen bedrijfsoplossingen.

Conferentiegastheren en keynote sprekers:

Generatief AI: nieuwe creatieve grenzen verkennen

In zijn inleiding tot de conferentie zei Vincent Luciani: "Overal zijn mensen enthousiast over deze nieuwe technologie en de impact die ze zal hebben op organisaties en werknemers. Wat we tot nu toe hadden op het gebied van AI waren relatief deterministische toepassingen aangevuld met machine learning. We konden voorspellen, personaliseren en optimaliseren, maar niet echt creëren. 

"Maar vandaag zien we voor het eerst echte interactie tussen mens en machine. Nu komt er een echte vorm van intelligentie voort uit deze technologie en deze algoritmen, ook al is de wetenschappelijke gemeenschap verdeeld over de vraag of het een revolutie of een evolutie is... 

"We hebben het al gehad over augmented humans of augmented activities: binnenkort hebben we het over augmented businesses." Voordat hij een snel overzicht gaf van de onderwerpen die tijdens de conferentie aan bod zouden komen en het woord gaf aan de keynote sprekers, herinnerde hij de audience eraan dat

"Ondanks de constante komst van nieuwe generatieve AI toepassingen, is terughoudendheid cruciaal: succesvolle bedrijfstransformatie gebeurt niet van de ene op de andere dag, het vereist reflectie, onderzoek, voorbereiding."
Vincent Luciani, CEO en medeoprichter van Artefact

Perspectieven en kansen in de generatieve AI markt

De eerste keynote spreker, Hanan Ouazan, begon met een overzicht van tekstmodellen, beginnend met Google's revolutionaire 2017 "Attention is all you need" paper, die leidde tot de creatie van de Transformers die de basis vormen van bijna alle grote taalmodellen (LLM's) die vandaag de dag worden gebruikt. paper, dat leidde tot de creatie van de Transformers die de basis vormen van bijna alle grote taalmodellen (LLM's) die vandaag de dag worden gebruikt. "Zoals je weet kost onderzoek tijd, maar vandaag de dag bevinden we ons in een periode van versnelling, waarin we elke dag nieuwe modellen zien die profiteren van een grotere toegang tot data en infrastructuur."

Hanan verkende verschillende facetten van de democratisering en toegankelijkheid van generatieve AI modellen, en benadrukte in het bijzonder de versnelling van de adoptie van de technologie: "Het tempo is duizelingwekkend: ChatGPT bereikte 1 miljoen gebruikers in slechts vijf dagen."

Met betrekking tot de LLM-strategieën voor trainingsmethoden besprak hij de voordelen van pre-training, fine-tuning en prompt engineering, waarbij hij voor elke methode industriële toepassingen noemde en de beslissingsmatrix voor modelstrategieën op Artefactpresenteerde.

class="lazyload

Naast eigendomskosten, prestaties en beperkingen, sprak Hanan ook over verandermanagement en de manieren waarop generatief AI banen zou kunnen beïnvloeden.

"Het zal onze manier van werken zeker veranderen, maar op Artefact denken we niet dat het beroepen zal uitroeien: het zal de mensen die ze uitoefenen juist versterken."
Hanan Ouazan, Partner Data Science & Lead Generative AI bij Artefact

Een generatief AI-aangedreven fotoplatform voor e-commerce

Keynote panellid Matthieu Rouif is de CEO en medeoprichter van PhotoRoom, een applicatie die al 80 miljoen gebruikers in staat stelt om foto's van studiokwaliteit te maken met een smartphone, met behulp van Stable Diffusion, een generatieve AI technologie voor afbeeldingen.

Sinds de explosie van e-commerce marktplaatsen onder impuls van de COVID-19 pandemie, worden er elk jaar twee miljard foto's bewerkt. En de PhotoRoom app speelt een grote rol door het automatisch knippen, weergeven van schaduwen en het genereren van realistische achtergronden voor handelaren. "We gebruiken generatieve AI om klanten foto's aan te bieden die eruit zien alsof ze door een professionele fotograaf zijn genomen, en voegen zelfs unieke, realistische AI-gegenereerde achtergronden toe in minder dan een seconde," zegt Matthieu.

class="lazyload
"We helpen onze klanten hun bedrijf te laten groeien door ze te voorzien van een overvloed aan goedkope foto's van hoge kwaliteit die hun merk respecteren en hun producten in het best mogelijke licht presenteren om klanten aan te trekken en te behouden."
Matthieu Rouif, CEO & medeoprichter van PhotoRoom

AI opnieuw bekijken voor bedrijven

Igor Carron is de CEO en medeoprichter van LightOn, een Frans organisatie achter het nieuwe generatieve AI platform Paradigm, dat krachtiger is dan GPT-3. Het biedt de meest geavanceerde modellen om servers en te draaien terwijl soevereiniteit voor bedrijven wordt gegarandeerd. Het brengt de meest geavanceerde modellen om servers en data te draaien en tegelijkertijd data soevereiniteit voor bedrijven te garanderen.

In zijn keynote besprak Igor de oorsprong van zijn organisatie. "Toen we LightOn in 2016 oprichtten, bouwden we hardware die licht gebruikte om berekeningen te maken voor AI. Het was een ongebruikelijke aanpak, maar het werkte - onze Optical Processing Unit (OPU), 's werelds eerste fotonische AI co-processor, wordt nu wereldwijd gebruikt door onderzoekers en is geïntegreerd in een van 's werelds grootste supercomputers.

"Sinds 2020, na het verschijnen van GPT, zijn we gaan uitzoeken hoe we onze hardware konden gebruiken om onze eigen LLM's te bouwen - zowel voor eigen gebruik als voor externe klanten. We leerden hoe we LLM's moesten maken en werden er zelfs behoorlijk goed in. Maar toen we voor het eerst met mensen spraken in 2021, 2022, hadden ze geen idee van GPT3, dus moesten we onze doelgroep audience voorlichten.

"We hebben met een klant gewerkt aan een groter model, dat onlangs is uitgebracht op 40 miljard, dat op een unieke manier is getraind om te concurreren met GPT3, maar met veel minder parameters. Dit betekent dat je een veel minder zware hardware-infrastructuur kunt gebruiken zonder dat het je een arm en een been kost."

Igor benadrukt de waarde van grote taalmodellen en zegt:

"Ik denk dat in de toekomst de meeste bedrijven LLM-gebaseerd zullen zijn... Deze tools zullen hen in staat stellen om echte waarde te genereren uit hun eigen data."
Igor Carron, CEO & medeoprichter van LightOn

"Wat we klanten vandaag bieden is een product dat Paradigm heet: het stelt bedrijven in staat om hun eigen data stromen binnen hun organisaties te beheren en om deze data te hergebruiken om deze modellen te hertrainen en te verbeteren. Dit zorgt ervoor dat hun interne processen of producten kunnen profiteren van de intelligentie die is verkregen uit hun interacties met hun LLM's.

"Velen in het Franse of Europese ecosysteem zijn afhankelijk van de Open AI API of andere Noord-Amerikaanse concurrenten." Igor waarschuwt: "Het gevaar van het sturen van je data naar een openbare API is dat het hergebruikt zal worden om opeenvolgende modellen te trainen. Dus, stel dat mensen in de mijnindustrie, die letterlijk weten waar ze goud kunnen vinden, hun technische reports ernaar toe sturen... Over een paar jaar, als je ChatGPT-8 of -9 of wat dan ook vraagt, 'Waar is het goud?' zal het je vertellen waar het goud is!" Hij raadt bedrijven sterk aan om de data die ze intern genereren te gaan gebruiken om hun modellen te trainen.

Een nationale strategie voor generatieve Artificial Intelligence

Yohann Ralle, de laatste keynote spreker, is Generatief AI Specialist bij het Ministerie van Economie, Financiën en Industriële en Digitale Soevereiniteit in Frankrijk. Hij begon met het uitleggen van zijn "toverformule" voor het bouwen van een state-of-the-art LLM: rekenkracht + datasets + fundamenteel onderzoek:

"Wat rekenkracht betreft, heeft de Franse overheid geïnvesteerd in een digitale commons, de supercomputer Jean Zay, die is ontworpen voor de AI gemeenschap. Hiermee kon het Europese meertalige BLOOM-model worden getraind."
Yohann Ralle, Generatief AI Specialist bij het Ministerie van Economie, Financiën en Industriële en Digitale Soevereiniteit in Frankrijk.
class="lazyload

"Wat datasets betreft, hebben initiatieven zoals Agdatahub geholpen bij het aggregeren, annoteren en kwalificeren van leer- en testgegevens data om efficiënte en betrouwbare AI te ontwikkelen - die ook kunnen bijdragen aan het Franse concurrentievermogen. Wat fundamenteel onderzoek betreft, heeft de nationale strategie geholpen bij het structureren van het AI ecosysteem voor onderzoek en ontwikkeling met de oprichting van de 3IA-instituten, de financiering van doctoraatscontracten, de lancering van het IRT Saint Exupéry en SystemX projecten, meerdere opleidingsprogramma's voor studenten en nog veel meer in Frankrijk en Europa."

Rondetafelgesprek Generatief AI onder leiding van Vincent Luciani, CEO van Artefact

Is AI geslaagd voor de Turingtest (d.w.z. heeft AI intelligentie van menselijk niveau bereikt)?

Hoewel de vraag gemengde reacties opriep, is de algemene consensus dat intelligentie er wel degelijk is, maar intentionaliteit niet.

Matthieu: "Ik denk dat het... Je hebt het gevoel dat er iemand is, zolang je niet naar data vraagt. Er is een tijdelijke kant die niet werkt."
Igor: "Mijn vraag is waarom je die vraag stelde? Omdat de Turingtest niet erg interessant is voor het bedrijfsleven. Maar, in termen van interactie, ja, je kunt zeggen dat AI de test heeft doorstaan."

Yohann: "De Turingtest is erg subjectief. Er is een risico wanneer we menselijke eigenschappen toeschrijven aan AI, wanneer we antropomorfiseren. Denk maar aan het geval van Google-ingenieur Blake Lemoine, die geloofde dat de LaMDA-chatbot waarmee hij praatte een bewustzijn had gekregen... De Turingtest is een interessante oefening, meer niet."

Hanan: "Wat betreft ChatGPT komen we in de buurt, maar we zijn er nog niet."

Is de komst van ChatGPT een revolutie, een evolutie of een onderdeel van een continuüm?

Igor: "Hoewel de langetermijnimpact van ChatGPT op LLM's nog niet volledig kan worden begrepen, zullen er na verloop van tijd nieuwe toepassingen voor deze technologieën ontstaan die belangrijke maatschappelijke implicaties hebben. De discussie is interessant, maar de belangrijkste factor zijn de daadwerkelijke wetenschappelijke artikelen waarin de verbeteringen aan LLM's gedetailleerd worden beschreven. De huidige en potentiële praktische toepassingen van deze modellen mogen niet over het hoofd worden gezien of onderschat."

Wat zijn de meest veelbelovende use cases voor bedrijven? Bots, beeldgeneratie?

Hanan: "Uiteraard zijn chatbots altijd al belangrijk geweest op AI en dat zal ook zo blijven, want nu, met ChatGPT, kun je er een binnen 48 uur opzetten door hem te koppelen aan een database, dat is geweldig. Een andere use case is het creëren van autonome agents die specifieke taken kunnen uitvoeren zonder menselijke tussenkomst, zoals een reisagent die al je tickets voor hotels en restaurants reserveert voor een bezoek aan Italië."

Yohann: "Ik zie veel mogelijkheden voor CGT-plugins, zoals Kayak of Booking. Ik denk dat het de digitale omgeving zal herstructureren, waarbij OpenAI de aggregators zal samenvoegen."

Igor: "Ik zie een mogelijkheid voor het aanpassen van enterprise LLM's. Naast data lakes zullen bedrijven gaan begrijpen hoe ze ongestructureerd data kunnen gebruiken en hoe ze intern met privé LLM's echte waarde kunnen genereren uit hun data . Tegelijkertijd denk ik dat we dankzij ChatGPT dramatische veranderingen zullen zien in de manier waarop mensen zoeken en het internet gebruiken."

Vincent: Ik denk dat er een samensmelting komt van interne corporate data en LLM's tot een soort 'Master FAQ+' die kan worden opgevraagd door zoek- of augmented agents. Het concept van zoekopdrachten evolueert: kopen mensen morgen één of meerdere trefwoorden, of kopen ze een concept? In reclame was het altijd de bedoeling om op mensen te vertrouwen, audience-gebaseerd; nu we persoonlijke data beschermen, gaan we in de richting van contextgebaseerd. En dat kan leiden tot interessantere reclame."

Hoe wordt generatief AI tegenwoordig gebruikt in organisaties? Heeft het invloed op de werkgelegenheid?

Matthieu: "We hebben geluk, een van onze concurrentievoordelen is dat AI in ons DNA zit. Intern stimuleren we het gebruik van meer generatieve tools. Ons technische team gebruikt Copilot voor ontwikkeling en onze programmeurs gebruiken zowel ChatGPT als Copilot. We zijn creatiever met deze tools. Wat betreft werkgelegenheid: we groeien, dus we zijn van plan om nieuwe mensen aan te nemen... maar tegelijkertijd, als we geweldige software hebben, kunnen we meer doen met kleinere teams."

Igor: "We hebben altijd met een klein team gewerkt - zeven of acht mensen - om hetzelfde hoge niveau van technische bekwaamheid te bereiken als bijvoorbeeld Google, waar de teams tien keer zo groot zijn. Onze kleine teams hebben een volledig onevenredig effect. Het is een verkeerd idee om te geloven dat je een groot team nodig hebt om grote dingen te bereiken."

Yohann: "Tien jaar geleden zei een Amerikaanse studie dat binnen 20 jaar 47% van de banen verloren zou gaan door AI , maar we zien dat dit niet gebeurt. Een recenter onderzoek van de OESO zei dat het dichter bij 14% lag. Ik denk dat we moeten denken in termen van taken, niet van banen. Zoals vermeld in een recent onderzoek van OpenAI, zal 80 tot 90% van de banen beïnvloed worden door generatieve AI - maar dat betekent eigenlijk dat 90% van de werknemers beïnvloed zal worden door 10% van hun taken. Wat interessant is, is dat de notie van beroepen waarvan we dachten dat ze onaantastbaar waren voor AI op de proef wordt gesteld, zoals beroepen in de creatieve, juridische, financiële en andere sectoren. De Franse regering heeft Le LaborIA in het leven geroepen om deze kwesties te onderzoeken."

Wat zijn de beperkingen rond soevereiniteit en regelgeving voor deze modellen?

Hanan: "De eerste beperking betreft intellectueel eigendom (IP). Vandaag de dag hebben we drie soorten modellen: publieke modellen, zoals ChatGPT, waarbij de data die je verstuurt gebruikt kan worden voor commerciële doeleinden; private modellen zonder eigenaar van het IP, zoals Google's API op Lamba; en zelf geïnstalleerde open-source modellen. Data soevereiniteit is een probleem aangezien GPT en PaLM niet Europees maar Amerikaans eigendom zijn."

Yohann: "Regelgeving is een groot probleem in Europa. Italië heeft het gebruik van ChatGPT volledig verboden in afwachting van een onderzoek naar de vraag of de applicatie voldoet aan de GDPR-privacyregels. OpenAI moet extreem duidelijk zijn over hun gebruik van persoonlijke data door bijvoorbeeld een disclaimer te presenteren waarin staat dat ze persoonlijke data gebruiken en door gebruikers de mogelijkheid te bieden zich af te melden voor data en hun data te laten wissen. Een ander probleem met betrekking tot de beperkingen van LLM's zijn hallucinaties: ze geven vaak verkeerde antwoorden, wat ernstig kan zijn als het verzoek een publiek figuur betreft en het model een 'nepnieuws' verhaal genereert dat de persoon in kwestie echt schade kan berokkenen."

Vincent: "Heb je je verdiept in de kwestie van IP en de problemen die de rechtszaak van Getty Images tegen Stability AI oproept? Er zijn veel vragen over het schrapen van het internet voor afbeeldingen om modellen te trainen..."

Yohann: "We denken erover na. Open source zou een manier kunnen zijn om schone, auteursrechtvrije databases en datasets te maken die het intellectuele eigendom respecteren."

Matthieu: "Wat betreft persoonlijke data en producten: wat ervoor zorgt dat ChatGPT of Midjourney of PhotoRoom goed werken, is niet persoonlijk data, maar feedback van klanten."

Yohann: "Feedback van gebruikers is ideaal, maar het verzamelen ervan is onbetaalbaar in het geval van LLM's."

Igor: "Waar is het geld? Dat is mijn vraag. Alle problemen die je hebt genoemd zijn technisch en we kunnen ze niet oplossen totdat we het geld hebben om ingenieurs in te huren en een ecosysteem op te zetten, en we zijn er gewoon nog niet klaar voor."

Nu er steeds meer LLM's worden gebouwd, denk je dat er een GPU-"oorlog" komt?

Yohann: "Het is een reëel risico. Op dit moment heeft NVIDIA hier een monopolie, zij beheersen de markt en de prijzen. Er zijn helaas geen echte concurrenten in Europa. Het is per definitie een beperkte bron, een zeldzame bron, dus het is een serieuze strijd."

Matthieu: "Het gebrek aan beschikbaarheid van GPU's beperkt niet alleen onze productiviteit, maar ook de groei van bedrijven overal in Europa."

Igor: "Sinds we begonnen als hardwareproducent, werden we in 2016 al met dit probleem geconfronteerd... Vandaag de dag zijn er mensen die bij onze concurrenten werken wier fulltime baan het is om genoeg GPU's te vinden om modellen te trainen... De markt explodeert, maar de chipproductie kan het niet bijhouden - nergens ter wereld."

Hanan: "Er zal onvermijdelijk een GPU-bottleneck zijn, maar we kunnen leren om efficiënter te zijn, dat moeten we. En we moeten kijken hoe we open source kunnen integreren in onze bedrijven, niet alleen hoe we alle nieuwste technologieën kunnen gebruiken."

Waar ziet u de meeste waarde voor de toekomst? Open source modellen? LLM's?

Matthieu: "Bij PhotoRoom gebruiken we open source, het stelt ons in staat om sneller te gaan en onze eigen IP te ontwikkelen. We hebben een brede Hugging Face-gemeenschap in Parijs die ons essentiële feedback geeft."

Igor: "We gebruiken LLM's, maar we zijn niet getrouwd met dat bedrijfsmodel. We zouden open source kunnen gebruiken. Het belangrijkste is dat we in staat zijn en weten hoe we onze eigen data kunnen hergebruiken om toekomstige modellen te trainen. Het doel is een industrie die deze modellen aanpast voor andere bedrijven."

Yohann: "De evolutie van open source versus proprietary heeft generatieve AI gedreven. De AI gemeenschap werkte samen zodat andere actoren konden profiteren van dit fundamentele onderzoek om hun eigen modellen te bouwen. Ik vraag me af of de prestaties van deze open source-modellen niet lager zullen zijn dan die van proprietary-modellen, maar dat kan veranderen. In ieder geval moet je je afvragen of Google er geen spijt van heeft dat ze de deuren naar hun ChatGPT-technologie hebben geopend!"

De ronde tafel werd gevolgd door een audience Q & A sessie, met een bijzonder geanimeerde discussie over het gebrek aan vrouwen in tech. Yohann ging in op verschillende maatregelen die de Franse regering neemt op het gebied van onderwijs die specifiek gericht zijn op meisjes en vrouwen, terwijl Vincent sprak over wat er wordt gedaan door de Artefact School of Data, het Women@Artefact initiatief en andere techbedrijven om te proberen de situatie te verbeteren.

Andere vragen gingen over inclusiviteit voor het gebruik van LLM's door mensen met autisme en andere handicaps; het probleem van AI hallucinaties; de maatregelen die bedrijven van plan zijn te nemen om het milieu te beschermen; de rol van Europa versus Frankrijk met betrekking tot het schrapen van internet voor data. Om te zien hoe de deelnemers deze vragen beantwoordden, bekijk de conferentie replay.