De rol van categorieën in AI gisteren en vandaag

De komst van AI en machine learning heeft traditionele manieren om mensen en inhoud te categoriseren op de proef gesteld, wat heeft geleid tot nieuwe manieren van denken over problemen en mogelijk nieuwe kwesties van vooroordelen of discriminatie.

Traditionele AI systemen waren gebaseerd op expertkennis en regels. Als een bank bijvoorbeeld overweegt om iemand een lening te verstrekken, categoriseren ze kandidaten op basis van kenmerken zoals geslacht, beroep of andere demografische data. Maar met de huidige modellen voor machine learning en deep learning AI wordt afgestapt van starre categorieën. In plaats van categorieën toe te passen zoals "vrouwen van een bepaalde leeftijd en sociaaleconomische achtergrond", is de focus verschoven naar het verzamelen van enorme hoeveelheden gedrag data. Deze data kan dingen bevatten zoals banktransacties of browsergeschiedenis. Het idee is dat door te kijken naar deze granulaire data, beslissingen kunnen worden genomen zonder te vertrouwen op vooraf gedefinieerde categorieën die discriminatie kunnen versterken.

Deze verschuiving is niet alleen technisch: ze roept ook filosofische vragen op over hoe categorieën worden geconstrueerd, hoe ze de samenleving beïnvloeden en de ethische overwegingen bij het gebruik ervan binnen AI systemen.

De wet AI : Persoonlijke data en verantwoordelijkheid

Het huidige landschap van AI wetgeving, geïllustreerd door de AI Act, onthult een fundamentele spanning tussen traditionele wetgevende categorieën en de evoluerende aard van technische hulpmiddelen. De Wet AI maakt wetgeving voor AI systemen op basis van gebruik in plaats van ze in rigide categorieën in te delen, en erkent dat de risico's en implicaties van AI nauw verbonden zijn met de gebruikscontext. De wet introduceert bijvoorbeeld veelzijdige AI's die in staat zijn tot veelzijdige toepassingen. De uitdaging is om hun risico in te schatten, maar hoe kan het risico van iets worden beoordeeld als het gebruik ervan nog niet duidelijk is gedefinieerd?

De verschuiving van traditionele machine learning naar meer geavanceerde generatieve AI doet de grenzen tussen gebruik en verantwoordelijkheid verder vervagen. Een retailchatbot die gebruik maakt van generatief AI kan bijvoorbeeld interne tools en productinformatie gebruiken om aanbevelingen te doen of FAQ's te beantwoorden. Maar het kan ook te maken krijgen met misbruik, zoals beledigende vragen gericht op het ontlokken van giftige reacties voor berichten op sociale media. Dit roept kritische vragen op voor bedrijven: waar ligt de verantwoordelijkheid voor het beheren van deze risico's? Is het alleen de verantwoordelijkheid van de aanvaller als hij misbruik maakt van het systeem, of ligt de verantwoordelijkheid ook bij de makers en implementeerders van de AI?

Naarmate het aantal spelers binnen het AI ecosysteem toeneemt, raakt de verantwoordelijkheid steeds meer verspreid. Niet alleen de uitrol van het AI systeem kan verantwoordelijk zijn, maar ook de entiteit die het basismodel produceert. Wanneer zich incidenten voordoen, wordt het een complexe taak om te bepalen wie de grootste verantwoordelijkheid draagt, vooral wanneer de spelers verspreid zijn over verschillende organisaties en zelfs geografische locaties.

AI regelgeving en ethische bedrijfstoepassingen

Kaders zoals de AI Act moeten het spanningsveld aanpakken tussen conventionele regelgevingsparadigma's en het huidige dynamische AI landschap. Adaptieve regelgevende strategieën zijn essentieel om de veelzijdige aard van AI systemen en hun implicaties te accommoderen. 

Bedrijven kunnen lessen uit categorisatie gebruiken om klantsegmentatiestrategieën te verfijnen, marketingcampagnes op maat te maken en klantervaringen te personaliseren. Bovendien kunnen bedrijven, door ethische overwegingen op te nemen in AI ontwikkelingsprocessen, risico's op vooroordelen en discriminatie beperken en het vertrouwen en de transparantie met belanghebbenden bevorderen.

Het belang van categorieën ligt in hun rol als ons sociale kader om de wereld te begrijpen en te evalueren. Fijn afgestemde categorieën zijn essentieel voor het vertegenwoordigen van verschillende stemmen, vooral diegenen die beïnvloed worden door AI vooroordelen. Het is van cruciaal belang om een breed scala aan belanghebbenden te betrekken, waaronder AI gebruikers en betrokken individuen.

"Categorieën fungeren als een lens waardoor we de nuances en mogelijke vooroordelen in AI systemen kunnen evalueren en aanpakken. Ze zijn cruciaal voor het bieden van een gemeenschappelijke taal en begrip onder belanghebbenden en om ervoor te zorgen dat AI op een verantwoorde en ethisch verantwoorde manier ontwikkeld en gebruikt blijft worden."
Jean-Marie John-Mathews

Bezoek thebridge.artefact.com, het mediaplatform dat data & AI kennis democratiseert, in video's en podcasts.