Le rôle des catégories dans l'IA hier et aujourd'hui
L'avènement de l'intelligence artificielle et de l'apprentissage automatique a remis en question les méthodes traditionnelles de classification des personnes et des contenus, donnant lieu à de nouvelles façons d'aborder les problèmes et, potentiellement, à de nouveaux enjeux liés aux préjugés ou à la discrimination.
Les systèmes d'IA traditionnels reposaient sur des connaissances d'experts et des règles. Par exemple, si une banque envisageait d'accorder un prêt à quelqu'un, elle pouvait classer les candidats en fonction de critères tels que le sexe, la profession ou d'autres data démographiques. Mais avec les modèles d'IA actuels basés sur l'apprentissage automatique et l'apprentissage profond, on s'éloigne des catégories rigides. Au lieu d'appliquer des catégories telles que « femme d'un certain âge et d'un certain milieu socio-économique », l'accent est désormais mis sur la collecte de vastes quantités data comportementales. Ces data inclure des éléments tels que les transactions bancaires ou l'historique de navigation. L'idée est qu'en examinant ces data granulaires, il est possible de prendre des décisions sans s'appuyer sur des catégories prédéfinies susceptibles de renforcer la discrimination.
Ce changement n'est pas seulement d'ordre technique : il soulève également des questions philosophiques sur la manière dont les catégories sont construites, sur leur impact sur la société et sur les considérations éthiques liées à leur utilisation dans les systèmes d'IA.
La loi sur l'IA : data à caractère personnel data responsabilité
Le paysage actuel de la législation sur l'IA, illustré par la loi sur l'IA, met en évidence une tension fondamentale entre les catégories législatives traditionnelles et la nature évolutive des outils techniques. L'AI Act légifère sur les systèmes d'IA en fonction de leur utilisation plutôt qu'en les classant dans des catégories rigides, reconnaissant que les risques et les implications de l'IA sont étroitement liés au contexte d'utilisation. Par exemple, la loi introduit des IA polyvalentes capables d'applications multiples. Le défi consiste à estimer leur risque, mais comment évaluer le risque d'une chose dont les utilisations ne sont pas encore clairement définies ?
Le passage de l'apprentissage automatique traditionnel à une IA générative plus avancée brouille encore davantage les frontières entre utilisation et responsabilité. Par exemple, un chatbot destiné au commerce de détail et utilisant l'IA générative peut exploiter des outils internes et des informations sur les produits pour proposer des recommandations ou répondre à des questions fréquentes. Mais il pourrait également faire l'objet d'abus, tels que des demandes offensantes visant à susciter des réponses toxiques pour des publications sur les réseaux sociaux. Cela soulève des questions cruciales pour les entreprises : à qui incombe la responsabilité de gérer ces risques ? La responsabilité incombe-t-elle uniquement à l'attaquant s'il exploite le système, ou repose-t-elle également sur les créateurs et les déployeurs de l'IA ?
À mesure que le nombre d'acteurs au sein de l'écosystème de l'IA augmente, la responsabilité se disperse de plus en plus. La responsabilité ne repose pas uniquement sur celui qui déploie le système d'IA ; elle peut également incomber à l'entité qui produit le modèle de base. En cas d'incident, déterminer qui en porte la responsabilité principale devient une tâche complexe, surtout lorsque les acteurs sont répartis entre différentes organisations, voire dans des zones géographiques distinctes.
Réglementation de l'IA et applications commerciales éthiques
Les cadres réglementaires tels que la loi sur l'IA doivent tenir compte de la tension qui existe entre les paradigmes réglementaires traditionnels et le paysage dynamique actuel de l'IA. Des stratégies réglementaires adaptatives sont indispensables pour prendre en compte la nature multiforme des systèmes d'IA et leurs implications.
Les entreprises peuvent tirer parti des enseignements tirés de la catégorisation pour affiner leurs stratégies de segmentation de la clientèle, adapter leurs campagnes marketing et personnaliser l'expérience client. De plus, en intégrant des considérations éthiques dans les processus de développement de l'IA, les entreprises peuvent réduire les risques de partialité et de discrimination, favorisant ainsi la confiance et la transparence auprès des parties prenantes.
L'importance des catégories réside dans leur rôle de cadre social qui nous permet de comprendre et d'évaluer le monde. Des catégories bien définies sont indispensables pour donner la parole à la diversité des voix, en particulier à celles qui sont touchées par les biais de l'IA. Il est essentiel d'impliquer un large éventail de parties prenantes, notamment les utilisateurs de l'IA et les personnes concernées.
« Les catégories constituent un prisme à travers lequel nous pouvons évaluer et prendre en compte les nuances et les biais potentiels des systèmes d'IA. Elles sont essentielles pour établir un langage commun et une compréhension partagée entre les parties prenantes, et pour garantir que l'IA continue d'être développée et déployée de manière responsable et éthique. »Jean-Marie John-Mathews

BLOG





