El papel de las categorías en AI y hoy

La llegada de AI el aprendizaje automático ha puesto en tela de juicio las formas tradicionales de clasificar a las personas y los contenidos, lo que ha dado lugar a nuevas formas de abordar los problemas y, potencialmente, a nuevos problemas de sesgo o discriminación.

AI tradicionales AI se basaban en conocimientos especializados y reglas. Por ejemplo, si un banco se planteaba conceder un préstamo a alguien, podía clasificar a los candidatos en función de atributos como el género, la profesión u otros data demográficos. Sin embargo, con AI actuales AI basados en el aprendizaje automático y el aprendizaje profundo, se está abandonando el uso de categorías rígidas. En lugar de aplicar categorías como «mujer de una edad y un origen socioeconómico determinados», la atención se ha desplazado hacia la recopilación de grandes cantidades de data de comportamiento. Estos data incluir aspectos como transacciones bancarias o el historial de navegación. La idea es que, al analizar estos data detallados, se puedan tomar decisiones sin depender de categorías predefinidas que puedan reforzar la discriminación.

Este cambio no es meramente técnico: también plantea cuestiones filosóficas sobre cómo se construyen las categorías, cómo influyen en la sociedad y las consideraciones éticas que conlleva su uso en AI .

AI : data personales data responsabilidad

El panorama actual de AI , ejemplificado por la AI , pone de manifiesto una tensión fundamental entre las categorías legislativas tradicionales y la naturaleza cambiante de las herramientas técnicas. AI regula AI en función de su uso, en lugar de clasificarlos en categorías rígidas, reconociendo que los riesgos y las implicaciones de AI estrechamente vinculados al contexto de uso. Por ejemplo, la Ley introduce IA versátiles capaces de aplicaciones multifacéticas. El reto consiste en estimar su riesgo, pero ¿cómo se puede evaluar el riesgo de algo cuando sus usos aún no están claramente definidos?

El paso del aprendizaje automático tradicional a AI generativa más avanzada difumina AI los límites entre el uso y la responsabilidad. Por ejemplo, un chatbot minorista que utilice AI generativa AI emplear herramientas internas e información sobre productos para ofrecer recomendaciones o responder a preguntas frecuentes. Pero también podría ser objeto de un uso indebido, como consultas ofensivas destinadas a provocar respuestas tóxicas para publicaciones en redes sociales. Esto plantea cuestiones fundamentales para las empresas: ¿en quién recae la responsabilidad de gestionar estos riesgos? ¿Es responsabilidad exclusiva del atacante si explota el sistema, o recae también sobre los creadores y los responsables de la implementación de AI?

A medida que aumenta el número de actores dentro del AI , la responsabilidad se va dispersando cada vez más. No solo el responsable del despliegue AI puede ser considerado responsable; también puede serlo la entidad que crea el modelo base. Cuando se producen incidentes, determinar quién asume la mayor parte de la responsabilidad se convierte en una tarea compleja, especialmente cuando los actores se encuentran repartidos por diferentes organizaciones e incluso por distintas ubicaciones geográficas.

AI y aplicaciones empresariales éticas

Las normativas como la AI deben abordar la tensión existente entre los paradigmas reguladores convencionales y AI dinámico AI actual AI . Las estrategias reguladoras adaptativas son esenciales para dar respuesta a la naturaleza multifacética de AI y a sus implicaciones. 

Las empresas pueden aprovechar las lecciones aprendidas de la categorización para perfeccionar sus estrategias de segmentación de clientes, adaptar sus campañas de marketing y personalizar las experiencias de los clientes. Además, al incorporar consideraciones éticas en los procesos AI , las empresas pueden mitigar los riesgos de sesgo y discriminación, fomentando así la confianza y la transparencia con las partes interesadas.

La importancia de las categorías radica en su función como marco social que nos permite comprender y evaluar el mundo. Es fundamental contar con categorías bien definidas para dar voz a la diversidad, especialmente a aquellas personas afectadas por AI . Es fundamental contar con la participación de una amplia gama de partes interesadas, incluidos AI y las personas afectadas.

«Las categorías actúan como una lente a través de la cual podemos evaluar y abordar los matices y los posibles sesgos de AI . Son fundamentales para proporcionar un lenguaje y un entendimiento comunes entre las partes interesadas, y para garantizar que AI desarrollándose y aplicándose de forma responsable y ética».
Jean-Marie John-Mathews

Visita thebridge.artefact.com, la plataforma multimedia que pone al alcance de todos data AI a través de vídeos y podcasts.