El papel de las categorías en AI ayer y hoy

La llegada de AI y el aprendizaje automático ha puesto en tela de juicio las formas tradicionales de categorizar a las personas y los contenidos, lo que ha dado lugar a nuevas formas de concebir los problemas y, potencialmente, a nuevos problemas de parcialidad o discriminación.

Los sistemas tradicionales de AI se basaban en reglas y conocimientos expertos. Por ejemplo, si un banco se planteaba conceder un préstamo a alguien, podía clasificar a los candidatos en función de atributos como el sexo, la profesión u otros datos demográficos data. Pero con los modelos actuales de aprendizaje automático y aprendizaje profundo AI , se está produciendo un alejamiento de las categorías rígidas. En lugar de aplicar categorías como "mujer de determinada edad y nivel socioeconómico", la atención se ha desplazado a la recopilación de grandes cantidades de datos de comportamiento data. Este data puede incluir cosas como transacciones bancarias o historial de navegación. La idea es que, a partir de esta información detallada data, se puedan tomar decisiones sin depender de categorías predefinidas que pueden reforzar la discriminación.

Este cambio no es sólo técnico: también plantea cuestiones filosóficas sobre cómo se construyen las categorías, su impacto en la sociedad y las consideraciones éticas de su uso en los sistemas de AI .

La ley AI : Personal data y responsabilidad

El panorama actual de la legislación AI , ejemplificado por la Ley AI , revela una tensión fundamental entre las categorías legislativas tradicionales y la naturaleza evolutiva de las herramientas técnicas. La Ley AI legisla los sistemas AI en función de su uso en lugar de clasificarlos en categorías rígidas, reconociendo que los riesgos e implicaciones de AI están estrechamente ligados al contexto de uso. Por ejemplo, la Ley introduce IA versátiles capaces de aplicaciones polifacéticas. El reto consiste en estimar su riesgo, pero ¿cómo puede evaluarse el riesgo de algo cuando sus usos aún no están claramente definidos?

El paso del aprendizaje automático tradicional a AI generativo más avanzado difumina aún más las fronteras entre uso y responsabilidad. Por ejemplo, un chatbot de comercio minorista que utilice AI generativo puede utilizar herramientas internas e información sobre productos para ofrecer recomendaciones o responder a preguntas frecuentes. Pero también podría ser objeto de un uso indebido, como preguntas ofensivas destinadas a obtener respuestas tóxicas para publicaciones en las redes sociales. Esto plantea cuestiones críticas para las empresas: ¿dónde reside la responsabilidad de gestionar estos riesgos? ¿Es responsabilidad exclusiva del atacante si explota el sistema, o recae también en los creadores e implantadores de AI?

A medida que aumenta el número de actores dentro del ecosistema AI , la responsabilidad se dispersa cada vez más. No sólo el implantador del sistema AI puede ser responsable; también puede serlo la entidad que produce el modelo fundacional. Cuando se producen incidentes, determinar quién se lleva la peor parte de la responsabilidad se convierte en una tarea compleja, especialmente cuando los actores están dispersos por diferentes organizaciones e incluso ubicaciones geográficas.

AI normativa y ética empresarial

Marcos como la Ley AI deben abordar la tensión entre los paradigmas reguladores convencionales y el dinámico panorama actual de AI . Las estrategias reguladoras adaptables son esenciales para dar cabida a la naturaleza polifacética de los sistemas AI y sus implicaciones. 

Las empresas pueden aprovechar las enseñanzas de la categorización para perfeccionar las estrategias de segmentación de clientes, adaptar las campañas de marketing y personalizar las experiencias de los clientes. Además, al incorporar consideraciones éticas en los procesos de desarrollo de AI , las empresas pueden mitigar los riesgos de parcialidad y discriminación, fomentando la confianza y la transparencia con las partes interesadas.

La importancia de las categorías radica en su papel como marco social para comprender y evaluar el mundo. Unas categorías bien afinadas son esenciales para representar voces diversas, especialmente las afectadas por los prejuicios de AI . Es fundamental contar con la participación de un amplio abanico de partes interesadas, incluidos los usuarios de AI y las personas afectadas.

"Las categorías actúan como una lente a través de la cual podemos evaluar y abordar los matices y posibles sesgos de los sistemas de AI . Son cruciales para proporcionar un lenguaje y un entendimiento comunes entre las partes interesadas y garantizar que AI siga desarrollándose y desplegándose de forma responsable y ética."
Jean-Marie John-Mathews

Visite thebridge.artefact.com, la plataforma mediática que democratiza el conocimiento de data y AI , en vídeos y podcasts.