A medida que aumenta el interés por las soluciones de AI y su integración, las empresas se ven en la imperiosa necesidad de emprender iniciativas que garanticen una gobernanza adecuada del diseño y el uso de AI .

Una gobernanza inadecuada de AI pone a las organizaciones en riesgo de incumplir los requisitos normativos, comprometer su proceso de toma de decisiones y no satisfacer las expectativas de los clientes.

class="img-responsive

Por ejemplo, la falta de comprensión de la legislación que regula AI puede dar lugar a infracciones involuntarias que pueden acarrear importantes multas para las empresas. Además, una mala gestión de data compromete la calidad de data , lo que afecta negativamente a los resultados de los modelos de AI y, en consecuencia, a la toma de decisiones y a la eficiencia operativa, causando en última instancia pérdidas financieras.

Por último, el uso de AI en situaciones sin sólidas consideraciones éticas puede dañar la credibilidad de Compañiay crear una brecha de confianza con los clientes, como el uso de algoritmos que discriminan involuntariamente en función de datos demográficos data. Las empresas deben abordar estos retos de gobernanza para garantizar el uso responsable y ético de AI, salvaguardando así sus operaciones y manteniendo la confianza de las partes interesadas.

"La Ley AI establece normas de calidad data , transparencia, supervisión humana y responsabilidad AI . En Artefact, aconsejamos a los clientes que sigan siete imperativos para diseñar soluciones AI conformes".
Nawras Akroush, Data Consultora estratégica en Artefact NL

Legislación emergente AI : Regulación del uso y adopción de AI para las empresas.

Uno de los aspectos más complicados de la gobernanza de AI es la capacidad de las empresas para cumplir la normativa que regula su uso y aplicación. La más notable de estas normativas es la Ley AI de la UE, propuesta por la Comisión Europea en 2021. Esta ley pretende establecer requisitos y obligaciones claros para los desarrolladores, implantadores y usuarios de AI , al tiempo que alivia las cargas administrativas y financieras, especialmente para las pequeñas y medianas empresas (PYME). Aunque está pendiente de adopción formal por los legisladores de la UE, se ha alcanzado un acuerdo provisional, lo que indica que se espera que se convierta en ley. Los expertos prevén su adopción plena a mediados de 2024 y su entrada en vigor a principios de 2026.

data La Ley AI establece normas de calidad, transparencia, supervisión humana y responsabilidad de los sistemas AI . También establece un marco para clasificar el riesgo de los sistemas AI en función de su impacto potencial sobre la salud, la seguridad y los derechos humanos fundamentales. La ley define cuatro categorías de riesgo para las soluciones AI :

  • Riesgo inaceptable: Se trata de las soluciones de AI que suponen una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas, por lo que se prohíbe totalmente su uso.

  • Alto riesgo: Esta categoría cubre las soluciones AI de alto riesgo desplegadas en áreas críticas como infraestructuras, educación o formación, gestión de controles fronterizos, etc. Estas soluciones estarán sujetas a estrictas obligaciones antes de su despliegue.

  • Riesgo limitado: Esta categoría incluye los sistemas de AI que tienen obligaciones específicas de transparencia, pero que no suponen un riesgo elevado para sus usuarios. Por ejemplo, al interactuar con sistemas de AI como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para que puedan tomar decisiones informadas sobre si continuar o no. Esto se permitirá si se cumple la ley.

  • Riesgo mínimo: Se refiere a los sistemas AI con riesgos insignificantes, como los videojuegos compatibles con AI, que pueden utilizarse libremente.

Artefactde la UE: Características de una solución conforme AI

Basándonos en los requisitos de la Ley AI de la UE y en nuestra experiencia en gobernanza y cumplimiento de data y AI , aconsejamos a nuestros clientes que tengan en cuenta siete imperativos no negociables en cualquier diseño o implantación de soluciones AI :

class="img-responsive

Para desarrollar e implantar eficazmente soluciones AI acordes con estos imperativos de diseño y garantizar una gobernanza adecuada de AI para evitar riesgos legales, de rendimiento y de reputación, muchas empresas tendrán que realizar cambios organizativos significativos. Entre ellos se incluyen:

  • Introducción de funciones y responsabilidades para la gobernanza de AI ;

  • Definir un modelo operativo de gobernanza AI adecuado dentro de la estructura organizativa;

  • Esbozar las políticas y procedimientos necesarios para la aplicación de la gobernanza de AI ;

  • Determinar las herramientas y tecnologías necesarias para apoyar la gobernanza de AI ;

  • Establecer protocolos de control adecuados para el cumplimiento del sistema AI .

Implantar el cambio en todos estos pilares organizativos puede ser un proceso difícil y lento, por lo que Artefact anima a las empresas a empezar a desarrollar e integrar los marcos de gobernanza de AI . Esto garantizará el cumplimiento de futuras normativas y ayudará a satisfacer las expectativas de los clientes.

Necesidad urgente: La importancia de adoptar proactivamente soluciones conformes AI

En el dinámico mundo de la tecnología AI , los líderes empresariales deben adoptar una postura proactiva para posicionar a sus organizaciones como líderes en la adopción responsable de AI . Esto les permitirá fomentar la innovación al tiempo que mantienen las obligaciones éticas y el cumplimiento de la normativa. En esta era de rápido desarrollo tecnológico y evolución de la normativa, un enfoque estratégico y comprometido de la gobernanza de AI será un elemento clave del éxito sostenible.

¿Quieres saber más sobre este tema? Esté atento a la segunda parte de esta serie, donde profundizaremos en un marco que las empresas pueden utilizar para establecer una gobernanza adecuada de AI dentro de sus organizaciones.