Si tu jefe te pide una cifra clave y utilizas el «GPT interno ultraseguro» Compañiatu Compañiapara obtener la información —solo para que el resultado sea incorrecto—, ¿de quién es la culpa? La respuesta, como todos sabemos, es tuya, por no haber validado el resultado. Esto crea una paradoja: mientras las empresas impulsan AI acelerar la toma de decisiones, atribuyen a los humanos la responsabilidad última de los resultados AI. La pregunta entonces es: ¿cuál es el punto óptimo entre AI y la supervisión humana?
Históricamente, hemos considerado las máquinas como herramientas binarias: o funcionan bien o mal (por ejemplo, una calculadora que diera como resultado que 1 + 1 = 3 se consideraría inmediatamente estropeada). Pero AI en probabilidades, al igual que el razonamiento humano. Esto exige un cambio de mentalidad: debemos dejar de tratar AI como respuestas definitivas y empezar a considerarlos como aportaciones a un proceso de toma de decisiones más amplio.
Para afinar este equilibrio, debemos analizar cómo abordan las empresas la toma de decisiones. Todo gira en torno a una sola palabra: riesgo; concretamente, las consecuencias económicas de equivocarse. Las jerarquías organizativas lo reflejan claramente:
- Las decisiones operativas (por ejemplo, el envío de existencias o el ajuste de los colores de los anuncios) entrañan un riesgo bajo y unos costes reversibles.
- Las decisiones estratégicas (por ejemplo, el lanzamiento de un producto o la expansión a nuevos mercados) conllevan un alto riesgo, supuestos abstractos y resultados impredecibles.
Los seres humanos siguen la misma lógica basada en el riesgo. Cuanto más abstractas e inciertas son las hipótesis en las que se basa una decisión, mayor es el nivel jerárquico necesario para aprobarla. Las decisiones de un director general (por ejemplo, predecir los cambios del mercado o el comportamiento de los consumidores) se basan en data caóticos y ambiguos, mientras que los cálculos de inventario de un responsable se basan en tendencias históricas concretas.
Si lo trasladamos al ámbito de AI: el nivel de responsabilidad humana debería estar en consonancia con el grado de abstracción de los data los supuestos en los que se basa el resultado AI. Por ejemplo:
- Bajo nivel de abstracción (por ejemplo, previsión de la demanda a partir del historial de ventas): supervisión humana mínima.
- Alto nivel de abstracción (por ejemplo, estrategias de entrada en el mercado basadas en el análisis del sentimiento): el criterio humano es imprescindible.
La doble paradoja: la mayor fortaleza AI—saber lidiar con la ambigüedad— es también su mayor debilidad. Su verdadero valor se pone de manifiesto en decisiones de alto riesgo e inciertas, en las que los seres humanos deben procesar enormes cantidades de data. Sin embargo, paradójicamente, es precisamente en estos casos donde los seres humanos deben confiar más en el razonamiento probabilístico, al tiempo que la responsabilidad recae principalmente sobre ellos, lo que genera una tensión inherente:
- Por un lado, AI en situaciones caóticas (por ejemplo, al predecir las tendencias de consumo en un mercado volátil) porque procesa enormes conjuntos de datos que los seres humanos no pueden manejar.
- Por otro lado, los seres humanos son los únicos responsables de las decisiones que se toman en esas mismas situaciones, aunque los data los data sean intrínsecamente inestables.
El poder único de los modelos de lenguaje a gran escala (LLM) reside en su capacidad para simular el razonamiento, no solo para automatizar tareas. Si lo que se busca es una lógica simple del tipo «si esto, entonces aquello», existen herramientas más económicas. Los LLM destacan precisamente donde reina la ambigüedad: analizan data no estructurados, deducen el contexto y generan vías probabilísticas que imitan la intuición humana.
Esta paradoja nos lleva a plantearnos una pregunta fundamental: si los seres humanos siguen siendo responsables, ¿por qué recurrir a AI situaciones de alto riesgo? La respuesta está en replantear el papel AI. No se trata de delegar las decisiones, sino de reducir lo desconocido. AI elimina el riesgo; ofrece a los seres humanos una forma estructurada de abordar el caos.
¿Cómo sacar partido a AI perder la capacidad de decisión?
La clave está en considerar AI un colaborador que plantea retos, no como quien toma las decisiones. Por ejemplo:
¿Cuál es la clave? AI cuando los humanos le piden que cuestione las suposiciones, en lugar de confirmarlas. Esto cambia la mentalidad de «¿Cuál es la respuesta?» a «¿Qué se nos está escapando?».
La paradoja es evidente: el valorAIaumenta con la ambigüedad, pero también lo hace la responsabilidad humana. El punto óptimo no consiste en equilibrar la autonomía, sino en redefinir la colaboración. Utiliza AI trazar un mapa del campo minado de la incertidumbre, pero deja que sean los humanos quienes elijan el camino.
Si las empresas no forman a sus empleados para este cambio, la paradoja se agravará. Los equipos se mostrarán reacios a aceptar los resultados AI, poniendo en duda cada respuesta mientras asumen toda la responsabilidad de los resultados. Las organizaciones se estancarán, perdiendo el tiempo debatiendo si «confiar» AI de aprovecharla para acelerar las decisiones. Peor aún, se quedarán atrás respecto a los competidores que aceptan una simple verdad: la pregunta «¿Podemos confiar AI?» es irrelevante;AI responsable, y nunca sabremos realmente si está «en lo cierto» o «equivocada».
¿La solución? Considerar AI una herramienta que revela los riesgos de los resultados probabilísticos:
- Premia la curiosidad y las simulaciones de situaciones, no las respuestas fijas e inamovibles.
- Hay que desvincular AI la culpa. Hay que etiquetar sus resultados como «datos de entrada» (y no como «consejos»), lo que permite a las personas expresar sus críticas sin ponerse a la defensiva.
- Fomenta el pensamiento probabilístico. Enseña a los empleados a interpretar los intervalos de confianza, los rangos de escenarios y los indicadores de sesgo, y no solo los resultados de «sí/no».
Cuando AI no se validan, los humanos pierden su empleo. Cuando los humanos aprenden a aprovechar el poder probabilístico AI, las empresas convierten la incertidumbre en estrategia.

BLOG










