阅读这篇文章

class="lazyload

如果你的老板向你索要一个关键数据,而你使用公司的“超安全内部GPT”来检索信息——结果却发现信息有误——这该怪谁?众所周知,答案是你自己,因为你没有对输出结果进行验证。这造成了一个悖论:尽管企业推动人工智能以加速决策,却将人工智能驱动结果的最终责任归咎于人类。 那么问题就变成了:AI自主性与人类监督之间的最佳平衡点在哪里?

从历史上看,我们一直将机器视为非此即彼的工具——要么正确,要么错误(例如,如果计算器显示1+1=3,就会立即被认定为故障)。但人工智能的运作基于 概率,这与人类的推理方式极为相似。这要求我们转变思维方式:必须停止将人工智能的输出结果视为最终答案,而应将其视为更广泛决策过程中的一部分。

为了进一步优化这种平衡,我们需要剖析企业如何做出决策。这一切都取决于一个词:风险——具体来说,就是决策失误带来的财务影响。组织层级结构清晰地反映了这一点:

  • 运营决策(例如:发货库存、调整广告颜色)风险较低,且成本可逆。
  • 战略决策(例如推出新产品、拓展新市场)往往伴随着高风险、抽象的假设以及难以预料的结果。

人类也遵循同样的基于风险的逻辑。决策背后的假设越抽象、越不确定,批准该决策所需的组织层级就越高。首席执行官的决策(例如预测市场变化或消费者行为)依赖于混乱且模糊的数据,而经理的库存计算则基于具体的历史趋势。

将其转化为AI语言:人类的责任程度应与AI输出结果背后数据的抽象程度及假设相匹配。例如:

  • 抽象程度低(例如,利用销售历史数据进行需求预测):几乎不需要人工干预。
  • 高度抽象(例如,利用情绪分析制定的市场进入策略):人的判断不可或缺。
class="lazyload

双重悖论:人工智能最大的优势——应对模糊性——同时也成了它最大的隐患。当人类必须处理海量数据、面临高风险且充满不确定性的决策时,人工智能的真正价值便得以彰显。然而,矛盾的是,这也正是人类最需要依赖概率推理的时刻,尽管此时责任却主要落在他们肩上——这便形成了一种内在的张力:

  • 一方面,人工智能在复杂多变的场景中表现出色(例如,在波动剧烈的市场中预测消费趋势),因为它能够处理人类无法处理的海量数据集。
  • 另一方面,在这些情境中,尽管驱动决策的数据本质上是不稳定的,但人类仍需独自承担决策责任。

大型语言模型(LLM)的独特优势在于其能够模拟推理过程——而不仅仅是自动化处理任务。如果只需要简单的“如果……那么……”逻辑,市面上已有更廉价的工具可供选择。大型语言模型真正大显身手的地方在于充满不确定性的场景:它们能够解析非结构化数据、推断上下文,并生成模拟人类直觉的概率路径。

这一悖论引发了一个关键问题:如果人类仍需承担责任,那么为何还要在高风险情境中使用人工智能?答案在于重新定义人工智能的角色。这并非将决策权外包,而是为了缩小未知领域。人工智能并不能消除风险,而是为人类提供了一种有条理的方法来应对混乱局面。

如何在不丧失自主权的情况下利用人工智能?
关键在于将人工智能视为协作伙伴,而非决策者。例如:

class="lazyload

规律是什么?当人类要求人工智能挑战现有假设而非证实它们时,人工智能才能真正发挥作用。这将思维方式从“答案是什么?”转变为“我们遗漏了什么?”

这种矛盾显而易见:人工智能的价值随着不确定性的增加而提升,但人类的责任也随之加重。关键不在于平衡自主性,而在于重新定义协作。利用人工智能来绘制不确定性的“雷区”地图,但让人类来选择前进的道路。

class="lazyload

如果企业未能针对这一转变对员工进行培训,这种矛盾将愈演愈烈。团队将对人工智能的输出结果心生不满,一边对每个答案都心存疑虑,一边却要为结果承担全部责任。 组织将陷入停滞,浪费时间争论是否要“信任”人工智能,而非利用它来加速决策。更糟糕的是,它们将落后于那些接受一个简单事实的竞争对手:所谓“我们能否信任人工智能?”这个问题毫无意义——人工智能无需承担责任,而我们也永远无法真正知道它是“对”还是“错”。

解决方案是什么?将人工智能视为一种能够揭示概率性结果风险的工具:

  1. 要鼓励好奇心和情景模拟,而不是一成不变的答案。
  2. 将人工智能与责任脱钩。将其输出标记为“输入”(而非“建议”),让人类能够毫无防备地进行批评。
  3. 培养概率思维。教导员工解读置信区间、情景范围和偏差提示——而不仅仅是“是/否”的结论。

当人工智能给出的答案未经验证时,人类就会被解雇。当人类学会驾驭人工智能的概率能力时,企业就能将不确定性转化为战略。