类别在人工智能中的作用:过去与现在

人工智能和机器学习的出现,对传统的人与内容的分类方式提出了挑战,这不仅催生了新的问题解决思路,同时也可能引发新的偏见或歧视问题。

传统的人工智能系统是基于专家知识和规则构建的。例如,如果一家银行正在考虑向某人发放贷款,他们可能会根据性别、职业或其他人口统计数据等属性对申请人进行分类。 但随着当今机器学习和深度学习人工智能模型的出现,这种僵化的分类方式正逐渐被摒弃。不再采用“特定年龄和经济社会背景的女性”这类分类标准,而是将重点转向收集海量的行为数据。这些数据可能包括银行交易记录或浏览历史等。其核心理念在于,通过分析这些细粒度的数据,决策过程可以摆脱对预定义分类的依赖,从而避免加剧歧视。

这种转变不仅仅是技术层面的:它还引发了一系列哲学层面的问题,涉及分类体系是如何构建的、它们如何影响社会,以及在人工智能系统中使用这些分类时应考虑的伦理问题。

《人工智能法案》:个人数据与责任

以《人工智能法案》为代表的当前人工智能立法格局,揭示了传统立法分类与技术工具不断演变的本质之间存在的根本性矛盾。 《人工智能法案》基于使用场景对人工智能系统进行立法,而非将其归入僵化的类别,这体现了对人工智能的风险与影响与使用情境密切相关的认识。例如,该法案引入了具有多方面应用能力的通用人工智能。挑战在于评估其风险,但当某事物的用途尚未明确界定时,又该如何评估其风险呢?

从传统机器学习向更先进的生成式人工智能的转变,进一步模糊了使用与责任之间的界限。 例如,一个采用生成式人工智能的零售聊天机器人可能会利用内部工具和产品信息来提供推荐或回答常见问题。但它也可能面临滥用情况,例如针对社交媒体帖子、旨在诱发恶意回应的冒犯性询问。这给企业提出了关键问题:管理这些风险的责任究竟在谁?如果攻击者利用系统漏洞,责任是否仅在于攻击者,还是AI的创建者和部署者也应承担相应责任?

随着人工智能生态系统中的参与者数量不断增加,责任也变得日益分散。不仅人工智能系统的部署方可能需要承担责任,基础模型的开发方也可能需要承担责任。一旦发生事故,确定谁应承担主要责任便成为一项复杂的任务,尤其是当各参与方分散在不同的组织甚至地理位置时。

人工智能监管与符合伦理的商业应用

像《人工智能法案》这样的框架必须解决传统监管范式与当今动态的人工智能格局之间的矛盾。适应性监管策略对于应对人工智能系统的多面性及其影响至关重要。 

企业可以借鉴分类分析的经验,优化客户细分策略,量身定制营销活动,并提供个性化的客户体验。此外,通过在人工智能开发过程中融入伦理考量,企业能够降低偏见和歧视的风险,从而与利益相关方建立信任并保持透明度。

分类的重要性在于,它们是我们理解和评估世界的社会框架。经过精细调整的分类对于体现多元声音至关重要,尤其是那些受人工智能偏见影响的声音。广泛吸纳包括人工智能用户和受影响人群在内的各方利益相关者参与其中,这一点至关重要。

“分类体系犹如一扇透镜,让我们能够借此评估和解决人工智能系统中的细微差别及潜在偏见。它们对于在利益相关者之间建立共同的语言和共识至关重要,并能确保人工智能的开发与部署始终遵循负责任和合乎伦理的原则。”
让-马里·约翰-马修斯

访问 thebridge.artefact.com,这是一个通过视频和播客,让数据与人工智能知识普惠大众的媒体平台。