生成式人工智能(GenAI)是当今应用最广泛且发展最迅速的技术之一。据行业研究显示[1],其市场规模预计今年将达到421.7亿美元。从聊天机器人和虚拟助手,到预测性维护和欺诈检测,生成式人工智能的应用范围广泛,已对众多行业产生了重大影响[2]。

然而,生成式人工智能(GenAI)的快速发展也引发了对其潜在风险的担忧,从而促成了《 欧盟人工智能法案 (EU Artificial Intelligence (AI) Act)[3]等法律框架的建立。 该框架旨在通过引入基于风险的方法,将人工智能系统根据其潜在风险分为四个等级——不可接受、高、有限和最低[3]——从而确保人工智能解决方案以安全、可靠且符合伦理的方式进行开发和部署,并促进采取适当的保障措施。

人们对生成式人工智能(GenAI)解决方案的担忧源于其对用户生成数据和输入的依赖,这些数据和输入往往包含姓名、IP地址、电子邮件账户、电话号码以及受版权保护的内容等敏感用户信息。与任何处理敏感数据的解决方案一样,这引发了人们对个人隐私以及数据如何被收集、处理、存储和共享的质疑[4]。

鉴于实施生成式人工智能(GenAI)及依赖用户数据所伴随的风险,各组织应在人工智能解决方案的整个开发和部署生命周期中,主动贯彻“隐私设计”(PbD)原则。这包括识别并优先处理保护用户隐私的关键要素,例如获取用户同意、数据透明度与问责制,以及数据匿名化。通过将隐私考量融入生成式人工智能系统的基石之中,各组织能够有效降低风险并增强用户信任。

采用“隐私设计”原则:实施生成式人工智能解决方案的关键

“隐私设计”(PbD)是一种将隐私保护融入信息技术和解决方案的设计与开发过程中的框架。该框架由安·卡沃基安(Ann Cavoukian)博士提出并发布[5]。当组织采用这一框架时,它有助于从设计过程的初期就开始解决用户的隐私问题,而不是事后才试图添加隐私保护功能。

class="lazyload

该框架基于以下七项基本原则构建:

  • 采取主动而非被动:组织应预见并防范隐私风险,而非在风险发生后才做出反应。这包括制定一套面向未来、具有灵活性的隐私策略,使其能够适应不断变化的隐私环境。

  • 将隐私设为默认设置:必须为用户提供内置的隐私选项,这样他们就不需要采取额外措施来保护自己的数据。这还能确保敏感的用户数据在所有系统和平台上都得到妥善保护。

  • 将隐私保护融入设计:隐私保护应融入所有解决方案和产品的核心设计之中,而非作为事后考虑。此外,定期开展隐私影响和风险评估对于降低潜在风险至关重要。

  • 确保功能完备:组织应确保其解决方案能够实现全部功能,同时不损害用户隐私,摒弃诸如隐私与安全之间存在权衡取舍等过时的利益冲突观念。

  • 端到端安全:在数据的整个生命周期中实施安全措施至关重要。这种方法不仅能确保数据的安全存储,还能确保流程中涉及的所有数据得到安全销毁,从而从生成到销毁全程保障隐私安全。

  • 可见性与透明度:数据收集、处理、存储和共享的过程应保持透明。这有助于组织建立坚实的信任基础,并让用户能够就其数据做出明智的决策

  • 尊重用户隐私:各组织应高度重视采取“以用户为中心”的方法,将用户的隐私和最佳利益置于首位。

鉴于生成式人工智能(GenAI)解决方案通常会收集和处理大量用户数据,对于重视客户信任并致力于通过采用数据隐私最佳实践来维护良好声誉的企业而言,隐私设计(PbD)正变得越来越重要。

保护用户隐私的关键要素

在“隐私设计”(Privacy by Design)基本原则的基础上,我们确定了对于希望在开发生成式人工智能(GenAI)解决方案或任何涉及敏感数据的解决方案时保护用户数据隐私的组织而言,其关键要素。这些要素围绕有效的数据治理展开,这是确保在生成式人工智能解决方案的开发和部署全过程中贯彻“隐私设计”原则的关键组成部分,其中包括制定关于数据收集、处理、存储、共享和访问的明确指南。 为此,实施人工智能数据治理解决方案有助于标准化和自动化数据管理流程,同时确保始终如一地遵循“隐私设计”原则。

获取用户同意

组织在为生成式人工智能(GenAI)目的收集、使用或共享用户个人数据之前,应获得用户的明确同意。这种同意应基于充分知情且出于自愿,这意味着用户应有权随时撤回其同意。此外,组织应定期审查和更新其隐私政策及实践,以确保其符合最新的法律法规。因此,实施同意管理平台(CMP)对于提高该流程的效率并实现集中化管理至关重要。

在数据使用方面保持透明并承担责任

透明度是指向用户提供有关其数据如何被使用的信息。组织应就其为生成式人工智能(GenAI)目的而收集、使用、存储和共享个人数据的方式保持透明。同时,它们有责任确保这些数据始终以负责任且符合伦理的方式被使用。

确保数据收集与保留的优化

尽管组织通常力求收集尽可能多的用户数据,但要展现对负责任的数据管理和隐私原则的承诺,则需要采取一种更注重隐私且更具战略性的方法。这包括评估每个具体生成式人工智能(GenAI)应用对个人数据的需求,并采取措施优化个人数据的存储和处理时长。

应用数据匿名化和去标识化流程

数据匿名化和去标识化是有助于保护用户身份的技术。为此,在为生成式人工智能(GenAI)处理个人身份信息(PII)之前,应尽可能采用这些技术。

确保用户数据和安全

对于组织而言,实施安全措施以保护个人数据免遭未经授权的访问、使用或披露至关重要。这些安全措施涵盖范围广泛,包括使用加密协议和用户访问管理政策,以及 开展隐私影响评估(PIA),以帮助识别并缓解与其生成式人工智能(GenAI)解决方案相关的潜在隐私风险。

将隐私融入生成式人工智能:负责任创新的关键要素

在开发和实施生成式人工智能(GenAI)解决方案以及任何其他涉及敏感数据的解决方案时,采用“隐私设计”(PbD)原则,体现了对用户隐私的主动承诺。 这种端到端的“以用户为中心”方法,要求将隐私考量融入解决方案生命周期的每个环节。通过从一开始就将用户隐私置于首位,企业能够与用户建立牢固的、基于信任的关系,并从长远来看降低潜在的声誉和法律风险。