ICO的人工智能和数据保护指南已于2023年3月15日更新。更新后的指南进一步阐明了企业在使用人工智能系统时应该如何遵守数据保护法。
ICO指南涵盖哪些方面?
该指南涵盖以下(企业应遵守的)原则:
- 公平
- 问责
- 透明
- 可解释
- 偏差
- 数据保护影响评估
该指南还包括一些案例研究以帮助理解企业应如何在实践中应用该指南。
ICO的指南对于使用AI系统的企业来说很重要。它就如何在使用人工智能系统时遵守数据保护法提供了清晰实用的建议。
“公平”原则
数据保护法的关键原则之一是公平。企业必须确保以公平、非歧视的方式使用人工智能系统。
ICO的指南提供了企业在评估公平原则时应考虑的几个因素,包括:
- AI系统的使用目的
- AI系统对个人的影响
- 为保护个人信息而采取的保障措施
问责原则会受到怎样的影响?
使用人工智能系统的企业必须对使用这些系统的方式负责,证明自己已遵守数据保护法。
ICO的指南概述了企业可以采取的几个步骤,以确保对AI系统的使用负责,包括:
- 记录人工智能系统的使用
- 实施适当的管理安排
- 进行数据保护影响评估
- 对员工进行数据保护法培训
为什么透明原则很重要?
企业必须对使用人工智能系统的工作方式保持透明,必须向个人提供有关人工智能系统将如何使用其个人数据的相关信息。
ICO指南提供了几种方法,以确保企业可以透明地使用AI系统,包括:
- 提供有关 AI 系统的清晰简洁的信息
- 使个人能够轻松了解其个人数据的使用方式
- 为个人提供不使用人工智能系统的选项
什么是“可解释”?
使用人工智能系统的企业必须能够解释这些系统是如何运作的,即,能够向个人解释人工智能系统如何使用他们的个人数据。
ICO指南为企业提供了解释如何解释人工智能系统的示例,包括:
- 为个人提供 AI 系统所用数据的访问权限
- 为个人提供有关AI系统算法的信息
- 为个人提供有关 AI 系统如何做出决策的信息
如何减少人工智能偏见?
人工智能系统可能会出现偏见。这意味着他们可以做出不公平或歧视性的决定。
为了减少人工智能系统中的偏见,ICO建议采取一下措施:
- 使用更广泛的数据来源
- 使用旨在公平的算法
- 测试 AI 系统的偏见
- 监控 AI 系统的偏见
什么时候需要进行数据保护影响评估?
如果对个人的权利和自由造成高风险,则使用AI系统的企业必须进行数据保护影响评估(DPIA)。
DPIA 是企业可以用来识别、评估和减轻使用 AI 系统对个人权利和自由构成的风险的程序。
ICO建议企业可以采取以下行动来进行DPIA:
- 识别使用人工智能系统带来的风险
- 评估这些风险对个人权利和自由的影响
- 降低人工智能系统带来的风险
- 监察纾缓措施的成效
3CS 如何提供帮助
有关人工智能和数据保护或任何公司或商业法律事务的进一步指导 ,请联系您通常的3CS 联系人。