ICO的人工智慧和數據保護指南已於2023年3月15日更新。更新后的指南進一步闡明瞭企業在使用人工智慧系統時應該如何遵守數據保護法。
ICO指南涵蓋哪些方面?
該指南涵蓋以下(企業應遵守的)原則:
- 公平
- 問責
- 透明
- 可解釋
- 偏差
- 數據保護影響評估
該指南還包括一些案例研究以説明理解企業應如何在實踐中應用該指南。
ICO的指南對於使用AI系統的企業來說很重要。它就如何在使用人工智慧系統時遵守數據保護法提供了清晰實用的建議。
“公平”原則
數據保護法的關鍵原則之一是公平。企業必須確保以公平、非歧視的方式使用人工智慧系統。
ICO的指南提供了企業在評估公平原則時應考慮的幾個因素,包括:
- AI系統的使用目的
- AI系統對個人的影響
- 為保護個人信息而採取的保障措施
問責原則會受到怎樣的影響?
使用人工智慧系統的企業必須對使用這些系統的方式負責,證明自己已遵守數據保護法。
ICO的指南概述了企業可以採取的幾個步驟,以確保對AI系統的使用負責,包括:
- 記錄人工智慧系統的使用
- 實施適當的管理安排
- 進行數據保護影響評估
- 對員工進行數據保護法培訓
為什麼透明原則很重要?
企業必須對使用人工智慧系統的工作方式保持透明,必須向個人提供有關人工智慧系統將如何使用其個人數據的相關信息。
ICO指南提供了幾種方法,以確保企業可以透明地使用AI系統,包括:
- 提供有關 AI 系統的清晰簡潔的資訊
- 使個人能夠輕鬆瞭解其個人數據的使用方式
- 為個人提供不使用人工智慧系統的選項
什麼是「可解釋」?
使用人工智慧系統的企業必須能夠解釋這些系統是如何運作的,即,能夠向個人解釋人工智慧系統如何使用他們的個人數據。
ICO指南為企業提供了解釋如何解釋人工智慧系統的示例,包括:
- 為個人提供 AI 系統所用資料的訪問許可權
- 為個人提供有關AI系統演演算法的資訊
- 為個人提供有關 AI 系統如何做出決策的資訊
如何減少人工智慧偏見?
人工智慧系統可能會出現偏見。這意味著他們可以做出不公平或歧視性的決定。
為了減少人工智慧系統中的偏見,ICO建議採取一下措施:
- 使用更廣泛的數據來源
- 使用旨在公平的演算法
- 測試 AI 系統的偏見
- 監控 AI 系統的偏見
什麼時候需要進行數據保護影響評估?
如果對個人的權利和自由造成高風險,則使用AI系統的企業必須進行數據保護影響評估(DPIA)。
DPIA 是企業可以用來識別、評估和減輕使用 AI 系統對個人權利和自由構成的風險的程式。
ICO建議企業可以採取以下行動來進行DPIA:
- 識別使用人工智慧系統帶來的風險
- 評估這些風險對個人權利和自由的影響
- 降低人工智慧系統帶來的風險
- 監察紓緩措施的成效
3CS 如何提供幫助
有關人工智慧和數據保護或任何公司或商業法律事務的進一步指導 ,請聯繫您通常的 3CS 聯繫人。