此外,ChatGPT 案凸显了数据保护法在解决基于人工智能的解决方案的问责标准方面的作用。事实上,由于AI一揽子计划尚未获得批准,因此至少在个人数据方面,GDPR涵盖了缺乏对AI开发人员义务的具体设定。因此,GDPR 只能保护特定基于 ,只要他们可以被视为特定数据处理的数据主体。然而,数据保护影响评估中未包括的任何对基本权利的进一步暗示在现阶段仍不能由数据保护机构执行。为此,许多数据保护机构决定设立专门部门和工作组,专门解决与基于人工智能的解决方案相关的数据保护问题。事实上,尽管决定恢复ChatGPT服务,但根据问责、透明和公平的原则,对生成人工智能的监测和风险评估活动才刚刚开始。
在这方面,意大利数据保护局分析的理由正在形成一个最低标准,该标准适用于从数据保护法的视角分析人工智能解决方案(包括生成性解决方案)的影响。具体而言,开发者数据控制者似乎至少必须:i)考虑不同类别的数据主体/用户及其定制的弱点来应对风险; ii)确保信息政策透明、清晰; iii)轻松确保退出数据处理活动的机制。
就第 i 款而言,儿童本身被视为弱势用户,需要采取特定 喀麦隆 数字数据 的技术和组织措施来评估他们的年龄,以便在提供聊天机器人的服务与用户之间建立自觉和合法的合同关系。然而,因数字鸿沟而产生的个别数字漏洞或因人类监督可能造成的后果而产生的漏洞却不受数据保护法的保护。
这些问题可以在对给定的基于人工智能的应用程序的可信评估下得到解决(正如人工智能高级小组所设想的那样),但它们不能在 GDPR 第 35 条规定的纯数据保护影响评估的背景下得到解决。
与透明度 (ii) 相关的依据同样有限。事实上,根据 GDPR,一些数据处理信息是强制性的,包括与可能的分析活动相关的信息——即由算法进行的信息。然而,所谓的隐私政策并不要求提供有关数据匿名化后会发生什么情况的任何详细信息。