波罗的海域名日活动中,一场发人深省的演讲大胆地将人工智能与《通用数据保护条例》放在一起探讨,以期探索其中的关联。TE 数据分析主管 Erki Pogoretski 首先提出了这个话题,他以一个诚实的结论开始了演讲——今天还没有最终的答案。存在一些问题、时间压力和快速变化的现实,这些都不容等待任何监管措施。
人工智能与GDPR:如何监管快速发展的技术?
Erkki的第一个观点对许多人来说并不陌生。技术,尤其是人工智能,的发展速度远快于组织改变和将其应用于日常工作的速度。组织行动缓慢,这往往是有原因的。但人工智能却不是这样:据他所说,即使保持现状也几乎是不可能的。
根据 Telia 的经验,他强调,在人工智能方面,最困难的部分不是技术,而是应用技术的组织。许多人所谓的“人工智能战略”实际上是一个组织战略问题。如今,找到数十种工具、顾问和培训师很容易。但更难的是决定如何负责任、合法地使用人工智能,并使其真正创造价值。
此外,各种影响企业的法规,尤其是《通用数据保护条例》和人工智能法规也发挥着重要作用。虽然这些法规通常被视为企业发展的阻碍,但它们不应被视为技术障碍,而应被视为实现社会目标,即保护人权的目标。我们大多数人只有在出问题时才会想到隐私,但法规的意义在于预防损失,而不是事后反应。
GDPR 自 2018 年起生效,尽管最初几年造成了很多混乱,但最终还是带来了清晰度。在GDPR出台之前,数据分析领域存在许多如今看来疯狂的做法,而GDPR划定了界限,迫使企业更明智地思考。该法规关注的是数据主体,即数据背后的人,以及其数据的使用方式。
AI 法规的重点不再是数据主体,而是使用目的。相同的数据集、相同的系统和相同的技术,根据其使用目的,可能具有低风险或高风险。人工智能的监管不再只涉及数据,还直接涉及目的——这是一项重要的变化。
最大的变化之一是能够分析多种结构的数据。不仅包括表格和数据库,还包括文档、备忘录、演示文稿、图纸、电子邮件等。人工智能能够首次读取、比较和分析这些信息,并得出结论。这虽然很强大,但也带来了一个新问题:几乎没有任何组织知道如何管理这类信息。
这让我们回到了一个老道理:人工智能只能像输入一样好,也就是说,它只会准确反映我们给它的东西。如果文件内容相互矛盾,模型也会陷入混乱。如果目标不明确,结果也会毫无意义(在此过程中,对人工智能给出的答案进行批判性分析以评估其质量至关重要)。
Erkki 说,成功使用人工智能取决于三件事:好的输入、有效的技术和清楚的问题描述。讽刺的是,最简单的部分是技术,最复杂的是整理数据和确定期望的价值。许多公司并不清楚他们希望通过技术创造什么样的价值,因此要么投资过多,要么投资不足。
监管又增加了另一层复杂性。人工智能将自动化系统置于责任的核心位置。两个使用相同人工智能工具但方式不同的人可能会产生完全不同的法律和道德风险。与以往的系统不同,人工智能的输出结果并非总是可预测的。这意味着组织必须重新考虑监督、培训和责任问题。对人员的培训可能与系统开发同样重要。
最后,他提到了技术控制与人工监督之间的平衡。法规要求人工监督,但实际上人们希望控制而不承担责任。今天,我们已经可以看到“监督 AI”在监督其他 AI 系统。不难想象,很快就会出现监督 AI 监督其他监督 AI 的情况,最终人类将试图理解到底发生了什么。这听起来很未来,但埃尔基认为,这可能比我们想象的要快。
他以一个既令人欣慰又发人深省的想法结束了演讲:我们今天使用的智能是迄今为止最差的人工智能。技术只会变得更强大、更快速、更聪明:它对我们是有利还是有害,与其说取决于技术本身,不如说取决于我们如何围绕技术来塑造组织、管理和目标。