机器人过程自动化(或 RPA)技术的早期化身遵循基本规则。这些系统类似于用户界面测试工具,其中,不是人类操作员点击屏幕区域,而是软件(或后来众所周知的“机器人”)来执行此操作。这释放了用户花费在极低级别任务上的时间,例如从屏幕上抓取内容、复制和粘贴等。

虽然在功能上是基本的,但这些 RPA 的早期实现带来了明显的速度和效率优势。在接下来的几年里,这些工具演变为包含基本的工作流自动化,但该过程是僵化的,在整个企业中的适用性有限。

2000 年之后不久,UiPath、Automation Anywhere 和 Blue Prism 等自动化公司成立(尽管有些公司在最初的化身中名称不同)。随着对自动化领域的明确关注,这些公司开始大举进军企业自动化领域。

RPA 变得更智能

多年来,RPA 系统的功能显着增长。它们不再是早期化身的死板工具,而是提供更智能的流程自动化。例如,UiPath 在他们的网站上列出了 20 种自动化产品,包括发现、构建、管理、运行和参与等组。他们的竞争对手也有全面的产品。

机器人流程自动化的用例是 现在广泛多样.例如,通过内置智能技术,系统现在可以自动从发票(或其他客户提交的数据)中提取内容,并将其转换为结构化数据库格式,而不仅仅是点击屏幕区域。这些智能功能很可能由人工智能形式提供支持,尽管隐藏在 RPA 应用程序本身的引擎盖下。 Automation Anywhere 有一个 好的例子 这个确切的用例。

鉴于现在跨企业组织的 RPA 技术解决的用例范围很广,很难看到一条不向 RPA 工具本身添加更多 AI 功能的开发和产品扩展路线。虽然仍以 Robotic 包装形式交付。

对于流程自动化软件,此功能很可能会从隐藏在引擎盖下并用于支持 RPA 软件中的特定用例(例如内容提取)转变为用户可以访问的自身功能。

AI和RPA的模糊

RPA 供应商将与向企业销售自动化机器学习软件的 AI 供应商竞争。称为 AutoML,这些工具使用户几乎没有或没有数据科学经验(通常称为 公民数据科学家) 使用他们的数据构建自定义 AI 模型。这些模型不限于专门定义的用例,而是可以是业务用户希望(并拥有支持数据)构建的任何内容。

在我们上面的例子中,一旦从发票中提取了数据,为什么不让客户构建自定义 AI 模型来按优先级对这些发票进行分类,而无需引入或连接额外的 3rd 派对人工智能工具?这是 RPA 市场合乎逻辑的下一步;该领域的一些领导者已经拥有一些此类功能。

机器人流程自动化和人工智能之间界限的模糊现在特别热门,因为除了专业的 RPA 供应商之外,微软等老牌技术公司也在向市场发布他们自己的低代码 RPA 解决方案。以微软为例,它在人工智能方面有着悠久的历史。通过 Azure,它有许多不同的 AI 工具,包括构建自定义 AI 模型的工具和专用的 AutoML 解决方案。最相关的是推动结合他们的产品来制定独特的价值主张。在我们这里的上下文中,这意味着低代码 RPA 和 Azure 的 AI 技术可能会紧密结合。

人工智能伦理的演变讨论

与 RPA 和 AI 技术同时发展的是关于 人工智能系统伦理.人们对人工智能的伦理和 多样性 构建人工智能的组织。

总的来说,这些讨论和法规旨在确保以公平、透明和负责任的方式构建、部署和使用人工智能系统。有重要的组织和道德原因可以确保您的 AI 系统以合乎道德的方式行事。

当系统构建时 对数据进行操作 代表人(例如人力资源、财务、医疗保健、保险等),系统必须透明和公正;除了使用人员数据构建的用例之外,组织现在还要求其 AI 具有透明度,以便他们能够有效评估在其业务中部署该 AI 的运营风险。

一种典型的方法是定义企业的道德原则,创建或采用道德 AI 框架,并根据该框架和道德原则不断评估您的 AI 系统。

与 RPA 一样,AI 模型的开发可能会外包给 3rd 派对公司。因此,鉴于对构建过程缺乏洞察力,评估这些系统的透明度和道德变得更加重要。

然而,大多数关于道德的公开和组织讨论通常只在人工智能的背景下(媒体头条通常集中在人工智能的背景下)。出于这个原因,RPA 系统的开发人员和用户可能会觉得这些道德问题可能不适用于他们,因为他们“仅”使用流程自动化软件。

自动化可以影响人们的生活

如果我们回到之前使用的发票处理示例,我们会看到 RPA 软件中的自定义 AI 模型有可能自动对付款发票进行优先级排序。将这一用例更改为优先考虑医疗保险索赔而不是发票的医疗保健用例,技术转变将是次要的。

RPA 技术仍然可以自动从索赔文件中提取数据并将其转换为结构化格式。然后,企业可以训练自定义分类模型(使用历史索赔数据)来确定付款的优先级,或者相反地,标记要搁置等待审核的付款。

然而,这里的伦理问题现在应该非常明显。该模型在 RPA 软件中做出的决定将直接影响个人的健康和财务状况。

从这个例子中可以看出,看似相对良性的自动化软件实际上正在发展,以减少(或可能完全消除)影响人们生活的关键决策的循环中的人。该技术可能会也可能不会被明确标记并作为人工智能出售;然而,伦理观念仍应是首要考虑因素。

我们需要不同的镜头

最好不要通过人工智能的视角来看待这些道德问题,而是关注自动算法决策。

现实情况是,不仅人工智能技术可能正在做出应该引起关注的决策,而且事实上,任何没有足够人工监督的自动化方法(无论这是由基于规则的系统提供支持,机器人例如流程自动化、浅层机器学习或复杂的深度学习)。

事实上,如果你看看英国最近宣布的 道德、透明度和问责制框架,这是针对公共部门的,您会看到它专注于“自动化决策”。从指导文件中,“自动决策是指单独的自动决策(无人工判断)和自动辅助决策(辅助人工判断).”

同样,GDPR 已在欧盟生效一段时间,明确规定了个人在以下方面的权利 自动化个人决策.欧盟委员会给出了以下定义:“仅基于自动化手段的决策发生在通过技术手段对您做出的决定,而无需任何人工参与。

最后,加利福尼亚州在 2020 年提出了 自动决策系统责任法案 具有相似的目标和定义。在该法案中,人工智能(但不是机器人过程自动化)被称为:“‘“自动决策系统”或“ADS”是指一种计算过程,包括从机器学习、统计或其他数据处理或人工智能技术中衍生出来的,它做出决策或促进人类决策,影响人”,并对准确性、公平性、偏见、歧视、隐私和安全进行评估。因此,很明显,在公共政策制定中,更普遍的镜头原则得到了认可。

企业也应该将治理应用于 RPA

由于组织正在部署团队、流程和技术来管理其组织内 AI 的开发和使用,因此必须将这些扩展到包括所有自动化决策系统。为了减轻负担并促进大型组织内的大规模运营,不应有一套用于 RPA 的流程和工具和一套用于 AI(或者实际上,每个 AI 模型)的流程和工具。

这将导致一个巨大的手动过程来收集相关信息,使这些信息具有可比性,并将其映射到所选的过程框架。取而代之的是,统一的方法应该允许一组通用的控制措施,以实现明智的决策和批准。

这也不应该被视为与 RPA 或 AI 的采用不一致;明确的指导方针和批准使团队能够继续实施,了解他们可以运作的界限。当使用更通用的镜头而不是仅针对 AI 的镜头时,含义变得清晰;对于所有自动化决策系统的开发人员和用户来说,道德应该是首要考虑因素,而不仅仅是人工智能,其中包括机器人流程自动化。

图片来源:pixabay;像素;谢谢你!

Stuart Battersby

斯图尔特·巴特斯比

Chief Technology Officer @ Chatterbox Labs

斯图尔特·巴特斯比 博士是 Chatterbox Labs 的技术领导者和 CTO。伦敦大学 Stuart 拥有玛丽皇后学院的认知科学博士学位,现在领导 Chatterbox 道德人工智能平台 AIMI 的所有研究和技术开发。