尽管人工智能在高度复杂的技术应用中产生偏见令人苦恼,但在特定行业采用的人工智能工具中,仍有一些方法可以识别和缓解人工智能偏见。
随着人工智能技术的广泛应用,其带来的一些问题也得到人们的关注。人工智能最初旨在帮助人类做出更公平、更透明的决定,但现在已经逐渐出现偏见和决策失误的迹象。但是这种情况不应归咎于技术,因为导致产生偏见的是数据和场景出现的偏差。
人工智能偏见通常涉及相关算法的异常输出。此外,任何影响人工智能设置决策的因素都可能导致出现偏见。与人类决策不同,人类决策偏见通常是预定义概念和观点,而人工智能偏见通常更有针对性,但其起点相似。
众所周知,人工智能来自人类的设计和构思,因此仍然容易产生隐藏甚至明显的偏见,这些偏见来自人类。而在人工智能发展的多个阶段,渗透到系统设置中的职业和社会倾向会导致偏见。
一个更精确的解释是,人类在设计决策算法和人工智能模型时就存在偏见。此外根据对人工智能模型的调查,可能有180多种偏见最终影响以人工智能为定义技术的决策。
对于初学者来说,当设计设置人工智能模型时不包括受保护的类时,通常会出现人工智能的算法偏差。由于缺乏性别或种族等受保护的类别,采用这样的人工智能模型没有足够的时间做出清晰的决策。此外,对于地理和人口数据等不受保护的见解,对受保护类别的访问可能会返回不符合标准的结果。
产生人工智能偏见的另一个原因是训练特定模型的数据集较少。例如,如果一家公司计划推出基于人工智能的员工招聘工具,则需要在整体数据集上对其进行建模和训练。如果人工智能模型已经接受了与男性员工工作相关见解的训练,那么性别偏见似乎是最合乎逻辑的偏见形式。
语言偏见也很常见,并且引起了很多人的关注。与谷歌翻译(Google Translate)等翻译平台相关的自然语言处理(NLP)算法在早些时候曾经因为生成性别特定的翻译内容而产生争议,这些翻译的内容通常返回特定于男性的术语。
无论出于什么原因,人工智能模型的训练方式都会决定偏见的严重程度或性质。此外,某些数据科学家甚至可能最终排除特定条目、采样不足或采样过多,从而由于不均衡导致出现人工智能偏见。
(1)选择偏见
当训练数据的代表性不足或达到随机化水平时,这种形式的偏见就会出现。一个很好的例子是一份对人物进行分类的研究报告,其中使用了三种识别图像的人工智能产品对来自非洲和欧洲国家的1200多名人物进行分类。这项研究表明,对于男性的识别效果更好、更准确,而对女性则更为公平。对于较深肤色的人物识别只有66%的准确率,从而揭示了选择偏见的影响。
(2)报告偏见
报告偏见通常是未经培训、不准确或不精确的人工智能模型造成的,这些模型的数据集很难反映现实。此外,大多数显示报告偏见的模型都是数据科学家设想出来的,他们希望通过贬低相同的历史假设和较小的样本空间定义一些特定区域。
(3)隐性偏见
数据科学家未经完善且不严格的个人推断不应该应用于人工智能模型,否则可能会遇到隐性偏见。
(4)群体归因偏见
这是一种特定类型的偏见导致倾向性人工智能模型的类型。依赖通用外推方法而不是随机抽样的数据科学家最终会将这种形式的偏见混入其中。
典型的人工智能模型仍然可以帮助企业实现所需的目标,但在医疗保健、刑事司法和金融服务等一些更敏感领域的人工智能模型实施中,人工智能偏见成为一个更紧迫的问题。
因此,消除人工智能偏见变得更加重要,因为人们需要采用在种族、年龄和性别范围内更加准确的人工智能工具。虽然发布的一些人工智能相关法规为认证人工智能供应商铺平了道路,在将人工智能偏见降至最低方面可能提供一些帮助,但减少人工智能偏见需要更有针对性的方法,其中包括:
(1)包容性设计
如果企业打算设计人工智能模型,最好将人类的判断排除在范围之外。需要遵循包容性方法,训练数量应该包括与将使用该工具的行业相关的大样本量。
(2)场景考察
人工智能模型正变得越来越智能。但是,如果计划将其引入特定行业,则必须依赖决策的场景,而不仅仅是前提。
(3)有针对性的测试是关键
无论如何,人工智能模型仍应分为子组以改进指标聚合。此外,执行压力测试以处理复杂案例的方法变得更加容易。简而言之,需要跨多个阶段进行详细测试以确保减少人工智能偏见。
(4)使用综合数据训练模型
如果企业计划开发一个人工智能工具,必须重视数据的收集、采样和预处理,还必须整理出人工智能偏见的相关性,这将进一步扩大准确性的范围。
除了采取这些措施之外,还需要进一步推动人类决策,因为它们大多是人工智能的先驱,并且显现出很多差异。最后,消除人工智能偏见的最佳建议是通过了解人工智能模型来预测和做出决策,从根本上提高人工智能模型的可解释性。
尽管人工智能偏见几乎存在于每个特定行业领域中,但仍依赖负责任的实践来确保更公平的模型和算法。此外,采用人工智能技术的企业需要不断进行审计和评估,以进一步改进决策质量。