随着机器学习技术的发展,它无疑让我们的生活变得更加轻松。然而,在企业中实施机器学习也引发了一些关于人工智能技术的伦理问题。其中一些包括:

技术奇点

虽然这个话题引起了很多公众的关注,但许多研究人员并不关心人工智能在不久的将来超越人类智能的想法。技术奇点也称为强人工智能或超级智能。哲学家尼克·博斯特鲁姆 (Nick Bostrum) 将超级智能定义为“任何在几乎所有领域(包括科学创造力、一般智慧和社交技能)都远远超过最优秀人类大脑的智力。”尽管超级智能在社会中并非迫在眉睫,但当我们考虑使用自主系统(如自动驾驶汽车)时,它的想法引发了一些有趣的问题。认为无人驾驶汽车永远不会发生事故是不现实的,但在这种情况下谁负责?我们应该继续开发自动驾驶汽车,还是将这项技术限制在帮助人们安全驾驶的半自动驾驶汽车上?陪审团对此尚无定论,但这些是随着新的、创新的人工智能技术的发展而发生的道德辩论类型。

人工智能对工作的影响

虽然很多公众对人工智能的看法都围绕着失业问题,但这种担忧或许应该重新定义。对于每一项颠覆性的新技术,我们都看到市场对特定工作角色的需求发生了变化。例如,当我们审视汽车行业时,许多制造商,如通用汽车,正在转向专注于电动汽车生产,以配合绿色倡议。能源行业并没有消失,但能源正在从燃油经济型转向电力能源。

类似地,人工智能会将就业需求转移到其他领域。需要有人帮助管理人工智能系统。仍然需要有人来解决最有可能受到工作需求变化影响的行业内更复杂的问题,例如客户服务。人工智能的最大挑战及其对就业市场的影响将是帮助人们过渡到有需求的新角色。

隐私

隐私往往在数据隐私、数据保护和数据安全的背景下进行讨论。近年来,这些担忧使政策制定者能够迈出更大的步伐。例如,2016 年制定了 GDPR 立法,以保护欧盟和欧洲经济区人员的个人数据,让个人能够更好地控制自己的数据。在美国,个别州正在制定政策,例如 2018 年出台的《加州消费者隐私法》(CCPA),要求企业告知消费者其数据的收集情况。诸如此类的立法迫使公司重新考虑他们如何存储和使用个人身份信息 (PII)。因此,在企业寻求消除任何漏洞和监视、黑客攻击和网络攻击的机会时,安全投资已成为企业日益优先考虑的问题。

偏见和歧视

许多机器学习系统中的偏见和歧视实例引发了许多关于人工智能使用的伦理问题。当训练数据本身可能由有偏见的人为过程生成时,我们如何防止偏见和歧视?虽然公司通常对他们的自动化工作抱有良好的意愿,但路透社(链接位于 IBM 外部))强调了将 AI 纳入招聘实践的一些不可预见的后果。在他们努力自动化和简化流程的过程中,亚马逊无意中按性别歧视技术职位的求职者,公司最终不得不放弃该项目。 Harvard Business Review(链接位于 IBM 外部)提出了有关在招聘实践中使用 AI 的其他尖锐问题,例如在评估职位候选人时应该能够使用哪些数据。

偏见和歧视也不限于人力资源职能;它们可以在从面部识别软件到社交媒体算法的许多应用程序中找到。

随着企业越来越意识到 AI 的风险,他们也更加积极地参与围绕 AI 伦理和价值观的讨论。例如,IBM 已经淘汰了其通用面部识别和分析产品。 IBM 首席执行官 Arvind Krishna 写道:“IBM 坚决反对也不会容忍使用任何技术,包括其他供应商提供的面部识别技术,用于大规模监视、种族定性、侵犯基本人权和自由,或任何不一致的目的与我们的价值观以及信任和透明的原则。”

问责制

由于没有重要的立法来规范 AI 实践,因此没有真正的执行机制来确保 AI 的道德实践。目前对公司道德的激励是不道德的人工智能系统对底线的负面影响。为了填补这一空白,道德框架已经成为伦理学家和研究人员之间合作的一部分,以管理人工智能模型在社会中的构建和分布。然而,目前,这些仅起到指导作用。一些研究(链接位于 IBM 外部)(PDF, 1 MB) 表明,责任分散和对潜在后果缺乏远见的结合不利于防止对社会造成危害。