关于人工智能伦理以及开源如何提供帮助的 4 个问题

开源资源可以为人工智能的一些关键伦理考量提供有效的解决方案。
79 位读者喜欢这篇文章。
Manage your workstation with Ansible: Automating configuration

Opensource.com

作为一名高中生,我对人工智能 (AI) 产生了浓厚的兴趣,它正在成为近期最具影响力的创新之一。今年夏天,我入选了 AI4ALL 项目,在那里我们学习了如何使用 Python 开发 AI 系统。

在我的最终项目中,我创建了一个对象检测程序,并将其与虚拟无人机模拟集成。在整个项目中,我能够使用包括 TensorFlowKerasScikit-learnPyTorch 在内的开源框架,以帮助开发对象检测机器学习 (ML) 算法过程。

通过完成这个项目并使用其他开源框架,如 LinuxApache KafkaElasticSearch,我意识到开源技术对 AI 系统开发的影响。访问这些强大、灵活的技术使人们能够试验和开发 AI 系统。

当我参加 威廉玛丽学院 关于人工智能和伦理的研讨会时,我发现了人工智能的另一个重要方面。当我们讨论围绕人工智能系统的一些伦理问题时,我开始思考:我如何确保我开发的系统是合乎伦理的?

为了回答我的问题,我采访了三位专家:Duality Technologies 首席执行官 Alon Kaufman 博士;威廉玛丽学院法学教授 Iria Giuffrida 博士;以及金融科技行业的一位高管(应要求保持姓名保密)。我非常感谢这些专家抽出宝贵的时间,激发了我的好奇心,并以他们在该领域的经历激励了我。

伦理在人工智能系统中目前扮演着多么重要的角色?

随着人工智能的不断进步,社会开始意识到伦理影响的重要性。然而,Kaufman 博士说,关于人工智能系统开发中伦理价值的讨论仍然是一种学术练习。如今,大部分人工智能,尤其是机器学习模型,仍然是一个“黑匣子”,因为高级算法和复杂的人工智能技术(如深度学习)产生了无法自我解释的模型。如果没有可解释的 AI/ML 模型,很难将伦理考虑纳入对话中。

对于 Kaufman 博士来说,该行业目前的重点是数据安全和保护。随着更多智能技术的发展,获取数据变得越来越容易。人工智能系统中处理的大量数据使其容易受到网络入侵。

虽然为人工智能系统构建数据保护措施当然至关重要,但将重点转移到其他伦理影响(如隐私和机器偏见)也变得至关重要。

合乎伦理的人工智能开发是未来的一个好目标,还是只是一厢情愿?

简而言之,创建一个合乎伦理的人工智能系统是一个合理的目标,但这需要时间。

“伦理”是一个难以定义的概念。一种方法是通过三管齐下的方法来看待伦理:安全性、隐私和公平性。目前,该行业的大部分精力都集中在安全性上,而下一个实际步骤可能是解决隐私问题并确保数据匿名性。“诸如安全计算和 合成数据 之类的增强隐私技术可以在此过程中提供帮助,”Kaufman 博士解释道。只有在找到解决安全性和隐私伦理领域的方法后,才能合理地涉足机器公平性和偏见领域。

在开发无偏见的人工智能时,需要考虑许多因素。“第一步是将主动学习模型部署到社会中,然后实际开发 公平系统,”金融科技行业专家说。他解释说,当配备主动学习的机器学习被部署时,社会的自身偏见通常会被强加到模型上,即使是在不知不觉中,也会创建出非常有缺陷的系统。Kaufman 博士说,当开发人员创建人工智能系统时,他们的先入之见绝不能被注入到系统代码中。这些是在开发无偏见模型时必须解决的一些关键领域。

学生应该多早接触 AI/ML 中的伦理考量?

不仅要学习计算机科学原理,还要学习如何构建合乎伦理的模型,这一点越来越重要。Giuffrida 教授说,计算机科学家和人工智能开发人员没有明确接受过思考其系统背后伦理的培训。这就是为什么开发防偏见系统不能是一个线性过程;它们必须经过多个审查级别,以最大程度地减少将偏见注入机器过程。她说,这是为什么开发防偏见系统不能是一个线性过程;它们必须经过多个审查级别,以最大程度地减少将偏见注入机器过程。

Giuffrida 教授强调,人工智能开发应被视为一门跨学科研究,这意味着不仅仅是开发人员负责创建准确且合乎伦理的系统——将如此巨大的责任放在一个群体身上是不合理的。但在基础层面向有抱负的人工智能工程师介绍伦理概念可以加速构建可持续、实用且合乎伦理的系统。

伦理会以牺牲创新为代价吗?

这是我在整个采访过程中一直在思考的主要问题。在 AI4ALL 课程中,我们探讨了最近的 Genderify 惨败,这是一种旨在根据几个数据点(包括姓名、电子邮件地址和用户名)识别用户性别的 AI 软件。当发布供公众使用时,结果非常不准确——例如,名称“Meghan Smith”被分配为女性,但“Dr. Meghan Smith”被分配为男性。这些偏见导致了该服务的失败。在发布之前进行更全面的伦理审查和测试可以使这种类型的产品取得成功,至少在最初阶段是这样。

所有三位专家都表示,伦理边界正变得越来越必要。金融科技高管表示,“合理的伦理约束不会限制创新——公司最终必须弄清楚如何在这些边界内进行创新。”以这种方式,伦理考量可以提高产品的可持续性和成功率——而不是完全停止人工智能的开发。风险投资家 Rob Toews 对 监管人工智能 提出了一个有趣的观点,如果您想了解更多关于此主题的信息,我推荐这篇文章。

最终,将伦理引入纯粹的人工智能是确保人工智能在我们世界中生存能力的一项艰巨但必要的步骤。开源资源可以为一些关键的伦理考量提供有效的解决方案,包括全面的系统测试。例如,IBM 的 AI Fairness 360 开源工具包可以评估机器学习模型中的歧视和偏见。开源社区有能力开发此类工具,为合乎伦理的人工智能系统提供更大的覆盖范围和支持。与此同时,我相信我们这一代人有责任在创建革命性的人工智能技术和考虑经得起时间考验的伦理影响之间架起桥梁。

接下来阅读什么
User profile image.
Sahana Sreeram 是杜克大学的一年级学生。她喜欢用 Python 和 Java 进行编程,并且在 AI4ALL 和 MIT FutureMakers 项目中获得了构建 AI 系统的经验。Sahana 也是她学校 CyberPatriot 团队的一员,她学习如何使用 Linux 保护接口。

评论已关闭。

Creative Commons License本作品采用知识共享署名-相同方式共享 4.0 国际许可协议进行许可。
© . All rights reserved.