在八月份的 PyBay 2019 大会上,我将继续我在 2018 年 PyBay 大会上开始的关于我们正在开发的人工智能 (AI) 中伦理重要性的对话,尤其是在人工智能在我们日常生活中获得越来越大的影响力之际。在去年的主题演讲中,我深入探讨了我们如何忽视人类在人工智能未来中扮演的重要角色。
围绕技术的伦理讨论越来越普遍,我从我的初恋——数学——的角度来看待这些讨论。数学通常给我们一种确定感,但我发现,我工作中更具挑战性、更人性化的部分为我提供了改善世界的最大潜力。如果您对更技术性的一面感到好奇,这里是我整理的资源列表
深度学习:https://#/MhwV37J54I
自然语言处理:https://#/zC31JstaF1
计算线性代数:https://#/CY7Gu90yLz
偏见、伦理与人工智能:https://#/ThSz3bnZ4k
揭穿管道神话:https://#/qIW64edWiQ
人工智能需要你:https://#/xUAv2eIatU
67 个问题:https://#/8m7JK57Aaq— Rachel Thomas (@math_rachel) 2019 年 7 月 9 日
长期以来,人们对各种类型和部分技术的影响存在误解,但随着人工智能系统在我们日常生活中越来越受欢迎和有影响力,这些误解的影响也越来越深刻。在本文中,我将介绍一些关于人工智能伦理的常见误解,然后提出一些健康的原则,我们可以用这些原则使人工智能与我们合作,共同创造更美好的未来。
1. 误解:工程师仅对代码负责
有一种观点认为,工程师仅对其代码负责,而不对其代码的使用方式或其产生的成果质量负责。问题在于,在复杂的现实世界系统中,这些系统涉及软件和各种管理流程的混合,通常没有人会感到对结果负责。例如,正如 The Verge 报道的那样,一个存在漏洞的软件程序减少了对包括脑瘫和糖尿病在内的重度残疾人士的基本医疗保健服务。在这种情况下,算法的创建者指责州政府官员的流程,而州政府官员可以指责实施该软件的团队,依此类推,没有人承担责任。
在没有人感到负责且没有问责制的系统中,不会产生好的结果。我提出责任不是为了指责任何人,而是因为我想帮助确保好的结果。我们的代码经常与非常混乱的现实世界系统交互,并且可能会以不良的方式意外地放大这些问题。
2. 误解:人类和计算机可以互换
人们经常谈论人类和计算机决策者,就好像它们是即插即用、可互换的,或者有构建机器来完全复制人类所做事情的想法。然而,在实践中,人类和计算机通常以不同的方式使用。
一个有力的例子与人工智能的价值主张有关——公司可以使用人工智能扩展服务,如果所有工作都由人类完成,那将是负担不起的。无论是更快的健康保险注册还是在消费者网站上推荐商品,人工智能都旨在让我们的生活更简单,并降低服务提供商的成本。这里隐藏的特洛伊木马是,算法的实施方式可能会导致结果是一个死胡同,没有申诉程序,也没有办法发现或纠正错误。如果一个人因算法而被 解雇 或 拒绝所需的医疗保健,而没有解释或追索权,这可能会造成难以置信的伤害。
即使我们将人类重新加入到等式中,人们仍然面临风险。研究表明,当可以选择推翻有害的人工智能结论时,人们可能会认为代码是客观的或没有错误的,并且不愿推翻“系统”。在许多情况下,人工智能的使用是因为它便宜,而不是因为它更准确或能带来更好的结果。正如 Cathy O'Neil 所说,我们正在创造一个“特权阶层由人来处理;穷人由算法来处理”的世界。
特权阶层由人来处理;穷人由算法来处理。- @mathbabedotorg pic.twitter.com/ZMEDTEPOvK
— Rachel Thomas (@math_rachel) 2016 年 12 月 16 日
另一个角度认为,人类和计算机彼此对立。这在像下国际象棋或围棋这样的故事中很有趣,但更好的问题是弄清楚机器如何增强和补充人类的目标。最终,算法是由人类设计的,其目的是服务于人类。
3. 误解:我们无法监管科技行业
我经常听到有人说科技行业太难监管,监管不会有效。这让我想起了 99% Invisible 播客节目 中关于汽车发展早期的内容。当汽车刚出现时,没有速度限制、驾照或酒驾法律,而且汽车是用许多锋利的金属和易碎玻璃制成的。当时,让汽车更安全的想法是一个艰难的对话。人们会争辩说,汽车本质上是危险的,因为开车的人是危险的,而危险与车辆无关。当时,让汽车更安全的想法是一个艰难的对话,汽车公司强烈抵制任何人讨论安全问题。人们争辩说,汽车本质上是危险的,因为开车的人是危险的,而危险与车辆无关。消费者安全倡导者努力了几十年,才改变了围绕汽车安全的思维方式和法律,解决了许多以前的问题。
考虑一个关于什么能有效刺激行动的案例研究:多年来(早在 2013 年开始),人们一直警告一家大型社交媒体公司的高管,他们的平台是如何被用来煽动缅甸的种族暴力的,但高管们几乎没有采取任何行动。在联合国于 2018 年确定该网站在缅甸种族灭绝中发挥了“决定性作用”之后,该公司表示将雇用“数十名”额外的版主。与此形成对比的是,当德国通过了一项带有巨额罚款的仇恨言论法时,同一家社交媒体网站在不到一年的时间内雇用了 1,200 名版主,以避免被罚款。对 潜在罚款与种族灭绝 的不同数量级的回应可能为了解监管的潜在有效性提供一些见解。
4. 误解:科技仅仅是关于优化指标
很容易认为我们在科技行业的工作是优化指标和响应消费者需求。
“推荐系统和协同过滤永远不是中立的;当它们决定向您展示什么内容时,它们总是将一个视频、图钉或群组与另一个进行比较。”
–Renee Diresta, Wired
指标只是我们真正关心的事物的代表,过度强调指标可能会导致意想不到的后果。当优化观看时间时,一个流行的视频网站被发现正在推送最具争议性、以阴谋论为中心的视频,因为这些视频是网站上的人们观看时间最长的视频。例如,这种仅关注指标的视角导致对割草机评论感兴趣的人被推荐极端主义、白人至上主义的阴谋论。
我们可以选择不仅优化指标,还要考虑期望的结果。在 2016 年机器学习会议的演讲 When Recommendations Systems Go Bad 中,Evan Estola 讨论了这对于他在 Meetup.com 的团队来说是什么样的。Meetup 的数据显示,参加技术主题聚会的女性人数少于男性。他们有可能创建一种算法,向女性推荐更少的技术聚会,这将导致更少的女性了解技术聚会,进一步降低出席率,然后向女性推荐更少的技术聚会。这种反馈循环将导致参加技术活动的女性人数更少。Meetup 决定在创建该反馈循环之前就将其短路。
技术影响着世界,并让我们接触到新的想法。我们需要更多地思考我们所坚持的价值观和我们想要构建的更广泛的系统,而不是仅仅优化指标。
更好的人工智能原则
我分享这些误解是为了我们可以克服它们,让世界变得更美好。我们可以通过合乎伦理地使用人工智能来改善我们的世界。请记住以下想法,以利用人工智能创造更美好的未来
- 我们有责任思考整个系统。
- 我们需要与领域专家以及受人工智能影响的人合作。
- 我们必须找到利用计算机和人类优势的方法,并将它们结合起来以获得最佳结果。
- 我们必须承认监管是可能的,并且过去已经产生了影响。
- 我们不能害怕困难和混乱的问题。
- 我们可以选择优化对世界的影响,而不仅仅是指标。
通过在我们工作和日常生活中内化这些概念,我们可以让未来成为每个人的美好家园。
Rachel Thomas 将于 8 月 17 日至 18 日在旧金山举行的 PyBay 2019 大会上发表题为 Getting Specific About Algorithmic Bias 的演讲。购买门票时,请使用 OpenSource35 折扣码。
1 条评论