教授算法伦理学需要开放的态度

为了发展对人工智能的社会责任方法,需要对算法系统进行透明和包容的教育。
137 位读者喜欢这篇文章。
How to find files in Linux

Lewis Cowles, CC BY-SA 4.0

人工智能 (AI) 工具和其他算法系统正日益影响我们周围的社会、政治和经济结构。与此同时,并且作为这种影响的一部分,这些系统越来越多地被用于为政策制定者和其他机构领导者提供信息——或直接做出——决策。

这种趋势可能对人类产生深远的积极影响。 例如,考虑人工智能应用已经在医学诊断中被证明是革命性的方式。 但是,伴随这些系统承诺的好处而来的是严重的风险,因为以这种方式日益不受控制地使用算法,有可能危险地加剧不平等,并将权力集中在少数人手中。 其他相关问题也可能随之而来,例如在缺乏消费者保护的情况下个人信息的日益商品化,或者数字监控基础设施的建设,而这些基础设施通常会针对已经边缘化或受压迫的人群。

解决算法对个人能动性和权力造成危险侵蚀的最有希望的机制之一是开放教育。 接受过技术伦理问题教育的政策制定者和顾问可以做出明智的监管决策,技术专家可以提高他们对其设计影响的认识,公民和消费者可以充分了解算法系统如何影响他们的日常生活。 哪里有知识,哪里就有力量,教育可以提供这种知识。

二十一世纪的教育工作者既有责任也有机会以包容和跨学科的方式增强这种技术伦理学习的能力。 至关重要的是,这种教育必须是开放的:遵循透明、包容、适应性、协作和社区等原则。 政府监管、大型科技组织内部更大的道德压力以及其他解决方案不能单独发挥作用。 教育——特别是开放的教育——对于应对因越来越多地与算法互动和依赖算法而带来的更广泛挑战至关重要。

当今的事态

算法和人工智能工具已经在改变我们机构中决策权力的集中度和同质性。 例如,美国的法官正在使用所谓的风险评估算法 (RAA) 来辅助他们关于监狱判刑的决策。 这些自动化系统——其复杂程度从基本的输入-函数-输出公式到使用深度学习的神经网络不等——将获取个人的个人资料并对该人进行某种形式的风险评估。 这可能是该人再次犯罪的可能性,也可能是他们倾向于暴力犯罪行为的程度。 从本质上讲,其目的是算法可以减轻法官的工作量,因为法官需要处理许多案件,并且阅读个人犯罪记录的时间有限。 这种说法也有意无意地利用了数学公式和算法在某种程度上是客观的概念。

然而,当这些系统从我们的世界中获取数据(例如,一个人之前的逮捕次数)并按其字面价值使用它们作为“再次犯罪的可能性”等输出的代理时,它们会将不公平引入算法决策中。 正如 ProPublica 在 2016 年的一篇报道 中揭露的那样,COMPAS 是一种用于辅助美国法院监狱判刑的 RAA,这种偏见体现在对已经边缘化的群体造成不同的影响。 COMPAS 可能错误地将黑人被告标记为未来罪犯的可能性几乎是白人被告的两倍,而白人被告“被错误地标记为低风险的频率高于黑人被告”。 由于使用的数据(例如,之前的逮捕次数)在不同人群中不具有(而且不幸的是,在不久的将来也不会具有)相等的值,这会在决策机器中引入系统性偏见的风险。 同样值得注意的是,本特定案例中使用的 COMPAS 系统是由一家营利性公司制造的,该公司可能没有多少动力主动披露或解决这个问题。

接受过技术伦理问题教育的政策制定者和顾问可以做出明智的监管决策,技术专家可以提高他们对其设计影响的认识,公民和消费者可以充分了解算法系统如何影响他们的日常生活。

在这里,与算法在公共和私人机构中的许多其他用途一样——福利分配无家可归者住房分配简历审查新闻推送策展等等——决策在某种意义上比已经更广泛的情况更加集中。 再次以法官的例子为例。 司法机构已经有少数法官为更大的集体群体做出决策,具体取决于他们所服务的法院的管辖范围。 然而,当来自不同法院的许多法官依赖于这个单一的 COMPAS 系统来辅助监狱判刑的决策时——通常是因为他们相信 算法客观性的神话,因为他们没有接受过其他教育——决策影响力在某些方面存在进一步集中到少数算法构建者手中的风险。 (在不久的将来会发生什么,当法官使用这种系统不仅作为风险或累犯的参考点,而且更具体地获得准确的刑期建议时?)

那些设计这些技术的群体通常在文化和种族上是同质的,并且被认为是白人和男性,这一事实加剧了这种情况。 尽管获得一致且准确的估计很困难,但许多报告表明,“技术领域”(以及一般的技术职位,尤其是行政职位)的多样性很糟糕。 此外,与任何机构一样,这里的决策将更适合看起来更像决策者的群体。 这可能会影响到技术本身的构建和构成,以及支撑其使用的条款和服务。

同样,这些问题并非算法所独有,就像在其他情况下一样,这种集中和同质的决策也会导致有偏见和/或不公平的决策,这次嵌入在代码中:性别歧视的招聘算法福利分配系统故障强化种族和性别刻板印象的搜索引擎等等。 算法本身会发生故障——对已经边缘化的群体造成不同的影响——因为没有人以其他方式影响算法设计过程。

展望未来

展望未来,机构决策存在严重的风险,即机构决策变得更加集中在构建算法的开发人员手中——这些算法越来越多地影响许多人的机构决策(尤其是在公共政策方面)。 即使技术和其他领域的决策结构变得更加多样化和包容——这也是一个很大的何时——通过算法及其开发人员集中的决策问题仍然存在。 这肯定不会影响每个机构,并且对不同机构的影响以及由此产生的政策结果在每种情况下都会有所不同。 但这是我们正在走向的道路。

在非常直接的意义上,正如 Joy Buolamwini 在 《纽约时报》 中写道,如果人工智能的设计和使用不受控制,它势必会加剧社会不平等。 从更广泛的层面来看,正如 Yuval Noah Harari 在 《大西洋月刊》 中雄辩地强调的那样,当代数字技术,如果没有正确的检查和设计原则,很可能会侵蚀人类能动性和我们所知的自由民主结构。 然而,两位作者和许多其他人都同意:现在还为时不晚。 我们尚未跨越某个阈值(即使存在),在该阈值上,算法在世界中根深蒂固,以至于我们无法改变它们的设计、使用或监管方式。 相反,今天肯定有可能采取行动来防止自动化系统加剧社会不平等和剥夺人们的能动性。

通过开放的伦理技术教育寻找解决方案

对于思想开放的教师和技术伦理学家来说,教育学生了解算法活动的力量和普遍性既是一项责任,也是一个机会。

对于思想开放的教师和技术伦理学家来说,教育学生了解算法活动的力量和普遍性既是一项责任,也是一个机会。 这项工作既应拥抱开放组织价值观——透明、包容、适应性、协作和社区——又应将这些价值观融入旨在培养伦理观的教育倡议和材料中,以应对人工智能应用和其他算法系统对我们世界可能产生的危险影响。

围绕各种算法的保密性可以说导致了我们今天看到的许多问题:对不同群体造成不同的影响——例如监狱判刑中使用的风险评估算法——再加上缺乏关于这些算法如何设计和部署的公开且易于访问的信息。 由于有关系统设计的信息通常是隐藏的或无法获得的,因此识别和理解这些系统的负面影响更加困难。 因此,本着与这些事实作斗争的精神,伦理技术教育应拥抱透明,即课程内容——以及课程的结构方式——应向他人公开审查。 在这样一个新兴领域,对教育材料的反馈只会加强此类举措。

制定伦理技术教育计划的人员也应在设计阶段之后对一切保持透明。 与其他致力于解决伦理技术教育问题的人员分享失败成功经验非常重要:什么有效? 什么无效? 该课程在弥合 STEM 人文学科之间的鸿沟方面做得如何? 这些问题与不同背景的学生的相关性如何? 材料有多“技术性”? 哪些类型的技术引起了最多的讨论? 哪种形式的支持(管理者、学生等)对于实施此课程最重要? 这些问题的答案有可能帮助其他致力于解决这些问题的教育工作者,更不用说政府、行业和其他部门也在努力为其选民开发伦理技术教育的教育工作者。 透明是这里要拥抱的一个强有力的原则。

伦理技术教育还应拥抱包容性。 今天算法设计和部署的部分问题(如前所述)是做出设计和部署决策的群体规模小且相对同质。 很少有普通民众有发言权或影响力,而那些有发言权或影响力的人通常不能代表普通民众。 因此,几乎天生就存在一种隐含和/或明确的愿望,即根据那些与设计师有共同经历的人的需求来定制这些算法——同时不设计,甚至设计成反对那些圈外人的需求。

因此,技术伦理教育不应仅仅通过利用小型和同质的群体来重复关于技术的主流叙事——例如在没有监管的情况下进行创新的必要性,接受某些东西会在这个过程中“被打破”。 相反,伦理技术教育的设计和维护应追求并拥抱设计、内容和结构方面的包容性。 例如,要了解风险评估算法对囚犯的影响,仅包括白人系统设计师的观点是不公正的; 也应考虑受影响者的观点(在本例中,例如,黑人个人,他们的“风险”评分被算法严重误判)。 同样,仅采用技术专家的观点会排除社会学到新闻学等行业的专业人士的观点,因此会错过关于技术的重要观点。 因此,更具包容性的课程设计和维护不仅可能更公平,而且更好——更全面地评估算法对不同群体的影响。 如果我们要对抗许多算法系统威胁到的集中和更同质化的决策,这至关重要。

适应性,作为开放组织原则的最后一个例子,对于那些寻求教育伦理技术问题的人来说至关重要。 技术正以惊人的速度发展。 人工智能应用程序和其他算法尤其经常在事先几乎没有测试和监督的情况下部署。 为了确保伦理技术教育不会很快过时——为了确保它对不同知识水平的人保持可访问相关——必须有协作流程,以便快速调整伦理技术教育,以纳入新技术、这些技术的新实现以及这些技术的新影响。 来自管理者、学生和其他在伦理技术教育中拥有利益相关者的强大反馈循环可以对此有所帮助。 同样,与那些从事技术问题工作的人员进行持续对话——以及对课程的持续迭代以做出响应——服务于保持这种教育与时俱进所需的成长心态。 随着算法公平性、数据隐私和其他问题的演变,伦理技术教育应做出适应性响应。

当然,仅靠开放教育是不够的。 管理人工智能和其他算法在社会中日益增长的作用的风险的包容性和多样化方法——一种积极参与并利用来自广泛利益相关者(从公民到监管机构再到技术开发人员)的意见的方法——应该包括教育作为其中的一个组成部分。

与此同时,我们不应忘记,增加使用和依赖人工智能和其他算法可能会带来潜在的积极影响。 我们应该追求和拥抱在技术上实际可行的系统设计方式,同时考虑到公平性、隐私保护、安全性、透明度和其他以人为中心的设计原则。 但是,当我们带着不受控制的算法系统使用走上危险道路时,开放的伦理技术教育是教育在未来世界中留下印记的关键途径。

阅读下一篇

接下来阅读什么
User profile image.
Justin Sherman 是杜克大学的高年级学生,杜克大学法学院杜克法律与技术中心的研究员,以及 New America 的网络安全政策研究员。

2 评论

一个问题是闭源软件,无法检查它。 需要要求只能使用开源软件和人工智能数据集来控制人们的生活。

下一个问题是议会/国会空闲时间太多,制定了太多法律。

以我的诚实观点来看,伦理只能被启发,而不是被教导,是的,开放文化是做到这一点的绝佳方式。

祝贺这篇文章!

Creative Commons License本作品根据 Creative Commons Attribution-Share Alike 4.0 International License 获得许可。

下载开放组织定义

现在有全彩插图

© . All rights reserved.