消除 AI 数据集中无意识的偏见

“All Things Open Lightning Talk” 演讲者解释说,有偏见的训练数据集可能会在人们的生活中产生严重的后果。
164 位读者喜欢这个。
a handshake

opensource.com

人工智能的失败通常会产生很多笑料,当它们犯下愚蠢的错误时,比如这张滑稽的照片。然而,“问题在于,机器学习的失误并不总是那么有趣……当用于训练这些机器学习算法的数据集不够多样化时,它们可能会对最终用户产生非常严重的后果,”Lauren Maffeo说道,她是 GetApp 的高级内容分析师。

在她在 2018 年 10 月 23 日于北卡罗来纳州罗利市举行的 All Things Open 2018 大会上发表的“Erase unconscious bias from your AI datasets”(消除 AI 数据集中无意识的偏见)Lightning Talk 演讲中,Lauren 描述了一些可怕的影响,并倡导开发人员采取措施保护人们免受机器学习和人工智能偏见的影响。

要了解有关此问题的更多信息,请观看 Lauren 的演讲并阅读她在 Opensource.com 上发表的文章“The case for open source classifiers in AI algorithms”(AI 算法中开源分类器的案例),该文章更深入地探讨了这个问题。

接下来阅读什么
Photograph of Lauren, a white woman with long brown hair, standing in front of a tree wearing a grey coat.
Lauren Maffeo 曾报道过全球科技行业并在其中工作。她的职业生涯始于自由记者,为伦敦的《卫报》和《The Next Web》报道科技趋势。如今,她在 Steampunk 担任服务设计师,Steampunk 是一家以人为本的设计公司,为政府机构构建公民科技解决方案。

1 条评论

真的很有趣。谢谢!

找到完美的开源工具

项目管理、商业智能、报告等等。查看这些热门项目。

© . All rights reserved.