通用人工智能(AGI)是人工智能的下一个阶段,计算机的能力将达到甚至超过人类的智力,几乎可以肯定会是开源的。
AGI 旨在解决智人能够解决的广泛问题。 这与狭义人工智能(涵盖当今的大多数人工智能)形成鲜明对比,后者旨在在特定问题上超越人类的能力。 简而言之,AGI 是对人工智能的所有期望的实现。
从根本上讲,我们并不真正了解什么是智能,以及是否存在与人类智能不同的智能类型。 虽然人工智能包括许多已成功应用于特定问题的技术,但 AGI 更加模糊。 当技术未知且没有具体的问题陈述时,开发软件来解决问题并不容易。 最近的 AGI-20 会议(世界顶级的 AGI 活动)的共识是,AGI 解决方案是存在的。 这使得 AGI 在未来的出现成为可能,即使不是必然的。
AGI 的方法
至少有四种创建 AGI 的方法
- 结合当今狭义人工智能的能力并聚集巨大的计算能力
- 通过模拟新皮层的 160 亿个神经元来复制人脑
- 复制人脑并从扫描的人类大脑上传内容
- 通过定义“认知模型”并使用过程语言技术实现该模型来分析人类智能
考虑 GPT-3,OpenAI 的一项巨大成就,它可以生成创造性的虚构作品,例如诗歌、双关语、故事和模仿作品。 该程序拥有一个包含数十亿个单词和短语及其与其他单词和短语的关系的库。 它是如此成功,以至于 OpenAI 出于对其滥用可能性的担忧而没有将其公开。 虽然它看起来很聪明,但大多数人怀疑 GPT-3 是否理解它正在使用的词语。 然而,GPT-3 证明,只要有足够的数据和计算能力,你就可以在很多时候欺骗很多人。
不幸的是,大多数狭义人工智能也是如此。 平均年龄为三岁的孩子堆叠积木时,他们会明白物体存在于现实世界中,时间会向前流动。 必须先堆叠积木,然后才能倒下。 人工智能的基本局限性在于,这些系统无法理解单词和图像代表存在于物理宇宙中并相互作用的物理事物,也无法理解因果关系具有时间上的理解。
虽然人工智能可能缺乏理解力,但 AGI 往往是目标导向的系统,它们将超出我们为它们设定的任何目标。 我们可以设定造福人类的目标,这将使 AGI 具有巨大的益处。 但如果 AGI 被武器化,它们也可能会在该领域发挥作用。 我不那么担心终结者式的单个机器人,而是担心 AGI 能够策划更具破坏性的控制人类的方法。 我认为这些风险超越了当今人工智能对隐私、平等、透明度、就业等方面的担忧。 AGI 类似于基因工程,因为其潜力巨大,无论是在益处还是风险方面。
我们什么时候能看到 AGI?
AGI 可能会很快出现,但在时间安排上没有共识。 考虑一下,大脑的结构是由人类基因组的一小部分(可能为 10%)定义的,总共约 750MB 的信息。 这意味着开发一个只有 75MB 的程序可能完全代表一个具有完全人类潜力的新生儿的大脑。 这样的项目完全在开发团队的范围内。
我们还不知道要开发什么,但在任何时候,神经科学的突破都可能绘制出人类神经元图谱。 (已经有一个人类神经元图谱项目。)人类基因组计划开始时看起来非常复杂,但完成时间比预期的要早。 在软件中模拟大脑可能同样简单。
不会有"奇点",AGI 突然出现的那一刻。 相反,它会逐渐出现。 想象一下,您的 Alexa、Siri 或 Google Assistant 逐渐擅长回答您的问题。 它已经比三岁的孩子更擅长回答问题,在某个时候,它会比十岁的孩子更好,然后比普通成年人更好,然后比天才更好,然后超出。 我们可能会争论系统何时越过人类等效线,但在每一步中,收益将超过风险,并且我们会对这种增强感到兴奋。
为什么是开源?
对于 AGI,选择开源有所有通常的原因:社区、质量、安全性、定制性和成本。 但 AGI 与其他开源软件有三个主要区别因素
- 存在极端的道德/风险问题。 我们需要公开这些问题,并建立一个系统来验证和遵守出现的任何标准。
- 我们不知道算法,开源可以鼓励实验。
- AGI 可能会比人们想象的更快到来,因此认真对待这场对话非常重要。 如果 SETI 项目发现一个超人类的外星种族将在未来 10 到 50 年内抵达地球,我们该如何准备? 好吧,超人种族将以 AGI 的形式到来,它将是我们自己创造的种族。
关键在于开源可以促进理性的对话。 我们不能彻底禁止 AGI,因为这只会将开发转移到不承认禁令的国家和组织。 我们不能接受 AGI 的自由放任,因为毫无疑问,会有一些不法之徒愿意利用 AGI 来达到灾难性的目的。
所以我相信我们应该寻求 AGI 的开源策略,该策略可以涵盖多种方法并努力
- 公开开发
- 让 AI/AGI 社区在限制 AGI 风险方面达成共识
- 让每个人都知道项目的状态
- 让更多人认识到 AGI 可能很快出现
- 进行合理的讨论
- 将安全措施构建到代码中
开放的开发过程是我们实现这些目标的唯一机会。
2 条评论