CPU 使用率是错误的

Netflix 的 Brendan Gregg 在他的 UpSCALE 闪电演讲中说,每个人都使用 %CPU 来衡量性能,但每个人都是错的。
363 位读者喜欢这篇文章。
Perl tricks for system administrators

Opensource.com

CPU 使用率是每个人用来衡量处理器性能的指标。但是,Netflix 的高级性能架构师 Brendan Gregg 在他称之为“五分钟公共服务公告”的第 16 届年度南加州 Linux 展览会 (SCALE) 上说,%CPU 是衡量处理器实际繁忙程度的误导性指标。

在他的闪电演讲“CPU 使用率是错误的”中,Brendan 解释了 CPU 使用率对性能的意义——以及不意味着什么——并分享了他用来识别瓶颈原因和调整 Netflix 系统的开源工具。他还包括一个神秘的案例研究,该研究与 2018 年的每个人都相关。

观看 Brendan 的演讲,了解如何使用 Netflix 的方法来确定您的 CPU 实际上在做什么来影响性能。

在 Opensource.com 于 2018 年 3 月在第 16 届年度南加州 Linux 展览会 (SCALE) 主办的 UpSCALE 闪电演讲中,八位演讲者分享了关于有趣的开源主题、项目和想法的快速见解。在 Opensource.com YouTube 频道 上观看所有 UpSCALE 闪电演讲

标签
User profile image.
Opensource.com 发布关于创建、采用和共享开源解决方案的故事。在 Twitter 上关注我们 @opensourceway。

贡献者

3 条评论

内核修复程序处理 Spectre/Meldown 的方式很愚蠢。它旨在解决时间攻击,但问题出在其他地方:性能计时器的精度太高,允许监控在单独的进程/VM 中发生的事情。
只有一个解决方案:使关键任务进程不要尽可能快地响应(如快速 CPU 允许的那样),而是添加随机响应时间,这将使测量变得不可能。这需要优秀的随机数生成器,但由于我们的处理器缺少能够提供足够快随机熵比特率的设备,因此使用了非常弱的 PRNG 算法。这种设备仅在军用级设备中可用。但是,考虑到现代处理器的规模及其运行所需的速度,有很多非常快的熵源可以创建安全的 RNG 并弃用 PRNG 的使用:这是因为这些处理器集成在非常接近完全随机行为级别的规模上(门现在只使用非常少的原子,存在大量的量子物理学,硬件不断尝试过滤掉大量的真实随机噪声:处理器不对从数字门过滤掉的噪声做任何事情。现在是时候考虑引入用于神经网络的“IA”处理器了:它们不需要做任何二进制决策即可收敛到解决方案,只需基于概率差异的决策即可。解决方案来了:量子处理与神经网络,它可以比愚蠢的二进制门集成在更高的规模上。二进制滤波器捕获的噪声可以在芯片的任何地方捕获、放大,并且噪声将成为优秀且非常快速的熵源,从而可以通过消除可预测的处理时间差异来保护关键任务进程。不再需要刷新 TLB!处理速度仍然更快!我们必须构建新的算法,这些算法采用非二进制决策,而是概率决策和可变的处理时间(独立于将要采取的最终二进制决策)。
这种思考是可能的,尤其是在 GPU(现在集成在单芯片“APU”中的 CPU 中)。现在是时候考虑旧的冯·诺依曼处理器模型了:它已经存在,应该消亡。我们需要使用量子处理、神经网络的新语言:我确信它们甚至可以在快速的时间内在它们的输出上收敛到一个解决方案(任何一个,真或假),该时间以相同的方式随机化,而与解决方案无关。但就目前而言,只要我们没有 CPU 中的量子处理,我们就需要在所有级别上真正随机化响应时间:在软件中、在总线上、在内存解码和寻址中。让我们忘记计数“周期”,我们真正需要的只是一个平均速度,但仍然有很多可变性。这将使所有基于时间的攻击无效:告别 Spectre/Meltdown 和类似的攻击,在硬件中这样做将大大简化软件设计,但不会禁止制造更快的硬件。我们也可以超越当前二进制门集成的限制:忘记最低级别的二进制处理,我们可以做更多的事情,甚至可以在响应中产生一些噪声和随机性的情况下产生出色的结果(我们所需要的只是收敛到解决方案的不同方法:不依赖于单个二进制门的稳定,所有门都平等地竞争,可能在几个非常快的连续步骤中通过反馈产生一个非常合适的解决方案,并且在稳定器中花费更少的能量和更少的热量需要排出。我们也将节省很多钱。制造芯片时将减少很多次品:所有芯片,即使是那些有缺陷点的芯片,也将是可用的,未来的计算机将在环境温度条件不太严格的情况下运行,将不再需要主动冷却。在“宏观”视图中,我们仍然可以在其顶部运行二进制决策系统,但其性能将不再以固定的“周期”来衡量:也忘记时钟吧!
现在是时候考虑重新引入模拟处理并最终放弃二进制门了!这一次,我们将使用大自然所产生的最好的东西:随机性、高变异性、极端的抵抗力和故障/缺陷后的恢复能力,以及非常小的能量水平,以及随处最大程度的并行化(这就是真正的“生命”的魔力:它是高效且具有抵抗力的,并且成本最低,只要我们不试图“标准化”它的形式)。我们需要一个具有多样性的地球,并改善这种多样性,这同样适用于计算机处理。我们不应再依赖于完全可重复的条件,而应仅依赖于统计和概率上显着的平均条件。该研究领域才刚刚起步。人工智能、神经网络将变得越来越可用,并且肯定会优于我们现有的二进制决策系统,这些系统极有可能失败或很容易成为安全攻击的目标(这些攻击现在正以大规模且非常具有破坏性的方式发生)。彻底反思计算机的所有概念!

Creative Commons License本作品根据知识共享署名-相同方式共享 4.0 国际许可协议获得许可。
© . All rights reserved.