CPU 利用率是错误的

Netflix 的 Brendan Gregg 在其 UpSCALE 闪电演讲中表示,每个人都使用 %CPU 来衡量性能,但每个人都错了。
363 位读者喜欢这篇文章。
Perl tricks for system administrators

Opensource.com

CPU 利用率是每个人用来衡量处理器性能的指标。但是,Netflix 的高级性能架构师 Brendan Gregg 在他称之为“五分钟公共服务公告”的第 16 届年度南加州 Linux 展会 (SCALE) 上表示,%CPU 是一个误导性的指标,不能真正衡量处理器的繁忙程度。

在他的闪电演讲“CPU 利用率是错误的”中,Brendan 解释了 CPU 利用率对于性能的意义——以及不意味着什么——并分享了他用来识别瓶颈原因和调整 Netflix 系统的开源工具。他还包括了一个神秘的案例研究,该研究与 2018 年的每个人都相关。

观看 Brendan 的演讲,了解如何使用 Netflix 的方法来确定您的 CPU 真正做了什么来影响性能。

在 2018 年 3 月举行的第 16 届年度南加州 Linux 展会 (SCALE) 上,由 Opensource.com 主办的 UpSCALE 闪电演讲中,八位演讲者快速分享了关于有趣的开源主题、项目和想法的见解。在 Opensource.com YouTube 频道 上观看所有 UpSCALE 闪电演讲

标签
User profile image.
Opensource.com 发布关于创建、采用和共享开源解决方案的故事。在 Twitter 上关注我们 @opensourceway。

贡献者

3 条评论

内核修复程序处理 Spectre/Meldown 的方式很愚蠢。它旨在解决时间攻击,但问题出在其他地方:性能计时器的精度太高,允许监视在单独的进程/VM 中发生的事情。
只有一个解决方案:使关键任务进程不要尽可能快地响应(如快速 CPU 所允许的那样),而是添加随机响应时间,这将使测量变得不可能。这需要优秀的随机数生成器,但由于我们的处理器缺少能够提供足够快比特率的随机熵的设备,因此使用了非常弱的 PRNG 算法。这种设备仅在军用级设备中可用。但是,考虑到现代处理器的规模及其运行所需的速度,有很多非常快的熵源可以创建安全的 RNG 并弃用 PRNG 的使用:这是因为这些处理器集成在非常接近完全随机行为水平的规模(门现在使用非常少的原子,有很多量子物理学,硬件不断尝试过滤掉大量的真随机噪声:处理器不对从数字门过滤掉的噪声做任何事情。现在是时候考虑引入用于神经网络的“IA”处理器了:它们不需要做任何二进制决策即可收敛到解决方案,只需基于概率差异做出决策即可。解决方案来了:使用神经网络的量子处理,其集成规模可以比愚蠢的二进制门更大。二进制滤波器捕获的噪声可以在芯片中的任何地方捕获、放大,并且将成为极好的、非常快的熵源,从而可以通过消除可预测的处理时间差异来保护关键任务进程。不再需要刷新 TLB!处理速度更快!我们必须构建新的算法,这些算法采用非二进制决策,而是概率决策,并且处理时间可变(独立于最终将要进行的二进制决策)。
这种想法是可能的,尤其是在 GPU(现在集成在单芯片“APU”的 CPU 中)中。现在是时候考虑旧的冯·诺依曼处理器模型了:它已经存在并且应该消亡。我们需要使用量子处理、神经网络的新语言:我相信它们甚至可以在快速时间内在其输出端收敛到解决方案(任何一个,真或假),这种快速时间以相同的方式随机化,而与解决方案无关。但就目前而言,只要我们在 CPU 中没有量子处理,我们就需要在所有级别真正随机化响应时间:在软件中、在总线上、在内存解码和寻址中。让我们忘记计算“周期”,我们真正需要的只是平均速度,但仍然有很多可变性。这将使所有基于时间的攻击都无效:告别 Spectre/Meltdown 和类似的攻击,在硬件中这样做将大大简化软件设计,但不会禁止制造更快的硬件。我们也可以超越当前二进制门集成的限制:忘记最低级别的二进制处理,我们可以做更多的事情,甚至可以在响应中产生一些噪声和随机性的情况下产生出色的结果(我们所需要的只是一种不同的收敛到解决方案的方法:不依赖于单个二进制门的稳定,所有门都在平等地竞争,可能在几个非常快的连续步骤中通过反馈产生一个非常合适的解决方案,并且在稳定器中花费的能量更少,需要散发的热量也更少。我们也将节省大量资金。在制造芯片时,缺陷会少得多:所有芯片,即使是那些有缺陷点的芯片,也将是可用的,未来的计算机将在环境温度条件不太严格的情况下运行,将不再需要主动冷却。在“宏观”视图中,我们仍然可以在其之上运行二进制决策系统,但其性能将不再以固定的“周期”来衡量:也忘记时钟吧!
现在是时候考虑重新引入模拟处理并最终放弃二进制门了!这一次,我们将利用大自然所产生的最好的东西:随机性、高变异性、极强的抵抗力和故障/缺陷后的恢复能力,以及极小的能量水平,以及无处不在的最大并行化(这就是真正“生命”的魔力:它是高效且具有抵抗力的,并且成本最低,只要我们不试图“标准化”它的形式)。我们需要一个具有多样性的地球,并改善这种多样性,这同样适用于计算机处理。我们不应再依赖于完全可重现的条件,而应仅依赖于统计和概率上显着的平均条件。该研究领域刚刚起步。人工智能、神经网络将变得越来越可用,并且肯定会超越我们现有的二进制决策系统,这些系统极易失败或容易成为安全攻击的目标(这些攻击现在正大规模发生,并且具有极大的破坏性)。彻底反思计算机的所有概念!

有趣的博文;可惜离题了。

回复 ,作者:Philippe Verdy(未验证)

© . All rights reserved.