最近网络上出现了一些关于本站在电源功率推荐和显卡功耗方面的传闻,比如“他推荐购买1000W电源”,实际上我推荐的是AX1600i海盗船请打广告费,对此我写了一篇又臭又长的文章进行回应。写这样一篇文章真是吃力不讨好,得罪玩家也得罪厂商,我尽可能用通俗的语言讲明白显卡和CPU的真实功耗是如何爆炸,显卡和电源又是如何翻车。

去年我已经写过Intel 9系列处理器功耗的文章,谈到TDP并不代表实际功耗,显卡的功耗更为惊人,现在有了更多数据支持。写本文的原因是为了能让玩家更清楚当前的功耗情况,对选购配件能做到心中有数。能让厂家意识到目当前的问题并且对产品加以改进才是我的最终目的。

事情的起因是这样的,最近一年时间,有很多玩家的电脑莫名其妙在游戏中重启。调查发现,这些案例的共同点都是使用了RTX2080Ti、Vega 56/64的高端显卡。作为电脑组件里的背锅侠,电源首先背上了导致重启的锅,问题开始只影响极个别电源品牌,后面发展为几乎所有电源品牌都出现了类似故障。

经过长时间的研究之后发现,这一重启故障是由于显卡瞬时功率过大,触发电源的OCP过流保护导致重启,摆平问题的玩家几乎都是通过更换更大功率的电源解决,以电源讨论为主的JonnyGuru论坛对这个问题有较多的讨论。

由于已经找到了导致重启的原因,对于使用高端显卡、高端显卡x2的玩家,我都推荐尽可能功率大一些的电源来避免翻车,但是总有一些诸如:“不拷机绝对够”、“550W足够”、“不超频500W绝对够”、“1000W绝对够”这样的声音反馈回来。掌握大量数据的板卡厂商和电源厂商都不敢下如此绝对的结论,怎么普通玩家如此自信。对此,我画了几张图表达我的观点。

在普通玩家的认知中,默认显卡就是跟一个灯泡一样的纯电阻元件,通电功耗相对固定。然而由于显卡的GPU由大量的晶体管组成,晶体管工作就会产生功耗,晶体管越多,渲染的画面越复杂,功耗波动越剧烈,而且远比GPU-Z显示的波动剧烈。AC功率计或者是板卡的传感器都有局限性,显卡的真实功耗往往不为人知。

而且有一个很奇怪的现象,买了6、7千甚至上万元显卡的玩家,大都不舍得买一个输出质量优秀的大功率电源,大部分电源可比显卡便宜得多了。

为了体现人文关怀,太长不看的读者看到这里即可,目前的现状是硬件行业隔行如隔山,媒体行业知识结构欠缺,玩家群体错误的认知先入为主难以纠正。普通用户不需要了解显卡和电源的技术细节,依旧遵循去年的文章结论,电源买自己买得起的最大瓦数最新设计来避免重启问题。

困了就要睡觉,饿了就要吃饭,显卡功率过大就会触发电源保护,这是多么简单的道理。

如果有兴趣往下看的读者,我将会从芯片的基本构成、芯片的电源管理、显卡PCIE规范、电源设计、CPU、显卡功率实测等方面的内容来介绍目前CPU、显卡两大核心配件的功耗情况以及电源的选购注意事项。

文章目录:

0、太长不看版
1、功耗爆炸之源
1-1、电路基础
1-2、万恶之源
1-3、芯片电源管理机制
2、显卡
2-1、显卡方面的功率标识
2-2、显卡厂商对电源的要求
2-3、PCIe规范
3、电源
3-1、额定功率和超载
3-2、OCP保护机制
3-3、动态响应特性
3-4、接口承载能力
3-5、12V多路、单路设计
4、实测
4-1、为什么说AC插座功率计是玩具
4-2、媒体的测试方法
4-3、F站的测试:CPU功耗
4-4、F站的测试:显卡功耗
4-4-1、AMD Vega 56 功耗
4-4-2、NVIDIA RTX2080Ti 功耗
4-5、花絮:显卡啸叫问题
5、总结以及购买指南

1、功耗爆炸之源

我们从组成CPU的晶体管开始讲起。

1-1、电路基础

每个晶体管 (Transistor) 由源极 (Source)、漏极 (Drain)和它们中间的栅极 (Gate)组成,栅极起到控制电流通断的作用。我们常说的xx nm的制造工艺,其实就是指的栅极宽度。由掺入的材料不同,晶体管分为NMOS和PMOS两种类型。

从逻辑电路层次看,组成CPU的CMOS (Complementary Metal Oxide Semiconductor) 互补式金属氧化物半导体电路即是将NMOS晶体管和PMOS晶体管连接起来配对使用。下图为一个 CMOS反相器示意图,CMOS电路可以理解为是一个开关模型。

CMOS电路的功耗主要来自两部分,分别是动态功耗P_dynamic和静态功耗P_static,总的功耗构成即为:

Power = ∑(P_dynamic + P_static) = ∑(CV²αf + V*I_dq)

其中,C为负载电容的容值,V为工作电压,α为当前频率下的翻转率,f为工作频率,I_dq 为漏电流。

CV²αf 为晶体管的动态功耗 P_dynamic,来源于驱动门电路翻转产生的功耗,与电压、频率、负载电容、电路设计相关。

V*I_dq 为晶体管的静态功耗 P_static,来源于逻辑门电路没有翻转时由于绝缘不足无法完全关闭的静态能量损耗,只要电路工作就会漏电。

1-2、万恶之源

芯片制造业为了塞下更多的晶体管,力求用更先进的工艺制造更窄的栅长,用于绝缘的栅极二氧化硅绝缘层会变得越来越薄,在深亚微米工艺下,漏电功耗占到功耗的很大一部分,随着工艺发展到纳米级,漏电情况会加剧,静态功耗比例继续加大。

同时,芯片制造的过程中有着Backgate掺杂的概念,掺杂高的材料需要的单元门翻转阈值电压高,但它的漏电功耗低,门延迟长,也就是速度慢。反过来,掺杂低的材料所需要的翻转阈值电压低,但漏电功耗高,门延迟低,速度高。芯片制造有着高性能以及高性能功耗比两种不同的工艺路线,高性能路线使用的材料是偏向于漏电功耗高这一类。

总结下来目前高端芯片费电的原因无非是以下两个:

一是规模巨大。

ATi (AMD) R300 是第一颗晶体管数量超过1亿的 GPU,在这之后,GPU 的晶体管数量不断增加。

NVIDIA RTX2080Ti (TU102 Turing)塞了186亿个晶体管,AMD Vega 64 (Vega 10)塞了125亿个晶体管。Intel Core i9-9900K塞了多少个晶体管还是个迷。可以想象拥有数十亿晶体管电路的芯片,在工作时逻辑门电路被不断翻转,而且由于工作频率达到以GHz计算,它消耗的能量就相当可观。

按A/N两家提供的TDP功耗值和芯片面积可以算出TU102 Turing的功率密度是34.5W/cm²,Vega 10是61W/cm²,超过了电炉的10W/cm²,Vega 20达到了90.6W/cm²,已经很接近核反应堆的100W/cm²,如果都按峰值功率算的话,那超过了核反应堆,直追火箭尾焰

二是桌面级的 CPU/GPU倾向于高性能路线,静态功耗所占的比值不低。虽然还能在性能功耗比的优化上做做文章,也就是下面我们需要谈的内容。

1-3、芯片电源管理机制

CPU/GPU晶体管规模巨大、功耗巨大,为了控制功耗,芯片厂家都会想尽办法。

我们从1-1给出的动态功耗公式来分析:

P_dynamic = CV²αf

其中负载电容C是和制程工艺相关,出厂即固定,V是工作电压,α是当前门电路的翻转率,f是工作频率,由此得知,要降低处理器的动态功耗,只有降低工作电压、减少翻转的门电路数量或者降低工作频率。

门级电路的功耗优化(Gate Level Power Optimization)、DVFS机制 (Dynamic Voltage and Frequency Scaling)在一定程度上降低了芯片的平均功耗,但同时又带来功耗大幅度频繁波动的现象

Intel官网提供了较多技术资料,Intel的智能降频技术EIST (Enhanced Intel SpeedStep Technology)即是一种DVFS机制,够对CPU的工作电压、频率进行智能调节从而降低CPU的功耗。

EIST技术中包含的不同频率、电压状态在ACPI定义的CPU的C0 (CPU Power States)下的各种P-States (CPU Performance States)下体现出来。

有了降频同时也会有超频,Intel的Turbo Boost Technology睿频技术是Intel的官方超频技术,对应P-States P0中的最大工作频率。Intel Turbo Boost Technology 2.0允许CPU在短暂的时间将功耗提高到超过TDP的PL2值。

有了电源管理就有相应的功耗状态,Intel的Package Power Control封装功率管理就是对CPU的几种PL (Power Limit)状态进行介绍。

Intel的功率极限(Power Limit)一共有4档,功率从小到大依次是PL1、PL2、PL3、PL4。

PL1即平均功率,Intel建议不超过或者设置为TDP功率,CPU可以一直在这个功率上运行;

PL2即超过PL1之后的功率极限,对应Turbo Boost 2.0状态下的功率,CPU可以保持在PL2长达100s;

PL3是一个更高的功率极限,超过PL2的时候可以在PL3的状态保持峰值功率最长10ms;

PL4就是一个不可逾越的硬帽。PL3和PL4默认情况下是禁用的。

AMD的CPU也有类似的电源管理机制,限于篇幅不展开详细讲解。

2、显卡

2-1、显卡方面的功率标识

GPU方面可以得到的技术文档不多没找到资料可以介绍电源管理啊,而显卡方面的电源管理和功率标识比CPU的还要更遮遮掩掩。A/N两家把这一任务交给公关公司,公关公司再交给媒体,媒体再传播给KOL,KOL再传播给普通玩家。嗯,普通玩家吃的是第N手的资讯。

NVIDIA官网要找半天才能看到2080Ti的功率,简单写着“Graphics Card Power 260W”,也不知道是典型功耗还是峰值功耗,推荐电源功率为650W。

AMD官网Radeon VII的页面则是写着“典型板卡功率(台式机)300 W”、“电源功率:750W”。

2-2、显卡厂商对电源的要求

板卡厂商对电源的推荐功率有点心虚,板卡功耗在300W不到,推荐了两倍以上功率的电源。我寻思板卡厂商其实也知道板卡的真实功率,但就没有说透,给板卡留下了一定的余量。

其次,相应的电源推荐列表和工具更新滞后。NV官网有一个页面提供了电源需求计算器,但是页面只提供一个跳转到华硕官网电源计算器的链接,这个页面是2007年更新的,以NV驱动界面几十年如一日华硕网站的更新速度,跳转过去并不能找到对应页面。

同时在NV官网还能看到SLI认证电源列表,可惜上面的电源都是诸如Antec CP-1000这样的上古型号。

提问,一张2080Ti需要一个650W电源,那么两张2080Ti SLI需要一个多大的电源?NVIDIA没讲,AMD也没有。

2-3、PCIe规范

相反,PCI-SIG有更多可用的信息。PCI-SIG(Peripheral Component Interconnect Special Interest Group)全称为“PCI特殊行业集团”,于1992年成立,为的是更好地帮助电脑厂商落实Intel的规范,目前有800多家成员公司。

从『PCI Express Card Electromechanical Specification Revision 3.0』技术规范可以看到其对PCIE插槽、PCIE电源接头的供电需求都有明确的规定。

比如PCIE插槽提供的75W,有66W是来自12V,其余9.9W由3.3V提供。6+2Pin接口提供的是150W,6Pin提供75W。这几个值指的都是持续的最大传输值或者说持续的最大平均值。

供电需求表格下方还有一句备注写着:

1.The maximum current slew rate for each add-in card shall be no more than 0.1 A/μs.

意思是每张PCIE卡的最大电流摆率不应超过0.1A/μs。按理说,PCIE规范要求的PCIE扩展卡的电流摆率比Intel对电源动态要求的电流摆率还小一个数量级,Intel ATX12V规范要求是1A/μs,怎么电源就翻车了呢?

以我的实测看来目前高端显卡的电流摆率要超过0.1A/μs。比如以下这张显卡的一个负载尖峰摆率达到3A/μs左右,它还只是一张GTX970。而这种负载波动在显卡运行过程中是频繁出现的。这里没有特指显卡的电流摆率过大触发电源OCP保护的意思。

3、电源

本IntelApple核显用户终于回到了我专精的领域,讲一下电源这个长期以来的背锅侠。

3-1、额定功率和超载

电源能够在一定的环境条件下连续地输出功率,且各项技术指标都符合规范,这一功率即为电源的额定功率。

Intel ATX12V规范没有要求超载。

3-2、OCP保护机制

OCP(Over Current protection)过电流保护机制是Intel强制要求的设计,目的是在电源输出电流过大时切断输出维持系统安全,并且接口、线缆和其他组件不应当熔化或者损坏

对于当前主流中高端的单路12V LLC谐振电源而言,保护是做得相当谨慎的,当12V输出的dI/dt(电流的变化率,也就是上面提到的电流摆率)大于电源设计的过流保护阈值时,电源认为此时已经接近短路,需要判断是否要继续供电还是选择炸机,如果需要保护,便进行保护动作。

目前电源带高端显卡重启的主要原因是由于显卡输入的dI/dt过大,而且频繁重复这样的动作,超过了电源的OCP设计值,电源可不理会是遇到短路还是显卡电流过大,先关断保护了再说。

3-3、动态响应特性

看过极电魔方fcpowerup.com电源评测的读者应该知道本站有一个动态测试项目,用于考验电源在输出大幅度变化时的工作稳定性和输出质量,对应的即是带大功率CPU和高端显卡的使用条件。

在目前CPU和显卡的功耗波动实在太大了,所以这个项目尤其重要,电源没有进入保护状态的情况下,需要了解电源的输出质量到底如何,电压有没有震荡,有没有超出板卡工作的允许值,在扛了大幅度的负载波动之后,电压的恢复时间又如何。

按照Intel ATX12V规范的要求,本站或者是正规电源厂家的动态测试中的电流摆率也应该是1A/μs (甚至更高),测试摆幅根据电源的输出功率来确定,功率越是大的电源,一般能承受的摆幅(动态功耗)也越大。Intel对于带CPU的12V2要求是85%的摆幅,对带PCIE的12V3/V4的要求是80%。电源厂家如果按Intel ATX12V的要求来设计电源,那么能保证输出质量所带的最大电流/功率摆幅是80%左右。

由于电源的动态响应性能都是有上限的,如果带了超出电源动态负载能力之外的设备之后,电源可能进入上面提到的过流保护状态,也可能由于DC输出触发OVP、UVP而保护,也可能PFC Boost电容进入UVP,没有妥善保护机制的电源也可能烧毁。

具体的介绍可以看F站的建站基础文章『是时候表演真正的技术了,我是怎么测电源的v1.2』对应的“4-9.动态测试 Dynamic Test”章节这里不展开详细介绍。

3-4、接口承载能力

上面谈到接口烧毁,顺带也要提一下接口插件的承载能力。

在动态负载变化极大的情况下,CPU和显卡散热器由于使用了铜吸热底座和大规模的散热鳍片,并且还有强迫风冷,是可以轻松承受瞬变负载的,散热器也只会稍微升高几摄氏度,电源、线材和插件就不同了。

线材方面,按最常用的单芯PVC绝缘电线在30℃环境下,要升温至PVC材料的最大适用温度(熔化),16AWG、18AWG、20AWG和22AWG线径线材所能通过的电流分别为24A、18A、13A和10A。PE、XLPE、Teflon材料的适用温度有所不同,所以能承载的电流也有所差异,这里不展开讲。

而端子方面,板卡使用的Molex Mini-Fit 5556单Pin能承载的约为9A,热集聚效应下3组12V(对应6+2Pin PCIE)削弱到每组可以承载8A左右,也就是3×8=24A/288W,PCIE协议更保守,写的7A/Pin,而且还需要降额使用来避免端子由于机械性能失效导致的烧毁。CPU的4组12V(对应8Pin),可以承载约4×8=32A/384W。

以上数值都为持续传输的承载上限,端子可以承载瞬间的高负载,不过长期高负载使用再加上散热不良就有风险了。PCB板的焊盘、铜箔、元件焊点可能承载能力要更低。所以现在的板卡、电源都配备更多的接口来分摊电流降低风险。

3-5、12V多路、单路设计

Intel在去年的ATX12V v2.52规范中已经把12V多路设计去掉,这一设计明显已经无法应对目前单个配件消耗大量12V的情况,12V分多路设计的电源,使用新的显卡更容易触发单一路的OCP导致重启。

4、实测

讲了这么多,最后当然要上实锤啦。

4-1、为什么说AC插座功率计是玩具

用AC插座来测试电脑功耗是最最普遍的方法。

讲一下简单的原理,AC插座功率计接到市电,工作的流程是对输入电源的正弦波AC交流电进行采样、积分,最终得到了一个电源的AC输入平均功耗,采样的是正弦波,输出的是RMS值,AC插座功率计的采样率不高,显示屏的刷新率也不高,几秒钟一次。加上AC输入端都是经过电源“平滑”之后的输入值,是捕捉不到峰值的。

放一段视频吧,看看在高带宽数字示波器上的抓到的DC值和AC电分析仪上看到的平均值有什么区别。示波器仅抓PCIE外接双6+2Pin的电流值从0到55A之间波动,对应的功率最高可以到660W,AC电分析仪上显示的也只有345W而已,中间的波动都被电源所平滑了。普通的AC插座功率计比起我用的电分析仪采样率低得多,了解AC功率计原理的人,不会拿它测到的数值来指代显卡的DC输入功率。

 

这实在的60A+峰值电流,是电源扛着的。

4-2、媒体的测试方法

绝大部分媒体都是用AC功率计测试的方法来测整机功耗,所以数值也是不可靠的。

目前有两家媒体用了正确的测试方法,一家是超能网,一家是Tom’s Hardware,两者都是采用直接从DC端测量的方法来获得板卡功率。不过局限性也是有的,两者用的仪器采样率都太低,超能网使用的仪器采样率1Hz,之前A卡480烧插槽的验证测试就用上了。

Tom’s Hardware之前采用的仪器要好一些,最近换的这一套模拟带宽看来更低了,波形失真严重,波峰几乎都被削掉了。德文版Tom’s Hardware(igorlab)的数据仍然是旧的那套设备,电流探头模拟带宽100K,数据还具备参考性。

按德文版Tom’s Hardware之前测得的数据,Vega 64测得峰值420W/0.3ms,2080Ti测得402W/0.1ms。仪器模拟带宽不足限制了他们获取到真实的最高值,但是从他们的数值来看,已经比板卡厂商标称的TDP要高出一大截。Vega 64的官方标称功耗值为300W,实测420W,2080Ti官方标称260W,实测402W。

4-3、F站的测试:CPU功耗

平台及仪器

Intel i9-9900K no OC
ASUS ROG Maximus XI Gene
Galaxy DDR4-4000 8GBx2 Kit
Plextor M5P 128G SSD
Prolimatech A3 Cooler
Samsung 1080P Monitor
Seasonic Focus+550 with No Built-in Capacitor Teflon Cable

AMD Radeon RX Vega 56
NVIDIA RTX2080Ti (TDP 380W Max)

OS: Microsoft Win 10 64bit 1809
NVIDIA Driver:417.35-desktop-win10-64bit-international-whql
AMD Driver:win10-64bit-radeon-software-adrenalin-2019-edition- 18.12.2-dec12

Benchmark:
3DMark
FurMark_1.20.2
AIDA64_Extreme_5994900
Powermax_1.00
Unigine_Heaven-4.0
Prime 95

Oscilloscope: Tektronix MDO3014
Tektronix TCP303 Current Probe 150A DC , Bandwidth 15 MHz

Tektronix TCPA300 Amplifier AC/DC Current Probe , Bandwidth 100 MHz
Voltech PM1000+ Power Analyzer

我们使用Tektronix MDO3014示波器+15MHz高带宽的电流探头来进行测试。

CPU功耗实测Prime 95跑出来的功耗比AIDA64 FPU其他的什么都要高一点,所以下图示波器截图来自Prime 95跑的成绩。

此时CoreTemp读数大概160W多一点,示波器探头钩的主板CPU 12V接口,对应VR供电电路输入,可以看到电流峰值18.4A,RMS值16.1A。VR供电电路输入约200W多一些,CPU输出160W多一些,VR电路效率接近80%,已经是非常高的效率。

按得到的VR电路的效率,可知当9900K跑到PL2 210W时,主板CPU 12V供电接口输入功率应该在262.5W以上,如果VR供电效率更低一些,假设只有70%的话,那么VR供电电路要输入300W的功率才能满足需求,即电源留给CPU的余量要有300W

从波形分析,Intel应该对CPU的功耗限制得比较紧,加上CPU处理的都是比较单一的任务,没有大幅度波动的情况,比显卡的功耗要平稳得多。

不过相对于前面几代CPU,这代CPU的供电要求是历来最高的,要求线路、铜箔、焊盘、主板插口的端子、电源的接口端子、线材、电源模组接口端子,都要一一满足300W的承载能力。

端子方面,电源CPU 12V供电接口用的Molex Mini-Fit 5556端子,4组每组可以承载8A左右,也就是4×8=32A/384W。可以应对210W的CPU (毕竟实际上要承载300W),余量不大。接多一组4Pin或者4+4Pin会更妥当。有些用户可能会在电源端使用4Pin模组线再转8Pin接到主板的接法,其实这样只有4Pin端子是有效承载电流的,而且接近电流饱和,容易烧端子、接口,不建议这么接。

热成像图,接两组接线,温度并不高。

由于没有AMD测试平台,实际功耗未知,可能会由于处理器的电源管理机制不同,VR电路设计不同而有所不同。

4-4、F站的测试:显卡功耗

显卡的功耗测试比CPU的精彩得多。

4-4-1、AMD Vega 56 功耗

为什么没有测Vega 64/64LC或者Radeon VII呢?因为我没卡。

AMD Vega 56在Wattman中解锁了+50%功耗限制之后可以在两个PCIE 6+2Pin外接接口测到高达57.6A/691.2W的峰值功率,测试24PIN上的12V峰值为 6.3A(对应一部分PCIE插槽电流)。即便不解锁功耗限制,AMD Vega 56也能在两个PCIE 6+2Pin接口测到高达53.6A/643.2W的峰值功率。累加外接6+2Pin PCIE供电接口和PCIE插槽,单卡的瞬时功率可以认为有700W以上。

AMD Radeon RX Vega 56的示波器截图

测试时间40s,峰值54.4A:

测试时间40ms,峰值55.2A:

测试时间10ms,峰值57.6A:

24Pin,对应PCIE插槽,峰值6.3A:

4-4-2、NVIDIA RTX2080Ti 功耗

为什么不测2080、2070、2060,因为我也只有2080Ti。其他历代旗舰卡功耗后面补齐。

NVIDIA RTX2080Ti用GPU-Z查看是300W默认TDP,380W TDP Max,在驱动控制面板启用性能优先模式,开机之后的一段时间可以测到52A/624W,分析是因为冷启动,电源管理机制允许板卡输出更大功率,跟手机降温跑分更强一个道理。

后面热机也可以测到46.4A/556.8W的峰值功率, 而24Pin上测得高达11.6A/139.2W,RMS值达到了5.98A,超出了PCIE规范5.5A的值,如果是两张2080系列,两张加起来就是12A,就是24Pin两组12V端子所能承载的上限电流值,不外接主板6Pin或者大4Pin Molex辅助供电,很容易就会烧了PCIE插槽或者24Pin插座。

累加外接6+2Pin PCIE供电接口和PCIE插槽,也可以认为RTX2080Ti也有600W以上的瞬时功耗。

NVIDIA RTX2080Ti 的示波器截图:

测试时间100s,峰值52A:

测试时间10ms,峰值46.4A:

24Pin,对应PCIE插槽,峰值11.6A:

一张图总结,都为测得的峰值功耗:

附加一些说明:

a、显卡的峰值电流的波形、幅值、持续时间跟跑什么Benchmark相关,没有A卡峰值电流持续时间长、N卡持续时间短这样的说法。

b、大多数热门的Benchmark比如Furmark和3DMARK测到的电流值并不是最高的,而且也比较规律。

c、游戏里面测到的值不那么规律,而且波动幅度极大。场景越复杂的游戏,功耗波动越大,也就是说,跑了压力测试稳定通过的电脑,可能在游戏中翻车。

d、电源对此类波动幅度大、摆率大、频率不规律的负载敏感,容易触发电源OCP最终导致重启。

e、同一张显卡,帧数越高,显卡的功耗可能冲得越高。

f、测试中的海韵Focus+550重启翻车过,分别使用两组带电容和不带电容的PCIE模组线进行测试,结果相同。

g、将重启的海韵Focus+550改造加强散热系统之后同样重启,并且电源的元器件工作温度接近室温,电源元器件余量足够。

h、将重启的海韵Focus+550调整电路,放宽过流保护之后通过了带Vega 56、2080Ti的拷机、游戏测试。验证了确实是触发了OCP导致的重启。虽然改造后的电源能通过测试,但是要长期扛住超出本身额定功率许多的负荷,电源寿命和输出质量得不到保障。我选择使用更高功率的电源来带这套机器。

i、带高端显卡时12V受动态负载波动很大,如果是单磁电源,12V和5V共用一个输出储能电感,5V受12V的波动而波动,我真的为使用5V的存储设备感到担忧。

4-5、花絮:显卡啸叫问题

显卡啸叫是最近经常听到的问题,主要是电感滋滋叫。电感的结构跟扬声器的结构类似,电感两端有电流不断往返,它就会产生振动,从而产生噪声。在游戏或者Benchmark中显卡的输入电流非常不稳定,电感滋滋叫再正常不过了。但是目前大多数高端显卡的散热风扇噪音都盖过整机的声音,轻微的电感滋滋叫算得了什么。有什么问题是一支704胶水不能解决的。

5、总结以及购买指南

综上所述,主要有以下的一些问题:

不同电脑组件厂家之间缺少沟通,不同组件之间规范互不兼容,电源应该遵循Intel制定的ATX12V规范,显卡应该遵循PCIE规范。Intel目前无法严格约束板卡厂商,电源厂商或者板卡厂商两者只要有一个不守规范,那就会导致翻车。

厂家的产品技术文档和推荐列表陈旧缺乏维护,比如GPU的技术文档比较难获取,NVIDIA的SLI认证电源和电源计算器都常年没有更新。

电源行业和板卡行业可谓隔行如隔山,非常深入的技术领域,不同产品的RD对彼此之间的技术都不可能完全知晓,很多以前可行的OCP保护设计,放到现在就不行了。

同时,大多数媒体没有正确的测试方法,仪器缺乏精度,绝大多数玩家缺乏科学素养,迷信KOL,导致目前这样的局面,但是生产GPU芯片的也就A/N两家,功率再大也得接着用。可以期待一下板卡厂商改进供电电路,把输入电流摆率抑制在PCIE规范之内。

最后在积累更多数据之前,我仍然不会对搭配显卡给出精确的电源瓦数,建议购买自己买得起的最大功率最先进的电源。使用中高端、高端显卡的玩家,尽可能多花点钱买搭载了DC2DC技术的电源,不要购买12V分路的电源,先进的电源对新的CPU、GPU有针对性的优化。电源功率有足够的余量,可以更从容地应对动态负载波动所造成的电压波动,另外一方面,电源会不断地老化,也能够延长电源的服役时间。

其他显卡的功耗、电源的兼容性有待后续进行测试补充数据,可能会有详细的数据参考,甚至是类似于Intel Haswell Ready一样的FCP Gaming Ready电源认证。

感谢给予帮助的诸位朋友。

大力出奇迹,千瓦战未来。更多电源文章请关注本站,感谢观赏。