让建站和SEO变得简单

让不懂建站的用户快速建站,让会建站的提高建站效率!

芯片太耗电,何如办?

发布日期:2024-11-15 10:26    点击次数:96

(原标题:芯片太耗电,何如办?)

要是您但愿不错常常碰面,迎接标星保藏哦~

开端:内容编译自semiengineering,谢谢。

在生成式东谈主工智能出现之前,莫得东谈主预测到为东谈主工智能系统提供能源需要若干能源。这些数字才刚刚脱手成为焦点,怎样保管这一切的遑急性也随之而来。

瞻望到 2026 年,东谈主工智能电力需求将激增 550%,从 2024 年的 8 TWh 增至 52 TWh,到 2030 年将再增长 1,150%,达到 652 TWh。与此同期,好意思国电网操办东谈主员将好意思国负荷预测值翻了一番,从 2.6% 增至 4.7%,到 2028 年将加多近 38 千兆瓦,相配于在 5 年内在好意思国电网中再加多两个相配于纽约州的州。

与此同期,微软和谷歌评释称,其电力陡然已卓绝 100 多个国度的用电量,谷歌的最新评释白示,2019 年至 2023 年温室气体排放量将加多 50%,部分原因是数据中心。

这让通盘科技行业堕入了令东谈主担忧的境地。芯片行业在计较耗电量方面阐述精熟,这与成果擢升相配。在东谈主工智能出现之前,并莫得像今天这样鼎力推进计较智商的擢升,许多东谈主暗示他们措手不足。这概况等于为什么有如斯多的谋划在谋划传统能源的替代品,致使包括核电站,这些核电站目下正在操办、缔造或重新参预使用。

Arm基础设施业务线居品治理有筹备副总裁 Dermot O'Driscoll 暗示:“AI 模子将连接变得更大、更智能,从而推进对更多计较的需求,这会加多对电力的需求,形成良性轮回。找到镌汰这些大型数据中心电力需求的样式对于终了社会冲破和终了 AI 应允至关错误。目下的数据中心仍是陡然了大王人电力。环球每年需要 460 太瓦时 (TWh) 的电力,相配于通盘德国的用电量。”

O'Driscoll 暗示,要充分期骗 AI 的后劲,业界必须重新念念考计较架构和遐想。尽管许多最大的 AI 超大范畴企业正在使用 Arm 内核来镌汰功耗,但这只是治理有筹备的一部分。AI 搜索需要为每个查询提供更可靠、更有针对性的信息,而 AI 模子自身也需要变得愈加高效。

Synopsys电源分析居品照拂高等总监 William Ruby 暗示:“AI 应用正在推进前所未有的电力需求。海外能源署在其 2024 年评释中指出,ChatGPT 苦求陡然的电量是传统 Google 搜索的 10 倍。咱们看到半导体 IC 也出现了这种情况。高性能计较应用的 SoC 功耗现在已达到数百瓦,在某些情况下致使卓绝一千瓦。”

东谈主工智能的推出和快速应用让科技界和电力公司王人感到随机。几年前,大多数东谈主还以为东谈主工智能的发展速率和几十年前一样慢慢。

“你不错说,90 年代中后期的互联网是一项改变生涯的要紧时代——属于千载难逢的时代之一,”凸起发明家、Rambus谋划员 Steven Woo 暗示,“智妙手机是另一个例子。但东谈主工智能的发展速率更快,后来劲就像互联网一样——在某些方面致使可能更大。跟着如斯多的东谈主进行实验,以及用户群能够作念需要更多电力的更复杂的事情,半导体行业被条件尝试提高能效。在许多方面,这些架构王人变得愈加节能。只是,与更先进的东谈主工智能所需的计较量增长比拟,你仍然显得无可不可。这是你无法跟上需求的事情之一。你正在提高能效,但这还不够,是以现在咱们必须想见地取得更多的电力。模子越来越大。计较越来越复杂。硬件越来越复杂。因此,要道的事情是,跟着模子越来越大、越来越精准,咱们变得越来越复杂。但现在许多问题王人归结于咱们怎样为统共这些东西供电,然后怎样冷却它们。这些王人是大问题。”

东谈主工智能与可执续发展

统共电力从何而来?编写考验算法的工程团队是否需要脱手愈加瞩目电力?

Ansys总监 Rich Goldman 暗示:“可执续性是咱们在半导体行业 20 年来一直在关注的问题。东谈主们仍是禁闭到咱们需要低功耗遐想,以及终了低功耗遐想的软件。今天,这归结为工程伦理息兵德问题。咱们的客户在购买芯片或考验模子时会热心它吗?我觉得他们不会把柄这极少作念出决定。”

通常阐述作用的还有工程师怎样取得奖励、评估和考察。Goldman 指出:“对可执续性的应允经常不包括在他们必须参预到居品中的内容中,因此他们莫得能源,除非他们我方里面的谈德不雅和公司对此的谈德不雅。这是交易中陈腐的谈德与资产的较量,一般来说,咱们知谈谁会赢。这是一个大问题。也许咱们应该在学校素养工程伦理,因为他们不会住手制造大型、强劲的法学硕士学位和在这些大型数据中心进行培训。”

尽管如斯,运行 AI 模子需要大王人处理器。“因此,你需要将数据中心中的 CPU 拆掉,换上运行成果卓绝数百万倍的 GPU,以取得更高的计较智商,”他说谈,“而当你这样作念时,你也在提高能效。这似乎有悖常理,因为 GPU 陡然的电量尽头大,但每个计较周期的耗电量要少得多。接头到数据中心空间有限(因为你不会加多更多空间),你会将低效的处理器拆掉,换上 GPU。对于 NVIDIA 来说,这有点自利,因为他们以这种神志销售更多的 GPU,但这是事实。

是以即使在今天,当咱们谈到 Hopper H100s、H200s 时——即使 Blackwell 行将推出,其性能要好 10 倍或 100 倍——东谈主们仍在购买 Hopper,因为它比他们现存的居品成果高得多。与此同期,他们省俭的电力开支比购买和更换的开支还要多。然后,当 Blackwell 上市时,他们会用 Blackwell 替换 Hopper,从资产角度来说,这对他们来说仍是迷漫了,这有助于治理电力问题。这等于咱们必须治理它的样式。咱们必须接头所波及的资金,并把柄公司利润的若干来眩惑东谈主们减少电力陡然。”

莽撞东谈主工智能能源/电力挑战

知足现时和将来大范畴部署东谈主工智能带来的能源和电力需求,带来了三大挑战。“一是怎样运送电力,”Woo 说。“新闻中有许多对于核电的征询,或者提供核电级电力的新样式。二是如哪里理热量。统共这些系统王人不单是是试图变得更强劲。它们是在褊狭的空间内终了的。你要预测统共这些功率,你必须想见地冷却它们。三是共同遐想的契机,让硬件和软件协同职责以取得其他成果。你要尝试找到更好地期骗硬件通过软件提供的功能的样式。然后,在半导体方面,供电照实具有挑战性,而目下数据中心正在发生的最大变化之一等于转向更高电压的电源。”

至少,居品开发团队必须在开发过程的运行阶段接头能源成果。

Synopsys 的 Ruby 暗示:“你不可能在历程的终末阶段委果治理能效问题,因为其时架构仍是信服,许多遐想决策也仍是作念出。从某种兴味上说,能效是一项契机均等的挑战,开发历程中的每个阶段王人不错为能效作念出孝顺,但早期阶段的影响可能比后期阶段更大。总的来说,每个看似细小的决定王人可能对芯片的合座功耗产生潜入影响。”

“左移”样式论,即在开发过程的早期阶段同期遐想硬件和编写软件,不错对能源成果产生潜入的影响。“这包括总体硬件架构、硬件与软件分区、软件和编译器优化、内存子系统架构、SoC 级电源照拂时代(如动态电压和频率编削 (DVFS))的应用等决策,仅举几例,”他说。它还需要运行实验的应用顺次职责负载才气了解影响。

这只是问题的一部分。可执续发展的念念维神志也需要改变。“咱们应该接头这个问题,但我觉得通盘行业并莫得这样作念,”Expedera 首席科学家 Sharad Chole 暗示,“目下咱们只接头本钱。晦气的是,咱们并不接头可执续性。”

但跟着生成式东谈主工智能模子和算法变得愈加踏实,本钱将变得愈加可预测。这包括需要若干数据中心资源,最终还包括需要若干电力。

“与之前的模子架构迭代不同,之前的架构在接续变化,每个东谈主王人有稍许不同的编削,而业界认同的 Gen AI 模子仍是踏实了相配长一段时刻,”Chole 说。“Transformer 架构是一切的基础。在职责负载需要哪些相沿方面也有改进,这尽头有用。”

这也很好地融会了需要优化的内容,需要与重新考验模子的本钱进行量度。“要是要考验一个 40 亿或 50 亿个参数的模子,就需要 30,000 个 GPU 三个月,”Chole 说。“这是一笔纷乱的本钱。”

一朝这些公式建立起来,就不错信服运行生成式 AI 模子时需要若干功率。

“OpenAI 暗示,它不错预测其模子 3.5 和模子 4 的性能,同期将延迟定律投射到模子相对于考验数据集的增长上,”他证实注解谈。“这尽头有用,因为这样公司就不错见地,他们将需要 10 倍以上的计较或 3 倍以上的数据集,才气终了下一代准确度的擢升。这些定律仍在使用中,即使它们是为尽头小的一组模子开发的,它们也不错很好地延迟模子细察力。开发模子的闭源公司——举例 OpenAI、Anthropic 和其他正在开发非绽放模子的公司——不错以咱们不睬解的神志进行优化。他们不错优化模子的考验和部署,因为他们对模子有更好的融会。而且,由于他们为此参预了数十亿好意思元,他们必须更好地了解怎样延迟模子。‘在将来两年内,这等于我需要筹集的资金数额。’这短长常可预测的。这样用户就不错说,‘咱们要缔造这样多的计较量。咱们需要建立这样多的数据中心,这等于我需要的电量。’见地得相配成全。”

搁浅电力

照拂大范畴东谈主工智能日益增长的电力需求的一个要道方面波及数据中心的遐想和期骗。

“数据中心市集成果极低,这种低成果是由于建筑基础设施和运行应用顺次的 EDA 两个市集空间永诀酿成的,”Future Facilities 创举东谈主 Hassan Moezzi 暗示,该公司于 2022 年 7 月被 Cadence 收购。“东谈主们驳斥功耗以及它给市集带来的颠覆。像 NVIDIA 这样的 AI 斥地可能比曩昔基于 CPU 的居品耗电量大得多,而且并不存在等效性,因为不管你向市集参预若干处明智商,市集王人想要更多。不管你的芯片和时代有多好、多高效,这王人不是功耗问题的委果开端。功耗问题来自于不合。”

把柄 Cato Digital 的数据,2021 年,为数据中心产生的电力为 105 千兆瓦,但其中卓绝 30% 从未使用过,Moezzi 说。“这被称为闲置容量。数据中心为您提供运行应用顺次的电力。这等于您建造这些尽头激动的建筑物并以激动的本钱运营它们的惟一原因。而房间里的大象等于闲置容量。然则,要是你和数据中心业务中的任何东谈主交谈,荒芜是基础设施方面的任何东谈主,而且你说“闲置容量”,他们王人会点头,说他们知谈这件事。他们不驳斥它,因为他们觉得这只是为了谨防风险而进行的过度确立。

事实是,其中一些是有利过度确立,这等于闲置容量。但他们照实过度确立,因为从物理角度来看他们不知谈数据中心里面发生了什么。30% 以上的统计数据并不成反馈企业市集的情况,企业市集指的是任何非超大范畴企业,因为这些公司在工程导向方面成果更高,而且他们能处理好统共事情。但企业、CoLo、政府数据中心的成果要低得多。这意味着要是你购买了一兆瓦的容量——或者你觉得你购买了一兆瓦——算作企业,你能取得其中的 60% 就算庆幸了。换句话说,它卓绝了 30%。”

这很错误,因为许多东谈主王人在为数据中心和电网的过度开发对环境的影响而争论不竭。“但咱们说你不错减缓这个过程,”莫兹说。“你不成打扰数据中心的缔造,但你不错通落伍骗现存的闲置容量来大幅减缓这一进度。”

论断

生成式东谈主工智能势不可挡,鉴于其快速传播和普及,试图减缓其发展是不现实的。但它不错比现在更有成果,这等于经济将推进行业发展的场所。不外,很剖析,莫得单一的治理有筹备不错终了这极少。这将是多种要素的聚拢,从更高效的处理到更好的东谈主工智能模子,这些模子不错使用更少的功率取得迷漫准确的厌世,并更灵验地期骗目下可用的功率。

https://semiengineering.com/managing-the-huge-power-demands-of-ai-everywhere/

半导体杰作公众号推选

专注半导体规模更多原创内容

关注环球半导体产业动向与趋势

*免责声明:本文由作家原创。著作内容系作家个东谈主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或相沿,要是有任何异议,迎接关连半导体行业不雅察。

今天是《半导体行业不雅察》为您共享的第3947期内容,迎接关注。

『半导体第一垂直媒体』

及时 专科 原创 深度

公众号ID:icbank

可爱咱们的内容就点“在看”共享给小伙伴哦