这是《YPS行业门户系统》综合演示网站
您好!欢迎光临YPS行业综合门户☺ [免费注册] [登录]
打造中国第一行业门户,助您问鼎行业巅峰!

ArmCEO示警:美国未来20%-25%的电量将被AI数据中心消耗

来源:YPS数据挖掘大师   2024-04-11   浏览:135   字号:T|T
摘要:感谢YPS行业门户系统网友lemon_meta的线索投递!YPS行业门户系统4月10日消息,当地时间周二,Arm公司CEO雷内?哈斯(ReneHaas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括OpenAI的ChatGPT在内的AI模型需要大量电力,这可能导致到2030年,AI数据中心将消耗美国20%至25%的电力需求,相比今天的4%……
  感谢YPS行业门户系统网友 lemon_meta 的线索投递!

  YPS行业门户系统 4 月 10 日消息,当地时间周二,Arm 公司 CEO 雷内?哈斯(Rene Haas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在内的 AI 模型需要大量电力,这可能导致到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,相比今天的 4% 大幅增加。

  他特别强调,类似 ChatGPT 这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。据YPS行业门户系统此前报道,ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。

  Arm 现在正着眼于降低人工智能技术的功耗,随着电力需求的惊人增长,哈斯强调了在没有更高效的能源解决方案的情况下推进 AI 研究的挑战。

  国际能源机构(IEA)在《2024 电力》报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大语言模型所需的电力,远高于谷歌等传统搜索引擎。

  荷兰中央银行数据科学家 Alex de Vries 在一份发表于可持续能源期刊《焦耳》上的论文中计算得出,如果谷歌将生成式人工智能技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,这相当于肯尼亚、危地马拉和克罗地亚一年的总发电量。
关于

ArmCEO示警:美国未来20%-25%的电量将被AI数据中心消耗

相关信息
  • 肯定级别:
    • 肯定级别5分
    • 1
    • 2
    • 3
    • 4
    • 5
    评论者:  登录   游客
  • 提示:计算输入长度时包括格式代码。
    /800
  • 验证码: 验证码  
登录名:
密 码:
验证码: 验证码
业务流程
支付方式
快速链接
常见问题
服务与支持
咨询热线:0532-88781131 15166683288 13963906391
[YPS大型行业门户网站系统] 打造中国第一行业门户,助您问鼎行业巅峰!
未经授权禁止抄袭、镜像本站.  如有违反,追究法律责任.
Copyright ©2012
yps.yuhou.cn
[ YPS行业综合门户 ]