随着各种自生成人工智能技术的兴起,人们对隐私和安全的担忧以及其运行所产生的显着能源消耗也随之出现,这无疑会引起许多人的关注。
根据流量监测网站Similarweb 的数据,仅 3 月份,OpenAI 的 ChatGPT 服务就在全球范围内积累了约 16 亿用户,与 2 月份相比增长了 60%,是 1 月份的三倍。与谷歌搜索服务非常相似,ChatGPT 使用的每个实例都需要大量的计算过程和随之而来的能量消耗,随着使用量的积累,这种情况会加剧。
假设每位用户平均有 5 次 ChatGPT 查询,则 3 月份提出了大约 800 亿个问题,相当于平均每天有 2.7 亿次查询。假设每个查询包含大约 30 个单词,这相当于 ChatGPT 每天处理超过 800 亿个单词。使用 NVIDIA A100 加速器需要大约 0.35 秒来推断一个单词,单个 A100 加速器每天至少要花费 780,000 小时。
这些计算不包括高峰期的使用和需要更广泛的计算需求的实例,更不用说其他计算需求了。为了保持高效的响应能力,ChatGPT 依赖超过 32,400 个 A100 加速器,这远远超出了单个单元的能力。
考虑到 32,400 个A100加速器,大约需要 4,000 台 NVIDIA DGX A100 超级计算机,每台配备八个 A100 加速器。每台DGX A100超级计算机的平均价格为19.9万美元,最大运行容量为6.5千瓦,总成本接近8亿美元,而3月份的能耗达到1872万千瓦。
根据这些计算,每个 ChatGPT 查询消耗的能量足以点亮一个 60W 的灯泡 140 秒,累积了大量的电费。但是,这并未考虑系统冷却和其他运行组件所消耗的能量。
尽管如此,与当前的搜索服务一样,人工智能算法、半导体制造工艺和运营改进的不断进步有望缓解与人工智能计算相关的能源消耗问题。
相关文章
U盘装系统(http://www.upzxt.net) 版权所有 (网站邮箱:78435178@qq.com)
本站资源均收集与互联网,其著作权归原作者所有,如侵犯到您的权益的资源,请来信告知,我们及时撤销相应资源