- 2023/2/17 10:01:50
- 类型:原创
- 来源:电脑报
- 报纸编辑:电脑报
- 作者:
作为当前最火的 AI 应用,人工智能聊天机器人 ChatGPT 已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是 GPU显卡。
有报道显示,为了创建和维持 ChatGPT 所需要的人工智能分析数据的庞大数据库,开发者使用了 10000 个英伟达 GPU 进行相关训练。而且与训练不同的是,实际支持应用时所需要的 GPU 会更多。
外媒在报道中提到,为了满足当前的服务器需求,OpenAI 已经使用了约 2.5 万个英伟达 GPU,而随着未来需求的增加,这一数字还将继续增长。
若将 ChatGPT 整合到搜索服务中,那使用的 GPU 将会是海量的。
外媒预计,将当前技术应用到每一次的 Google 搜索中,需要 512820 台 A100 HGX 服务器,将需要超过 410 万个 A100 GPU。因此,ChatGPT 的爆火可能会使全球再度面临 GPU 短缺的挑战,出现短缺的时间可能还会早于预期。
此外,英伟达 GPU 需求也使得三星和 SK 海力士的 HBM DRAM 吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。
在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。
随着 ChatGPT 受宠,三星、SK 海力士两家内存厂商接到了越来越多的 HBM 订单,NVIDIA 已经要求 SK 海力士生产最新的 HBM3 内存。
其他供应商,如英特尔也致力于在其下一代产品中集成 HBM3,这意味着 SK 海力士可能无法跟上需求。因此,业内人士指出相比当前最好的 DDR 内存,HBM3 的价格已经涨了 5 倍。
目前 HBM 内存市场上,SK 海力士公司占据最大的优势,该公司早在 2013 年就跟 AMD 合作开发了 HBM 内存,整体市场份额在60-70%之间。
三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。
编辑:崔崔
Copyright © 2006-2021 电脑报官方网站 版权所有 渝ICP备10009040号-1