2024-08-29 美国 来源:其他 作者:唐乾琛 领域:信息
关键词:
据路透社8月28日消息,美国Cerebras公司面向AI开发人员推出一项算力服务,使研究人员能访问Cerebras的超级芯片来运行AI应用程序。通常,研究人员使用英伟达GPU芯片进行AI训练与推理,受内存芯片的带宽限制。为打破这一困境,Cerebras公司的首个算力服务基于其之前发布的WSE-3超级芯片。该芯片在一整块晶圆大小的芯片上封装了44GB的静态随机存储器(SRAM),带宽为21PBps。而单个英伟达H200芯片的HBM3e内存仅拥有4.8TBps的带宽。使用SRAM,WSE-3芯片在以16位精度运行Llama 3.1 8B大模型时每秒能够生成1800个以上的词元(token),而英伟达H100芯片每秒最多可生成242个词元。同时,Cerebras公司的算力服务计划以每百万个词元10美分的低价向开发人员提供。