英伟达发布了H200 Tensor Core GPU,这是一款新一代的AI芯片。作为首款搭载HBM3e内存的GPU,H200具有更大的内存容量和更快的速度,为生成式AI和大型语言模型(LLM)的加速提供了强大的性能,并推动了高性能计算(HPC)中的科学计算工作负载。借助HBM3e技术,H200拥有每秒4.8 TB的内存带宽和141GB的内存容量,相较于A100,内存容量翻倍,带宽增加2.4倍。在处理Llama 2等LLM时,H200的推理速度比H100提高了2倍。全球的服务器制造商和云服务提供商预计将在2024年第二季度开始提供搭载H200的系统。首批采用H200的云服务提供商包括CoreWeave、Lambda、Vultr、AWS、谷歌云、微软Azure和甲骨文等。
❯
搜索
扫码打开当前页
返回顶部
幸运之星即将降临……
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠
-
¥優惠使用時效:无法使用使用時效:
之前
使用時效:预期有效优惠编号:×
没有优惠可用!