原本DeepSeek低成本训出的R1,就已经让整个硅谷和华尔街为之虎躯一震。现在又曝出,打造这款超级AI,竟连CUDA也不需要了?根据外媒的报道,他们在短短两个月时间,在2,048个H800GPU集群上,训出6710亿参数的MoE语言模型,比顶尖AI效率高出10倍。至于其他开发者,继续使用CUDA或其他基于CUDA的高级变体才是明智的选择。...
特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。(反馈错误)