中国AI初创公司DeepSeek的下一代开源模型R2近日在社交媒体引发广泛猜测,传闻称其采用混合专家架构(MoE),参数规模达1.2万亿,开发成本较OpenAI的GPT-4o降低97.3%,并基于华为昇腾910B芯片集群训练,效率达同类英伟达A100集群的91%。尽管公司未公开回应,但硅谷风投Menlo Ventures合伙人Deedy Das在X平台指出,R2标志着"供应链脱离美国的重大转变",该帖获得超60万次浏览。此前路透社曾报道R2或于本月发布,但DeepSeek始终未透露具体进展
暂无讨论,说说你的看法吧