中国大模型DeepSeek正在让硅谷陷入恐慌
CNBC发文称,
DeepSeek R1,因其性能超越美国顶尖同类模型,且构建成本更低、使用的芯片算力也较弱,引发了硅谷的恐慌。
CNBC表示,
DeepSeek R1使用英伟达性能稍逊的H800芯片,仅用两个月时间、不到600万美元就构建完成了这个模型。
在一系列第三方基准测试中,从复杂问题解决到数学和编码等方面,DeepSeek的模型在准确性上
超越了
Meta的Llama 3.1、OpenAI的GPT-4o以及Anthropic的Claude Sonnet 3.5。
这引发了美方担忧:
美国在人工智能领域的全球领先地位是否正在缩小?大型科技公司在构建人工智能模型和数据中心方面的巨额投入是否值得?
标杆资本合伙人切坦・普塔贡塔表示:“DeepSeek采用一种名为知识蒸馏的过程,来打造一个非常出色的大型模型。基本上,就是利用一个非常大的模型,帮助小模型在你期望的领域变得智能。
这实际上非常具有成本效益。
”
微软首席执行官萨蒂亚・纳德拉周三在瑞士达沃斯世界经济论坛上表示:“
看到DeepSeek的新模型,真的令人印象非常深刻
。他们切实有效地开发出了一款开源模型,在推理计算方面表现出色,且超级计算效率极高。”
“我们必须非常、非常认真地对待中国的这些进展。”
纳德拉说。
内容来自网友分享,若违规或者侵犯您的权益,请联系我们
所有跟帖: ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )
楼主前期社区热帖:
>>>>查看更多楼主社区动态...