第82章 黑色星期一

有人惊讶于其技术带来的极致性价比,不过也有人会发出疑问——代价是什么?

但这都无法阻挡DeepSeek的强势。

也许R1在之后的表现会越来越不如其它的大模型,也会发现有非常非常多的缺点,但在现在这个时间段,它无疑是非常强大的。

米国,斯坦福某实验室,凌晨两点。

正在查论文的博士生Leo看到DS的那篇论文,出于职业素养,他照例点开看了眼摘要。

不过这一看,他瞬间坐直了身体,睡意全无,几乎是脱口而:“Holy*&#$?!”

虽然是凌晨两点,但是因为他们最近在赶论文,所以实验室里还有不少人,这声惊呼引得旁边还在跑实验的同学投来疑惑的目光。

“Leo,怎么了?代码又出bug了?”

“我倒是希望代码出bug了,看看这篇文章吧。”他将屏幕转动了一下,让其他人能看得清上面的论文题目。

“R1:RedefiningCost-PerformanceTradeoffsinLarge-ScaleLanguageModels?”

旁边的同学Sarah搜了一下,果然找到了这篇刚刚发布不久的文章。

“这是哪个公司的成果吗?”因为作者的名单上长长一串一般只有公司的文章才会这样。

“就是DeepSeek,之前他们不是发过一个V3版本的论文吗?当时老板还让我们看过,你不记得了?”

“哦~好像有点印象,怎么,这篇R1有很大的提升吗?”他一边说着一边看向下面的摘要部分。

“Reinforcementlearning(强化学习)?这不是和我们现在做的方向一样吗?”不过当他看到第一张图片的时候不由得歪了歪脑袋,发出了同样的惊呼:“Holy*&#$?真的假的?”

图片上面显示了,其效果几乎和GPT-o1持平,而且文中写到了其推理成本的二十分之一还不到。

Leo苦笑着摇头“不知道,我希望是假的,但我感觉应该是真的。”