分析认为,用更少的卡训练出效果差不多的模型,可能不仅仅是节约成本这么简单,更是一种improvement of scaling law,意味着这种方法往上堆更多的卡,有可能把模型能力再往上提升一个数量级,AGI反而更加看到了希望。DeepSeek这次是把整个开源AI生态往前推动了一大步,这是对全行业的加速。
分析认为,用更少的卡训练出效果差不多的模型,可能不仅仅是节约成本这么简单,更是一种improvement of scaling law,意味着这种方法往上堆更多的卡,有可能把模型能力再往上提升一个数量级,AGI反而更加看到了希望。DeepSeek这次是把整个开源AI生态往前推动了一大步,这是对全行业的加速。