豆包视觉理解模型比行业平均价格便宜 85%,是技术突破还是在低价竞争?
ZhihuID:62903579099
现在大模型训练的一个趋势是持续学习的重要性日益增加,甚至初期的深度学习一定程度上已经走入了死胡同,模型长期发展必须依赖长期持续学习。
对模型来说,持续学习的重要性有三,一是防止数据的过拟合,二是提高数据效率,三是降低成本。
尤其是持续学习可以防止模型在训练数据上过拟合,这对模型长期发展来说至关重要,因为它不断地引入新数据,迫使模型学习更一般化,更泛化的特征,避免出现过度适配某一类型数据的问题。
其次,随着时间的推移,数据分布会不断发生变化,持续学习可以帮助模型适应这些变化,保持其预测性能,持续学习可以让模型在不断接收新数据时积累知识,而不是简单地忘记旧知识以适应新知识(灾难性遗忘),还可以改善对数据的利用效率。
在多任务学习场景中,模型需要处理多个相关或不相关的任务。持续学习可以帮助模型在处理新任务时不会忘记旧任务。
另外在某些应用场景中,如推荐系统或金融市场预测,模型需要实时更新以反映最新的趋势和事件,只有持续学习才能让模型实现实时更新。
最后就是成本问题,现在获取新数据的成本居高不下,依靠初期深度学习和初期算力军备竞赛来训练大模型的成本过于高昂,而持续学习可以帮助模型在有限的新数据上进行有效的学习,最大限度降低成本。
因为这些原因,现在大模型训练和运营普遍走的是打持久战的路线,初期营收基本上都是亏本砸钱,把用户留存率拉上去,然后靠后续的持续学习来逐步改善和培育模型,让模型逐步完善起来,而且走持续学习路线也可以把初期成本摊平,所以初期成本低,价格低也是比较正常的事。
未来大模型初期逐渐免费化,靠后续运营收费是大概率事件。
点赞: 423
感谢: 11
发布时间: 2024-12-24 17:22:45 UTC+8
修改时间: 2024-12-24 17:22:45 UTC+8
还能刷到的时间: 2025-01-08 12:24:46 UTC+8