这才是震撼业界的大新闻,晚上群里的兄弟们都震惊了,赶紧去体验了下Mercury模型,被它的速度直接震惊到懵逼了,竟然能这么快
仔细去看了下,这是全球首个可商用的diffusion llm大语言模型,重点是llm大语言模型用了diffusion,以前我们都适用它做图像和视频训练和应用,这次竟然用在了语言上。
区别于传统的tranformer大语言模型,它不是按照顺序来从左到右的预测token,而是基于全局理解生成全局token,然后基于全局token来不停的迭代草稿优化最后给出全局结果。
这个diffusion大语言模型采用的新路径带来五个好处:
1、生成速度比原先要快10倍
2、成本性价比原先降低5-10倍
3、因为其全局理解能力,支持更高级更复杂的推理
4、天然的多模态理解能力
5、可以控制输出结构,使其成为函数调用和结构化数据生成的理想选择
Mercury为整个大语言模型领域提供了一个新的训练路径,比较适合需要全局思考、实效性要求比较高的场景,比如:以前的大模型只能往前推理,而diffusion模型可以往前往后往左往右全局推理,就这一点够吹牛了。
介绍:https://inceptionlabs.ai
Mercury Coder:https://chat.inceptionlabs.ai
#diffusionllm #Mercury #inceptionlabs
以上就是震撼业界- 全球首个可商用的diffusion llm大语言模型:速度直接震惊的详细内容,更多请关注全栈开发网其它相关文章!下一篇:没有了