关键词
小型语言模型(参数在 0.5B-3B )可以做哪些事情?

大模型很有用基本上是共识,参数只有几b的小模型呢?因为性能不高直接当作对话工具显然不太行,但也有很多应用场景。这里整理了Hacker News上的一个讨论“有人...

如果把DeepSeek-R1部署在本地电脑,1.5B、7B、8B、14B、32B、70B等不同参数规模的模型该怎么选

如果把DeepSeek-R1部署在本地电脑,1.5B、7B、8B、14B、32B、70B等不同参数规模的模型该怎么选?关键看电脑的配置,以下供参考:

本地运行DeepSeek R1的全面入门指南

本地运行DeepSeek R1的全面入门指南,介绍各种本地运行DeepSeek R1方法。

刚刚,全球首个混合推理模型Claude 3.7降世!最强编程大脑暴击DeepSeek R1

就在刚刚,Anthropic祭出首个混合推理Claude3.7Sonnet,堪称扩展思考模式的最强模型。在最新编码测试中,新模型暴击o3-mini、DeepSe...

个人单机本地部署大模型,一步到位硬件怎么选?

个人单机本地部署大模型,一步到位、两三年内不过时的话设备怎么选,最近周围朋友这方面聊得比较多。1.5B、7B、8B等小模型效果有限,目前32B费效比最高未来70...

通俗易懂说清楚什么是MCP

这两天随着 Manus 的爆火,MCP 也被大家频繁提及,那 MCP 到底是什么?说的通俗点,它就是一种协议,就像 HTTP 或 TCP 那样的协议。这个协议是...

大语言模型(LLM)学习路径和资料汇总

收集整理的一些大语言模型(LLM)学习路径和资料汇总

除了 temperature 之外,还有哪些参数对大模型的输出有比较大的影响

除了 temperature 之外,还有哪些参数对大模型的输出有比较大的影响除了 temperature 之外,还有几个重要参数会显著影响大模型的输出,尤其是对...

大模型的上下文窗口大小是什么

大模型的上下文窗口大小是什么在中文语境中,“大模型的上下文窗口大小”指的是大型语言模型(如我这样的Grok)在处理输入和生成输出时能够“记住”或“考虑”的文本长...

什么是模型蒸馏

模型被问的最多的一类问题是:“你是什么模型?你的开发者是谁?”,然而你有时候并不能得到准确的答案,很多模型会自称是 GPT-4 或者 Claude,但实际上它们...

ai大模型的接口的system role重要吗

在 AI 大模型接口中,system role 是非常重要的,它起到设置整个对话基调和上下文的作用。不同的模型和接口实现可能有所不同,但 system role...

Google 的 Gemini 2.0 正式面向所有用户开放!

Gemini 2.0 现已全面开放,为开发者和用户带来了显著更新和新模型。这次的发布建立在此前 Gemini 2.0 实验版的基础之上,使强大 AI 变得更加易...

老妈都能玩转的 deepseek 教程

其实还有很多人没用过大模型,就算不说老人小孩,成年人要是对新事物不太感冒,可能都没有用过。考虑到这点,写个教程,尽可能简单,也足够有趣,让老妈都能玩转 deep...

阿里发布全新开源推理模型 QwQ-32B,其性能可与 DeepSeek-R1 媲美

阿里云通义千问官方公众号发文宣布,推出最新的推理模型 QwQ-32B。一款拥有 320 亿参数的模型,其性能可与具备 6710 亿参数(其中 370 亿被激活)...

OpenAI发布最新模型规范

OpenAI在官网发布了最新的模型规范,希望可以进一步强化对可定制性、透明度以及探索、辩论和使用AI的智力自由的承诺。

推荐资讯

国内Ai大模型排行榜 国内AI大模型的发展呈现出多样化的态势,各种类型的大模型纷纷涌现,包括改头换面的、剑走偏锋的、借壳炒...
一文读懂!DeepSeek R1超简易本地安装运行部署教程 部署 DeepSeek R1 本地模型,并通过 Ollama 提供 API 支持。配合全栈AI助手 ...
《DeepSeek:从入门到精通》 104 页高清PDF,清华大学出品! ​ 《DeepSeek从入门到精通2025》是由清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室的余...
DeepSeek 团队分享了针对 DeepSeek-R1 部署的最佳设置,以及如... DeepSeek 团队分享了针对 DeepSeek-R1 部署的最佳设置,包含了推荐的温度设置、系统...
AI 的关键是语料 我的观点是,不管怎么调整模型的架构、功能、参数,作用是有限的,真正决定性的因素是训练模型的语料。不需...
本地运行DeepSeek R1的全面入门指南 本地运行DeepSeek R1的全面入门指南,介绍各种本地运行DeepSeek R1方法。