AI 领域,我经常看两位大佬的课程,一个是 Andrew,一个是Andrej。。。(B站很多课程)
刚刷到了Andrew (吴恩达)对deepseek 的看法,用GPT翻译了一份给大家:
本周围绕 DeepSeek 的热议让许多人清晰认识到一些重要趋势,这些趋势其实早已显露:
1. 中国在生成式 AI 领域正迅速赶超美国,对 AI 供应链产生重要影响;
2. 开源权重模型正在使基础模型层逐步商品化,为应用开发者创造了新机遇;
3. 扩展规模并非推动 AI 进步的唯一路径,算法创新正在快速降低训练成本。
大约一周前,总部位于中国的 DeepSeek 公司发布了 DeepSeek-R1,这是一款表现堪比 OpenAI 的 o1 模型的开源权重模型,并采用宽松的 MIT 许可证。上周在达沃斯论坛,我收到很多非技术领域商业领导者的相关提问。周一股市也出现了“DeepSeek 抛售潮”:英伟达及其他多家美国科技公司股价暴跌(撰文时部分已出现回升)。
以下是我认为 DeepSeek 让许多人意识到的几个关键点:
中国在生成式 AI 领域快速追赶美国
ChatGPT 于 2022 年 11 月发布时,美国在生成式 AI 领域领先中国很多。尽管这种印象更新缓慢,甚至最近我还听到中美两地的朋友认为中国落后,但实际上这一差距在过去两年已迅速缩小。随着中国推出 Qwen(我的团队已经使用数月)、Kimi、InternVL 和 DeepSeek 等模型,中国显然在缩小差距,而在视频生成等领域,中国甚至已有领先迹象。
我很高兴看到 DeepSeek-R1 作为开源权重模型发布,并附有详尽的技术报告。相比之下,美国的一些公司则通过渲染 AI 可能带来的诸如人类灭绝等假想威胁,推动监管来抑制开源。如今已很清楚,开源权重模型是 AI 供应链的重要组成部分,许多企业会采用这些模型。如果美国继续打压开源,中国将在这一领域占据主导地位,许多企业最终将使用更符合中国价值观的模型,而非美国的。
开源权重模型正在使基础模型层商品化
正如我之前所写,大型语言模型 (LLM) 的生成成本正迅速下降,开源权重对此趋势起到了推动作用,并为开发者提供了更多选择。OpenAI 的 o1 模型每百万输出标记成本为 60 美元,而 DeepSeek-R1 仅为 2.19 美元。这近 30 倍的价格差让许多人注意到了价格下降的趋势。
训练基础模型并出售 API 接口的业务并不轻松,许多公司仍在努力寻求收回模型训练巨额成本的路径。红杉资本的文章《AI 的 6000 亿美元问题》很好地阐述了这一挑战(但需要明确的是,我认为基础模型公司正在做出伟大的工作,我希望它们成功)。相比之下,在基础模型之上构建应用程序则提供了许多商业机会。如今,其他人已花费数十亿美元训练这些模型,而你仅需支付数美元即可利用这些模型开发客户服务聊天机器人、邮件摘要工具、AI 医生、法律文件助手等。
扩展规模并非 AI 进步的唯一路径
围绕扩展模型规模推动 AI 进步的热议一直很多。公平地说,我曾是扩展规模的早期支持者。一些公司通过宣传“扩大规模和可预测改进”的叙事,筹集了数十亿美元资金。由此,扩展规模成了关注重点,而非一种更为细致的多路径进步观点。
受美国对中国 AI 芯片禁运的推动,DeepSeek 团队不得不在优化方面进行许多创新,使用性能较低的 H800 GPU 而非 H100,最终以低于 600 万美元的计算成本(不包括研究费用)完成了模型训练。
这是否会真正减少计算需求仍有待观察。有时使单个产品更便宜反而可能导致总消费增加。我认为,从长远来看,人类对智能和计算的需求几乎没有上限,因此我仍然看好未来对智能技术的使用需求将继续增长。
我看到 X 平台上对 DeepSeek 进展有许多不同的解读,它几乎像一个罗夏墨迹测试,人们投射出各自的意义。我认为 DeepSeek-R1 具有尚未完全显现的地缘政治意义。同时,它对 AI 应用开发者来说是件好事。我的团队已经开始头脑风暴一些因易于使用的开源先进推理模型而变得可能的新想法。现在依然是构建 AI 应用的绝佳时机
以上就是刚刷到了Andrew (吴恩达)对deepseek 的看法,用GPT翻译了一份给大家的详细内容,更多请关注全栈开发网其它相关文章!