
词语缩放在谈到大型语言模型(LLM)时,“规模化”或许是最重要的词汇,这要归功于ChatGPT的发布。ChatGPT之所以如此成功,很大程度上要归功于OpenAI进行的大规模预训练,使其成为一个强大的语言模型。
随后,Frontier LLM 实验室开始扩展 训练后模型, 采用监督微调和 RLHF,使模型在遵循指令和执行复杂任务方面越来越好。
正当我们以为 LLM 即将达到瓶颈时,我们发布了推理模型,开始进行推理时间扩展,其中花费思考代币极大地提高了输出质量。

我现在认为我们应该继续采用一种新的扩展范式来扩展规模:基于使用量的扩展,即根据你使用LLM的数量来扩展规模:
并行运行更多编码代理 对感兴趣的主题一定要进行深入研究。 运行信息获取工作流 如果你在午饭前或睡觉前没有给经纪人发个邮件,那就是在浪费时间。
在本文中,我将探讨为什么扩展LLM的使用规模能够提高生产力,尤其是在程序员领域。此外,我还会讨论一些具体的技巧,帮助您扩展LLM的使用规模,无论是在个人层面还是在您所在的公司层面。本文将保持高屋建瓴的视角,旨在启发您如何最大限度地利用人工智能来提升自身优势。
为什么你应该扩大LLM的使用规模 我们之前已经见识过规模化带来的强大力量:
训练前 训练后 推理时间尺度 原因在于,投入的计算能力越多,最终获得的输出质量就越好。当然,这假设你能有效地利用计算机资源。例如,对于预训练而言,计算能力的扩展取决于……
足够大的模型(足够的权重用于训练) 有足够的数据用于训练 如果只扩展计算能力而不考虑这两个组件,就不会看到任何改进。但是,如果同时扩展这三个组件,就能获得惊人的结果,例如我们现在看到的、随着 Gemini 3 发布而出现的尖端 LLM(层级模型)。
因此,我认为你应该尽可能地扩展你的LLM使用规模。例如,你可以启动多个代理并行编码,或者启动Gemini对你感兴趣的主题进行深度研究。
当然,用途必须有意义。让编码代理去做一些你根本不需要的冷门任务是没有意义的。相反,你应该让编码代理去做以下事情:
这是一个你一直觉得没时间坐下来自己解决的线性问题。 上次销售电话中客户提出了一个快速添加功能的需求。 一些用户界面改进,你知道,如今的编码代理可以轻松处理。

在一个资源丰富的世界里,我们应该想办法最大限度地利用这些资源。
我的主要观点是,自从LLM发布以来,执行任务的门槛显著降低了。以前,当你收到一个bug报告时,你必须坐下来集中精力思考两个小时,才能找到解决办法。
然而,现在情况有所不同了。您可以进入 Cursor,提交错误报告,并请求 Claude Sonnet 4.5 尝试修复它。10 分钟后,您可以回来测试问题是否已解决,然后创建拉取请求。
在用代币做有意义的事情的前提下,你可以花费多少代币?
如何扩展LLM的使用 我之前讨论过,应该通过运行更多编码代理、深度研究代理以及其他类型的AI代理来扩展LLM的使用规模。然而,要准确决定应该启动哪些LLM代理可能并不容易。因此,在本节中,我将讨论一些可以用来扩展LLM使用规模的具体代理。
并行编码代理 对于任何程序员来说,并行编码代理都是扩展 LLM 使用范围的最简单方法之一。它不再局限于一次只处理一个问题,而是可以同时启动两个或多个代理,可以使用 Cursor 代理、Claude 代码或任何其他代理编码工具。利用 Git 工作树通常可以轻松实现这一点。
例如,我通常会专注于一个主要任务或项目,在 Cursor 中编写代码。但是,有时我会收到错误报告,我会自动将其路由到 Claude Code,让它查找问题原因并尽可能修复。有时,它能自动完成;有时,我需要稍微干预一下。
然而,启动这个缺陷修复代理的成本非常低(我只需将 Linear 的问题复制到 Cursor 中,Cursor 可以使用 Linear MCP 读取该问题即可)。同样,我还有一个脚本会自动搜索相关的潜在客户,它在后台运行。
深入研究 深度研究是您可以在任何前沿模型提供商(例如 Google Gemini、OpenAI ChatGPT 和 Anthropic 的 Claude)中使用的一项功能。我个人更喜欢 Gemini 3 的深度研究功能,不过市面上还有许多其他优秀的深度研究工具。
每当我对某个主题感兴趣,想要了解更多相关信息或进行类似的事情时,我都会使用 Gemini 的深度研究代理。
例如,我当时想根据一个特定的理想客户画像(ICP)寻找一些潜在客户。于是,我迅速将ICP信息粘贴到Gemini中,添加了一些背景信息,然后让它开始搜索,这样它就可以在我进行主要编程项目时运行。
20分钟后,我收到了来自双子座的简短报告,结果发现其中包含大量有用的信息。
使用 n8n 创建工作流程 扩展 LLM 使用范围的另一种方法是使用 n8n 或任何类似的流程构建工具创建流程。借助 n8n,您可以构建特定的流程,例如读取 Slack 消息并根据这些消息执行某些操作。
例如,您可以创建一个工作流,读取 Slack 上的错误报告群组,并针对特定错误报告自动启动 Claude 代码代理。或者,您可以创建另一个工作流,汇总来自多个不同来源的信息,并以易于阅读的格式呈现给您。工作流构建工具的可能性几乎是无限的。
更多的 还有很多其他方法可以扩展LLM的使用规模。我只是列举了我在使用LLM时首先想到的几项。我建议始终牢记哪些工作可以通过AI自动化,以及如何利用AI来提高效率。LLM的使用规模扩展方式会因公司、职位和其他诸多因素而异。
结论 在本文中,我探讨了如何扩展LLM的使用规模,从而提升工程师的工作效率。我认为,过去我们已经看到扩展LLM的使用规模取得了显著成效,而且通过扩展LLM的使用规模,我们很可能获得更加强大的成果。例如,我们可以并行运行更多编码代理,或者在午餐时间运行深度研究代理。总而言之,我相信通过增加LLM的使用规模,我们可以显著提高工作效率。

评论