人多,好办事。agent 多,照样好办事!
在最新的 Andrew ’ s Letters 中,吴恩达老师就指出:
并行智能体正在成为提升 AI 能力的新方向。
信中,他描绘了这样的一些场景:
多个 agent 并行抓取分析网页,更快速地生成深度研究报告。
多个 agent 协同处理代码库的不同部分,加快编程任务完成速度。
多个 agent 在后台并行工作,同时由一个监督 agent 向用户提供反馈,实现并行异步控制。
在这些场景中,多个 agent 协作,就像一支高效的 agent team 同时处理不同任务,速度快、效率高。
这为我们理解 AI 能力的提升提供了新视角——
不仅仅依靠更多的数据和算力,更重要的是让多个智能体协同并行工作。
以往,当我们谈论 AI 能力的提升时,更多依赖的是所谓的"力大砖飞"的 scaling law,也就是希望通过更多的数据和算力来获得性能的提升。
据吴恩达所说,这一点在他之前在百度和 OpenAI 的工作中,已得到了充分验证。
但问题是,这些方法往往需要长时间才能输出结果。
相比之下,并行运行的 agent 提供了另一种方式:在提升性能的同时,让用户无需长时间等待结果。
此外,大语言模型 token 成本的不断下降,也让多个 agent 并行处理的方法变得可行。
但就像网友指出的:如何协调多个 agent 呢?
咱光给方向,不给答案也不行啊。
对于这一疑问,吴恩达在信中也是有所提及:因为哪怕对于人类来说,将一个复杂任务(比如开发复杂的软件应用)拆分成小任务并交由下面的多个工程师并行完成,都就极具挑战,而一旦扩展到更多的并行单元,那么难度将会更大。
同样的,将任务分解给多个智能体并行执行也并不容易。
不过,凡事要用发展的眼光看问题:
吴恩达以两篇最近的论文为例,说明了并行智能体研究的发展:
一篇是来自 Ryan Ehrlich 等人的论文《Code Monkeys:Scaling Test-Time Compute for Software Engineering》。
简单来说,这篇论文让大语言模型在推理时并行生成多个轨迹,来生成多样化的候选解决方案,从而提高编程问题解决的效率。
其次是 Together Mixture Of Agents(MoA)架构,它通过同时利用多个大语言模型来提升性能。
值得一提的是,该架构还能进一步调整分层架构(每层包含的 agent 数和层数),来进一步提升性能。
在信的最后,吴恩达总结道:
在如何最优地利用并行 agent 方面,仍然有大量研究与工程工作需要探索。我相信,能够高效并行工作的 agent 数量,就像能够高效并行工作的人的数量一样,最终会非常庞大。
最后的最后,我们不妨说句题外话。
2009 年,吴恩达在他的经典论文《Large-Scale Deep Unsupervised Learning Using Graphics Processors》中,首次系统性地展示了 GPU 在深度学习中的大规模应用。
这篇论文不仅证明了 GPU 计算能显著提升卷积神经网络的训练效率,更预告着深度学习时代的到来。
而这一切的核心,归根结底就俩字:
并行。
参考链接
[ 1 ] https://x.com/AndrewYNg/status/1961118026398617648
[ 2 ] https://www.deeplearning.ai/the-batch/agents-running-in-parallel-get-there-faster/
[ 3 ] https://arxiv.org/pdf/2501.14723
[ 4 ] https://docs.together.ai/docs/mixture-of-agents?utm_campaign=The Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bx7Qwyz4z_x_fNl93PMa-tjsrHFwAsEMSCHyOV1wXdBXA9LRFQJ6RKmk8P7MHd0o7_REn
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
专属 AI 产品从业者的实名社群,只聊 AI 产品最落地的真问题 扫码添加小助手,发送「姓名 + 公司 + 职位」申请入群~
进群后,你将直接获得:
� � 最新最专业的 AI 产品信息及分析 � �
� � 不定期发放的热门产品内测码 � �
� � 内部专属内容与专业讨论 � �
� � 点亮星标 � �
科技前沿进展每日见
在线配资炒股开户,力创配资,财聚配资提示:文章来自网络,不代表本站观点。