智能体AI技术深度探讨与挑战分析

本文记录了AI专家关于智能体AI的深入讨论,涵盖智能体的定义、历史发展、与大语言模型的结合、多智能体协作等核心技术议题。专家们分析了当前智能体AI面临的技术挑战,包括目标设定、系统验证、奖励机制等问题,并探讨了智能体与人类交互的未来发展方向。

AIhub咖啡角:智能体AI

日期:2025年8月15日

AIhub咖啡角记录了AI专家们在简短对话中的思考。本月讨论的主题是智能体AI。参与本次对话的专家包括:Sanmay Das(弗吉尼亚理工)、Tom Dietterich(俄勒冈州立大学)、Sabine Hauert(布里斯托大学)、Sarit Kraus(巴伊兰大学)和Michael Littman(布朗大学)。

智能体AI的定义与历史背景

Sabine Hauert:今天的主题是智能体AI。它是什么?为什么突然兴起?Sanmay,你能从你在AAMAS(自主智能体与多智能体系统会议)的观察开始吗?

Sanmay Das:这非常有趣,因为显然突然出现了对智能体是什么以及智能体AI发展的巨大兴趣。AAMAS社区的人们思考智能体是什么已经至少三十年了。实际上更久,但这个社区本身以这些会议的形式可以追溯到大约三十年前。一个非常有趣的问题是,为什么每个人都在重新发明轮子,重写这些关于智能体意味着什么以及我们应该如何思考这些智能体的论文。AI的发展方式,即大语言模型(LLM)现在成为主导范式,与AAMAS社区人们思考智能体的方式几乎完全不同。

传统智能体与LLM方法的差异

显然,有很多机器学习和强化学习的工作,但有一个思考推理和逻辑的历史传统,你可以拥有明确的世界模型。即使你在做博弈论、MDP或其变体,你都有一个明确的世界模型,允许你指定如何编码代理的概念。而我认为这是现在脱节的部分原因——一切都有点黑箱化和统计化。那么你如何思考成为智能体意味着什么?我认为在成为智能体意味着什么的基本概念方面,可以从智能体社区和哲学中所做的工作中学到很多。

我还认为与思考涌现行为和多智能体模拟有一些有趣的联系。但现在有点像蛮荒西部,有所有这些论文说我们需要首先定义智能体是什么,这绝对是在重新发明轮子。所以在AAMAS,有很多关于这类内容的讨论,但也有关于在这个特定时代这意味着什么的问题,因为现在我们突然有了这些非常强大的存在,我认为AAMAS社区没有人预见到。

智能体社区的新挑战与机遇

Sabine:你觉得是一个新社区加入AAMAS社区,还是AAMAS社区在转变?

Sanmay:嗯,有些人来参加AAMAS,看到社区已经在这方面工作了很长时间。所以从中学习一些东西绝对是我感受到的氛围。但我猜,如果你去ICML或NeurIPS,氛围就非常不同。

Sarit Kraus:我认为他们在浪费一些时间。我的意思是,忘记“什么是智能体?”,但多年来智能体社区有很多关于协调、协作等的工作。我听说最近有一篇论文他们重新发明了合同网。合同网在1980年引入,现在有一篇关于它的论文。好吧,是LLM在相互转移任务并签署合同,但如果他们只是阅读过去的论文,会节省他们的时间,然后他们可以转向更有趣的研究问题。

LLM智能体的实际案例与局限性

Michael Littman:我完全同意Sanmay和Sarit的观点。我这样想:这种“既然我们有了LLM,让我们构建智能体”的概念对我来说感觉有点像我们有一种新的编程语言,比如Rust++或 whatever,我们可以用它来编写我们以前难以处理的程序。新的编程语言确实可以使一些事情更容易,这很好,LLM为我们提供了一种新的、强大的创建AI系统的方式,这也很好。但尚不清楚它们是否解决了智能体社区长期努力解决的挑战。

这是一个具体的例子,来自我昨天读的一篇文章。Claudius是Claude的一个版本,它被代理化来运营一个小型在线商店。他们赋予它与人们交流、发布Slack消息、订购产品、设定价格的能力,人们实际上与系统进行经济交换。结果很糟糕。有人说服它购买钨立方体并在商店出售。这完全是胡闹。但相关机构的人认为实验是成功的。他们说“哦,是的,肯定有问题,但完全可修复”。而对我来说,修复听起来像是他们只需要解决智能体社区过去几十年一直试图解决的问题。仅此而已,然后我们就完美了。我完全不认为仅仅让LLM变得更通用、更聪明或更好的推理者突然使所有这些智能体问题变得微不足道,因为我认为它们不是。我认为它们困难是有原因的,我认为你必须努力解决这些困难问题才能实际解决这些问题。

多智能体系统的工程视角

Sabine:我的专长是设计智能体,在我们的案例中是机器人,它们协同工作以达到期望的涌现属性和集体行为。从这个群体视角,我觉得过去20年我们学到了很多达成共识的机制,使用机器学习自动设计智能体行为以使群体实现期望的集体任务的机制。我们知道如何使智能体行为可理解,所有你在工程系统中想要的好东西。但直到现在,我们严重缺乏个体智能体以提供丰富性的方式与世界交互的能力。所以在我看来,有一个非常好的接口,智能体能力更强,所以它们现在可以进行那些使它们有用的本地交互。但我们有这一整套系统化工程化集体的 overarching 方式,我认为这可能使两全其美。

Tom Dietterich:我认为很多内容根本与智能体无关,你只是在编写计算机程序。人们发现,如果你尝试使用单个LLM做所有事情,上下文会变得混乱,LLM开始难以解释。事实上,这些LLM有一个相对较小的短期记忆,在缓冲区中不同内容开始产生干扰之前,它们可以有效地使用它。所以工程师将系统分解为多个LLM调用并将它们链在一起,这不是智能体,只是一个计算机程序。

我想质疑,用LLM构建系统作为软件工程实践是否会从多智能体系统的构建中分支出来。因为几乎所有的“智能体系统”都不是我们称之为智能体的那种。它们并不比常规计算机程序更有自主性。

智能体目标设定与系统验证的挑战

Sanmay:明确地说,这个想法至少自90年代初就存在,当时有这些“软机器人”,基本上运行Unix命令,它们自己弄清楚要做什么。真的没有什么不同。当人们谈论智能体时,他们的意思是给一段代码机会运行自己的东西,并能够为某种目标服务。

我完全同意你早先说的关于LLM是否使交互以不同方式发生的问题。如果你看LLM之前,这些做定价的智能体,有一个搞笑的故事,某本旧的生物学教科书最终在某中心售价1700万美元,因为有两个机器人在两家不同的二手书店为这些书定价。其中一家店的评级略高于另一家,所以它会取评级较低店铺的价格并提高10%。然后评级较低的店铺是一个削价者,它会取当前最高价格并降到其99%。但这导致了一个螺旋上升,突然那本书价值1700万美元。这正是这个世界会发生的那种事情。

Tom:在强化学习文献中,当然有所有关于奖励黑客等的讨论,但现在我们想象两个智能体相互交互并有效黑客对方的奖励,所以整个动态爆发——人们根本没有准备。

Sabine:Tom提到的问题分解,我认为拥有这些更窄的智能体可能有真正的好处,因此可能在个体层面更可验证,它们可能有更清晰的目标,它们可能更环保,因为我们可能能够约束它们操作的区域。

未来方向与跨社区合作

Tom:嗯,这几乎是我们希望证明系统正确性的唯一方式,让每个组件足够窄,以便我们能够实际推理它。这是一个有趣的悖论,我在Stuart Russell书中“如果我们成功了怎么办?”一章中错过了,即如果我们成功构建了一个广谱智能体,我们将如何测试它?

似乎让一些来自智能体社区的人在机器学习会议上发言并尝试做一些外交推广会很好。或者也许在那些会议上举办一些研讨会。

Sarit:我一直对人与智能体交互感兴趣,事实上LLM为我解决了语言问题,我非常兴奋。但提到的其他问题仍然存在——你需要整合策略和决策制定。所以我的模型是你有LLM智能体,它们拥有我们开发和实现的各种算法的工具,应该有几个。但有人解决了我们的自然语言交互问题,我认为这真的非常非常好,对智能体社区和整个计算机科学社区都是如此。

Sabine:对人类也有好处。这是一个好点,人类在这些系统中也是智能体。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计