个人网站 平台网站备案要
个人网站 平台,网站备案要,中国建筑,网站建设专业书入门Microsoft AutoGen 曾是构建 LLM 多智能体系统的标杆性开源框架。2023 年末由 Microsoft Research 发布后迅速成为研究人员和开发者的默认选择#xff1a;智能体之间可以互相对话、调用工具、编写并执行代码、在流程中引入人类审批#xff0c;以对话式的协调方式取代了单条长…Microsoft AutoGen 曾是构建 LLM 多智能体系统的标杆性开源框架。2023 年末由 Microsoft Research 发布后迅速成为研究人员和开发者的默认选择智能体之间可以互相对话、调用工具、编写并执行代码、在流程中引入人类审批以对话式的协调方式取代了单条长 Prompt 链条。到 2026 年初AutoGen v0.42025 年初重新设计的版本是其技术上的巅峰之作。但是 2025 年末 Microsoft 正式把 AutoGen 与 Semantic Kernel 合并统一为 Microsoft Agent FrameworkMAF。不过很多人在谈到源自 AutoGen 的多智能体编排风格时依然习惯说AutoGen。本文梳理 AutoGen 的来龙去脉它是什么、为什么重要、哪些核心设计在 2026 年仍然存续、v0.4/v0.7 时代的架构与典型用法、代码示例、利弊以及当前的整体现状。AutoGen 为什么在 2023–2024 年迅速走红AutoGen 出现之前LLM 的主流用法只有两种单线程链式调用LangChain 风格和简单的工具调用智能体ReAct 循环。AutoGen 带来了一套完全不同的心智模型——智能体是对话的参与者整个系统就是一个群聊有时有结构有时自由发挥。智能体之间可以委派任务、互相批评与纠正、调用工具、编写并执行代码、向人类发起询问在目标达成后自行终止。没有任何一个中央控制器需要提前知晓完整计划。这套流程和人类解决复杂问题的方式高度吻合分工、讨论、审查输出。早期几个病毒式传播的 demo编码者 评审者 执行者联合解数学题、网络研究小组、股票分析团队在许多任务上展现出比单智能体高 2–10 倍的表现。AutoGen v0.4——大改版2025v0.42025 年初发布本质上是 AutoGen 2.0。旧的阻塞式同步 GroupChat 被三层新架构取代autogen-core 负责底层事件驱动原语RoutedAgent、订阅、发布/订阅消息传递autogen-agentchat 是大多数人实际使用的高层 APIAssistantAgent、UserProxyAgent、GroupChat、initiate_chatautogen-ext 则是可插拔的扩展层OpenAI Assistant API、MCP 工作台、gRPC 分布式智能体等。核心改进包括完全异步化带来的更好可扩展性与可观测性、模块化的自定义组件内存、模型、编排、改进的错误恢复与检查点机制以及跨语言支持的尝试——当然 Python 始终是主力。2025 年末 / 2026 年初的典型安装方式pip install -Uautogen-agentchatautogen-ext[openai]经典双智能体模式2026 年仍在使用和教学中from autogen import AssistantAgent, UserProxyAgent, config_list_from_json # Usually load from OAI_CONFIG_LIST or env config_list config_list_from_json(OAI_CONFIG_LIST) assistant AssistantAgent( namehelpful_engineer, llm_config{config_list: config_list}, system_messageYou are a senior Python engineer. Write clean, efficient code. ) user_proxy UserProxyAgent( nameuser, human_input_modeNEVER, # NEVER / ALWAYS / TERMINATE max_consecutive_auto_reply10, code_execution_config{work_dir: coding, use_docker: False}, ) user_proxy.initiate_chat( assistant, messageWrite a Python class that downloads daily OHLCV data from Yahoo Finance for any ticker and caches it in parquet. )短短几行代码就已经具备了完整的闭环一个能做规划的 LLM 智能体、代码编写与本地执行、自动重试/错误修复循环、终止条件判定。群聊——AutoGen 的标志性模式from autogen import GroupChat, GroupChatManager researcher AssistantAgent(nameResearcher, system_messageFind latest information., llm_configllm_config) critic AssistantAgent(nameCritic, system_messageBe skeptical and point out flaws., llm_configllm_config) writer AssistantAgent(nameWriter, system_messageWrite in engaging blog-post style., llm_configllm_config) user_proxy UserProxyAgent(nameUser, code_execution_configFalse, human_input_modeTERMINATE) groupchat GroupChat( agents[user_proxy, researcher, critic, writer], messages[], max_round12 ) manager GroupChatManager( groupchatgroupchat, llm_configllm_config, # speaker_selection_methodauto / round_robin / custom func ) user_proxy.initiate_chat( manager, messageWrite a 800-word article about newest developments in small modular nuclear reactors in 2026. )2025–2026 年的实际项目中5–12 个智能体的配置很常见规划者 → 研究者 → 编码者 → 测试者 → 评审者 → 文档编写者 → 用户审批者或干脆由智能体自行决定何时拆分子团队。AutoGen 的突出优势涌现行为是 AutoGen 最令人意外的特质智能体经常以出乎预料的方式完成分工。人机协作的颗粒度做到了任意节点的审批与编辑而非仅在流程末尾给一个是/否。代码执行能力让智能体能自己修复 bug形成编写-运行-修复的闭环。框架本身对实验非常宽容规则容易打破适合快速试错。社区围绕它衍生出了 MCP 支持、Perplexity 研究智能体、gRPC 扩展等一系列生态。痛点2024–2025成本是最直接的问题一次 8 个智能体参与的 GPT-4o 对话处理复杂任务时费用可达 5–30 美元。非确定性带来的复现与测试困难、长对话导致的 Token 爆炸和上下文窗口耗尽、调试时难以追溯谁在什么时候说了什么以及 v0.4 后期补丁出现之前几乎不存在的检查点/恢复机制这些都是真实落地时绕不开的问题。2025–2026 年的过渡——Microsoft Agent FrameworkMAF2025 年 10 月Microsoft 宣布 AutoGen 不再作为独立库接收重大功能更新。取而代之的是AutoGen 的概念并入 Microsoft Agent FrameworkPython 与 .NET 双语言支持Semantic Kernel 负责企业级规划基础AutoGen 部分则承载多智能体编排和对话模式。MAF 延续了 AutoGen 的核心精神——对话式智能体、群聊编排、工具调用——但在此基础上补齐了工程化短板内置检查点与恢复、基于 OpenTelemetry 的可观测性追踪与指标、对 MCPModel Context Protocol/A2A/OpenAPI 的原生支持、与 Azure AI Foundry / Dynamics 365 / M365 Copilot 的深度集成以及将 Semantic Kernel 规划器与 AutoGen 风格团队混用的统一 SDK。迁移指南很快就出现在 Microsoft Learn 和 GitHub 上。不过在 2026 年初仍有大量开源项目在使用旧的 autogen-agentchat 包——对于原型开发来说它足够熟悉也确实还能用。当前状态2026 年 3 月在原型开发、研究和教学场景中经典 AutoGen v0.4 / v0.7 的代码依然随处可见。生产和企业环境则几乎全面转向 Microsoft Agent Framework或正在迁移途中。社区围绕 MAF AutoGen 风格模式保持着很高的活跃度。CrewAI、LangGraph、OpenAI Swarm、Magentic-One 等后来者都或多或少借鉴了 AutoGen 率先提出的多智能体协作理念。AutoGen 留下了什么AutoGen 的贡献不止于一个库。它从根本上改变了开发者对 LLM 应用的认知框架——从一个 Prompt 统治一切转向组建一支 LLM 专家团队让它们彼此对话。多智能体协作作为一等原语到 2026 年已经渗透到整个行业。即便不再写一行 AutoGen 代码日常使用的系统里大概率已经携带着 AutoGen 的基因。框架本身作为独立产品已经退役但其架构思路深度嵌入了 Microsoft Agent Framework 和更广泛的智能体生态。2026 年 3 月起步的新项目应直接从 Microsoft Agent Framework 文档开始维护旧代码或偏好原始简洁性的场景下v0.4 agentchat API 大概率还能继续运行多年。Microsoft Agent FrameworkMAFMicrosoft Agent FrameworkMAF是 Microsoft 当前一代的开源智能体框架覆盖构建、编排、部署与管理的全流程尤其面向多智能体系统。2025 年 10 月进入公开预览它是两个前代项目的官方继任者AutoGen 带来了对话式多智能体编排、涌现团队行为和面向研究的灵活性Semantic Kernel 则贡献了企业级基础——类型安全、中间件、可观测性、插件/连接器体系以及生产稳定性。到 2026 年初MAF 已被定位为 Python 与 .NET 双语言智能体开发的统一长期路径与 Azure AI Foundry 深度绑定但同时保持完全开源和模型无关。MAF 要解决的正是 2024–2025 年开发者不断碰到的那道两难题想快速做原型、让多个智能体自由协作选 AutoGen想要生产级的可靠性、追踪、持久化、类型安全和企业连接器选 Semantic Kernel。MAF 在单个 SDK 和运行时中把两边的能力合到了一起——来自 AutoGen 的简洁智能体/团队抽象来自 Semantic Kernel 的会话状态管理、中间件管道、OpenTelemetry、过滤器和检查点再加上全新的一层基于图的显式工作流用于确定性的多智能体编排。Python最小单智能体from agent_framework import AIAgent from azure.ai.openai import AzureOpenAIClient # or openai.OpenAI etc. import os client AzureOpenAIClient( endpointos.getenv(AZURE_OPENAI_ENDPOINT), credential…, # DefaultAzureCredential() etc. ) agent client.get_chat_client(gpt-4o-mini).as_ai_agent( instructionsYou are a concise technical writer., nameTechWriter ) response await agent.run(Explain Microsoft Agent Framework in one paragraph.) print(response.content)C#类似的最小智能体using Azure.AI.OpenAI; using Azure.Identity; using Microsoft.Agents.AI; var endpoint Environment.GetEnvironmentVariable(AZURE_OPENAI_ENDPOINT); var client new AzureOpenAIClient(new Uri(endpoint), new AzureCliCredential()); var chatClient client.GetChatClient(gpt-4o); var agent chatClient.AsAIAgent( instructions: You are a friendly assistant. Keep answers brief., name: HelloAgent ); var response await agent.InvokeAsync(Hello! Tell me about yourself.); Console.WriteLine(response.Content);多智能体群聊风格上仍然很 AutoGen2026 年初的多数示例在模式上与 AutoGen 0.4 群聊高度相似区别在于底层多了持久性支持from agent_framework import GroupChat, GroupChatManager, AssistantAgent # … define researcher, critic, writer agents … group GroupChat( agents[user_proxy, researcher, critic, writer], max_rounds15, # now supports persistent session id, checkpointing, etc. ) manager GroupChatManager(groupgroup) await user_proxy.initiate_chat( manager, messageResearch write 600-word post on SMR nuclear progress in 2026 )对话式群聊之外MAF 新增了基于图/DAG 的工作流编排。节点可以是智能体、函数、条件判断或循环执行路径是确定性的——非常适合业务流程与合规场景。单个节点内部仍然可以使用对话模式类型安全的输入/输出在 .NET 中尤其顺手。Azure AI Foundry 在 2026 年初还提供了可视化工作流设计器的预览版。GroupChat 和 Workflow 面向的场景有明确区分前者适合开放式研究和调试后者用于订单处理、贷款审批、事件响应一类必须按严格顺序和分支逻辑运行的流程。继承自 AutoGen 的能力在 MAF 中延续整合之前AutoGen 在 2024–2025 年多项学术/研究 Benchmark 上处于领先或并列位置。GAIA 基准测试开放式推理中AutoGen 多智能体团队在 2024 年至 2025 年初频繁占据榜首困难子集上的成功率通常在 70–85% 区间单智能体同期为 40–60%。SWE-bench Verified软件工程上多智能体 AutoGen 变体在代码修复任务中比单智能体高出 25–40%。Microsoft 的行业案例如 Novo Nordisk 的数据科学流水线报告了约 25% 的迭代周期缩短。MAF 保留了这些对话/群聊模式涌现能力基本得以继承而新增的确定性图编排与持久化机制预计会在不过多牺牲灵活性的前提下提升整体可靠性。总结看学术/研究 BenchmarkGAIA、WebArena 等经典 AutoGen 积累的排行榜成绩更多MAF 因为发布晚RC 阶段相关数据还不充分。看生产可行性、一致性、延迟、可调试性、持久化、Azure 集成等早期数据指向 MAF RC 在开发者综合 Benchmark 和企业指标上领先多数替代方案。多数谨慎的采用者在等 3 月底的 GA 版本届时 API 将稳定文档和示例也会更完整预计会带出一波来自 Foundry 和第三方的正式 Benchmark。https://avoid.overfit.cn/post/c00881ddd6f34c5ebcb34c4a862cc977by JOLALF