如何建设视频资源电影网站,游戏代理去什么平台找,怎样做网站内链,电子商务网官方网站AI技术I AI技术II Memory、Rules、Skills、MCP如何重塑AI编程 RAG #x1f4cc; 高度凝练表达 RAG #xff08;检索增强生成#xff09;是一种结合信息检索与生成式人工智能的技术框架#xff0c;旨在提升大型语言模型#xff08;LLM#xff09;的输出准确性和实用性。通…AI技术IAI技术IIMemory、Rules、Skills、MCP如何重塑AI编程RAG 高度凝练表达RAG 检索增强生成是一种结合信息检索与生成式人工智能的技术框架旨在提升大型语言模型LLM的输出准确性和实用性。通过在生成响应前引入外部知识库的信息RAG 使得模型能够访问训练数据之外的最新或特定领域的知识无需重新训练模型从而在各种情境下保持相关性和准确性。RAG 检索增强生成,生成响应前引入外部知识库的信息使得模型能够访问训练数据之外的最新或特定领域的知识从而保证输出的准确性和实用性减小虚幻。RAG开卷考试外部知识库LLM闭卷已经训练好的数据 RAG 的主要流程RAG 的工作流程通常包括以下三个关键阶段数据准备阶段从各种数据源如PDF、数据库、网页等提取信息并将其转换为纯文本格式。然后将长文本划分为较小的片段以便于处理和检索。接着使用嵌入模型如 BERT、OpenAI Embedding 等将文本片段转换为向量表示并将其存储在向量数据库中如 FAISS、Milvus、Qdrant 等。数据准备各类数据源-纯文本格式-较小片段-文本转向量-存储至向量数据库检索与增强阶段当用户提交查询时RAG 系统将查询转换为向量表示并在向量数据库中查找与查询向量最相似的文本片段。然后将检索到的相关文本片段与用户查询结合构建增强的提示Prompt为生成模型提供丰富的上下文信息。(NVIDIA 开发者)检索与增强阶段查询转化为向量-数据库中查找-相关文本与用户查询相结合-构建增强的提示生成阶段将增强的提示输入到大型语言模型中生成最终的回答或内容。必要时对生成的内容进行语法和语义上的优化以提高可读性和准确性。生成阶段:增强提示输入到大模型-生成最终的回答获内容 RAG 流程图Mermaid 格式以下是 RAG 的主要流程图采用 Mermaid 语法表示用户查询查询向量化向量数据库检索检索到的相关文档构建增强提示大型语言模型生成响应输出最终答案RAG 技术广泛应用于智能问答系统、企业知识管理、法律和医疗文档分析等领域特别适用于需要高准确性和实时更新的场景。AgenetAgent是什么LLM负责理解输入、推理并生成输出记忆存储和管理对话历史实现上下文感知的交互提示模板Prompt Template构建输入提示引导 LLM 进行特定任务也可理解为规划根据提示动态规划路径工具外部功能模块如搜索引擎、API 接口、数据库查询等Agent 可根据需要调用执行器Agent Executor协调各组件的运行管理整个任务的执行流程Agent架构流程图接收输入用户提交查询或命令。生成提示使用提示模板构建输入引导 LLM 进行处理。记忆知识库调用、匹配与检索推理决策LLM 分析任务需求决定是否需要调用外部工具。执行操作根据决策调用相应的工具执行任务。处理结果LLM 处理工具返回的结果判断是否完成任务或需进一步操作。返回输出生成最终响应返回给用户。基于COZE平台搭建Agent示例ReAct 推理行动为什么要ReActLLM推理能力例如思路链提示和行动能力例如行动计划生成主要被作为独立的主题进行研究。在本文中我们探索如何使用LLM 以交错的方式生成推理轨迹和特定于任务的操作从而实现两者之间的更大协同作用推理轨迹帮助模型归纳、跟踪和更新行动计划以及处理异常而操作则允许模型与外部来源例如知识库或环境交互以收集更多信息。这种交替进行的思考与行动流程使模型在处理多步推理或需要外部信息的任务时表现得更加灵活和高效。 ReAct 是什么ReActReasoning Acting是一种结合了“推理”和“行动”的智能代理机制。它使大型语言模型LLM在处理复杂任务时能够像人类一样先进行思考再采取行动从而提高响应的准确性和可靠性 ReAct 的工作流程ReAct 代理通过以下循环步骤实现智能决策Thought思考模型分析当前问题形成推理路径。Action行动根据推理结果选择并调用外部工具如搜索引擎、计算器等。Observation观察获取工具返回的结果作为新的信息输入。循环迭代重复上述步骤直到得出最终答案。✅ 使用 ReAct 的优势增强推理能力通过显式的思考步骤提高模型的逻辑推理能力。动态工具调用根据任务需求灵活选择并调用合适的外部工具。减少幻觉现象通过实际的工具反馈降低模型生成虚假信息的风险。提升可解释性每一步的思考和行动都有迹可循便于调试和优化。Langchain是什么LangChain 是一个开源框架旨在简化基于大型语言模型LLM的应用程序的开发。核心组件模型Model封装对 LLM 的调用支持多种模型如 OpenAI、Anthropic、Hugging Face 等。提示模板Prompt Templates用于构建和管理发送给 LLM 的输入提示支持动态变量插值。链Chains将多个组件组合成一个处理流程实现复杂任务的自动化。代理Agents具备决策能力的组件能够根据任务动态选择链或工具执行。记忆Memory用于存储和管理对话历史实现上下文感知的交互。工具Tools集成外部 API 或功能模块如搜索引擎、计算器等扩展 LLM 的能力。️ 核心架构核心架构LangChain 的架构设计强调模块化和可扩展性主要包括组件层Components提供与 LLM 交互的基本构建块如模型、提示模板等。链层Chains将多个组件按特定逻辑组合形成处理流程。代理层Agents在链的基础上增加决策逻辑根据任务动态选择执行路径。集成层Integrations支持与外部数据源、工具和服务的集成增强应用功能架构流程图LangGraphLangGraph 是 LangChain 生态系统中的一个扩展库旨在通过图结构Graph来构建复杂的、有状态的多角色 LLM 应用适用于以下场景多轮对话代理和聊天机器人处理复杂的对话流程支持上下文管理和多轮交互。多智能体协作系统协调多个智能体共同完成任务如信息检索、数据处理等。任务规划和执行实现任务的计划、执行、结果反馈和计划更新的完整流程。复杂工作流管理构建包含条件分支、循环和并行处理的复杂工作流程。实时数据处理和分析处理实时数据流进行动态决策和响应。LangGraph 通过状态图StateGraph和消息传递机制实现了灵活的流程控制和状态管理适合构建复杂的 AI 应用。MCP在前端开发面试中向面试官简洁地介绍 MCPModel Context Protocol模型上下文协议可以采用以下方式 什么是 MCP 协议MCP 是由 Anthropic 于 2024 年提出的一项开放标准旨在为大型语言模型LLM提供一种标准化的方式以连接和交互外部数据源、工具和服务。它被誉为AI 系统的“USB-C 接口”使得不同的 AI 模型能够以统一的方式访问各种外部资源从而增强其功能和应用范围。 MCP 架构的核心组件MCP 的架构基于客户端-服务器模型主要包含以下核心组件MCP 主机Host运行 LLM 的应用程序如聊天机器人、IDE等。MCP 客户端Client嵌入在主机中的连接器负责与 MCP 服务器通信。MCP 服务器Server提供具体功能的服务端暴露资源、提示模板和工具等能力。本地数据源如文件系统、数据库等MCP 服务器可以访问这些资源以提供上下文信息。这种模块化架构使得 AI 应用可以灵活地与多种外部资源集成提升了系统的可扩展性和维护性。 MCP 协议支持的两种模式MCP 协议支持以下两种通信模式(维基百科)请求-响应模式类似传统的函数调用LLM 发起请求MCP 服务器返回结果。持续会话模式建立持久连接允许 LLM 与 MCP 服务器之间进行多轮交互适用于需要实时更新和复杂交互的场景。这两种模式使得 MCP 能够适应不同复杂度的应用需求从简单的数据查询到复杂的任务执行。 MCP 与 Function Calling 的区别Function Calling的出现解决了模型无法与外部工具交互的问题但各家的接口不统一导致生态碎片化。MCP协议作为标准化协议实现了即插即用解决了生态壁垒的问题。特性MCP 协议Function Calling通信模式支持持续会话适合复杂交互单次请求-响应适合简单调用集成复杂度一次集成多处复用降低维护成本每个功能需单独集成维护成本高上下文管理支持上下文信息的持续传递和更新每次调用需重新提供上下文信息适用场景多工具协同、实时数据访问、复杂任务执行简单的数据查询或单一功能调用(维基百科)因此在需要多轮交互、实时数据更新或多工具协同的复杂应用中MCP 提供了更强的灵活性和扩展性。 (Medium)⚙️ MCP 的工作流程MCP 的典型工作流程如下初始化连接LLM 通过 MCP 客户端与 MCP 服务器建立连接进行能力协商。能力发现LLM 查询 MCP 服务器可用的资源、工具和提示模板。请求执行LLM发起请求调用 MCP 服务器提供的功能。结果返回MCP 服务器处理请求返回结果给 LLM。上下文更新LLM 根据返回结果更新上下文信息准备下一步操作。(维基百科)这种流程支持多轮交互和上下文的持续更新适用于需要复杂逻辑和实时反馈的应用场景。 (维基百科)JSON-RPC协议JSON-RPC 2.0 作为其通信协议的基础它使得 MCP 能够在大型语言模型LLM与外部工具或服务之间实现标准化、结构化的交互