如何自学网站建设校内 实训网站 建设
如何自学网站建设,校内 实训网站 建设,怎么策划一个网站,德州网页设计师培训本文深入探讨了AI Agent的核心技术#xff0c;从基础理论到实践应用#xff0c;详细介绍了ReAct、Plan-and-Execute和Reflection等主流Agent框架模式。文章还对比了各大主流AI Agent框架#xff0c;并重点解析了Agent框架的核心——上下文工程。通过一个极简的Agent框架代码…本文深入探讨了AI Agent的核心技术从基础理论到实践应用详细介绍了ReAct、Plan-and-Execute和Reflection等主流Agent框架模式。文章还对比了各大主流AI Agent框架并重点解析了Agent框架的核心——上下文工程。通过一个极简的Agent框架代码实现案例展示了如何构建一个具备文件读写、Shell命令和代码生成执行能力的AI Agent。对于想要入门AI Agent技术特别是程序员和开发者来说本文提供了一个全面而实用的学习指南。1、AI Agent 框架理论篇Agent Reasoning Acting1.1 AI Agent 框架基础理论AI 智能体是使用 AI 来实现目标并代表用户完成任务的软件系统。其表现出了推理、规划和记忆能力并且具有一定的自主性能够自主学习、适应和做出决定。Google Cloud关于AI Agent这里引用了Google Cloud的定义言简意赅。1ReAct 模式在当前AI Agent理论中最具有基础性与代表性的要数ReAct模式它是Yao等人于2022年在《ReAct: Synergizing Reasoning and Acting in Language Models》论文中提出核心思想将推理Reasoning和行动Acting相结合。CoT提升的是LLM的推理能力但它的缺点在于缺少与外部世界的交互从而缺少外部反馈来拓展自身的知识空间ReAct弥补了这一缺陷。ReAct智能体的运作基于一个循环过程不断迭代更新包括以下三个步骤推理Reasoning依赖LLM分析当前任务状态生产内部推理决定下一步行动核心思想是CoTChain of Thought执行Acting根据上一步的推理结果执行具体的操作例如查询信息或调用外部工具Function ToolMCP Shell命令代码执行等具体依赖宿主机的执行环境与应用场景观察Observation观察行动的结果将反馈用于下一轮的思考或者观察到已经判断是最终的答案则整理输出结果2Plan-and-Execute 模式2023年5月Langchain团队基于Lei Wang等发表的《Plan-and-Solve Prompting》论文和开源的BabyAGI Agent项目的工作提出了Plan-and-Execute 模式。《Plan-and-Solve Prompting》核心思想让LLM先制定完整的分步计划再按步骤执行而非边做边想ReActBabyAGI项目首个流行的任务驱动型自主Agent实现了生成任务列表→执行→再规划的Agent LoopPlan-and_Execute模式强调先制定多步计划再逐步执行属于结构化工作流程Planing - Task1 - Task2 - Task3 - Summary比较适合复杂且任务关系以来明确的长期任务。缺点则是倾向于workflow缺乏动态调整能力。3Reflection 模式最早系统性的提出在Agent中引入反思概念的是Noah Shinn、Shunyu Yao对还是ReAct作者等的《Reflexion: Language Agents with Verbal Reinforcement Learning》论文论文里提出了Reflexion框架通过语言反馈而非权重更新来强化语言Agent。Agent通过对任务反馈信号进行 口头反思然后在情节记忆缓冲区中维护自己的反思文本以在后续试验中做出更好的决策。另外Aman Madaan等受人类改进文本方式的启发在《Self-Refine: Iterative Refinement with Self-Feedback》论文提出了一种名Self-Refine的方法通过迭代反馈和改进来提升 LLM 的初始输出先让LLM输出然后再根据输出提供反馈不断迭代。在所有评估的任务中Self-Refine方法可以使得任务性能平均提升约 20%。清华大学与微软联合发布的《CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing》论文则结合外部工具如搜索引擎、代码执行器验证输出再基于验证结果自我修。这些里程碑论文都是Reflection模式的理论基础当前主流的Agent框架虽然有各种演绎与变形也都是在ReAct提出之后发展出来的扩展和补充Agent核心实践依旧离不开ReAct将推理与执行结合起来。1.2 主流 AI Agent 框架对比当前主流Agent框架主要包含以下几种LangChain - 最成熟和流行的框架之一提供丰富的工具链和集成适合快速构建复杂的AI应用。支持多种LLM、向量数据库和工具调用有完善的文档和社区支持。LlamaIndex - 专注于数据索引和检索特别擅长RAG检索增强生成场景。提供高效的文档处理和查询能力适合知识密集型应用。AutoGPT/AutoGen - 微软推出的多Agent协作框架支持多个Agent之间的对话和协作可以处理更复杂的任务分解和执行。CrewAI - 专注于角色扮演型Agent的协作框架每个Agent有明确的角色和目标适合模拟团队协作场景。LangGraph - LangChain团队开发的状态图框架提供更精细的流程控制适合构建复杂的、需要明确状态管理的Agent应用。Semantic Kernel - 微软的轻量级框架与Azure服务集成良好支持多种编程语言强调插件化设计。选择建议如果是想快速出Agent原型可以试试LangChain如果是构建RAG应用则强烈建议LlamaIndex如果业务场景为多Agent协作推荐AutoGen或CrewAI它们是专为多智能体协作而生的如果业务中涉及复杂的流程控制建议使用LangGraph通用性好基于状态管理的workflow灵活性高如果工作环境围绕.NET生态展开的那搭配Semantic Kernel是最佳选项。另外随着Anthropic公司的Claude Cowork AI通用Agent兴起一些基于通用Code Agent SDK的套壳Agent也开始流行如公司CodeBuddy团队基于CodeBuddy Agent SDK等生成的WorkBuddy应用这些Agent的创新之处在于可以针对各类用户场景提供更好的交互设计与工作流场景解决方案。1.3 AI Agent 框架核心在Agent应用发展与实践过程中有一家公司的一款Agent应用不得不提那就是AI初创公司Monica发布的Agent C端产品Manus它的爆火让让Agent产品进入大众视野。在Agent产品人机交互方面它模糊地勾勒出了Agent应用的人机交互的雏型。想象一下键盘和鼠标的出现第一代iPhone的出现回过头来看都是变革性的历史事件。在Agent工程实践方面当MCP风靡一时时Mnaus首席科学家Peak在社交媒体直接回复Actually, Manus doesn’t use MCP4个月后2025年7月Manus工程博客发表《AI Agent的上下文工程构建Manus的经验教训》分享Manus为何放弃微调Fine-tuning路线转而选择基于已有通用大模型深耕上下文工程Context Engineering其中的一条经验教训为使用文件系统作为上下文。3个月后Anthropic 在2025年10月推出Claude Skills从此使用文件系统作为上下文的理念开始深入人心。Actually, Manus doesn’t use MCP还有后半句“inspired by CodeAct”。CodeAct是一个Agent设计架构来自于UIUC的王星尧博士在2024年初发表的一篇论文《Executable Code Actions Elicit Better LLM Agents》它提出通过生成可执行的Python代码来统一LLM Agent的行动空间也就是Acting不仅可以有Fucntion Call和MCP还可以执行代码完成任务而且效果更好。2025年11月Anthropic官方博客更新技术文章《Code execution with MCP: Building more efficient agents》提出将 MCP 服务器作为代码 API而非直接的工具调用来提供然后Agent就可以编写代码来与 MCP 服务器交互这样Agent可以按需加载更高效地利用上下文。CodeAct这个观点与本文开头的Shunyu Yao的人类最重要的 affordance 是手而 AI 最重要的 affordance 可能是代码也不谋而合。从Manus的故事我们可以得出当前关于Agent工程的两大业内共识使用文件系统作为上下文如使用文件保存Agent长期记忆如OpenClaw的SOUL.md/TOOLS.md/MEMORY.md等编程是解决通用问题的一种普适方法AI更擅长使用代码解决问题问题-生成代码-执行代码-Again-直到问题解决虽然当前Agent框架发展从ReAct模式逐渐融合CodeAct模式但是Agent框架本质的推理与执行功能并没有变化。在工程层面来说推理本质就是LLM Call执行本质则是Tools Call代码可认为是Tools的一种而连接这二者的上下文工程Context Engineering则是Agent框架的核心。1.3.1 Agent 框架三大部分下面我们来拆解一下Agent框架在工程上的解法主要包括三大部分LLM Call这部分为API管理的范畴通常情况下主要工作是兼容各大LLM厂商的API实现细节以及流式输出等基础能力为Agent框架提供一个标准化的API调用。Tools Call这部分主要是LLM如何使用外部工具从最早的Function Call到后来的MCP以及当前的Skill部分内容涉及工具调用的那部分都属于这一范畴。当前Tools的主流形式包括文件操作、网络搜索、Shell命令/代码执行以及API/MCP调用等根据Agent具体使用场景而定也可以后续增删改。Context Engineering狭义的上下文工程特指提示词Prompt的工程实现如Rules、Claude.md以及AGENTS.md等而广义上的上下文工程其实也包含LLM使用外部工具这部分比如Skills它是工具与提示词结合的典范。以上Agent三大部分中第1部分的LLM Call基本上没有啥工程变量这块的工程实践中LiteLLM库它是一个Python 库旨在简化多种大型语言模型LLMAPI 的集成已经是佼佼者了第2部分的Tools使用包含的工具列表范围也有业内最佳实践具体取决于Agent使用的业务场景。剩下的最大的一个变量是第3部分的上下文工程这也是Agent框架智能的核心所在。OpenClaw的爆火出圈除了将手机即时应用与Agent结合这点之外它的上下文工程的管理也非常有创新。近日Shunyu Yao团队在腾讯混元官网发表了一篇名为《从 Context 学习远比我们想象的要难》的文章提出“模型想要迈向高价值应用核心瓶颈就在于能否用好 Context。”的观点。正如文中所言在不提供任何 Context 的情况下最先进的模型 GPT-5.1 (High) 仅能解决不到 1% 的任务。如果说Agent应用中现在哪里还是低垂的果实可以摘取那可能是上下文工程Context Engineering。简单总结为一句话Agent应用中上下文工程大有可为仍有很大优化空间。1.3.2 Agent Loop在1.3.1小节中我们讨论了Agent框架的核心是上下文工程而上下文工程的核心引擎或者称之为运行框架则是Agent Loop。Agent Loop也不神秘本质是一个While循环每一次迭代是一次LLM推理外加工具调用和上下文处理也就是说所有Agent行为的发生都是在这个While循环里面直到任务完成退出。典型的工作流程如下初始上下文系统提示词用户请求 ↓ [agent loop开始] ↓ agent读取上下文 → 思考 → 决定行动 ↓ 执行工具/行动 → 获得结果 ↓ 结果追加到上下文 ↓ [循环继续或结束]细分到While循环到每一次迭代Turn可简单表示为初始化上下文用户请求 ↓ ┌─────────────────────────────────┐ │ Agent Loop │ │ │ │ ┌─────────────────────┐ │ │ │ Turn 1 │ │ │ │ LLM Call 推理 #1 │ │ │ → 解析LLM响应 │ │ │ │ → 执行工具1 │ │ │ │ → 返回结果更新上下文 │ │ │ └─────────────────────┘ │ │ ↓ │ │ ┌─────────────────────┐ │ │ │ Turn 2 │ │ │ │ LLM Call 推理 #2 │ │ │ │ → 执行工具2 │ │ │ │ → 返回结果更新上下文 │ │ │ └─────────────────────┘ │ │ .... │ └─────────────────────────────────┘ ↓ 完成(当某一次Turn不再执行工具即表示完成返回所有结果信息Agent Loop通过在每次迭代中读取、利用和更新上下文来完成任务上下文工程则是设计如何组织、管理和优化这些上下文信息以提升Agent的决策质量和效率。回到本节的主题可总结为一句话Agent框架设计的核心就是在Agent Loop这个While循环中设计如何管理上下文。2、AI Agent 框架实践篇承接上篇Agent框架设计的核心是在Agent Loop这个While循环中设计如何管理上下文本篇即围绕这个核心论点展开。2.1 Agent 框架架构图一览┌─────────────────────────────────────────────────────────────────────┐ │ User InterfaceCLI REPL Layer │ │ ┌──────────────┐ ┌──────────────┐ ┌──────────────────────────┐ │ │ │ User Input │ │ Exit/ │ │ Message History │ │ │ │ Handler │ │ Clear Cmd │ │ Management │ │ │ └──────┬───────┘ └──────────────┘ └──────────────────────────┘ │ │ │ │ │ ▼ │ │ ┌──────────────────────────────────────────────────────────────┐ │ │ │ Agent Loop Core │ │ │ │ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │ │ │ │ │ LLM Call │───▶│ Tool Call │───▶│ Tool Exec │ │ │ │ │ │ (DeepSeek) │ │ Parser │ │ Engine │ │ │ │ │ └──────────────┘ └──────────────┘ └──────────────┘ │ │ │ │ │ │ │ │ │ │ │◀─────────────────────────────────────────────┘ │ │ │ │ │ (Tool Results Feedback) │ │ │ │ ▼ │ │ │ │ ┌──────────────┐ ┌──────────────┐ │ │ │ │ │ Response │───▶│ Context │ │ │ │ │ │ Formatter │ │ Manager │ │ │ │ │ └──────────────┘ └──────────────┘ │ │ │ └──────────────────────────────────────────────────────────────┘ │ │ │ │ │ ▼ │ │ ┌──────────────────────────────────────────────────────────────┐ │ │ │ Tools Registry (TOOLS) │ │ │ │ ┌─────────┐ ┌─────────┐ ┌─────────┐ ┌─────────┐ │ │ │ │ │ shell_ │ │ file_ │ │ file_ │ │ python_ │ │ │ │ │ │ exec │ │ read │ │ write │ │ exec │ │ │ │ │ └─────────┘ └─────────┘ └─────────┘ └─────────┘ │ │ │ │ │ │ │ │ │ │ │ │ ▼ ▼ ▼ ▼ │ │ │ │ [Function] [Function] [Function] [Function] │ │ │ │ [Schema] [Schema] [Schema] [Schema] │ │ │ └──────────────────────────────────────────────────────────────┘ │ └─────────────────────────────────────────────────────────────────────┘再review一下工作流初始上下文系统提示词用户请求 ↓ [agent loop开始] ↓ agent读取上下文 → 思考 → 决定行动 ↓ 执行工具/行动 → 获得结果 ↓ 结果追加到上下文 ↓ [循环继续或结束]2.2 Agent 框架三大要素设计2.2.1 LLM Call采用极简设计以DeepSeek模型示例说明LLM Provider使用DeepSeek deepseek-chat 模型LLM Call API使用标准化OpenAI SDK为保证代码的最大可读性这里使用同步非流式调用。2.2.2 Tools Call采用极简的工具集操作对象包含文件、Shell和Python代码执行1Tools 实现总共支持4个工具函数shell_exec执行shell命令并返回输出file_read读取文件内容file_write写入文件内容自动创建目录python_exec在子进程中执行Python代码并返回输出2Tools 注册这里选择的是手动维护字典映射的方式 name → (function, OpenAI function schema) 这一步是为了解析llm call 的response时可以根据name匹配需要具体执行哪个toolTools 的定义遵循的是 OpenAI Function Calling 的标准格式也称 OpenAI Tools API schema2.2.3 Context EngineeringSystem Prompt极简系统提示词告知LLM可用工具和ReAct思考方式用户Session管理使用messages 列表方式OpenAI chat 格式它是核心状态累积系统提示词、用户消息、助手响应和工具结果2.3 Agent 框架代码实现2.3.1 第一部分Agent Loop 与 上下文基础流程 LLM call → parse tool_calls → execute → append results to messages → loop or exit安全设置为while循环设置了一个迭代的安全上限20 轮MAX_TURNS200使用全局变量message作为上下文的载体累积系统提示词、用户消息、助手响应和工具结果其中变量message按如下规则更新使用System Prompt初始化{“role”: “system”, “content”: system_prompt}追增User Message{“role”: “user”, “content”: user_message}追加Tool Results{“role”: “tool”, “content”: result}# # Agent Loop — 核心 # MAX_TURNS 20 def agent_loop(user_message: str, messages: list, client: OpenAI) - str: Agent Loopwhile 循环驱动 LLM 推理与工具调用。 流程 1. 将用户消息追加到 messages 2. 调用 LLM 3. 若 LLM 返回 tool_calls → 逐个执行 → 结果追加到 messages → 继续循环 4. 若 LLM 直接返回文本无 tool_calls→ 退出循环返回文本 5. 安全上限 MAX_TURNS 轮 messages.append({role: user, content: user_message}) tool_schemas [t[schema] for t in TOOLS.values()] for turn in range(1, MAX_TURNS 1): # --- LLM Call --- response client.chat.completions.create( modeldeepseek-chat, messagesmessages, toolstool_schemas, ) choice response.choices[0] assistant_msg choice.message # 将 assistant 消息追加到上下文 messages.append(assistant_msg.model_dump()) # --- 终止条件无 tool_calls --- if not assistant_msg.tool_calls: return assistant_msg.content or # --- 执行每个 tool_call --- for tool_call in assistant_msg.tool_calls: name tool_call.function.name raw_args tool_call.function.arguments print(f [tool] {name}({raw_args})) # 解析参数并调用工具 try: args json.loads(raw_args) except json.JSONDecodeError: args {} tool_entry TOOLS.get(name) if tool_entry is None: result f[error] unknown tool: {name} else: result tool_entry[function](**args) # 将工具结果追加到上下文 messages.append( { role: tool, tool_call_id: tool_call.id, content: result, } ) return [agent] reached maximum turns, stopping.注这里使用的模型为deepseek-chat主要考量因素是模型支持Tool Calls并且完全兼容OpenAI的SDK。2.3.2 第二部分Tools 实现与注册这里主要实现四个工具函数: shell_exec, file_read, file_write, python_exec# # Tools 实现 — 4 个工具函数 # def shell_exec(command: str) - str: 执行 shell 命令并返回 stdout stderr。 try: result subprocess.run( command, shellTrue, capture_outputTrue, textTrue, timeout30, ) output result.stdout if result.stderr: output \n[stderr]\n result.stderr if result.returncode ! 0: output f\n[exit code: {result.returncode}] return output.strip() or (no output) except subprocess.TimeoutExpired: return [error] command timed out after 30s except Exception as e: return f[error] {e} def file_read(path: str) - str: 读取文件内容。 try: with open(path, r, encodingutf-8) as f: return f.read() except Exception as e: return f[error] {e} def file_write(path: str, content: str) - str: 将内容写入文件自动创建父目录。 try: os.makedirs(os.path.dirname(path) or ., exist_okTrue) with open(path, w, encodingutf-8) as f: f.write(content) return fOK — wrote {len(content)} chars to {path} except Exception as e: return f[error] {e} def python_exec(code: str) - str: 在子进程中执行 Python 代码并返回输出。 try: with tempfile.NamedTemporaryFile( modew, suffix.py, deleteFalse, encodingutf-8 ) as tmp: tmp.write(code) tmp_path tmp.name result subprocess.run( [sys.executable, tmp_path], capture_outputTrue, textTrue, timeout30, ) output result.stdout if result.stderr: output \n[stderr]\n result.stderr return output.strip() or (no output) except subprocess.TimeoutExpired: return [error] execution timed out after 30s except Exception as e: return f[error] {e} finally: try: os.unlink(tmp_path) except OSError: pass工具实现好了下一步就是注册方便Agent Loop可以根据LLM的返回结果执行具体的工具方法实际上就是一个字典映射name → {function, OpenAI schema}# # Tools 注册 — name → (function, OpenAI function schema) # TOOLS { shell_exec: { function: shell_exec, schema: { type: function, function: { name: shell_exec, description: Execute a shell command and return its output., parameters: { type: object, properties: { command: { type: string, description: The shell command to execute., } }, required: [command], }, }, }, }, file_read: { function: file_read, schema: { type: function, function: { name: file_read, description: Read the contents of a file at the given path., parameters: { type: object, properties: { path: { type: string, description: Absolute or relative file path., } }, required: [path], }, }, }, }, file_write: { function: file_write, schema: { type: function, function: { name: file_write, description: Write content to a file (creates parent directories if needed)., parameters: { type: object, properties: { path: { type: string, description: Absolute or relative file path., }, content: { type: string, description: Content to write., }, }, required: [path, content], }, }, }, }, python_exec: { function: python_exec, schema: { type: function, function: { name: python_exec, description: Execute Python code in a subprocess and return its output., parameters: { type: object, properties: { code: { type: string, description: Python source code to execute., } }, required: [code], }, }, }, }, }Tools 的定义遵循的是 OpenAI Function Calling 的标准格式也称 OpenAI Tools API schema。具体来说Agent 中每个工具的 schema 字段的结构如下{ type: function, function: { name: ..., description: ..., parameters: { type: object, properties: { ... }, required: [ ... ], }, }, }2.3.3 第三部分System Prompt这里定义System Prompt每一次与LLM交互都需要带上它。# # System Prompt # SYSTEM_PROMPT You are a helpful AI assistant with access to the following tools: 1. shell_exec — run shell commands 2. file_read — read file contents 3. file_write — write content to a file 4. python_exec — execute Python code Think step by step. Use tools when you need to interact with the file system, \ run commands, or execute code. When the task is complete, respond directly \ without calling any tool.明确告知你是一个AI助手当需要的时候可以使用哪些工具。至此一个极简的Agent框架就此实现完成单文件搞定全部代码279行。2.4 基于极简 Agent 框架的极简 Agent 应用2.4.1 用户交互界面设计 - Python CLI REPL框架实现完成之后距离Agent应用就剩下最后一个用户交互界面了。避免增加读者认知负担从极简思想出发这里使用Python CLI REPL 即Python的交互式命令行作为Agent的入口def main(): api_key os.environ.get(DEEPSEEK_API_KEY) if not api_key: print(Error: please set DEEPSEEK_API_KEY environment variable.) sys.exit(1) client OpenAI(api_keyapi_key, base_urlhttps://api.deepseek.com) messages: list [{role: system, content: SYSTEM_PROMPT}] print(Agent ready. Type your message (or exit to quit, clear to reset).\n) while True: try: user_input input(You ).strip() except (EOFError, KeyboardInterrupt): print(\nBye.) break if not user_input: continue if user_input.lower() exit: print(Bye.) break if user_input.lower() clear: messages.clear() messages.append({role: system, content: SYSTEM_PROMPT}) print((context cleared)\n) continue reply agent_loop(user_input, messages, client) print(f\nAgent {reply}\n)2.4.2 DeepSeek 注册获取 API Key由于本文Agent框架的LLM Provider是基于DeepSeek实现的所以需要获取DeepSeek模型deepseek-chat模型的API key才能使用。注册 https://platform.deepseek.com获取API Keys https://platform.deepseek.com/api_keys2.4.3 极简 Agent 应用体验使用之前设置API keyexport DEEPSEEK_API_KEYsk-xxxxx先来问候一下输出的基本上是System Prompt中的内容符合预期。1第1个问题帮我查一下当前目录都有哪些文件2第2个问题让它执行一个统计任务帮我统计下当前目录下的代码行数以及token数可以看到Agent Loop里在持续地调用Tools、写代码以及执行代码最终的统计结果做完任务使用exit命令退出当前session可以看到实现的Agent应用虽然实现极简但是功能可以一点不简单当Agent拥有文件读写权限外加Shell工具以及代码生成与执行权限它在本机上真的可以为所欲为)。要知道OpenClaw的底层Agent CorePi Agent的Tools层也是有且仅包含四个工具方法读文件Read、写文件Write、编辑文件Edit、命令行Shell其他的丰富且强大能力均靠事件机制及Skills扩展而来。写在后面的话毫无疑问当前极简版的AI Agent框架在程序健壮性、安全性、功能性如流式输出以及优雅性如Tools注册都有很大改进空间但是不容否认的是它五脏俱全简单清晰可以帮助我们摒除那些复杂冗长的组件库看清Agent的本质。为什么需要极简一方面是为了方便论述清楚Agent的关键点另一方面是现实考量代码库本质也是文件也将逐渐成为上下文工程的一部分代码库越简单上下文越清晰信息噪声越少Agent则越智能。Agent框架之外Agent应用之内上下文工程是智能的核心短期/长期记忆、主动/被动记忆、用户Session管理、动态RAG等等也是Agent商业上应用的关键。框架提供基础工具上下文工程提供环境搭配商业领域的SkillsAgent就能发挥出巨大的潜力。最后对于正在迷茫择业、想转行提升或是刚入门的程序员、编程小白来说有一个问题几乎人人都在问未来10年什么领域的职业发展潜力最大答案只有一个人工智能尤其是大模型方向当下人工智能行业正处于爆发式增长期其中大模型相关岗位更是供不应求薪资待遇直接拉满——字节跳动作为AI领域的头部玩家给硕士毕业的优质AI人才含大模型相关方向开出的月基础工资高达5万—6万元即便是非“人才计划”的普通应聘者月基础工资也能稳定在4万元左右。再看阿里、腾讯两大互联网大厂非“人才计划”的AI相关岗位应聘者月基础工资也约有3万元远超其他行业同资历岗位的薪资水平对于程序员、小白来说无疑是绝佳的转型和提升赛道。对于想入局大模型、抢占未来10年行业红利的程序员和小白来说现在正是最好的学习时机行业缺口大、大厂需求旺、薪资天花板高只要找准学习方向稳步提升技能就能轻松摆脱“低薪困境”抓住AI时代的职业机遇。如果你还不知道从何开始我自己整理一套全网最全最细的大模型零基础教程我也是一路自学走过来的很清楚小白前期学习的痛楚你要是没有方向还没有好的资源根本学不到东西下面是我整理的大模型学习资源希望能帮到你。扫码免费领取全部内容最后1、大模型学习路线2、从0到进阶大模型学习视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 入门必看大模型学习书籍文档.pdf书面上的技术书籍确实太多了这些是我精选出来的还有很多不在图里4、AI大模型最新行业报告2026最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、面试试题/经验【大厂 AI 岗位面经分享107 道】【AI 大模型面试真题102 道】【LLMs 面试真题97 道】6、大模型项目实战配套源码适用人群四阶段学习规划共90天可落地执行第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…扫码免费领取全部内容3、这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】