先做网站还是先备案,查域名解析ip,东莞网络推广外包,海外域名注册网站人人都在往系统里塞更多 AI#xff0c;但我主张从另一个方向开始#xff1a;把系统设计成逐步把 AI 写出来#xff08;即用可确定的代码/工具替代 AI 的非确定性部分#xff09;#xff0c;直到只在真正需要判断或创造力时才调用模型。把这个理念称为 Drift to Determinis…人人都在往系统里塞更多 AI但我主张从另一个方向开始把系统设计成逐步把 AI 写出来即用可确定的代码/工具替代 AI 的非确定性部分直到只在真正需要判断或创造力时才调用模型。把这个理念称为Drift to DeterminismDriDe——目标是“让 AI 自我过时”。什么是 DriDe简单一句话用 AI 处理新问题、找到可重复的步骤然后把这些重复步骤结晶成可调用的工具或代码。下次遇到类似问题时优先用这些工具而不是再一次让模型从头试错。长远目标是把耗费 token、结果不稳定的流程逐渐替换为低成本、可预测的自动化。一个实用的流程步骤化给 AI 一个“新”的任务让它先把问题解决一次允许它烧 token。在流程末端放一个“观察者”——检查哪些步骤其实是可以用确定性逻辑完成的。为这些可重复部分开发工具/函数。下一次遇到类似任务把工具作为输入提供给 AI或者直接用工具替代模型。如果工具可以串联就把它们组合成更大流程。反复进行直到把尽可能多的环节“写出”AI。对于偶发或复杂边界情况保留模型回退并用 shadow runs影子运行验证改进是否稳健。这样曾经需要 $50 一次、成功率 50% 的非确定性流程可能演化为用几分钱调用模型做分类再用代码快速执行余下步骤的高可用系统。为什么这很重要结晶化每次调用 LLM 都是一次概率性的输出——非确定性注定存在。把可预测、可复用的部分“结晶化”成 deterministic 的组件能大幅降低错误率、成本与法律/合规风险。AI 最理想的角色是发现流程、指出可优化点并帮你设计工具而不是永远替代工程化的解决方案。听起来很费事是的但这是长期投资。当前的能力差距在于模型能指出优化方向但仍需要人来判断哪些部分值得固化、如何划分函数边界、何时保持模型判断。把这种“判定与改写”的循环做成常规工作流会让系统越跑越稳、越跑越省钱。我对未来的预测在 2–5 年内你会看到这样的场景你对业务提出一个新需求例如自动对账AI 生成一个工作流建议并在测试模式下运行你作为审查者修正边界与误判并推动影子运行系统把可重复的解析、匹配部分用代码实现仅在触发异常或罕见格式时才唤起模型。结果是一个以 deterministic 为主、只在关键点使用 LLM 的高可靠自动化系统。我如何看待 LLM衡量风险把每个 token 看作一个潜在故障点。即使模型准确率很高在大量重复执行时累积错误会把“看似安全”的系统摧毁举例0.99999^10000 ≈ 90%——长期大量通过模型的流程可靠性会下降到灾难性水平。因此把 LLM 的目标从“完成任务”改成“让自己可被替代/写出”是更可持续的做法。结语建“幻觉工厂”还是“确定性引擎”你可以继续构建一个“烧 token、结果不稳定”的系统也可以把 DriDe 作为设计原则用 AI 发现并解决新问题用工程把解法固化为工具逐步把 AI 从日常流程中抽离出来。坚持这个方向能显著降低成本、提高确定性并在竞争中取得优势。现在就开始把 AI 用作“临时试验台”而不是永远的执行者。