网站被泛解析做网站是用啥软件做的
网站被泛解析,做网站是用啥软件做的,苏州企业网站建设,一个人做网站 优帮云好久没有写实操类的干货了#xff0c;最近#xff0c;总觉得用在线的大模型进行开发#xff0c;实在是有些费钱#xff0c;我基本上几个主流的AI编程工具都有充值#xff0c;每个月花费不少呢。要是能直接调用我本地的lmstudio就好了#xff0c;于是#xff0c;我查阅la…好久没有写实操类的干货了最近总觉得用在线的大模型进行开发实在是有些费钱我基本上几个主流的AI编程工具都有充值每个月花费不少呢。要是能直接调用我本地的lmstudio就好了于是我查阅laude Code的官方资料还真找到了摆脱API费用限制的方法可以对接几乎任意模型。本文教你如何用LiteLLM搭建代理让Claude Code无缝调用LM Studio中的任意开源模型当然也支持其他的在线模型只需要修改配置即可。背景Claude Code作为Anthropic官方推出的AI编程工具功能强大但只能调用官方API。今天我要做的就是打破这个限制通过LiteLLM代理让Claude Code能够调用本地部署的任意模型包括通义千问系列QwenDeepSeek系列Llama系列其他任意开源模型这样既能享受Claude Code的优秀良好体验又能使用免费的本地模型一举两得效果展示配置完成后你可以✅ 在Claude Code中直接使用本地模型✅ 享受完整的工具调用功能✅ 无需支付API费用✅ 数据完全本地化保护隐私✅ 支持多种模型切换技术原理架构图核心组件Claude CodeAnthropic官方编程工具LiteLLM统一AI模型API的代理工具LM Studio本地模型运行平台本地模型各种开源大语言模型准备工作安装清单# 1. 安装LM Studio # 从官网下载https://lmstudio.ai/ # 2. 安装Claude Code npm install -g anthropic-ai/claude-code # 3. 安装LiteLLM代理 pip install litellm[proxy]详细配置步骤第一步启动LM Studio下载并安装LM Studio下载你喜欢的模型推荐Qwen3-Coder系列启动本地服务器默认端口1234# 验证LM Studio是否正常运行 curl http://localhost:1234/v1/models第二步配置LiteLLM代理创建配置文件config.yamlmodel_list: # Claude Code兼容的模型映射 -model_name:claude-3-5-haiku-20241022 litellm_params: model:lm_studio/qwen/qwen3-coder-30b api_key:sk-dummy api_base:http://localhost:1234/v1 -model_name:claude-3-5-sonnet-20241022 litellm_params: model:lm_studio/qwen/qwen3-coder-30b api_key:sk-dummy api_base:http://localhost:1234/v1 # 也支持原始模型名称 -model_name:qwen3-coder-30b litellm_params: model:lm_studio/qwen/qwen3-coder-30b api_key:sk-dummy api_base:http://localhost:1234/v1 -model_name:deepseek-r1 litellm_params: model:lm_studio/deepseek-r1-distill-qwen-7b api_key:sk-dummy api_base:http://localhost:1234/v1 general_settings: master_key:sk-lmstudio-proxy-12345配置解读model_nameClaude Code看到的模型名称建议使用Claude官方格式model实际调用的LM Studio中的模型这种映射让Claude Code以为在调用官方模型实际上使用的是本地模型第三步启动LiteLLM代理# 启动代理服务器 litellm --config config.yaml # 看到这个输出说明启动成功 # LiteLLM: Proxy initialized with Config, Set models: # claude-3-5-haiku-20241022 # qwen3-coder-30b # deepseek-r1 # INFO: Uvicorn running on http://0.0.0.0:4000第四步配置Claude Code设置环境变量让Claude Code连接到我们的代理# 设置API端点 export ANTHROPIC_BASE_URLhttp://localhost:4000 export ANTHROPIC_AUTH_TOKENsk-lmstudio-proxy-12345 # 清除可能冲突的API Key unset ANTHROPIC_API_KEY第五步测试配置# 测试基础对话推荐使用Claude官方格式 echo你好请介绍一下你自己 | claude --model claude-3-5-haiku-20241022 # 测试代码生成 echo请写一个Python斐波那契函数 | claude --model claude-3-5-haiku-20241022 # 也可以使用原始模型名称功能相同但兼容性可能略差 echo你好 | claude --model qwen3-coder-30b小技巧两种模型名称都会调用同一个本地模型但推荐优先使用Claude官方格式可以获得更好的兼容性和完整的功能支持。高级配置多模型支持你可以同时配置多个不同的模型model_list: # 编程专用模型 -model_name:claude-3-5-haiku-coding litellm_params: model:lm_studio/qwen/qwen3-coder-30b # 通用对话模型 -model_name:claude-3-5-sonnet-chat litellm_params: model:lm_studio/qwen/qwen2.5-72b-instruct # 推理专用模型 -model_name:claude-3-5-reasoning litellm_params: model:lm_studio/deepseek-r1-distill-qwen-7b性能优化GPU加速确保LM Studio使用GPU加速内存管理根据显存大小选择合适的模型并发控制可以在LiteLLM中配置请求限制模型切换# 使用不同模型执行不同任务 claude --model claude-3-5-haiku-coding # 编程任务 claude --model claude-3-5-sonnet-chat # 对话任务 claude --model claude-3-5-reasoning # 推理任务注意事项硬件要求显存需求30B模型需要约20GB显存内存需求建议32GB系统内存存储需求模型文件较大需充足存储空间常见问题模型加载失败检查显存是否足够是否打开flash attention这个坑很难发现代理连接失败确认端口没有被占用响应速度慢考虑使用更小的模型或升级硬件模型名称选择困惑这是最容易踩的坑很多人会问为什么要用claude-3-5-haiku-20241022而不是qwen3-coder重要提醒虽然配置中两种模型名都指向同一个本地模型但Claude Code期望看到官方的模型名称格式。推荐使用claude-3-5-haiku-20241022的原因✅兼容性更好: Claude Code针对官方模型名优化了功能✅工具调用完整: 某些高级功能可能只对特定模型名启用✅未来维护: 更符合Claude Code的设计理念✅错误更少: 避免潜在的模型识别问题当然qwen3-coder-30b也能正常工作但是会出现该调用工具的时候不调用的问题而是直接输出json字符串。总结通过LiteLLM LM Studio的组合我们成功让Claude Code支持了本地模型调用。这不仅降低了使用成本还提升了数据安全性。对于个人开发者和企业来说这是一个非常实用的解决方案。如果你也想体验本地AI编程的乐趣不妨按照本文教程试试看。相信你也会被这种既要又要的完美体验所征服相关资源LiteLLM官方文档LM Studio下载Claude Code文档开源模型Hub大模型算是目前当之无愧最火的一个方向了算是新时代的风口有小伙伴觉得作为新领域、新方向人才需求必然相当大与之相应的人才缺乏、人才竞争自然也会更少那转行去做大模型是不是一个更好的选择呢是不是更好就业呢是不是就暂时能抵抗35岁中年危机呢答案当然是这样大模型必然是新风口那如何学习大模型 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是最先掌握AI的人将会比较晚掌握AI的人有竞争优势。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材学也不是不学也不是基于此我用做产品的心态来打磨这份大模型教程深挖痛点并持续修改了近100余次后终于把整个AI大模型的学习路线完善出来在这个版本当中您只需要听我讲跟着我做即可为了让学习的道路变得更简单这份大模型路线学习教程已经给大家整理并打包分享出来, 有需要的小伙伴可以扫描下方二维码领取↓↓↓CSDN大礼包全网最全《LLM大模型学习资源包》免费分享安全咨料放心领取一、大模型经典书籍免费分享AI大模型已经成为了当今科技领域的一大热点那以下这些大模型书籍就是非常不错的学习资源。二、640套大模型报告免费分享这套包含640份报告的合集涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)三、大模型系列视频教程免费分享四、2025最新大模型学习路线免费分享我们把学习路线分成L1到L4四个阶段一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】全套的AI大模型学习资源已经整理打包有需要的小伙伴可以微信扫描下方二维码免费领取CSDN大礼包全网最全《LLM大模型学习资源包》免费分享安全资料放心领取