wdcp 快速迁移网站,易语言怎么做无限打开网站,上海高新技术企业有哪些,线上营销系统为什么选择 MaaS 工作流的方式 在当前 AI 技术飞速发展的背景下#xff0c;构建高效、可靠的工作流对于快速落地 AI 应用至关重要。本篇文章将介绍如何利用蓝耘 MaaS 平台和多功能集成工具#xff0c;搭建一个集大规模语言模型#xff08;LLM#xff09;推理、文本生成、…为什么选择 MaaS 工作流的方式在当前 AI 技术飞速发展的背景下构建高效、可靠的工作流对于快速落地 AI 应用至关重要。本篇文章将介绍如何利用蓝耘 MaaS 平台和多功能集成工具搭建一个集大规模语言模型LLM推理、文本生成、图像生成与音频处理于一体的智能化工作流。我们将以GLM-4.7模型和Dify 平台为核心进行演示从模型接入、环境配置到流程设计和功能整合全方位展示完整的实施过程与成果。期待通过本示例为读者提供实用的指导思路和范例代码帮助大家快速上手并构建自己的 AI 驱动工作流。GLM-4.7 模型简介与适用场景蓝耘 MaaS 平台以卓越的性能和高度可定制的架构为大规模语言模型LLM提供了坚实的计算资源和部署支持。在国内部署中文 AI 应用时平台中的GLM-4.7模型备受青睐。该模型拥有出色的中文理解和生成能力并支持最高4096 字的上下文长度能够满足复杂对话和长文生成的场景需求。整体工作流目标与效果预览工作流设计目标说明在本文演示的 AI 工作流中我们的主要目标包括接入 GLM-4.7 模型在 Dify 平台中配置并调用高性能的 GLM-4.7 模型。工作流设计与部署借助 Dify 平台进行流程设计将模型推理、数据处理等节点串联成完整的自动化流程。多功能集成在工作流中同时实现文本摘要生成、图像生成和音频转换等功能打造一个可交互的多模态应用。以下是完成后工作流运行界面的示例前期准备与环境配置模型选择说明为什么使用 GLM-4.7具备卓越的中文处理能力适用于各类中文 NLP 任务。支持4096 字的上下文长度可生成连贯的长文本。Dify 中配置 GLM-4.7 模型的完整流程登录Dify 平台点击右上角的用户头像在下拉菜单中选择“设置”进入配置页面。在设置页面中找到“模型提供商Model Provider”选项选择OpenAI-API-compatible然后点击保存以完成基本配置。登录蓝耘 MaaS 平台进入“API Key 管理”页面复制您已生成的有效API Key。返回 Dify 平台的模型配置页面点击“编辑模型凭据”按钮在弹出的表单中填写以下信息凭据名称自定义名称例如“GLM-4.7”以便区分不同模型。显示名称填写“GLM-4.7”这是在界面中显示的名称。API Key粘贴从蓝耘 MaaS 平台复制的 API Key。API 地址输入https://maas-api.lanyun.net/v1这是蓝耘 MaaS 固定的接口地址。对话类型选择“对话”类型。上下文长度/最大 token 限制设置为4096与模型支持的最大长度保持一致。通过以上步骤你就成功将 GLM-4.7 模型接入到 Dify 平台中为后续的工作流设计打下了基础。完整工作流节点拆解开始节点输入变量配置在 Dify 平台的工作流编辑器中首先配置工作流的输入变量确保后续节点能够接收到正确的上下文信息。具体操作如下在工作流编辑页面中选中“开始”节点触发节点。在右侧的输入设置面板中添加一个新的变量变量名称item用于指定要获取的新闻数量。将新增的输入变量标记为必填这样用户在触发流程时必须提供此参数。代码节点调用服务端 crawl4ai 获取新闻数据在完成变量配置后添加一个代码节点用于向后端服务发起请求并获取新闻数据。输出变量news: Array(Object)新闻列表newsdetail: String新闻详情文本以下是示例 Python 代码import requests import json def main(arg1: str) - dict: try: # 构造请求URL和参数 url http://101.126.157.230:8001/news/ limit arg1 # 发送GET请求 response requests.get(url, params{limit: limit}) # 检查响应状态码 if response.status_code 200: # 请求成功处理结果 result response.json() # 提取新闻数据和新闻详情字符串 news_list result.get(news, []) newsdetail result.get(newsdetail, ) # 确保 news_list 是一个列表 if not isinstance(news_list, list): return {error: 服务端返回的新闻数据格式不正确news 字段应为列表。} # 格式化新闻数据如果需要 formatted_news [] for news_item in news_list: if isinstance(news_item, dict): # 如果是字典直接添加 formatted_news.append(news_item) elif isinstance(news_item, str): # 如果是字符串尝试解析为字典 try: news_dict json.loads(news_item) # 使用 json.loads 解析字符串 formatted_news.append(news_dict) except Exception as e: print(f解析新闻数据时出错: {e}) else: print(无效的新闻数据格式) # 返回格式化的新闻数据和新闻详情字符串 return {news: formatted_news, newsdetail: newsdetail} else: # 请求失败返回错误信息 return {error: f请求失败状态码: {response.status_code}} except requests.exceptions.RequestException as e: # 捕获请求异常 return {error: f请求出错: {str(e)}}执行上述代码节点后我们可以获取到格式化后的新闻列表和新闻详情文本供后续处理使用。LLM 节点新闻内容结构化总结在获取到新闻列表和详情后接下来使用 LLM 节点对新闻进行结构化总结。本例中我们选择调用前面配置的GLM-4.7模型。请向模型提供如下提示词prompt提示词请对后续提供的文章内容进行结构化总结总结需包含以下两个核心部分具体要求如下摘要需完整涵盖文章的核心主旨、关键观点及重要结论语言需简洁凝练确保信息无重要遗漏避免冗余表述文章要点需用数字序号1.、2.、3.……逐条列出每条要点聚焦一个独立的核心信息可包括关键论据、重要事件、核心建议、数据结论等要求条理清晰、逻辑分明不重复已有信息。格式说明两个部分均无需使用“**”符号进行标题加粗直接分别以“摘要”“文章要点”作为板块引导词即可。模板节点合并摘要与新闻原文使用模板转换节点或文本拼接将 LLM 生成的摘要和之前获取的新闻详细内容合并以便后续流程使用。假设我们有两个变量llmtextLLM 输出的总结文本和newsdetail详细新闻文本可以构造如下模板表达式{{ llmtext\n下面新闻详细内容\nnewsdetail }}这一操作将把结构化的新闻摘要与完整的新闻内容按顺序组合在一起方便用户查看或作为后续节点的输入。LLM 节点新闻摘要二次精简在获得合并后的内容后我们可以再次调用 LLM 节点对总结文本进行精简控制字数并提高表述质量。例如给予模型以下提示词提示词你是一名资深新闻播报员请对用户输入的新闻摘要内容进行优化使其表述更流畅并将总体字数控制在1000 字以内。提示词你是一名资深新闻播报员请对用户输入的新闻摘要内容进行优化使其表述更流畅并将总体字数控制在1000 字以内。语音节点Text To Speech 新闻播报最后将处理好的文字发送给语音合成服务实现文字到语音的转换。在 Dify 平台中可以使用语音合成节点。以下提供一个示例 Python 函数用于将返回的音频文件数组转换为 HTML 音频标签方便在网页或应用中直接播放def parse_audio_array_to_html(audio_array): 解析音频文件数组并返回HTML音频标签 try: # 检查是否是数组格式 if isinstance(audio_array, list) and len(audio_array) 0: audio_file audio_array[0] # 提取URL和文件名 url audio_file.get(url, ) filename audio_file.get(filename, ) # 生成HTML音频标签 audio_html faudio controlssource src{url} typeaudio/x-wav{filename}/audio return audio_html else: return No audio files found in array except Exception as e: return f处理错误: {e} def main(arg1:str) - dict: markdown_result parse_audio_array_to_html(arg1) # 解析并输出结果 return {result: markdown_result}至此将所有节点串联完成后接入一个结束节点即可结束工作流。最终当用户触发该流程时系统会依次执行新闻爬取、摘要、合并、精炼和语音播报等步骤实现一个全流程自动化的多功能 AI 工作流。学习地址第8部分 Dify功能语音总结本文从环境搭建、模型配置到工作流设计的各个环节为大家演示了如何利用蓝耘 MaaS 平台和 Dify 平台快速搭建一个高效的智能化 AI 工作流。通过选择 GLM-4.7 这样的高性能中文大模型并结合 Dify 提供的可视化流程编辑器我们能够轻松实现文本抓取、结构化总结、内容合并以及多模态输出等功能。在实践过程中我们编写了示例代码调用新闻 API实现了对新闻内容的自动获取并利用 LLM 节点对内容进行了有条理的结构化处理和精炼。最后通过语音合成节点将文字转换为语音完成了一个从数据采集到多模态输出的完整应用示例。希望本文的示例和步骤能够为读者提供清晰的参考思路。在日后的工作中你可以根据自己的需求替换不同的模型或数据源灵活扩展该工作流。蓝耘 MaaS 平台和 Dify 平台的结合为开发者提供了极大的便利使得构建复杂的 AI 应用更加高效、快捷也为进一步创新提供了坚实基础。祝愿大家在 AI 项目的实践中取得更多成果