3.移除应用 点击 移除 ,进入移除应用操作页面; 点击确认后应用将会被移除。 4.部署列表 点击 部署列表 ,进入部署应用的列表详情; 架构 为此次应用的架构信息。 容器组 为应用实际在此次选择的逻辑集群中部署数量和需求数量,次展示图为实际部署数量为0,需求数量为10。 状态 为此应用部署的实际状态,是否部署成功。 部署时间 为此应用部署的实际时间。
request_id : 49a57d49-9363-4df3-802a-78e825dfaec4 }
如何发布私有部署服务器 训练完毕后可以在左侧导航栏中找到【发布模型】,依次进行以下操作即可将模型部署到私有服务器: 选择模型 选择部署方式「私有服务器部署」 选择集成方式「私有API」(当前仅支持此方式) 将模型以Docker形式在本地服务器(仅支持Linux)上部署为http服务,可调用与公有云API功能相同的接口。可纯离线完成部署,服务调用便捷 点击「提交申请」后,前往控制台申请私有部署包。
HTTP 转 MCP 服务器**:将 REST API 转换为 MCP 工具 3 ## 配置格式 4 ### HTTP 转 MCP 服务器配置 5 ```yaml 6 server: 7 name: rest-api-server 8 type: rest # 可选,默认为 rest 9 config: 10 apiKey: 您的API密钥 11 # 服务器级别默认认证(可选) 12 defaultDownstreamSecurity
token=3C;你的token> , token可以通过【轻量应用服务器】控制台的【应用管理】获取网站地址中取到。
在服务器详情页点击告警情况的 立即处理 按钮,跳转至本页面,并自动选择对应的服务器名称。 历史告警 平台自动记录所有服务器的历史告警情况,并自动保存30天。 用户选定服务器名称、时间范围后,自动查询相应的历史告警信息。 展示内容包括:服务器名称、告警级别、资源类型、触发时间、结束时间、峰值、触发时警戒线等。
如何部署在私有服务器 发布模型页面中,可以申请私有服务器部署,将模型部署在私有服务器中。 页面中操作步骤如下: 选择模型 选择部署方式「私有服务器部署」 选择集成方式「私有API」 私有API:将模型以Docker形式在私有服务器(仅支持Linux)上部署为http服务,可调用与公有云API功能相同的接口。可纯离线完成部署,服务调用便捷 点击「提交申请」后,前往控制台申请私有部署包。
快速部署OpenClaw 本文档详细介绍了如何在轻量应用服务器LS上配置使用开源AI助手OpenClaw的完整流程。 部署过程主要包括: 在轻量应用服务器控制台创建实例,通过一键安装脚本完成部署以及初始化; 使用千帆完成文心系列、Qwen系列、Deepseek系列等主流模型配置,快速将百度大模型能力集成到机器人应用中。 当前仅2026.2.2-3及以上版本支持模型、消息平台、Skills一键配置。
分享终端 通过 分享终端 功能,用户可以将服务器的操作权限分享给第三方用户。第三方用户使用访问链接和密码,可以在规定时间内访问、操作服务器,获得 进入终端 相同的功能权限。 注意 :只有在线服务器,才能使用 分享终端 功能。 使用方法 点击 更多 - 分享终端 ,弹出分享终端弹窗; 输入分享时长,最长支持999天或23976小时; 在规定时间内,获得链接的所有人,都可以对该服务进行远程访问。
功能更新记录 2018-12-27 手册发布,手册发布API参考,支持查询实例、创建实例、重载实例。 2019-01-22 新增tag相关特性,可以通过API对实例打tag,在查询实例时也会显示其tag值。 2019-04-22 新增大量新接口,包括启动/停止/重启实例等一批对实例的接口,以及标签、套餐、镜像、操作日志