使用内置modbus驱动采集数据并进行边缘函数计算 概述 本教程展示如何使用智能边缘完成一个简单的子设备数采和数据智能demo。 教程中会使用系统内置的modbus驱动,以及内置的modbus模拟器(模拟器仅支持容器模式),实现边缘节点采集子设备数据,并通过函数计算测点值并上报到云端。
操作步骤 1、以OpenAPI的方式创建函数 创建函数 ,并根据实际需要设置函数超时时间Timeout。
执行结束后,您可到百度云控制台查看新创建的函数、触发器和 Bucket。 手动部署 您也可以手动分别创建函数、触发器和 Bucket,具体操作如下: CFC 有一个名为 aip-image-process 的函数模板,您可使用该模板生成您自己的函数,具体操作请参考 使用模板创建函数 。
imageId String 是 RequestBody参数 扩容节点使用的镜像ID。 maxNodesInQueue Integer 否 RequestBody参数 队列计算节点最大数量。取值范围:1~500默认值为100 minNodesInQueue Integer 否 RequestBody参数 队列计算节点最小数量。
时间戳与时区 CFC函数内的时间戳为Unix时间戳(Unix timestamp),时间为UTC世界标准时间。如果您需要在函数内打印格式化时间,需要指定时区,例如 Asia/Shanghai 。
接口说明 当数据校验任务配置完任务,开始前置检查。
使用RAPIDS加速数据科学任务 背景介绍 本文介绍如何在GPU云服务环境中下载、安装并使用RAPIDS软件库。 RAPIDS是一套开源的软件库,旨在提供给用户一整套能够完全在GPU上执行的端到端的数据科学及其分析的API调用。它面向解析和数据科学中的常规数据处理任务,囊括了多种端到端的机器学习算法。且不用耗费更多的开销就可以轻松实现加速。
使用 BtuneAK对基因测序软件进行加速 背景 本文主要介绍在 CHPC 平台使用 BtuneAK 自动化加速组件,可以直接对BWA、FastQC、Picard、Trimmomatic等业务端到端时长加速。
使用vLLM加速大模型推理 vLLM(Vectorized Large Language Model)是一个高性能的大型语言模型推理库,支持多种模型格式和后端加速,适用于大规模语言模型的推理服务部署。 准备环境和资源 可根据资源规模、稳定性、灵活性等要求按需准备轻量计算实例或通用计算资源池,用于快速部署vLLM。
设置HTTPS加速 接口 本接口用于设置加速域名HTTPS相关的配置,属于全量配置接口。 Method Path 说明 PUT /v2/domain/{domain}/config?https 设置加速域名HTTPS相关的配置 domain: CDN加速域名。