前提条件 实例已开启开启企业版。 数据源类型为 MySQL、GaiaDB、GaiaDB-X。 注意事项 系统管理员 角色可以查看所有敏感列,无需授权。 为数据源添加敏感列 登录 DBSC 控制台 。 在左侧导航栏,点击 数据开发—>敏感数据 。 在 数据源 页签,单击页面右上角的 添加数据源 。
在控制台页面左上角,选择实例所在地域,进入“云数据库 RDS列表”页面。 找到目标实例,点击 实例名称 ,进入实例详情页面。 在左侧导航栏中单击 备份恢复 。 点击 备份策略 > 基础策略 > 编辑 ,进行参数设置。 打开 高频备份 开关,设置 高频备份频率 ,最快可实现每1小时备份一次。 点击 确定 保存备份策略。
参数模板操作指南参考 关于RDS-for-Server参数模版,请参考RDS-for-MySQL参数模版操作指南: 新建参数模板 管理参数模板 参数模板应用到实例 删除参数模板 更多操作 在“参数列表上方”,点击 重启实例 按钮,可以重启该实例。
查看监控及设置报警策略 简介 本视频介绍如何进行云数据库 RDS 监控设置和报警策略设置。 相关文档 更多图文版本操作指南,请参考如下文档: MySQL 监控报警 SQL Server 监控报警 PostgreSQL 监控报警
前提条件 实例已开启开启企业版。 需要归档的表中必须有时间字段。 目标数据库类型为 MySQL、PostgreSQL。 提交数据归档或归档+清理任务 登录 DBSC 控制台 。 在左侧导航栏,点击 数据开发—>数据归档与清理 。 在 数据归档与清理 页面,单击页面中的 创建归档与清理 。 在 创建归档与清理 页面,按照下表进行配置。
EDAP资源组FlinkSQL作业读取Kafka维表关联MySQL写入EDAPDatalake表 首先,在【元数据管理】界面创建如下图的EDAPDataLake表,用来作为待写入的flink作业sink端。 在FlinkSQL作业中写入如下SQL,实现读取Kafka维表关联MySQL写入EDAPDatalake表。需要保证Kafka、MySQL服务与资源组网络联通,例如均处于同一个VPC内。
bcerds;自建数据存储:public) bcerds Request Body 参数 targetInstanceType String 是 目标端类型(百度智能云数据库:bcerds;自建数据存储:public) bcerds Request Body 参数 crossRegionTag Integer 是 跨地域标识(当源端、目标端类型均为百度智能云数据库且跨地域时:1;其他情况:0) 0
bcerds;自建数据存储:public) bcerds Request Body 参数 targetInstanceType String 是 目标端类型(百度智能云数据库:bcerds;自建数据存储:public) bcerds RequestBody 参数 crossRegionTag Integer 是 跨地域标识(当源端、目标端类型均为百度智能云数据库且跨地域时:1;其他情况:0) 0
bcerds;自建数据存储:public) bcerds Request Body 参数 targetInstanceType String 是 目标端类型(百度智能云数据库:bcerds;自建数据存储:public) bcerds Request Body 参数 crossRegionTag Integer 是 跨地域标识(当源端、目标端类型均为百度智能云数据库且跨地域时:1;其他情况:0) 0
DBeaver Palo支持连接DBeaver,您可以根据以下的指导步骤来连接您的数据库管理工具DBeaver。 准备工作 安装DBeaver。