开发限制 为什么存在使用限制 GaiaDB-X 采用存储、计算分离架构(如下图),计算节点和存储节点可灵活扩展,解决业务海量数据和高吞吐瓶颈问题。计算节点在设计上隐藏物理数据库的拆分逻辑,用户可以像使用单机数据库一样使用 GaiaDB-X。 由于引入计算节点导致对物理数据库的SQL语法、跨分片查询产生暂时的兼容性问题。
用户数据导出 3.1 使用pg_dump导出用户数据 使用pg_dump工具从用户的PostgreSQL数据源中导出需要导入RDS实例中的数据文件(本步骤仅导出数据,不包括存储过程、触发器及函数)。
Logstash数据存储到BOS 工具概述 Logstash 是一个开源的数据收集、处理、分析工具,可以从众多来源捕捉事件,流式传输到所需的存储库中,本文将描述Logstash如何把数据存储到BOS bucket。 配置教程 官网下载安装 Logstash安装包 ,选择对应操作系统的最新版本即可;下载后解压安装包并创建配置文件。
由于 BOS 在超低价格、超高性能、高可靠和高吞吐的强大存储优势,越来越多企业选择 BOS 作为大数据的存储媒介。因此,本文将对Presto在 BOS 上的使用方法作一个简要的介绍。 前提条件 参考 Hive使用指南 一文安装并配置Hive 安装配置 安装版本为349,可参考 presto部署 一文的过程。
t, --no-create-info 导出数据库事件 mysqldump -h -P -u -p db1 tb1 -E > result.sql -E, --events 导出数据库触发器 mysqldump -h -P -u -p db1 tb1 --triggers > result.sql --triggers 导出数据库存储过程与函数 mysqldump -h -P -u -p db1
Hive使用指南 Hive hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行.
删除存储桶 接口说明 本接口用于删除一个Bucket。在删除前需要保证此Bucket下的所有Object和未完成的三步上传Part已经已被删除,否则会删除失败。 注意事项 删除Bucket之前确认该Bucket没有开通跨区域复制,不是跨区域复制规则中的源Bucket或目标Bucket,否则不能删除。
Kafka数据存储到BOS 工具概述 Apache Kafka 是一个开源的分布式事件流平台,被广泛用于高性能数据管道、流分析、数据集成和关键任务应用。它支持通过connector方式将事件流数据导出到S3等对象存储系统上,本文将详细阐述如何利用Kafka的 S3 Sink Connector插件 将数据数据导出至BOS存储桶。
使用存储网关 现在您可以通过NFS client或者SMB client挂载使用存储网关了。存储网关上可以同时关联多个共享目标,每个共享目标对应一个BOS Bucket。您对于共享目标的数据读写会首先缓存在存储网关本地,并异步地将数据同步到BOS上。
Bucket是BOS上的命名空间,相当于数据的容器,可以存储若干数据实体(Object)。用户可以参考 新建Bucket 来完成新建一个Bucket的操作。 上传Object。 Object是BOS中最基本的数据单元,用户可以把Object简单的理解为文件。用户可以参考 上传Object 完成对Object的上传。 列出指定Bucket中的全部Object。