其中 FTP 可复制 URL 到FTP 客户端直接登录。 8.1.7 数据库客户端登录 用户被授权数据库资源后,进入到主机运维的列表页面,点击数据库资源的登录按钮,会出现代理程序的询问弹窗,如图: 选择要使用登录的客户端工具即可完成数据库资源的登录进行运维。
功能介绍 文件管理 在后续数据开发过程中需要使用到第三方的 jar 或者用户自定义脚本、文件的情况,可以通过文件管理页面完成文件上传、管理等相关操作。 提供文件上传、管理等功能: 新建文件夹 新建文件夹,用于对文件分类管理。 上传文件 点击“上传文件”进行文件上传,支持单个/多个(最多10个)文件上传。
概念,因此在使用 MySQL Dump 时要加上 --no-tablespaces 参数 使用 MySQL Dump 导出数据和表结构仅用于开发测试或者数据量很小的情况,请勿用于大数据量的生产环境
选取恰当的分桶列,对于原始数据的合理分布至关重要,它能有效防止数据倾斜所引发的性能问题。同时,这也能最大化地利用 PALO 提供的 Colocate Join 和 Bucket Shuffle Join 特性,从而显著提升 Join 操作的性能。 以下面 t1 表的建表语句为例,当前分桶列选定为 c2。
影响范围 当实例同时满足以下条件时,可能受到该漏洞影响: 在生产环境实例中开启公网访问 数据库访问白名单配置为 0.0.0.0/0 数据库参数 net_compression_compressors 配置为 zlib 当客户端在建立连接时请求使用 zlib 压缩算法,实例即满足该条件。
如不指定则恢复整个数据库 ON 子句中标识需要恢复的表和分区。如果不指定分区,则默认恢复该表的所有分区。所指定的表和分区必须已存在于仓库备份中 EXCLUDE 子句中标识不需要恢复的表和分区。除了所指定的表或分区之外仓库中所有其他表的所有分区将被恢复 2. <partition_name> 需要恢复的分区名。如不指定则恢复对应表的所有分区 3.
PALO 会自动维护物化视图的数据,确保基础表(Base Table)和物化视图表的数据一致性,无需额外的人工维护成本。在查询时,系统会自动匹配到最优的物化视图,并直接从物化视图中读取数据。 注意事项: 在 PALO 2.0 及后续版本中,物化视图具备了一些增强功能。建议用户在正式的生产环境中使用物化视图之前,先在测试环境中确认预期中的查询能否命中想要创建的物化视图。
在定义聚合模型表的时候,如果把 value 列的聚合函数定义为 REPLACE_IF_NOT_NULL,也可以间接实现类似主键表的部分列更新能力。 主键模型和聚合模型的选择建议 大部分有数据更新需求的场景,都建议 首选主键模型 。例如从 TP 数据库 CDC 同步到 PALO,用户画像,人群圈选等。 下面两类场景,建议使用聚合模型: 部分字段需要做指标聚合,部分字段需要进行更新。
查看节点信息 点击节点右侧“更多”,选择“查看节点信息“,右侧显示节点信息:表名称、数据源类型、数据源链接、数据库、更新时间、schema信息。对于数据湖的表,点击“查看表详情”,可跳转到元数据详情页面。 查看任务信息 点击连线上的任务节点,右侧显示产生该血缘关系的任务信息,包括:来源任务名称、任务类型、创建人、创建时间、运行时间、任务内容等。点击“查看任务详情”可以跳转到具体作业。
源端数据源 数据来源的具体数据库名称。 目标端数据库/路径 数据写入的目标数据库名称/路径。 持续运行时长 任务从启动到当前持续运行的时间。 当前位点 标记任务在数据同步过程中的当前位置或时间点。 任务类型 说明任务的数据同步类型,任务类型:说明任务的数据同步类型/说明任务的数据同步类型,可通过此项筛选列表。 执行概况 任务的执行情况。 创建人 创建任务的用户名。