vs连接到数据库  内容精选
vs连接到数据库  更多内容
  • 数据源管理 - 百度数据湖管理与分析平台EDAP | 百度智能云文档

    jbdcUrl 使用JDBC连接HiveServer2的地址,格式为jdbc:hive2:// : / hive集群 hive集群所在资源,即edap资源管理中心中对应的资源名。 安全模式 hive集群是否开启了Kerberos认证。

    查看更多>>

  • DBeaver - Baidu Palo/Doris 使用文档

    DBeaver Palo支持连接DBeaver,您可以根据以下的指导步骤来连接您的数据库管理工具DBeaver。 准备工作 安装DBeaver。

    查看更多>>

  • MySQL迁移至Kafka - 数据传输服务DTS | 百度智能云文档

    需求场景 适用于使用百度智能云 数据传输服务DTS (以下简称 DTS),将自建MySQL或RDS for MySQL数据库实例的数据迁移 百度消息服务 或 自建Kafka集群 中。 方案概述 迁移前置条件 已创建作为迁移源端的MySQL数据库实例,版本为5.5、5.6或5.7。 已创建作为迁移目标端的Kafka集群或百度消息服务主题。 自建Kafka集群支持版本为0.9或0.10 。

    查看更多>>

  • 自建MySQL迁移至RDS MySQL - 数据传输服务DTS | 百度智能云文档

    若您的 MySQL 数据库部署在本地,您需要将 DTS 服务器的 IP 地址添加数据库远程连接的白名单中,以允许其访问您的数据库。更多信息,请参见 添加 DTS 服务 IP 白名单 。 已创建存储空间大于自建 MySQL 数据库占用存储空间的目标 RDS MySQL 实例。创建方式,请参见 创建 MySQL 实例 。

    查看更多>>

  • 通过FileZilla上传文件 - 云虚拟主机BCH | 百度智能云文档

    FTP连接地址、端口号、FTP账号和密码均可在“ 主机控制面板 > 常用操作 > 账号信息”中获取,参考 主机信息 。 点击“连接”,连接FTP服务器。界面分为以下部份: 上部:工具栏和消息日志。 左边:本地区域,即本地硬盘。 右边:远程区域即远端服务器。 下部:传输队列,从此区域可以看出队列窗口,可以查看文件传输进度。

    查看更多>>

  • 基础使用 - MapReduce BMR_全托管Hadoop/Spark集群

    连接Trino进行查询 元数据管理为DEFAULT SSH登录集群 Core / Coordinator节点 ,参考SSH连接集群 执行以下命令,切换用户: su hdfs 执行以下命令进入交互式命令行: /opt/bmr/trino/bin/trino \ --server https://{coordinator_host}:8089 执行以下命令,连接数据库: use hive.default

    查看更多>>

  • Sugar - Baidu Palo/Doris 使用文档

    至此,Sugar成功连接PALO数据库 表一 配置项说明 配置项 配置项说明 数据源名称 创建一个数据源的名称以便于后续管理 描述 可以自定义描述,补充数据源的详细管理信息 数据库地址Host 在PALO集群详情页面-配置信息,给LeaderNode绑定Eip,填写这个IP地址即可(Eip需要用户自行购买并绑定) 端口 9030 数据库名 PALO中的数据库名称 用户名 PALO集群中创建的账号,管理员账号

    查看更多>>

  • 内网隧道 - 百度数据可视化Sugar BI | 百度智能云文档

    创建内网隧道 管理员可以通过空间左侧的导航进入「管理中心」的「数据源」,然后就能创建内网隧道,目前每个空间最多能创建 5 个内网隧道,每个内网隧道对应的是一个数据库连接地址,可以通过同一个隧道连接一个数据库服务器里的多个数据库: 下载客户端及运行 创建内网隧道后就能在内网隧道列表中看到,点击其中的「下载隧道客户端」,将下载后的 zip 拷贝前面提到的那台机器上。

    查看更多>>