通过手动上传的方式导入问答对数据,支持通过表单逐个添加和通过文件批量导入两种方式。 手动输入 :你可以在表单中手动输入提问和回答,提问长度不超过200字,回答长度不超过2000字,点击加号会添加相似提问,补充的相似提问将会匹配到同一条回答。 批量导入 :你可以通过上传文件实现大量问答对的批量导入,请按照平台提供的模版进行填写,避免出现格式问题导致的上传失败。
不必开发专门的MapReduce应用便可通过类SQL语句快速实现简单的MapReduce统计,同时也允许熟悉MapReduce的开发者开发自定义的Mapper和Reducer来处理复杂的分析工作。 Hive的数据单元: Databases:数据库。 Tables:表。 Partitions:分区。只支持固定分区,将同一组数据存放至一个固定的分区中。 Buckets(or Clusters):分桶。
如果您需要通过API编辑、删除厂商、产品、设备信息,以及禁用、启用设备,后续将上线[设备管理API文档],请填写 官网使用申请表单 ,申请线下获取文档 单个添加设备 填写【所属厂商、所属产品、设备编号、设备密钥】,即可添加 批量添加设备 填写【所属厂商、所属产品】并导入CSV文件
批量添加设备 在网页左上角下载模版,填写【所属厂商、所属产品】并导入CSV文件。 查看设备密钥 设备管理>查看密钥 可以进行密钥查看
属性设置」:可以对用户的属性进行增删改操作 「批量导入」:可以通过上传 Excel、CSV 文件,批量导入用户属性数据,可以点击「下载模板文件」下载当前组织中的用户属性的 Excel 文件模板,便于您在此基础上进行修改并导入。 需要注意的是,上传的用户属性数据中必须包含用户的邮箱列。 除了批量导入,还可以直接在用户属性表格中对属性值进行修改。
作业导出/入 可视化作业支持导入导出,单击 导出 ,将当前作业导出为json文件 计算资源 点击页面上方计算资源弹出作业资源设置框,对脚本作业进行资源设置。
作业导出/导入 导出:单击导出按钮,弹窗提示“是否确认导出该作业?后单击确认,会保存json文件至用户本地。文件名为:当前作业名.json。文件包含的内容:当前作业名、脚本内容、基本信息、参数配置。 导入:单击导入按钮,选择用户本地文件,只支持json类型文件导入,若用户选择非json类型文件,则提示“请选择json文件”。导入的脚本作业默认覆盖原有工作台的草稿。
按照模版的格式,填写导入的原子指标数据,将编辑好的 Excel 文件上传,单击点击选择文件,选择已经填写好的表格文件,即可进行导入,导入完成后,页面会展示导入结果。 4. 指标导出 :单击 指标导出 ,可以导出指定主题下的所有数据指标。导出的数据指标为 Excel 格式。 指标状态管理 数据指标的生命周期包括以下状态:草稿、已发布、已废弃。通过发布、修订和废弃这三种操作,可以修改它们的状态。
导入BesClient配置文件 import bes_sample_conf #导入BES相关模块 from baidubce.exception import BceHttpClientError from baidubce.exception import BceServerError from baidubce.services.bes.bes_client import BesClient
Sqoop:用于Hadoop与传统的数据库间的数据导入和导出。 Zeppelin:Web版的notebook,用于数据分析和可视化,可无缝对接Hive、SparkSQL等。 ZooKeeper:提供分布式一致性锁,用于HDFS、YARN高可用,在HBase、Kafka、Druid中保证数据一致性。