否 List<String> ephemeralDisks 数据盘本地盘 否 List<EphemeralDisk> name 本地盘名称 否 string sizeInGB 本地盘大小 否 integer storageType 本地盘类型 否 string gpuCard 待创建实例所要携带的GPU卡信息 否 string hostname 虚机hostname(不传为随机名称
作业类型 实时流水线、FlinkSQL作业、Flink自定义作业、SparkStreaming Scala、SparkStreaming自定义。 发布人 本次实时作业的发布人。 最近一次发布时间 实时作业最近一次的发布时间。 上线人 本次实时作业的上线操作人。 最近一次上线时间 实时作业最近一次的上线操作时间。 上线版本 已上线实时作业的最新版本。
数据库名称 host string 数据库IP:Port id integer 会话ID sqlstmt string 执行的SQL state string 数据库线程状态 time integer SQL执行时间 trxState string 事务状态 trxTime integer 事务执行时间 user string 数据库用户 MysqlSessionDBSummary 参数名称 类型
主实例执行SQL: update tb_001 set k=k+12345 limit {$LIMIT_NUM}; 测试结果——只读实例的最大延迟时间: 更新行数 TABLE_SCAN,INDEX_SCAN TABLE_SCAN,INDEX_SCAN,HASH_SCAN 10000 28s 4s 20000 144s 17s 30000 325s 35s 40000 576s 64s 由测试结果可以看出
加载数据过程中,hive将sqoop导入bos上的数据移动到hive表所指定的location中,在location( bos://test-sqoop-example/bmr-public-data-logs/ )中新建目录“dt=2015-11-02”,将数据移动到这个目录下,而sqoop导入到bos上的原目录已经成为空目录,可以进行删除。
作业上下游需要跟作业属于同一个region,跨region会出现无法访问上下游的问题 产品不支持用户需要的数据存储类型,怎么办? 遇到这种问题,一方面可以提交工单告知您的需求,另一方面,可以先将您的数据转换到流计算支持的数据存储系统中,再进行流计算处理。
map> 否 答案列表 text string 否 answer 答案文本 type string 否 answer 答案类型(只能传数字,目前只可为1,为纯文本) 示例: { "id":"003ecd4f-344c-4187-8b14-f12737161ef31", "version":1, "answer":[
可视化作业开发:使用拖拽的形式,降低用户开发、使用门槛,快速实现离线任务的加工处理; 脚本作业开发:以脚本的形式进行数据的开发,目前支持的脚本类型包括:HIVESQL、JDBCSQL、Spark SQL、PySpark、Spark Scala、Shell、Python等脚本类型; 作业组开发:将可视化作业开发、脚本作业开发等开发完成的作业,或者用户线下创建好的shell、python、spark等作业进行引用
点击【搜索关键字】,将自动筛选出属性中包含该关键字的全部记录,字段的数据类型为VARCHAR时支持模糊查询。点击【基本信息】可以看到该表的创建时间、更新时间、数据量、中文名称、数据表描述等内容。点击【编辑数据表】可进入数据表编辑界面。
当rpc_port为空且http_port不为空时,会自动将rpc_port设置为http_port+1 rpc_port : 9998 #worker_num, 最大并发数。