配置BOSCLI 通用配置 配置支持中文显示的CLI环境 如需要配置支持中文显示的CLI环境,请执行如下命令配置: $ export LANG=en_US.UTF-8 说明: 可先执行 $ locale 命令查看当前环境的语言支持情况,若不是 LANG=en_US.UTF-8 ,可执行上述命令进行修改。
图一 智能网关实例列表页 图二 智能网关实例VCPE创建页 部署VCPE镜像 登录 百度智能云控制台 ,请用户购买弹性公网EIP、云服务器BCC及NAT网关,BCC的购买请按图中所示,推荐CPU为2核,内存为4G。
配置变更 概述 本文介绍如何变更实例的配置,包括实例规格及存储空间。 注意事项 变更配置前,因可用区资源动态变化,可选规格为该可用区当前支持的规格。 扩容时节点配置和磁盘大小用户可以同时选择变更。 缩容只允许变更节点配置,磁盘暂时不允许缩容。 缩容的时候会检测内存和 CPU 使用情况,如果不满足条件将会缩容失败。 节点数量变配的时候,缩容每次只能减少 1 个节点,扩容不限。
请保持集群的其他默认配置不变,点击“提交订单”。支付订单后,可在集群列表页可查看已创建的集群,当集群状态由“启动中”变为“运行中”时,集群创建成功。 登录Hue Web界面 登录控制台,选择“产品服务->MapReduce BMR”,点击已创建的集群,进入该集群详情页。 在“相关应用和工具”栏中可以查看“Hue Web UI”。
获取实例变更配置价格 请求说明 本接口用于获取已有Redis实例变更为指定配置的价格,预付费计费单位为元/月,后付费计费单位为元/分钟。 当前版本为V1。 Memcache仅支持变更分片,不支持变更规格。 请求结构 POST /v1/instance/{instanceId}/price HOST: redis.
运行wordcount程序 hadoop自带的wordcount程序在 $hadoop_dir/share/hadoop/mapreduce/ 下 $ hadoop jar hadoop-mapreduce-examples-2.7.7.jar wordcount bos://test-bucket/data/wordcount bos://test-bucket/output/wordcount
创建数据目录 用于保存 MapReduce 任务的输入文件 $ hdfs dfs -mkdir -p bos://test-bucket/data/wordcount 用于保存 MapReduce 任务的输出文件 $ hdfs dfs -mkdir bos://test-bucket/output 查看这两个新创建的目录 $ hdfs dfs -ls bos://test-bucket/ Found
目前 Proxy 和后端 server 间,针对非阻塞的请求超时默认为 2 秒,因此客户端配置的超时时间应该小于 2 秒。使用内存型 Redis 通常响应能在 10 毫秒内完成,如果遇到流量激增负载较重时,可能达到几十毫秒。因此,建议根据业务中对延迟的容忍程度,将超时时间设置为 50ms~2s 之间的数字。
点击左侧导航栏“监听设置”,选择HTTP或HTTPS协议配置7层监听。 开启定制配置开关,添加定制配置。
创建作业的操作步骤如下: 在“产品服务>MapReduce>MapReduce-作业列表”页中,点击“创建作业”,进入创建作业页。 请在创建作业页选择作业类型并配置作业类型对应的参数。以下列举了Hive作业类型对应参数配置说明: Hive作业: 作业名称:输入作业名称,长度不可超过255个字符。 bos脚本地址:BOS的脚本地址必须是一个有效的BOS路径,并且指向Hive脚本。