统计每个设备每分钟报警次数。
用户拥有1千多台设备,分布在不同城市的多个厂区,每个设备上的传感器大概每5秒采集并上传数据到 物联网核心套件(IoT Core)或 物接入(IoT Hub) 的 MQTT 当中作为第一个 source,一些维度信息存放在 云数据库(RDS)作为第二个 source,在我们 BSC 中创建 SPARK_STREAM/SQL 类型的作业用于每分钟报警次数的统计,并实时将处理结果推送到 云数据库(RDS),最终在 数据可视化(Sugar BI)的可视化报表中展示。
用户设备 → IoT Hub → |
|→ BSC → RDS → Sugar BIRDS → |
一个完整的 Spark SQL 作业由 source 表、sink 表和 DML 语句构成。
```SQL label=SPARK
CREATE TABLE source_mqtt_table(
sensorId STRING,
time STRING,
status INTEGER
) WITH(
type = 'MQTT',
brokerUrl = 'tcp://duig1nr.mqtt.iot.bj.baidubce.com:1883', --必填
topic = 'sensor', --必填
username = 'iotdemo', --必填
password = 'iotdemo', --必填
encode = 'JSON',
connectionTimeout = '30', --非必填,访问超时设置,单位:s
keepAliveInterval = '60', --非必填,规定时间段内不活动时连接会被断开,单位:s
maxBatchMessageNum = 'Int.Max', --非必填,每个batch最大数据条数
maxBatchMessageSize = 'Int.Max' --非必填,每个batch最大消息字节数
);
```
```SQL label=SPARK
CREATE TABLE source_rds_table(
sensorId STRING,
sensorType STRING,
deviceId STRING,
useTime INTEGER
) WITH(
type = 'RDS',
user = 'rdsdemo', --必填,数据库用户名
password = 'rdsdemo', --必填,数据库访问密码
url = 'jdbc:mysql://mysql55.rdsmwi1zrjn5ww8.rds.bd.baidubce.com:3306/bsc_rds_test?useUnicode=true&characterEncoding=UTF8', --必填,jdbc访问RDS的url
dbTable = 'test' --必填,数据表名称
);
```
```SQL label=SPARK
CREATE TABLE sink_rds_table(
deviceId STRING,
time TIMESTAMP,
nums INTEGER
) WITH(
type = 'RDS',
user = 'iotdemo', --必填,数据库用户名
password = 'iotdemo11', --必填,数据库访问密码
url = 'jdbc:mysql://mysql55.rdsmwi1zrjn5ww8.rds.bd.baidubce.com:3306/bsc_rds? useUnicode=true&characterEncoding=UTF8', --必填,jdbc访问RDS的url
dbTable = 'iotdemo' --必填,数据表名称
);
```
统计这一分钟内每个设备的报警次数。由于使用的是滚动窗口,也就意味着数据将在每分钟结束时候产出一份并写入到RDS。
~~~codeset
SQL label=SPARK
INSERT INTO
sink_rds_table outputmode append
SELECT
source_rds_table.deviceId,
CAST(FROM_UNIXTIME(CAST(source_mqtt_table.time AS LONG)) AS TIMESTAMP) AS time,
count(*) AS nums
FROM
source_mqtt_table INNER JOIN source_rds_table ON source_mqtt_table.sensorId = source_rds_table.sensorId
WHERE
source_mqtt_table.status = 1
GROUP BY
window(time, "1 minute"),
deviceId
~~~