- 博客(195)
- 收藏
- 关注
原创 工业—使用Flink处理Kafka中的数据_EnvironmentData2
使用Flink消费Kafka中EnvironmentData主题的数据,监控各环境检测设备数据,当温度(Temperature字段)持续3分钟高于38度时记录为预警数据。将结果存入HBase中的gyflinkresult:EnvTemperatureMonitor,key值为“env_temperature_monitor”,rowkey“设备id-系统 时间”(如:123-2023-01-01 12:06:06.001)。注:时间语义使用Processing Time。
2024-12-05 14:40:11
548
原创 工业—使用Flink处理Kafka中的数据_EnvironmentData1
使用Flink消费Kafka中EnvironmentData主题的数据,监控各环境检测设备数据,当温度(Temperature字段)持续3分钟高于38度时记录为预警数据。将结果存入Redis中,key值为“env_temperature_monitor”,value值为“设备id-预警信息生成时间,预警信息”(预警信息生成时间格 式:yyyy-MM-dd HH:mm:ss)。使用redis cli以HGETALL key方式获取env_temperature_monitor 值。
2024-12-05 14:25:19
394
原创 工业—使用Flink处理Kafka中的数据_ChangeRecord4
使用Flink消费Kafka中ChangeRecord主题的数据,实时统计每个设备从其他状态转变为“运行” 状态的总次数,将结果存入MySQL数据库shtd_industrychange_state_other_to_run_agg表中(表结 构如下)。请将任务启动命令复制粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序 号下,启动1分钟后根据change_machine_id降序查询change_state_other_to_run_agg表。注:时间语义使用Processi
2024-12-05 12:02:01
941
原创 工业—使用Flink处理Kafka中的数据_ChangeRecord3
使用Flink消费Kafka中ChangeRecord主题的数据,统计每3分钟各设备状态为“预警”且未处理的数据总数,将结果存入MySQL数据库shtd_industry的threemin_warning_state_agg表中(追加写入,表结构如下)。请将任务启动命令复制粘贴至客户端桌面【Release\任务D提交结果.docx】中对应的任务序号下,启动且数据进入后按照设备id升序排序查询threemin_warning_state_agg。
2024-12-05 11:51:39
695
原创 工业—使用Flink处理Kafka中的数据_ChangeRecord2
使用Flink消费Kafka中ChangeRecord主题的数据,每隔1分钟输出最近3分钟的预警次数最多的 设备,将结果存入Redis中,key值为“warning_last3min_everymin_out”,value值为“窗口结束时间,设备id”(窗口结束时间格式:yyyy-MM-dd HH:mm:ss)。使用redis cli以HGETALL key方式获取 warning_last3min_everymin_out值。注:时间语义使用Processing Time。
2024-12-04 17:28:48
437
原创 工业—使用Flink处理Kafka中的数据_ChangeRecord1
使用Flink消费Kafka中ChangeRecord主题的数据,当某设备30秒状态连续为“预警”,输出预警 信息。当前预警信息输出后,最近30秒不再重复预警(即如果连续1分钟状态都为“预警”只输出两次预警 信息),将结果存入Redis中,key值为“warning30sMachine”,value值为“设备id,预警信息”。使用 redis cli以HGETALL key方式获取warning30sMachine值。注:时间使用change_start_time字段,忽略数据中的change_end_t
2024-12-04 16:06:01
376
原创 工业—使用Flink处理Kafka中的数据_ProduceRecord2
使用Flink消费Kafka中ProduceRecord主题的数据,统计在已经检验的产品中,各设备每5分钟 生产产品总数,将结果存入HBase中的gyflinkresult:Produce5minAgg表,rowkey“设备id-系统时间” (如:123-2023-01-01 12:06:06.001)注:ProduceRecord主题,每生产一个产品产生一条数据; change_handle_state字段为1代表已经检验,0代表为检验; 时间语义使用Processing Time。
2024-12-04 15:44:53
796
原创 工业—使用Flink处理Kafka中的数据_ProduceRecord1
使用Flink消费Kafka中ProduceRecord主题的数据,统计在已经检验的产品中,各设备每5分钟 生产产品总数,将结果存入Redis中,key值为“totalproduce”,value值为“设备id,最近五分钟生产总数”。使用redis cli以HGETALL key方式获取totalproduce值。注:ProduceRecord主题,生产一个产品产生一条数据; change_handle_state字段为1代表已经检验,0代表未检验; 时间语义使用Processing Time。
2024-12-04 15:33:24
654
原创 工业-实时数据采集
在主节点使用Flume采集/data_log目录下实时日志文件中的数据,将数据存入到Kafka的Topic 中(Topic名称分别为ChangeRecord、ProduceRecord和EnvironmentData,分区数为4),Flume 采集ChangeRecord。
2024-12-04 15:08:55
470
原创 springboot3项目练习详细步骤(第四部分:文件上传、登录优化、多环境开发)
springboot3项目练习详细步骤(第四部分:文件上传、登录优化、多环境开发)
2024-05-20 15:47:44
674
原创 Flink-时间窗口
在流数据处理应用中,一个很重要、也很常见的操作就是窗口计算。所谓的“窗口”,一 般就是划定的一段时间范围,也就是“时间窗”;对在这范围内的数据进行处理,就是所谓的 窗口计算。所以窗口和时间往往是分不开的。
2023-11-29 23:01:05
495
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人