【随笔】我迟到的2022年度总结:突破零粉丝,1个月涨粉1000+,2023年目标3万+
我迟到的2022年度总结,突破零粉丝,1个月涨粉1000,2023年目标3万+
rabbitMq设置多线程并设置线程池消费处理
rabbitMq使用多线程并设置线程池消费处理
大数据(5r)ClickHouse客户端
命令行客户端ClickHouse服务的版本号查询clickhouse-client下载方法Python连ClickHouseJava连接ClickHouse
数仓开发之DIM层
(1)定义类。
大数据(9h)FlinkSQL之Lookup Join
ttlFOR SYSTEM_TIME AS OFProcessing Time Temporal Joinlookup joinlookup cacheFlink查询缓存lookup.cache.max-rowslookup.cache.ttl
SpringCloud中的注册中心
注册中心
Rabbitmq之ConfirmCallback与ReturnCallback使用
在工作中使用Rabbitmq传输数据时,可能会因为数据、网络等问题,导致数据发送或者接收失败;如果对此类问题没有做好处理,就会存在丢失数据的问题,为此,引入了与,来保证系统能够做到更好的数据监听、以及消费失败的数据做好相应的补偿;与也被称为Rabbitmq的消息确认机制;首先,下面为消息从生产者 —
Python+大数据-数据分析与处理(六)-综合案例
Python+大数据-数据分析与处理(六)-综合案例
【大数据入门核心技术-Spark】(七)执行Spark任务的两种方式:spark-submit和spark-shell
引入:spark-shell交互式编程确实很方便我们进行学习测试,但是在实际中我们一般是使用IDEA开发Spark应用程序打成jar包交给Spark集群/YARN去执行,所以我们还得学习一个spark-submit命令用来帮我们提交jar包给spark集群/YARN。引入:之前我们使用提交任务都是使
kafka操作命令-生产者基本操作
kafka操作命令-生产者基本操作
elasticsearch安装
elasticsearch安装
kafka单机安装
kafka安装准备jdk-8u131-linux-x64.tar.gzkafka_2.13-3.2.0.tgzapache-zookeeper-3.6.1-bin.tar.gzkafka-eagle-bin-2.1.0.tar.gzzktools.zipcanal.deployer-1.1.4.ta
MATLAB实战应用-【数据处理篇】数据清洗(从方法论到实战应用)
数据清洗也叫数据清理,是指从数据库或数据表中更正和删除不准确数据记录的过程。广义地说,数据清洗包括识别和替换不完整、不准确、不相关或有问题的数据和记录。数据清洗从名字上也看的出就是把“脏”的“洗掉”,指发现并纠正数据文件中可识别的错误的最后一道程序,包括检查数据一致性,处理无效值和缺失值等。因为数据
rabbitmq报错解决方式
rabbitmq报错,解决方式
ELK之Elasticsearch常用curl命令
一、前言:其实官网上都有相关的kibana API按照curl的形式赋值出来就行了。举个例子:如下对比查看索引的kibana指令与curl指令。#kibana指令,查看es集群下的索引GET /_cat/indices?v#如下为复制出来的对应curl指令#注:对于使用者来说记得把ip:port更换
Elasticsearch入门 - Mac上Elasticsearch和Kibana的安装运行与简单使用
Elasticsearch是一个基于Apache Lucene的搜索服务器,适用于所有类型的数据,包括文本、数字、地理空间、结构化和非结构化数据,是是ELK的一个组成部分(ELK代表的是:E就是ElasticSearch,L就是Logstach,K就是kibana)。这里的模糊查询跟关系型数据库的模
基于时空序列模型ConvLstm的气象预测
一、数据获取去国家气象科学数据中心下载雷达拼图 可以手动收集也可以写爬虫程序收集 手动收集就更改日期和时间中国气象数据网 - Online Data二、数据预处理得到这些PNG图片后,首先做处理,只关注东南部分,其他的都扔掉(即从图中截取一个固定的长方形,就差不多是下面这个部分。保证截取的图中不包括
新冠疫情数据采集,分析及其可视化
中国疫情地图,新冠疫情数据可视化及分析
大数据编程期末大作业
学校大数据编程期末大作业(详细答案及解析),答案仅供参考。
Kafka系列之:Kafka生产者和消费者
Kafka系列之:Kafka生产者和消费者