目前好用的VUE前端框架开源项目分享
目前好用的VUE前端框架开源项目分享Vue element admin - 老牌 admin 后台管理 求稳首选Antd Pro Vue - 背靠阿里,代码过硬,大型项目首选Vue vben admin - 宝藏后台管理 基于 Vue3 UI清新 功能扎实iView Admin - 老牌 admin
QT通过parentWidget()实现多界面跳转及关闭(切换界面和返回前一界面)
QT通过parentWidget()实现多界面跳转及关闭(切换界面和返回前一界面)
实验三 实验四:OpenGL的交互绘制
实验三 实验四:OpenGL的交互绘制
浏览器Performance性能监控使用详解
1.Performance2.测试性能操作流程3.Performance检测结果详解区域1:controls【控制栏】区域2:overview【网页性能总览图】区域3:火焰图【各项指标的堆叠追踪可视化】区域4:统计汇总【以图表的形式汇总数据】4 其他监控性能小工具4.1 Performance mo
Rabbitmq消息队列详解
Rabbitmq消息队列详解
Hive Lateral View + explode 详解
hive中的函数分为3类,UDF函数、UDAF函数、UDTF函数UDF:一进一出 UDAF:聚集函数,多进一出,类似于:count/max/min UDTF:一进多出,如explore()、posexplode(),UDTF函数的时候只允许一个字段百度explode()时,经常会出现lateral
linux 远程拷贝命令
一、scp命令 --远程拷贝文件Linux scp命令用于linux之间进行复制文件scp 是secure copy 的缩写,scp 是基于ssh登录来进行安全拷贝补充知识:ssh进行登陆ssh 用户名@IP地址scp优势:当服务器的磁盘变为read only system时,可以通过scp将文件移
Hive与HBase之间的区别和联系
首先要知道Hive和HBase两者的区别,我们必须要知道两者的作用和在大数据中扮演的角色概念Hive1.Hive是hadoop数据仓库管理工具,严格来说,不是数据库,本身是不存储数据和处理数据的,其依赖于HDFS存储数据,依赖于MapReducer进行数据处理。2.Hive的优点是学习成本低,可以通
Datax与Datax-Web安装部署
详细记录了datax与datax-web安装部署过程。
hadoop格式化时报错
Re-format filesystem in Storage Directory root= /data/hadoop/hdfs/name; location= null ? (Y or N)
docker搭建hadoop和hive集群
Dockfile文件的内容解释:基于centos镜像,生成带有spenssh-server、openssh-clients的镜像,用户为root,密码为a123456,镜像维护者(作者)为hadoop。因为集群的服务器之间需要通信,而且每次虚拟机给集群分配的ip地址都不一样,所以需要创建网桥,给每台
hadoop3.3.4集群安装部署
Hadoop集群安装部署
Spark项目实战-数据清洗
SparkSql单次处理Web日志,分析用户留存率
Spring Boot整合RabbitMq 重写confirm不生效
Spring Boot整合RabbitMq 重写confirm不生效
【Kafka】Kafka在多Partition多实例情况下,消息的消费和生产情况验证
通过实验验证了Kafka在多Partition多实例情况下,消息的消费和生产情况:(1)一个partition最多被一个实例(同一消费组)消费。(2)一个实例可以同时消费多个partition。(3)当通过key将topic消息写入Kafka时,相同key的消息保证能写入同一个partition。
查es大于10000条数据-滚动查询(scroll)
查es大于10000条数据-滚动查询(scroll),总所周知,es一般查询只支持最多查询出前1w条数据,很难受。想要一次性查询出你想要的数据,一些大数据的场景下,我们需要用到ElasicSearch的两种查询方式:==深度分页==或者==滚动查询==,我们今天使用的是滚动查询方式,因为需要一批次加
python 安装pyspark_Python学习—PySpark环境搭建
PySpark环境搭建
Nacos 配置中心使用详解
nacos config配置中心使用详解
03-Zookeeper典型使用场景实战
幽灵结点是指当客户端创建节点成功后,没有收到服务端的回应,也就是客户端不知道自己已经成功创建了节点。这样就又会尝试创建新的结点,那之前创建的结点就是幽灵结点了。解决:Zookeeper规避的方式就是创建的时候给前面加一个uuid,客户端去创建节点的时候会先按这个uuid找。有的话就不会再创建。
idea连接kerberos认证的hive
其实用dbeaver连接hive就可以了。但是呢,idea也有这个功能,本着研究下的想法就试试。结果最后成功了 最后记录下。参考文章。感觉不太行里面提到了两个解决办法,个人只习惯用第一个。新增一个hive数据源url填写AuthMech=1;vm option填写。