Git(4)-- 如何退出 git log 和 git commit 状态
文章目录一、`git log` 的退出二、`git commit` 的退出1 、保存并退出:2 、不保存退出:一、git log 的退出当commit(提交)比较多,git log 的内容在一页显示不完整,满屏放不下的时候,就会显示冒号。回车(往下滚一行)、空格(往下滚一页)可以继续查看剩余内容。退
Instant-ngp Windows11安装、使用记录
Instant-NeRF 记录
【Git】实现Gitee和Github仓库的同步操作
实现gitee和github的同步操作
git入门:git常用命令 | 代码的拉取、修改、提交、推送命令及原理
在GitHub的仓库上,点击 Code,复制 SSH下面的这段地址链接复制一下。然后在我Linux本地,使用下面命令,可以克隆该仓库的项目到本地。首先我创建一个目录,进入到该目录下,可以看到现在是空的。然后使用该命令:这里我已经有GitHub仓库的内容了,所显示already exists进入到克隆
git reset HEAD 用法
【git技巧】参考博客:https://blog.csdn.net/crjmail/article/details/100011063git add 时,误添加不想提交的文件,如何解决?误add所有文件git reset HEAD将所有此次修改的 file 退回到工作区误add单个文件,只撤销部分文
Kafka消息写入流程
Kafka源码分析 Producer写入消息流程与源码分析
hive学习(仅供参考)
hive安装
RabbitMQ远程访问
guest这个用户只能使用localhost登录,而不能使用IP地址登录:远程无法连接可以建立一个新的用户,用于远程链接。
大数据Kylin(四):Kylin创建cube
请注意,如果没有字典编码,cube 的大小可能会非常大。虽然衍生维度具有很大的吸引力,但是并不代表所有维度表上的维度都可以编程衍生维度,如果从维度表主键到某个维度表维度所需要的聚合工作量很大,例如:统计每年E订单金额M,基本上需要365:1的聚合量,那么可以将E设置成为一个基本维度,而不是一个衍生维
数据仓库相关术语
指一种扩展的星形图。退化维度,就是那些看起来像是事实表的一个维度关键字,但实际上并没有对应的维度表,就是维度属性存储到事实表中,这种存储到事实表中的维度列被称为退化维度。实体表就是一个实际对象的表,实体表放的数据一定是一条条客观存在的事物数据,比如说各种商品,它就是客观存在的,所以可以将其设计一个实
phoenix的安装与使用(Hbase的客户端)
一、phoenix的简介与特点1.1 简介2.1 特点phoenix虽然是构建在hbase层之上,但是由于以下特点,不会影响查询性能,反而会提高性能phoenix还提供了一些增强优化性能phoenix不能做的事情二、phoenix安装2.1 环境需求:2.2 搭建步骤1)上传,解压,更名,配置环境变
RabbitMQ如何防止消息丢失及重复消费
RabbitMQ如何防止消息丢失及重复消费
Kafka 数据重复怎么办?(案例)
通常,消息消费时候都会设置一定重试次数来避免网络波动造成的影响,同时带来副作用是可能出现消息重复。整理下消息重复的几个场景:先来了解下消息的三种投递语义:了解了这三种语义,再来看如何解决消息重复,即如何实现精准一次,可分为三种方法:1) 幂等性 幂等性使用示例:在生产端添加对应配置即可 设置幂等,启
Hbase 常用 shell 操作:增删改查(create、put、delete、scan)
Hbase 常用 shell 操作:增删改查(create、scan、put、get)
软考中级之数据库系统(重点)
数据库是根据业务的需求,看哪项数据需要记录的一个存储系统,但是当数据存储到一定容量的时候,那数据库的效率就会下降,而这时候需要如何解决呢,最简单的办法就是删掉一部分没有用的历史数据,但是这是在某种层面上是浪费数据的,所以我们需要找个地方把他存起来
HBase 集群部署与启动
HBase 集群部署与启动
RabbitMQ之交换机
一、RabbitMQ交换机二、RabbitMQ交换机实例讲解
InfluxDB的查询优化
根据官网整理的Influx脚本的查询优化问题
解决Hive启动后报错FAILED:HiveException java.lang.RuntimeException
解决Hive启动后报错FAILED:HiveException java.lang.RuntimeException和MetaException(message:Required table missing : “DBS” in Catalog “” Schema “”. DataNucleus r
Hadoop三大框架之MapReduce工作流程
Hadoop三大框架之MapReduce工作流程