机器学习基础 HMM模型(隐马尔科夫)
在机器学习算法中,马尔可夫链(Markov chain)是个很重要的概念。马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(俄语:Андрей Андреевич Марков)得名。马尔科夫链即为状
STK12与Python联合仿真(一):环境搭建
STK仿真python接口,安装与测试
[CV学习笔记]tensorrt加速篇之yolov5seg 实例分割
yolov5 实例分割
详细介绍BERT模型
BERT通过在所有层中联合调节左右语境,从未标记的文本中预训练深度双向表征。因此,预训练的BERT模型可以通过一个额外的输出层进行微调,以创建最先进的模型,用于更广泛的任务,而无需对特定任务的架构进行大量修改。
震惊!火爆全网的ChatGPT背后使用的数据库居然是……
ChatGPT承认了自己背后使用的数据库是Cassandra。
计算机视觉 (Computer Vision) 领域顶级会议归纳
本文具体介绍几种计算机视觉顶级会议,包括计算机视觉领域三大顶尖国际会议 : CVPR、ICCV、ECCV ;还有其他一些 著名 会议: WACV、NIPS、ICLR、AAAI、ICML、IJCAI ;汇总信息在最后面,可以直接点击查看 ;...............
YOLOv5 PyQt5(一起制作YOLOv5的GUI界面)
视频地址:[PyQt \YOLOv5\GUI]利用PyQt制作的YOLOv5GUI界面_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1ii4y1C75h#reply105653862912自从上一个视频在B站发布之后,很多小伙伴想要我把项目代码来源,考
VOC/YOLO/COCO数据集格式转换及LabelImg/Labelme/精灵标注助手Colabeler标注工具介绍
VOC/YOLO/COCO数据集格式转换及LabelImg/Labelme/精灵标注助手Colabeler标注工具介绍
pytorch使用GPU
查看GPU状态!nvidia-smi一个GPU一共16130M显存,0号GPU已使用3446M显存,一般GPU的利用率低于50%,往往这个模型可能有问题。本机CUDA版本,在安装驱动时应该注意选择对应版本的驱动。指定GPUimport torchfrom torch import nntorch.d
独热(One-Hot)编码简述
独热编码即 One-Hot 编码,又称一位有效编码。其方法是使用 N 位状态寄存器来对 N 个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。One-Hot编码是分类变量作为二进制向量的表示。这首先要求将分类值映射到整数值。然后,每个整数值被表示为二进制向量,除了整数的
TransUnet官方代码测试自己的数据集(已训练完毕)
首先参考上一篇的训练过程,这是测试过程,需要用到训练过程的权重。1. TransUnet训练完毕之后,会生成权重文件(默认保存位置如下),snapshot_path为保存权重的路径。权重文件2. 修改test.py文件调整数据集路径。训练和测试时的图像设置相同大小。配置数据集相关信息。手动添加权重。
yoloV5环境搭建与运行(windows+pytorch+kaggle)
环境:Windows+anaconda+pytorch云端GPU:kaggle。
R实战 | 置换多元方差分析(以PCoA的PERMANOVA分析为例)
adonis-cover置换多元方差分析(Permutational multivariate analysis of variance,PERMANOVA),又称非参数多因素方差分析(nonparametric multivariate analysis of variance)、或者ADONIS
深度学习中的GPU与CUDA
显卡,也称之为 GPU。GPU 的全称是 Graphics Processing Unit(图形处理单元)。它出现的目的一目了然,就是用来显示图像的。没错,就是用来在电脑显示器上显示图像的。大家其实只要知道我们的电脑都有显卡这一点就行了。但我们在深度学习中说的显卡(GPU)一般特指是英伟达(NVID
A5000 VS 3090,谁更强?
3090的单精度性能高于A5000,但在半精度和混合精度训练中,A5000的性价比又不输3090,甚至更为突出。
利用催眠技巧绕开 OpenAI 的内容政策限制(仅供研究使用)
通过这种技巧可以诱导ChatGPT生成任意文本,绕过OpenAI的内容限制。
【torch.nn.Parameter 】参数相关的介绍和使用
是继承自的子类,其主要作用是作为中的可训练参数使用。它与的区别就是会自动被认为是的可训练参数,即加入到这个迭代器中去。具体格式如下:其中 为待传入的 , 默认为 True。事实上, 中提供的模块中的参数均是 类,例如:参数构造可以看作是一个类型转换函数,将一个不可训练的类型 转换成可以训练的类
【机器学习】线性回归(超详细)
机器学习之线性回归,看懂这一篇就够了(超详细)。
【Pytorch深度学习实战】(11)变分自动编码器(VAE)
而变分自编码器便是用“取值的概率分布”代替原先的单值来描述对特征的观察的模型,如下图的右边部分所示,经过变分自编码器的编码,每张图片的微笑特征不再是自编码器中的单值而是一个概率分布。另一个根据生成的隐变量变分概率分布,还原生成原始数据的近似概率分布,称为生成网络。在上面的模型中,经过反复训练,我们的