爱因斯坦求和约定 含代码einsum
爱因斯坦求和约定(Einstein summation convention)是一种标记的约定, 又称为爱因斯坦标记法(Einstein notation), 可以基于一些约定简写格式表示多维线性代数数组操作,让表达式更加简洁明了。
Anconda虚拟环境创建及pytorch的安装步骤
Anconda虚拟环境创建及pytorch的安装步骤,包括conda install pytorch,torchvision,torchaudio,cudatoolkit。
在anaconda下安装pytorch + python3.8+GPU/CPU版本 详细教程
在Anaconda下用命令安装pytorch,手把手教会。按照安装CPU版本和GPU两个版本进行分类,一般运行程序建议使用CPU版本的,安装更方便。注意!如果切换镜像后当出现下载不了的情况,就先切换默认源,然后再修改另一个可以使用的conda源(一定要先恢复默认,再换另一个!!!)......
Pytorch中的广播机制(Broadcast)
如果一个Pytorch运算支持广播的话,那么就意味着传给这个运算的参数会被自动扩张成相同的size,在不复制数据的情况下就能进行运算,整个过程可以做到避免无用的复制,达到更高效的运算。广播机制实际上是在运算过程中,去处理两个形状不同向量的一种手段。pytorch中的广播机制和numpy中的广播机制一
在运行yolo5的v5.0版本detect.py时遇到的一些错误
跟着小土堆的视频教学自己遇到的一些问题。
安装Pytorch-gpu版本(第一次安装 或 已经安装Pytorch-cpu版本后)
由于已经安装了cpu版本了,如果再在该环境下安装gpu版本会造成环境污染.因此,再安装gpu版本时,需要再新建一个虚拟环境才能安装成功。然后去官网下载所适配的版本。 安装完cuda和cudnn后,开始安装pytorch的gpu版本。1.安装cude首先查看windows电脑之前是否成功安装了CUDA
cuda版本,pytorch(GPU)版本的选择和下载
cuda版本、cuda(cudatoolkit)下载配置,runtime API、driver API,pytorch(GPU)与cuda对应、版本选择、下载配置,pip、conda
没有独立显卡没有NVIDIA 如何安装pytorch
算不上安装教程的安装思路
pytorch的下载解决方案(下载出错、下载过慢问题)
第一次下载pytorch往往会出现一些问题,比如不知道如何下载,或者下载过慢等问题,由此本文给出以下解决放方案,并给出图示解决。
显卡、显卡驱动版本、cuda版本和Pytorch相互之间的依赖关系
探讨如何根据显卡和显卡驱动版本去选择相应的CUDA和Pytorch。
nn.Upsample
写在前面:在PyTorch中有两种上采样/下采样的方法,一种是Upsample,另一种是interpolate这两个函数的使用方法略有差异,这里仅介绍UpsampleUpsampletorch.nn.Upsample(size=None, scale_factor=None, mode='neare
pytorch使用GPU
查看GPU状态!nvidia-smi一个GPU一共16130M显存,0号GPU已使用3446M显存,一般GPU的利用率低于50%,往往这个模型可能有问题。本机CUDA版本,在安装驱动时应该注意选择对应版本的驱动。指定GPUimport torchfrom torch import nntorch.d
TransUnet官方代码测试自己的数据集(已训练完毕)
首先参考上一篇的训练过程,这是测试过程,需要用到训练过程的权重。1. TransUnet训练完毕之后,会生成权重文件(默认保存位置如下),snapshot_path为保存权重的路径。权重文件2. 修改test.py文件调整数据集路径。训练和测试时的图像设置相同大小。配置数据集相关信息。手动添加权重。
【Pytorch深度学习实战】(11)变分自动编码器(VAE)
而变分自编码器便是用“取值的概率分布”代替原先的单值来描述对特征的观察的模型,如下图的右边部分所示,经过变分自编码器的编码,每张图片的微笑特征不再是自编码器中的单值而是一个概率分布。另一个根据生成的隐变量变分概率分布,还原生成原始数据的近似概率分布,称为生成网络。在上面的模型中,经过反复训练,我们的
度量学习——总结
传统方法User guide: contents — metric-learn 0.6.2 documentation深度学习基于深度学习的度量学习方法大都由两个部分组成:特征提取模块和距离度量模块。距离度量模块的任务是使同一类样本间的距离更靠近,而不同类样本间的距离更远离。这一模块更多的实现方法是
【深度强化学习】(7) SAC 模型解析,附Pytorch完整代码
Deepmind 提出的 SAC (Soft Actor Critic) 算法是一种基于最大熵的无模型的深度强化学习算法,适合于真实世界的机器人学习技能。SAC 算法的效率非常高,它解决了离散动作空间和连续性动作空间的强化学习问题。SAC 算法在以最大化未来累积奖励的基础上引入了最大熵的概念,加入熵
推荐系统笔记(一):BPR Loss个性化推荐
在常规的推荐系统统计算法中,我们通常是通过现有数据集去计算获取用户对所有商品的得分,但大多情况下我们只需要关系极少数的商品的优先级,而不是所有的商品的排序,并且一些基于矩阵分解和KNN的推荐算法,是没有对排序方法进行优化的,而BPR损失函数能够满足我们的需求。(1)BPR的出发点是优化用户对商品的偏
Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)
Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)
【记录】torch.nn.CrossEntropyLoss报错及解决
不然softmax无法计算,及model的output channel = class number。假设传入torch.nn.CrossEntropyLoss的参数为。根据官网文档,如果直接使用class进行分类,pred的维度应该是。注意在网络输出的channel中加入。,label的维度应该是
深度学习之concatenate和elementwise操作(二)
一、深度学习里面的element-wise特征相乘和相加到底有什么区别?很多深度学习模型在设计时,中间特征在分支处理后,然后可能会采用element-wise相乘或相加,不知道这个乘和加的细微区别?答:相加的两个tensor通常都是具有特征意义的tensor,相乘的话,一般来说,其中一个tensor