【Pytorch项目实战】之生成式模型:DeepDream、风格迁移、图像修复
现有一个猫狗分类网络模型,当输入一张云的图像进行判断时,假设这朵云比较像狗,则机器提取的特征也会偏向于狗的特征。假设特征对应的概率分别为:[狗,猫] = [x1,x2] = [0.6,0.4],那么采用L2范数(L2 = x1 ^ 2 + x2 ^ 2)可以很好达到放大特征的效果,最终图像越来越像狗
用yolov5图像分割做人物抠像
用yolov5的6.2版本新推出的图像分割模型来做人物抠像,速度很快效果也不错!
对比学习 ——simsiam 代码解析。:
2022李宏毅作业HW3 是食物的分类 ,但是我怎么尝试 再监督学习的模式下 准确率都达不到百分之60 .。半监督也感觉效果不明显。 所以 这次就想着对比学习能不能用来解决这个问题呢 。?看了一圈,感觉simsiam是对比学习里比较简单的一种方法,好像效果也不错。 所以来看一看这个东西是怎么玩的。
Diffusion Models扩散模型简单讲解与简单实现
Diffusion Model
Transfomer编码器中自注意力机制、前馈网络层、叠加和归一组件等讲解(图文解释)
Transfomer编码器中自注意力机制、前馈网络层、叠加和归一组件等讲解(图文解释)
基于chatGPT设计卷积神经网络
本文主要介绍基于chatGPT,设计一个针对骁龙855芯片设计的友好型神经网络。提问->跑通总共花了5min左右,最终得到的网络在Cifar100数据集上与ResNet18的精度对比如下。此外,GPT生成的模型训练速度更快,ResNet18才训练170个epoch,CNN-GPT已经完整地训练完了。
模型训练步骤
①准备数据集,一个训练数据集,一个测试数据集。因为CIFAR10数据集是PIL,要转为tensor数据类型。每次训练完进行一轮测试,看测试集的损失或者正确率评估模型是否训练好。返回64行数据,每一行10个数据,代表每一张图片的概率。利用DataLoader加载数据集。测试过程模型不需要调优,利用现有
深度学习中的激活函数
深度学习中常用的激活函数优缺点分析:sigmoid、tanh、ReLU...
【深度学习】学习率预热和学习率衰减 (learning rate warmup & decay)
当然,这种使用warmup和decay的learning rate schedule大多是在bert这种预训练的大模型的微调应用中遇见的。如果是做自然语言处理相关任务的,transformers已经封装了好几个带有warmup 和 decay的lr schedule。如果不是做研究的话,这些已经封装
基于yolov5框架实现人流统计(目标检测算法、目标追踪算法以及越界识别功能)+手机获取统计人数
基于yolov5框架实现人流统计(主要AI算法包括:目标检测算法、目标追踪算法以及越界识别功能)+手机获取统计人数(喵提醒)
深度学习模型精度fp16和fp32
深度学习模型精度fp16和fp32
YOLOV5-断点训练/继续训练
yolov5-断点训练/继续训练
Pytorch-Lightning中的训练器—Trainer
Pytorch-Lightning中训练器Trainer用法
GPT-4 和ChatGPT API的定价分析
在ChatGPT API和GPT-4 API之间的选择取决于对项目的特定需求。预期的应用所需的精度涉及的财务问题对未来发展的适应性前几天的新闻,ChatGPT API的价格比text-davinci-003低10倍(成本低90%),所以ChatGPT API低成本较低也许可以让我们以更低的成本测试大
基于骨骼的动作识别:PoseConv3D
基于骨骼的动作识别:PoseConv3D
Yolov5 模型的原理及环境配置
本文首先介绍了yolov5 是什么,有什么用,以及yolo 模型的原理。再讲解了yolov5 模型的下载,及环境配置的一些问题。
resnet(4)------全连接层与softmax
如果不用指数函数的话,其实仓鼠得分和白面包的得分是差不多的,但指数增长的特性就是,横轴变化很小的量,纵轴就会有很大的变化。所以,从1.9变化到2.1,经过指数的运算,两者的差距立马被的拉大了。这个算法又是如何将神经网络推理的数值,转换为一个类别的分类的呢?的关系,我们知道卷积是对图像的局部区域进行连
yolov7:win10下的安装配置以及训练自己的数据集(从VOC转换为YOLO)
Win10下yolov7的安装配置以及训练自己的数据集(从VOC转换为YOLO)
Stable Diffusion WebUI安装instruct-pix2pix插件
instruct-pix2pix作者团队提出了一种通过人类自然语言指令编辑图像的方法。他们的模型能够接受一张图像和相应的文字指令(也就是prompt),根据指令来编辑图像。作者团队使用两个预训练模型(一个是语言模型GPT-3, 另一个是文本到图像模型Stable Diffusion) 生成大量编辑图
利用pytorch长短期记忆网络LSTM实现股票预测分析
长短时记忆网络(Long Short Term Memory Network, LSTM),是一种改进之后的循环神经网络,可以解决RNN无法处理长距离的依赖的问题,目前比较流行。LSTM主要就是加入了三个门控:第一个开关遗忘门:负责控制继续保存长期状态c;第二个开关输入门:负责控制把即时状态输入到长