anaconda3安装教程及更改默认环境保存路径

anaconda安装详细教程及更改默认环境保存路径

【文本摘要(2)】pytorch之Seq2Seq

本代码已跑通,若有问题欢迎留言,一起交流探讨注释部分结合之前改废的代码加的,方便自己理解如有理解不对的地方,还请过路的大佬们指点一二

基于深度学习的钢板表面缺陷识别技术介绍与实践

钢板表面缺陷检测技术,深度学习,resnet

ResNet18实现——MNIST手写数字识别(突破0.995)

简单的CNN实现——MNIST手写数字识别该部分首先对我前面的工作进行了改进,然后以此为基础构建ResNet18去实现MNIST手写数字识别。1.利用nn.Sequential()自定义块结构,增加可读性和方便修改、复用。2.增加 nn.BatchNorm2d() 加快收敛。3.改用nn.Flatt

合合TextIn团队发布 - 文档图像多模态大模型技术发展、探索与应用

合合信息TextIn(Text Intelligence)团队在2023年12月31日参与了中国图象图形学学会青年科学家会议 - 垂直领域大模型论坛。在会议上,丁凯博士分享了文档图像大模型的思考与探索,完整阐述了多模态大模型在文档图像领域的发展与探索,并表达了对未来发展路径和应用场景潜力的看法。

【2023 · CANN训练营第二季】昇腾AI入门课(Pytorch)

课程先介绍了全站全场景的框架(如图)昇腾计算语言接口AscendCL高度抽象:算子编译、加载、执行的API归一,相比每个算子一个API,AscendCL大幅减少API数量,降低复杂度。向后兼容:AscendCL具备向后兼容,确保软件升级后,基于旧版本编译的程序依然可以在新版本上运行。零感知芯片:一套

医学图像去噪 -----EDCNN

本文提出了一种新的基于稠密连通卷积结构的去噪模型,即基于边缘增强的稠密连通网络(EDCNN)。 通过设计的基于可训练Sobel算子的边缘增强模块,该方法能够自适应地获取输入图像更丰富的边缘信息。 此外,我们还引入了复合损失函数,它是MSE损失和多尺度感知损失的加权融合。

使用pytorch构建图卷积网络预测化学分子性质

在本文中,我们将通过化学的视角探索图卷积网络,我们将尝试将网络的特征与自然科学中的传统模型进行比较,并思考为什么它的工作效果要比传统的方法好。

【记录-如何安装halcon软件】

记录-如何安装halcon软件

毕业设计-基于机器视觉的手势识别系统-OPENCV

毕业设计-基于机器视觉的手势识别系统-OPENCV:人机的交互活动最早诞生是为了能更好更方便的控制计算 机,输入信息。最常用的也是最突出的就是利用键盘和鼠标进 行人与计算机的信息交换,但是这也成为了人机交互发展的瓶 颈。当前广泛使用的WIMP图形用户接口,因为从用户到计 算机的通信是串口的,用户不能

神经网络模型的参数量和FlOPS

FLOPS:注意S是大写,是 “每秒所执行的浮点运算次数”(floating-point operations per second)的缩写。它常被用来估算电脑的执行效能,尤其是在使用到大量浮点运算的科学计算领域中。正因为FLOPS字尾的那个S,代表秒,而不是复数,所以不能省略掉。FLOPs:注意s

【机器学习】李宏毅-食物图像分类器

卷积层,256个channel,512个filter,每个filter大小3*3,stride=1,padding=1,输入256*16*16,输出512*16*16。卷积层,512个channel,512个filter,每个filter大小3*3,stride=1,padding=1,输入512*

如何避免LLM的“幻觉”(Hallucination)

生成式大语言模型(LLM)可以针对各种用户的 prompt 生成高度流畅的回复。然而,大模型倾向于产生幻觉或做出非事实陈述,这可能会损害用户的信任。

【torch.nn.init】初始化参数方法解读

稀疏矩阵:将2D输入张量填充为稀疏矩阵,其中非零元素将从正态分布N ( 0 , 0.01 ) N(0,0.01)N(0,0.01)中提取。正态分布:从给定均值和标准差的正态分布N(mean, std)中生成值,填充输入的张量或变量。xavier_normal 分布:用一个正态分布生成值,填充输入的张

基于注意力的时空图卷积网络交通流预测

由于图信号的卷积运算等于通过图傅里叶变换变换到谱域的这些信号的乘积,因此上式可以理解为分别将gθ和x进行傅里叶变换到谱域,然后将它们的变换结果相乘,进行傅里叶反变换,得到卷积运算的最终结果。因此,周周期分量的设计是为了捕捉交通数据中的周周期特征。时间维度卷积:图卷积操作在空间维度捕获图上每个节点的相

注意力机制(一):注意力提示、注意力汇聚、Nadaraya-Watson 核回归

目录注意力机制(Attention Mechanism)是一种人工智能技术,它可以让神经网络在处理序列数据时,专注于关键信息的部分,同时忽略不重要的部分。在自然语言处理、计算机视觉、语音识别等领域,注意力机制已经得到了广泛的应用。注意力机制的主要思想是,在对序列数据进行处理时,通过给不同位置的输入信

基于CNN卷积神经网络 猫狗图像识别

基于CNN卷积神经网络 猫狗图像识别

【机器学习项目实战10例】(七):基于逻辑回归方法完成垃圾邮件过滤任务

下载下来的数据集是csv格式的,每条数据有两列,分别是文本内容和对应的标签(ham or spam)。我们首先利用python的pandas库读取csv文件中的数据,然后先对数据进行简单分析,然后对数据进行预处理,最后是将文本内容向量化,文本向量化后才可以利用算法模型进行文本分类任务。(1)读取数据

Jeston NANO 配置并安装 torch+ torchvision

由于nano的arm64架构,所以用它进行深度学习配置部署时会与用普通电脑(x86)有所不同

经典文献阅读之--NeRF-SLAM(单目稠密重建)

NeRF 是 2020 年 ECCV 上获得最佳论文荣誉提名的工作,其影响力是十分巨大的,不论是后续的学术论文还是商业落地,都引起了大量从业人员的关注。NeRF 将隐式表达推上了一个新的高度,仅用 2D 的 posed images 作为监督,即可表示复杂的三维场景,在新视角合成这一任务上的表现是非