Meta的分割一切模型SAM( Segment Anything )测试
介绍了 SAM 模型的使用和结果分析总结
6款常见的无人机仿真开发平台(附超详细特点功能对比)
分享几款常见的无人机仿真平台!
【AI 人工智能】大型语言模型的实现技术原理与应用
大型语言模型的实现需要使用多种技术,包括语言数据的处理、模型的构建和训练、模型的部署和应用等。模型的构建是指根据语言数据的特征信息,构建出一组合适的神经网络结构,以实现对语言的建模和处理。语言模型是一种能够处理自然语言的计算机程序,能够学习人类语言的语法、语义和用法,并通过大量的语言数据进行训练,从
T5模型总结概述
T5是一个统一的模型框架,将各类NLP任务都转化为Text2text任务(即无监督/有监督的文本生成预训练任务),使得这些任务在训练时能够使用相同的目标函数,在测试时使用相同的解码过程。
Ubuntu20.04安装CUDA cuDNN 以及对应的pytorch
安装 CUDA cudnn 详细教学
场景图生成综述
场景图是对场景的结构化表示,可以清晰地表达场景中的对象、属性和对象之间的关系。随着计算机视觉技术的不断发展,人们不再满足于简单地检测和识别图像中的物体;相反,人们期待对视觉场景有更高层次的理解和推理。例如,给定一张图像,我们不仅要检测和识别图像中的物体,还要了解物体之间的关系(视觉关系检测),并根据
loss.item()用法和注意事项详解
因为输出的loss的数据类型是Variable。主要是使用Variable计算的时候,会记录下新产生的Variable的运算符号,在反向传播求导的时候进行使用。如果这里直接将loss加起来,系统会认为这里也是计算图的一部分,也就是说网络会一直延伸变大,那么消耗的显存也就越来越大。,在计算loss,a
深入浅出TensorFlow2函数——tf.random.uniform
tf.random.uniform( shape, minval=0, maxval=None, dtype=tf.dtypes.float32, seed=None, name=None)

使用Llama.cpp在CPU上快速的运行LLM
大型语言模型(llm)正变得越来越流行,但是它需要很多的资源,尤其时GPU。在这篇文章中,我们将介绍如何使用Python中的llama.cpp库在高性能的cpu上运行llm。
基于深度学习的CSI反馈(CsiNet)
最近在学习有关CSI反馈相关知识,整理了这一篇将深度学习引入CSI反馈的高引用论文,如果有理解不正确的地方,敬请回复。
bat脚本激活anaconda环境启动WebUI
bat脚本激活anaconda环境启动WebUI
【AIGC】BaiChuan7B开源大模型介绍、部署以及创建接口服务
baichuan-7B是由百川智能开发的一个开源的大规模预训练模型。基于Transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。系统:cento
Bark(Suno AI) 搭建及使用
Bark 是由Suno AI创建的基于转换器的文本到音频模型。Bark 可以生成高度逼真的多语言语音以及其他音频 - 包括音乐、背景噪音和简单的音效。该模型还可以产生非语言交流,如大笑、叹息和哭泣。 Bark 目前支持 13 种语言,包括英语、德语、西班牙语、法语、日语和印地语。Suno AI 表示
深入理解机器学习——数据预处理:归一化 (Normalization)与标准化 (Standardization)
归一化 (Normalization)和标准化 (Standardization)都是特征缩放的方法。特征缩放是机器学习预处理数据中最重要的步骤之一,可以加快梯度下降,也可以消除不同量纲之间的差异并提升模型精度。而标准化(Standardization)是在不改变原始的数据分布的情况下,将数据的分布
GPT-3.5(ChatGPT)训练和部署成本估算
GPT-3.5(ChatGPT)训练和部署成本估算
YOLOv5 使用tensorboard查看可视化训练结果
tensorboard
【Transformer开山之作】Attention is all you need原文解读
Attention Is All You NeedTransformer原文解读与细节复现在Transformer出现以前,深度学习的基础主流模型可分为卷积神经网络CNN、循环神经网络RNN、图对抗神经网络GAN。而Transformer的横空出世,吸引了越来越多的研究者的关注:Transforme
让我看看,还有谁分不清楚GPT和Chat GTP
GPT(Generative Pre-trained Transformer)是由OpenAI推出的一种基于Transformer的自然语言处理模型,它是在大规模的无监督语言预训练下,使用有监督微调的方式来完成各种自然语言处理任务的。与此不同的是,Chat GPT是专门设计用于聊天和对话任务的模型。
ConvLSTM原理解读
LSTM非常擅长处理时序信息也能处理空间信息。但对于三维图形来讲,因为有着丰富的空间信息并且每一个点和周围是有很强的相关性的,这就带来了冗余,传统的LSTM是很难刻画这种空间特征的。为了克服LSTM在处理三维信息中的不足,ConvLSTM 将 LSTM 中的2D的输入转换成了3D的tensor,最后