9月大型语言模型研究论文总结
这些论文涵盖了一系列语言模型的主题,从模型优化和缩放到推理、基准测试和增强性能。最后部分讨论了有关安全训练并确保其行为保持有益的论文。
torchvision.models简介
torchvision.models简介
计算机专业研究方向相关论文查找方法,分享给大家,实测有用。
论文文献查找的方法合集
Conda 创建和删除虚拟环境
我们在学习深度学习时,往往会由于不同代码需要配置不同的环境,这就需要Conda来进行创建虚拟环境。
【PyTorch】torch.cat() 和 torch.concat() 的区别
torch.concat() 是 torch.cat() 的别称,无区别。
深度学习笔记:finetune和linear probing的区别
finetune和linear probing一般和预训练搭配出现,是预训练模型适配下游任务时可选的训练方式
深度学习在通信领域中的应用
深度学习在通信领域中的应用深度学习作为人工智能领域的一个热门技术,一直在探索新的应用领域。近年来,深度学习在通信领域中的应用也逐渐受到关注。通信领域需要面对各种挑战和问题,例如信道估计、信号检测、通信系统优化等等。这些问题的解决,可以大大提升通信系统的性能和效率。本文将重点介绍深度学习在通信领域中的
【人工智能】GPT-4 的使用成本,竟然是GPT-3.5的50倍之多 —— 大语言模型(LLM)开发者必须知道的数字
这篇文章的作者来自开源人工智能框架Ray的开发公司Anyscale。主要贡献者是Google前首席工程师Waleed Kadous。他也曾担任Uber CTO办公室工程战略负责人。其中一位华人合作者是Google前员工Huaiwei Sun。他来自江苏昆山,本科毕业于上海交通大学工业设计专业。期间,
TimesNet:时间序列预测的最新模型
在本文中,我们将探讨TimesNet的架构和内部工作原理。然后将该模型应用于预测任务,与N-BEATS和N-HiTS进行对比。
数学模型在人工智能中的使用:统计学和概率论
在人工智能中,统计学和概率论的技术原理可以通过一些重要的数学模型来描述。在人工智能中,统计学和概率论的应用场景非常广泛。例如,在语音识别中,可以使用概率论来建模声音的特征,并使用统计方法来优化语音识别系统的性能。在图像识别中,可以使用概率论来建模图像的特征,并使用机器学习算法来训练图像识别系统的性能
车牌识别数据集(蓝牌、黄牌、绿牌)及相关转换代码
车牌识别数据集(可识别车牌字符),已经手工标注并筛选好可直接使用。
AI 大模型 LLM 中的注意力架构原理
上文所举的机器翻译的例子里,因为在计算Attention的过程中,Source中的Key和Value合二为一,指向的是同一个东西,也即输入句子中每个单词对应的语义编码,所以可能不容易看出这种能够体现本质思想的结构。在一般任务的Encoder-Decoder框架中,输入Source和输出Target内
跟李沐学AI 动手学深度学习 环境配置d2l、pytorch的安装 (windows环境、python版本3.7)
我们的任务主要有:配置过程中主要参考了以下文章:https://blog.csdn.net/qq_38311396/article/details/120768038配置详细步骤:第一步:根据操作系统下载并安装MinicondaMiniconda下载地址:(https://conda.io/en/m
U-ViT(CVPR2023)——ViT与Difussion Model的结合
扩散模型(Diffusion Model)最近在图像生成领域大火。而在扩散模型中,带有U-Net的卷积神经网络居于统治地位。U-ViT网络是将在图像领域热门的结合应用在了中。本文将从Vision Transformer出发,分析U-ViT这篇CVPR2023的Paper并记录一些感想。
GPU 虚拟化技术MIG简介和安装使用教程
使用多实例GPU (MIG/Multi-Instance GPU)可以将强大的显卡分成更小的部分,每个部分都有自己的工作,这样单张显卡可以同时运行不同的任务。本文将对其进行简单介绍并且提供安装和使用的示例。
人工智能智能决策支持系统:技术、特点和挑战
机器学习:机器学习是一种人工智能技术,通过训练模型,让模型从数据中学习规律,并自动调整模型参数,从而实现对决策问题的分析和预测。深度学习:深度学习是一种更加先进的机器学习技术,通过多层神经网络的训练,可以实现更加复杂的特征提取和特征表示,从而实现更加准确的分析和预测。自然语言处理:自然语言处理是一种
3、TensorFlow教程--- 理解人工智能
遵循机器学习概念的程序的能力是改善其对观测数据的性能。数据转换的主要动机是为了提高其知识,以便在未来实现更好的结果,为特定系统提供更接近所期望的输出。监督学习或监督训练包括一个过程,其中训练集作为输入提供给系统,在这个过程中,每个示例都带有一个期望的输出值标签。在这种类型的训练中,使用特定损失函数的
人工智能大模型(LLM)的核心能力、具体的应用场景和具体的落地步骤
零样本学习能力是指模型在没有人工干预的情况下,可以通过大规模数据的学习,自动掌握各类任务的知识和规律,并进行准确的预测和推理。在众多的自然语言处理任务中,语言模型被广泛应用于机器翻译、问答系统、文本摘要、对话系统等,这些任务需要模型理解人类语言的语义和上下文信息,并进行准确的预测和生成。以上为人工智
人工智能:神经细胞模型到神经网络模型
1969年,美国麻省理工学院(MIT)出版了关于感知机的专著《Perceptrons:An Introduction to Computational Geometry》,作者为明斯基(M.L.Minsky)等,对简单感知机的研究结果进行了总结与系统的分析,指出简单感知机有严重的缺陷,无法识别线性
【人工智能】ChatGPT 技术架构与相关技术栈清单
在基于语言模型的生成式模型中,模型会根据输入的上下文预测下一个词,并不断地生成文本,直到达到预定长度为止。通过不断与人类进行交互,模型可以学习和优化自己的回复策略,并通过PPO机制,提高模型在强化学习任务上的表现能力,从而产生更加符合人类语言习惯的对话回复。在基于模型的迁移学习中,模型会将已学习的模