
TSMamba:基于Mamba架构的高效时间序列预测基础模型
TSMamba通过其创新的架构设计和训练策略,成功解决了传统时间序列预测模型面临的多个关键问题。
序列到序列学习(Seq2seq)
(3)在选候选句子的时候,长句子往往预测的概率会更小一点,为了平衡选择的概率,有机会能尝到有机会能选到长一点的句子,通常是取一个log再取l的阿尔法次饭分之1去调整长句子的概率。这个向量空间是通过训练数据学习到的,向量的维度通常远小于词汇表的大小,生成的向量是密集的,维度通常远小于。(3)编码器通过
【深度学习实战】构建AI模型,实现手写数字自动识别
近年来,人工智能(AI)大模型在计算机科学领域引起了广泛的兴趣和关注。这些模型以其庞大的参数规模和卓越的性能,在各种领域展现了巨大的潜力。本文介绍如何构建一个AI模型,实现一个简单的手写数字识别任务。手写数字识别是一种利用计算机自动辨认人手写在纸张上的阿拉伯数字的技术。 这一技术属于光学字符识别
深度学习环境anaconda+pytorch+pycharm(终端)配置 (跟着我超简单)一步到位,python3.9
配置anaconda+pytorch+pycharm(终端)gpu版本,一篇带你解决深度学习环境配置烦恼

基于MCMC的贝叶斯营销组合模型评估方法论: 系统化诊断、校准及选择的理论框架
贝叶斯营销组合建模(Bayesian Marketing Mix Modeling,MMM)作为一种先进的营销效果评估方法,其核心在于通过贝叶斯框架对营销投资的影响进行量化分析。
开源模型应用落地-baichuan2模型小试-入门篇(三)
在linux环境下,使用transformer设置模型参数/System Prompt/历史对话
万字长文解读深度学习——循环神经网络RNN、LSTM、GRU、Bi-RNN
面试资料收集者之万字长文解读深度学习——循环神经网络RNN、LSTM、GRU、Bi-RNN
Tokenformer:基于参数标记化的高效可扩展Transformer架构
本文是对发表于arXiv的论文 “TOKENFORMER: RETHINKING TRANSFORMER SCALING WITH TOKENIZED MODEL PARAMETERS” 的深入解读与扩展分析。主要探讨了一种革新性的Transformer架构设计方案,该方案通过参数标记化实现了模型的
开源模型应用落地-glm模型小试-glm-4-9b-chat-压力测试(六)
通过压力测试,评估模型在高负载或极端条件下的表现。

深度学习工程实践:PyTorch Lightning与Ignite框架的技术特性对比分析
在深度学习框架的选择上,PyTorch Lightning和Ignite代表了两种不同的技术路线。本文将从技术实现的角度,深入分析这两个框架在实际应用中的差异,为开发者提供客观的技术参考。
开源模型应用落地-qwen模型小试-入门篇(四)
使用gradio,构建Qwen-1_8B-Chat测试界面
海康威视 Vision Master 深度学习模块
Vision Master 深度学习模块
ConvGRU原理与开源代码
ConvGRU(卷积门控循环单元)是一种结合了卷积神经网络(CNN)和门控循环单元(GRU)的深度学习模型。与ConvLSTM类似,ConvGRU也主要用于处理时空数据,特别适用于需要考虑空间特征和时间依赖关系的任务,如视频分析、气象预测和交通流量预测等。
大模型-基于大模型的数据标注
法来自于这篇论文:Can Generalist Foundation Models Outcompete Special-Purpose Tuning?
Ubuntu 20.04版本快速安装 Miniconda(宝宝级攻略)
我在学习深度学习时,安装Miniconda时踩过了一些坑,浪费了很多的时间,现在想出一个宝宝级的攻略,希望能够帮助大家节约时间,规避一些毒教程的糟粕。不管是双系统还是虚拟机这个攻略都是完美适配的,请大家放心使用。

通过pin_memory 优化 PyTorch 数据加载和传输:工作原理、使用场景与性能分析
本文将深入探讨何时以及为何启用这一设置,帮助你优化 PyTorch 中的内存管理和数据吞吐量。
深入浅出之CSPNet网络
CSPNet(Cross Stage Partial Network)的提出背景主要源于对现有计算机视觉模型的分析和挑战。在计算资源受限的情况下,轻量级神经网络模型越来越受到关注,但这类模型在轻量化的同时往往会牺牲模型的准确性。此外,现有的模型在推断过程中存在计算瓶颈和内存开销较大的问题,这限制了模
【AI论文精读5】知识图谱与LLM结合的路线图-P2
该论文提出了一个将大型语言模型(LLMs)与知识图谱(KGs)相结合的路线图。这是我对论文第2部分的解读。

Tokenformer:基于参数标记化的高效可扩展Transformer架构
本文是对发表于arXiv的论文 "TOKENFORMER: RETHINKING TRANSFORMER SCALING WITH TOKENIZED MODEL PARAMETERS" 的深入解读与扩展分析。
【动物识别系统】Python+卷积神经网络算法+人工智能+深度学习+机器学习+计算机课设项目+Django网页界面
动物识别系统。本项目以Python作为主要编程语言,并基于TensorFlow搭建ResNet50卷积神经网络算法模型,通过收集4种常见的动物图像数据集(猫、狗、鸡、马)然后进行模型训练,得到一个识别精度较高的模型文件,然后保存为本地格式的H5格式文件。再基于Django开发Web网页端操作界面,实