使用 PyTorch 创建的多步时间序列预测的 Encoder-Decoder 模型

本文提供了一个用于解决 Kaggle 时间序列预测任务的 encoder-decoder 模型,并介绍了获得前 10% 结果所涉及的步骤。

图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比

今天我们就来使用KAN创建一个图神经网络Graph Kolmogorov Arnold(GKAN),来测试下KAN是否可以在图神经网络方面有所作为。

DeepMind的新论文,长上下文的大语言模型能否取代RAG或者SQL这样的传统技术呢?

关于长上下文大型语言模型是否真正利用其巨大的上下文窗口,以及它们是否真的更优越

深入解析高斯过程:数学理论、重要概念和直观可视化全解

在这篇文章中,我将详细介绍高斯过程。并可视化和Python实现来解释高斯过程的数学理论。

Transformer 能代替图神经网络吗?

今天介绍的这篇论文叫“Understanding Transformer Reasoning Capabilities via Graph Algorithms”

RAG流程优化(微调)的4个基本策略

在本文中,我们将介绍使用私有数据优化检索增强生成(RAG)的四种策略,可以提升生成任务的质量和准确性。通过使用一些优化策略,可以有效提升检索增强生成系统的性能和输出质量,使其在实际应用中能够更好地满足需求。

Theta方法:一种时间序列分解与预测的简化方法

Theta方法整合了两个基本概念:分解时间序列和利用基本预测技术来估计未来的价值。

精选:15款顶尖Python知识图谱(关系网络)绘制工具,数据分析的强力助手

我们今天将介绍15个很好用的免费工具,可以帮助我们绘制网络图。

2024年6月上半月30篇大语言模型的论文推荐

大语言模型(LLMs)在近年来取得了快速发展。本文总结了2024年6月上半月发布的一些最重要的LLM论文,可以让你及时了解最新进展。

特征工程与数据预处理全解析:基础技术和代码示例

我们将深入研究处理异常值、缺失值、编码、特征缩放和特征提取的各种技术。

2024年6月计算机视觉论文推荐:扩散模型、视觉语言模型、视频生成等

6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。

使用粒子滤波(particle filter)进行视频目标跟踪

粒子滤波是一种贝叶斯滤波方法,主要用于非线性、非高斯动态系统中的状态估计。它通过使用一组随机样本(称为粒子)来表示状态的后验概率分布,并通过这些粒子的加权平均来估计状态。

HUSKY:一个优化大语言模型多步推理的新代理框架

HUSKY是一个开源语言代理,设计用于处理各种复杂的任务,包括数字、表格和基于知识的推理。与其他专注于特定任务或使用专有模型的代理不同

使用深度强化学习预测股票:DQN 、Double DQN和Dueling Double DQN对比和代码示例

通过DRL,研究人员和投资者可以开发能够分析历史数据的模型,理解复杂的市场动态,并对股票购买、销售或持有做出明智的决策。

goldfish loss:减少训练数据泄漏,提高大语言模型输出的多样性

论文作者引入了一种名为"goldfish loss"的微妙修改,在训练过程中,随机抽样的一部分标记被排除在损失计算之外。这些被舍弃的标记不会被模型记忆,从而防止模型完整复制训练集中的一整个标记序列。

Multi-Head RAG:多头注意力的激活层作为嵌入进行文档检索

论文引入了多头RAG (MRAG),这是一种利用Transformer的多头注意层的激活而不是解码器层作为获取多方面文档的新方案。

MLOps模型部署的三种策略:批处理、实时、边缘计算

在这篇文章中,我们将探讨三种常见的模型部署策略:批处理、实时和边缘计算。

Pixel Transformer:用像素代替补丁可以提升图像分类精度

本文将讨论Pixel Transformer的复杂性,创新方法,以及它对人工智能和计算机视觉未来的重要影响。

SOFTS: 时间序列预测的最新模型以及Python使用示例

这是2024年4月提出的新模型,采用集中策略来学习不同序列之间的交互,从而在多变量预测任务中获得最先进的性能。

使用‘消除’技术绕过LLM的安全机制,不用训练就可以创建自己的nsfw模型

在本文中,我们将探索一种称为“abliteration”的技术,它可以在不进行再训练的情况下取消LLM审查。这种技术有效地消除了模型的内置拒绝机制,允许它响应所有类型的提示。

个人信息

加入时间:2020-01-23

最后活动:5 小时前

发帖数:1801

回复数:1