向量存储vs知识图谱:LLM记忆系统技术选型

要让LLM准确提取历史信息、理解过往对话并建立信息关联,需要相当复杂的系统架构。

NumPy广播:12个技巧替代循环,让数组计算快40倍

广播是NumPy里最让人恍然大悟的特性。掌握后能去掉大量循环,让代码意图更清晰,同时获得向量化带来的性能提升——而且不需要引入什么复杂工具。

Google开源Tunix:JAX生态的LLM微调方案来了

**Tunix(Tune-in-JAX)**是一个**用于LLM后训练的JAX原生库**,旨在通过JAX的速度和可扩展性简化监督微调、强化学习和蒸馏,可以与Flax NNX无缝集成。

从DQN到Double DQN:分离动作选择与价值评估,解决强化学习中的Q值过估计问题

DQN的过估计源于max操作符偏好噪声中的高值。Double DQN把动作选择(在线网络θ)和价值评估(目标网络θ^−)分开处理,

PINN训练新思路:把初始条件和边界约束嵌入网络架构,解决多目标优化难题

PINNs出了名的难训练。主要原因之一就是这个**多目标优化**问题。优化器很容易找到投机取巧的路径

Python离群值检测实战:使用distfit库实现基于分布拟合的异常检测

本文会先讲清楚异常检测的核心概念,分析anomaly和novelty的区别,然后通过实际案例演示如何用概率密度拟合方法构建单变量数据集的无监督异常检测模型。所有代码基于distfit库实现。

Min-p采样:通过动态调整截断阈值让大模型文本生成兼顾创造力与逻辑性

Min-p 采样的出现为大语言模型文本生成领域带来了新的思路。它通过动态调整采样阈值,让模型能够在不同的上下文中灵活地平衡创造性与连贯性

从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现

本文重点讨论Reflection和Reflexion,并用LangChain与LangGraph来实现完整的工作流程。

从零构建短视频推荐系统:双塔算法架构解析与代码实现

本文将从技术角度剖析:双塔架构的工作原理、为何在短视频场景下表现卓越,以及如何构建一套类似的推荐系统。

AI智能体框架怎么选?7个主流工具详细对比解析

本文将深入解析当前主流的智能体框架,帮助你根据项目需求、技术能力和业务目标,做出最明智的技术选择。

AI智能体开发实战:17种核心架构模式详解与Python代码实现

本文将逐一深入解析这17种不同的智能体架构

Transformer自回归关键技术:掩码注意力原理与PyTorch完整实现

掩码注意力(Causal Attention)是生成式模型的核心技术,它传统自注意力机制有根本的不同,掩码注意力限制模型只能关注当前位置之前的tokens,确保了自回归生成的因果性。

从另一个视角看Transformer:注意力机制就是可微分的k-NN算法

注意力就是一个带温控的概率邻居平均算法。温度设对了(1/sqrt(d)),邻域选对了(相似度+掩码),剩下的就是工程实现了。

Optuna v4.5新特性深度解析:GPSampler实现约束多目标优化

Optuna在8月18日发布了最近的 v4.5版,加入了GPSampler的约束多目标优化功能,我们来看看这个新的功能。

RAG系统嵌入模型怎么选?选型策略和踩坑指南

本文将说明嵌入的基本原理与重要性、列出选型时的关键考量,并对典型模型与适用场景给出实用建议,帮助你为 RAG 系统挑选既高效又稳健的嵌入方案。

从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南

这篇文章会先介绍 GRPO的基本概念,然后我们会动手写代码训练一个推理 LLM,在实践中理解整个流程。

MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构

作者给出证据表明,扩散模型一个被反复强调的属性——关注局部像素关系——并不需要依赖架构的巧妙设计,它可以从训练图像的统计规律中自然涌现。

SAPO去中心化训练:多节点协作让LLM训练效率提升94%

SAPO提出了一种去中心化的异步RL方案,让各个计算节点之间可以互相分享rollouts,避开了传统并行化训练的各种瓶颈。

为你的数据选择合适的分布:8个实用的概率分布应用场景和选择指南

本文包含了实际会用到的概率分布速查手册,包含使用场景、代码实现和常见陷阱

AI智能体开发实战:从提示工程转向上下文工程的完整指南

本文深入探讨如何构建生产级智能体工作流,重点介绍"上下文工程"这一核心概念。从自然语言到工具调用的转换、提示内容的完全掌控、上下文窗口的精准管理,到工具作为结构化输出的设计思路。

个人信息

加入时间:2020-01-23

最后活动:17 小时前

发帖数:2174

回复数:1