0


从检索到回答:RAG 流水线中三个被忽视的故障点

RAG 流水线部署完毕、检索正常运行、LLM 按部就班地生成回答、用户也在持续收到响应,这一切看上去运转良好。但有一个问题大多数工程师从来不问:这些回答真的对吗?

不是"系统是否返回了响应",而是"响应的内容是否正确"。

如果答案是"上线前测过"或者"余弦相似度分数没问题",那么一个静默故障问题大概率正在生产环境中发生。

静默 RAG 故障

下面这种故障模式是不会出现在你的日志里的,用户提交一条查询、检索流水线运行并返回若干文本块、相似度分数看起来正常、LLM 据此生成了一段流畅的响应,但响应存在事实偏差或者以高度自信的口吻呈现了不完整的信息。这中抢矿不会异常抛出,也没有告警触发,而且没有 trace 将其标记为异常。系统继续运行用户也继续带着一份错误的信息离开。

这就是静默 RAG 故障,监控的每一个指标系统都"正常工作"了,按照真正重要的指标衡量,但是用户拿到的是一个错误答案。

根源分析:三个缺口

要了解原因需要先要看清标准 RAG 流水线中缺口出现在哪些环节。

缺口 1:检索质量 ≠ 检索相关性

余弦相似度衡量的是两个向量在嵌入空间中的距离。它不是对"检索到的文本块能否回答问题"的度量。

比如说,用户提问"Drug X 对肾病患者的禁忌症有哪些?",向量存储返回了一段关于 Drug X 一般作用机制的文本块,相似度分数 0.87。主题确实相关,分数确实好看,但这段文本并不包含禁忌症信息。LLM 需要基于一段不含目标信息的上下文来回答关于禁忌症的问题。大多数情况下它会做什么?用外推填补空白,并且在填补的过程中语气非常自信。

这样检索得分高,但是答案是错的。

缺口 2:LLM 的流畅性掩盖了不确定性

大语言模型在生成流畅、语气确定的文本方面能力极强——哪怕背后缺乏充分的信息支撑。这不是缺陷而是训练目标决定的行为模式。

上下文不足以回答问题时,模型很少说"我不知道"。它更倾向于将手头已有的片段拼凑成一段看似合理的回答:读起来像正确答案,结构上像正确答案,只是内容并不准确。生成环节之上如果没有叠加评估层,这类情况无从捕获。

缺口 3:故障信号未被收集

RAG 出错时用户其实在反馈,只是不是通过文字。他们会重新措辞同一个问题再问一遍,会点击"踩"或负面评价按钮,会提出一个暗示前一个答案有误的追问,或者干脆停止使用该功能。

这些信号如果没有被记录和标记,等于坐在一座评估数据的矿上而浑然不觉。

真正奏效的方案:构建反馈循环

以下是在生产 RAG 系统中实际使用的可观测性与评估架构。

1、生成前的相关性门控

不要让 LLM 基于低质量上下文生成回答。在检索与生成之间设置一道门控,校验检索到的文本块是否确实能回应查询。

 from anthropic import Anthropic  

client = Anthropic()  

def relevance_gate(query: str, chunks: list[str], threshold: float = 0.7) -> bool:  
    """  
    在将文本块传递给生成之前,验证它们是否确实相关。  
    如果文本块足以回答查询,则返回 True。  
    """  
    context = "\n\n".join(chunks)  
      
    response = client.messages.create(  
        model="claude-sonnet-4-20250514",  
        max_tokens=100,  
        messages=[{  
            "role": "user",  
            "content": f"""Given this query: "{query}"  
              
And these retrieved chunks:  
{context}  

Do these chunks contain sufficient information to answer the query accurately?  
Respond with only: SUFFICIENT or INSUFFICIENT"""  
        }]  
    )  
      
    result = response.content[0].text.strip()  
     return result == "SUFFICIENT"  
 def rag_with_gate(query: str, retrieved_chunks: list[str]) -> str | None:  
     if not relevance_gate(query, retrieved_chunks):  
         # 记录故障,触发重新检索或升级处理  
         log_retrieval_failure(query, retrieved_chunks)  
         return None  # 不从质量差的上下文中生成  
       
     return generate_response(query, retrieved_chunks)

仅这一步就能在回答到达用户之前拦截相当比例的静默故障。

2、生成后的自评估

相关性门控到位之后,仍有部分低质量生成会通过。在生成环节之后追加第二道评估:

 def evaluate_response(query: str, context: str, response: str) -> dict:  
    """  
    在生成之后,评估响应是否基于上下文。  
    返回包含推理过程的评估结果。  
    """  
    eval_prompt = f"""You are evaluating the quality of an AI-generated response.  

Query: {query}  

Context provided to the model:  
{context}  

Generated response:  
{response}  

Evaluate the response on two criteria:  
1. GROUNDED: Is every claim in the response directly supported by the context? (yes/no)  
2. COMPLETE: Does the response fully address the query using the available context? (yes/no)  

Respond in this exact format:  
GROUNDED: yes/no  
COMPLETE: yes/no  
REASONING: one sentence explanation"""  

    result = client.messages.create(  
        model="claude-sonnet-4-20250514",  
        max_tokens=200,  
        messages=[{"role": "user", "content": eval_prompt}]  
    )  
      
     return parse_eval_result(result.content[0].text)  
 def parse_eval_result(text: str) -> dict:  
     lines = text.strip().split('\n')  
     return {  
         'grounded': 'yes' in lines[0].lower(),  
         'complete': 'yes' in lines[1].lower(),  
         'reasoning': lines[2].replace('REASONING: ', '') if len(lines) > 2 else ''  
     }
grounded

为 False,说明响应中存在幻觉性论断,不应返回给用户。

complete

为 False,说明上下文不够充分,需要记录并考虑用更宽泛的查询重新检索。

3、以 Session ID 贯穿全链路追踪

经过 RAG 流水线的每一条查询都应当生成一份 trace——不只是最终响应,而是每一个中间步骤。

 import uuid  
from datetime import datetime  
from dataclasses import dataclass, field  

@dataclass  
class RAGTrace:  
    session_id: str = field(default_factory=lambda: str(uuid.uuid4()))  
    timestamp: str = field(default_factory=lambda: datetime.utcnow().isoformat())  
    query: str = ""  
    retrieved_chunks: list[dict] = field(default_factory=list)  
    retrieval_scores: list[float] = field(default_factory=list)  
    relevance_gate_passed: bool = False  
    generated_response: str = ""  
    eval_grounded: bool = False  
    eval_complete: bool = False  
    final_returned: bool = False  
    failure_reason: str = ""  

def traced_rag_pipeline(query: str) -> tuple[str | None, RAGTrace]:  
    trace = RAGTrace(query=query)  
      
    # 检索  
    chunks, scores = retrieve(query)  
    trace.retrieved_chunks = chunks  
    trace.retrieval_scores = scores  
      
    # 相关性门控  
    gate_passed = relevance_gate(query, chunks)  
    trace.relevance_gate_passed = gate_passed  
      
    if not gate_passed:  
        trace.failure_reason = "relevance_gate_failed"  
        trace.final_returned = False  
        persist_trace(trace)  
        return None, trace  
      
    # 生成  
    response = generate_response(query, chunks)  
    trace.generated_response = response  
      
    # 评估  
    eval_result = evaluate_response(query, "\n".join(chunks), response)  
    trace.eval_grounded = eval_result['grounded']  
    trace.eval_complete = eval_result['complete']  
      
    if not eval_result['grounded']:  
        trace.failure_reason = "hallucination_detected"  
        trace.final_returned = False  
        persist_trace(trace)  
        return None, trace  
      
    trace.final_returned = True  
    persist_trace(trace)  
     return response, trace

出了问题时,打开对应 Session ID 的 trace,一眼就能定位故障发生在哪个环节——检索、门控、生成还是评估。排查时间从几小时缩短到几分钟。

4、把用户行为转化为评估数据

用户行为是最诚实的信号源。把它接入系统:

 def log_user_signal(session_id: str, signal_type: str, metadata: dict = {}):  
    """  
    signal_type 选项:  
    - 'thumbs_down'  
    - 'rephrased_query'       # 同一用户,2分钟内的相似查询  
    - 'follow_up_correction'  # 后续问题暗示第一个答案是错的  
    - 'no_engagement'         # 响应已展示但用户立即离开  
    """  
      
    signal = {  
        "session_id": session_id,  
        "signal_type": signal_type,  
        "timestamp": datetime.utcnow().isoformat(),  
        **metadata  
    }  
      
    # 持久化到评估数据库  
    persist_failure_signal(signal)  
      
    # 将原始 trace 标记为故障  
     update_trace_failure_flag(session_id, signal_type)

定期对标记过的 trace 做复盘,寻找规律:故障是否集中在某个特定主题或文档类型?某些查询模式是否反复无法通过相关性门控?向量存储中的某份文档是否产生了不成比例的失败率?

这才是闭环,基于真实用户故障来调优检索策略,而非依赖合成基准测试。

整体架构一图总览


加上这一层之前,监控范围局限于:系统是否返回了响应、延迟是否可接受、是否发生了错误。

加上这一层之后,监控的维度变成了:检索到的上下文是否确实与查询相关,生成的响应是否有上下文依据,用户后续行为是否暗示答案有误,以及这条具体查询在哪个环节出了问题。

前者交付的是一个黑盒,后者交付的是一个可以被信任的系统。差别在此。

总结

RAG 的搭建门槛不高。嵌入、检索、生成——基础流水线一个下午就能跑通。

但要让一个 RAG 系统在生产环境中达到可信赖的程度,所需时间远不止于此。原因不在于技术组件本身有多复杂,而在于绝大多数团队直接跳过了可观测性这一层。本地测试通过,效果看起来没问题,直接上线。

之后它就开始静默地失败。数周,数月,无人察觉。

检索流水线对用户不可见。

错误答案对用户可见。

by Sai Akash Avunoori

“从检索到回答:RAG 流水线中三个被忽视的故障点”的评论:

还没有评论