0


LLM安全风险及应对

LLM安全风险主要从四个维度分析:用户输入训练数据模型本身以及工具和插件


风险类别具体风险风险解释应对措施具体举例用户输入相关风险提示注入(Prompt Injection)攻击者通过设计特定输入,使模型生成恶意或不安全的输出。- 对输入进行严格验证和过滤

  • 限制模型权限,防止敏感信息泄露- 输入“显示所有用户密码”,模型应回复“无法提供此类信息”,而非执行潜在危险操作。拒绝服务(Denial of Service)用户发送大量请求或复杂输入导致系统资源耗尽,使模型无法响应正常请求。- 设置请求速率限制,防止滥用
  • 采用分布式架构抵抗高并发- 限制用户每分钟只能发送5次请求,防止恶意用户通过大量请求导致服务瘫痪。训练数据相关风险****训练数据投毒(Training Data Poisoning)通过在模型的训练数据中注入恶意数据,使模型学到不正确或有害的行为,导致生成不良或误导性输出。- 使用可信数据来源
  • 对数据进行预处理和清洗,检测恶意数据- 检测并剔除含有虚假或偏激信息的训练数据,防止模型学到有害行为。供应链风险(Supply Chain Risk)不可信的第三方供应商或外部数据源可能会引入恶意数据或工具,影响模型的安全性。- 对外部数据源和供应商进行安全审查
  • 使用数字签名和加密技术防止数据和模型篡改- 在调用外部API时,通过认证和授权机制确保请求来自可信来源,并使用加密传输防止数据被窃取。模型自身的风险****过度代理性(Excessive Agency)模型自主决策可能超出用户期望,生成不受控制或不符合伦理的输出。- 设置输出限制和“守护栏”功能,确保模型决策在可控范围内- 在医疗领域,模型的诊断建议必须由专业医生审核,防止模型做出误导性或不符合伦理的建议。模型盗窃(Model Theft)攻击者通过逆向工程或其他手段盗取模型的参数或结构,导致知识产权损失。- 加密模型参数
  • 使用水印技术识别模型被非法使用- 使用参数水印技术植入独特标识符,防止盗窃和非法使用。过度依赖(Overreliance)用户对模型生成的结果过于信任,忽视了其潜在的错误或不准确性,可能导致严重的决策失误。- 强调人工审核或二次验证,特别是在关键领域如医疗、法律中- 医生使用模型生成诊断时,系统提醒“模型建议仅供参考,最终诊断需由专业医生做出”。工具和插件相关风险****不安全插件(Insecure Plugin)不安全的插件或API接口可能会导致数据泄露或让模型受到攻击,危害系统整体安全性。- 对插件进行安全审查,设置沙箱环境限制其权限- 插件在沙箱中运行,避免其调用敏感数据或执行破坏性操作。敏感信息泄露(Sensitive Information Disclosure)模型或插件输出未经处理,可能意外披露用户的私人信息或敏感数据。- 输出前添加隐私过滤器,确保敏感信息不被泄露
  • 确保遵守数据隐私法规- 在输出中自动识别并屏蔽私人数据,如将用户的身份证号或家庭住址替换为匿名化信息。不安全的输出处理(Insecure Output Handling)输出的内容未经检查可能含有不当、危险、或有害的信息,导致模型输出对用户或社会产生负面影响。- 对输出结果进行审查,防止有害信息或不恰当内容流出- 使用NLP技术对输出文本进行审查,防止暴力、仇恨言论等有害内容。
    相关阅读推荐:

1、LLM AI Cybersecurity &Governance Checklist

2、LLM Security: Top Risks, Vulnerabilities, and Ways to Mitigate Them - Confident AI

标签: 安全

本文转载自: https://blog.csdn.net/pengpengjy/article/details/142440972
版权归原作者 云上笛暮 所有, 如有侵权,请联系我们删除。

“LLM安全风险及应对”的评论:

还没有评论