Vigil:大型语言模型提示安全扫描器
vigil-llm⚡ Vigil ⚡ Detect prompt injections, jailbreaks, and other potentially risky Large Language Model (LLM) inputs项目地址:https://gitcode.com/gh_mirrors/vi/vigil-llm
项目介绍
Vigil
是一个用于评估大型语言模型(LLM)提示和响应的Python库和REST API。它通过一系列扫描器来检测提示注入、越狱和其他潜在威胁。该项目目前处于 alpha 阶段,主要用于实验和研究目的。
Vigil
提供了检测签名和数据集,支持自托管,并且可以通过Python库或REST API进行使用。
项目技术分析
Vigil
的核心技术包括:
- 模块化扫描器:支持多种扫描模块,如向量数据库、YARA规则、Transformer模型等。
- 可扩展性:扫描器设计为模块化,便于扩展和定制。
- 多模型支持:支持本地嵌入和OpenAI等多种模型。
- 实时更新:向量数据库可以自动更新以应对新检测到的提示。
项目及技术应用场景
Vigil
适用于以下场景:
- 安全研究:用于研究和测试LLM的安全性。
- 企业级应用:在企业环境中,用于保护LLM免受恶意提示的攻击。
- 开发者工具:作为开发者工具,集成到现有的Python应用中,提供实时安全扫描功能。
项目特点
Vigil
的主要特点包括:
- 全面的安全扫描:能够检测多种类型的提示注入和风险输入。
- 易于集成:既可以作为独立的REST API服务器运行,也可以集成到Python应用中。
- 高度可定制:用户可以根据需要添加自定义的YARA签名和检测规则。
- 实时反馈:提供实时扫描结果和详细的检测报告。
通过使用
Vigil
,开发者和安全研究人员可以更好地理解和防御针对大型语言模型的安全威胁,确保LLM应用的安全性和可靠性。
vigil-llm⚡ Vigil ⚡ Detect prompt injections, jailbreaks, and other potentially risky Large Language Model (LLM) inputs项目地址:https://gitcode.com/gh_mirrors/vi/vigil-llm
版权归原作者 魏纯漫 所有, 如有侵权,请联系我们删除。