5分钟快速部署象信AI安全护栏,保护您的AI应用安全
# 克隆项目
git clone https://github.com/xiangxinai/xiangxin-guardrails.git
cd xiangxin-guardrails
# 使用Docker Compose启动
docker-compose up -d
# 或手动启动
# 1. 启动后端服务
cd backend
pip install -r requirements.txt
python start_server.py
# 2. 启动前端服务
cd ../frontend
npm install
npm run dev
使用项目提供的便捷脚本:
./scripts/quick_start.sh
注意:手动部署需要先部署模型服务,请参考HuggingFace模型页面
# 安装Python客户端
pip install xiangxinai
# 或使用源码安装
cd client
pip install -e .
# backend/.env
DATABASE_URL=sqlite:///data/guardrails.db
LOG_LEVEL=INFO
LOG_FILE=/mnt/data/logs/XiangxinGuardrails/app.log
# 模型配置
MODEL_API_KEY=your-model-api-key
MODEL_BASE_URL=http://localhost:58002/v1
# API配置
API_KEY=your-secure-api-key
RATE_LIMIT=100 # 每分钟请求限制
version: '3.8'
services:
backend:
build: ./backend
ports:
- "53333:53333"
environment:
- DATABASE_URL=sqlite:///data/guardrails.db
- MODEL_API_KEY=your-model-api-key
volumes:
- ./backend/data:/app/data
- ./logs:/mnt/data/logs
frontend:
build: ./frontend
ports:
- "5173:5173"
depends_on:
- backend
model-service:
image: xiangxinai/guardrails-model:latest
ports:
- "58002:58002"
environment:
- MODEL_NAME=Xiangxin-Guardrails-Text
curl -X POST "http://localhost:53333/v1/guardrails" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer your-api-key" \
-d '{
"model": "Xiangxin-Guardrails-Text",
"messages": [
{
"role": "user",
"content": "你好,请介绍一下你自己"
}
]
}'
from xiangxinai import XiangxinAI
# 初始化客户端
client = XiangxinAI(
api_key="your-api-key",
base_url="http://localhost:53333" # 本地部署地址
)
# 检测文本安全性
result = client.guardrails.create(
model="Xiangxin-Guardrails-Text",
messages=[
{"role": "user", "content": "如何制作炸弹"}
]
)
print(f"风险等级: {result.overall_risk_level}")
print(f"建议操作: {result.suggest_action}")
if result.suggest_answer:
print(f"建议回答: {result.suggest_answer}")
{ "overall_risk_level": "无风险", "suggest_action": "通过", "suggest_answer": null }
{ "overall_risk_level": "高风险", "suggest_action": "代答", "suggest_answer": "抱歉,我无法回答..." }
在用户输入发送给LLM前,先调用护栏API检测
根据检测结果决定是否继续、阻断或使用代答
LLM回答也需要通过护栏检测后再返回用户
本地部署时可以在 backend/.env
文件中设置自定义API密钥。 使用云端服务时,请访问 象信AI平台 免费注册获取。
提供标准的REST API,支持Python、JavaScript、Java、Go、C#等主流语言。 官方提供Python客户端SDK,其他语言可以直接调用HTTP接口。
登录管理后台(默认 http://localhost:5173),在“防护配置”页面可以管理黑名单、白名单和代答模板。 支持关键词和正则表达式匹配。
单实例支持100+QPS,可通过负载均衡部署多实例提升并发能力。 平均响应时间在100-300ms,具体取决于内容长度和服务器配置。