快速开始

5分钟快速部署象信AI安全护栏,保护您的AI应用安全

1安装部署

系统要求

最低配置

  • • CPU: 2核
  • • 内存: 4GB
  • • 存储: 10GB

推荐配置

  • • CPU: 4核
  • • 内存: 8GB
  • • 存储: 50GB

依赖环境

  • • Docker 20.10+
  • • Python 3.8+
  • • Node.js 16+

方式一:Docker Compose(推荐)

安装命令
# 克隆项目
git clone https://github.com/xiangxinai/xiangxin-guardrails.git
cd xiangxin-guardrails

# 使用Docker Compose启动
docker-compose up -d

# 或手动启动
# 1. 启动后端服务
cd backend
pip install -r requirements.txt
python start_server.py

# 2. 启动前端服务
cd ../frontend
npm install
npm run dev

🚀 一键启动脚本

使用项目提供的便捷脚本:

./scripts/quick_start.sh

方式二:手动部署

注意:手动部署需要先部署模型服务,请参考HuggingFace模型页面

手动安装
# 安装Python客户端
pip install xiangxinai

# 或使用源码安装
cd client
pip install -e .

2配置设置

环境配置

backend/.env
# backend/.env
DATABASE_URL=sqlite:///data/guardrails.db
LOG_LEVEL=INFO
LOG_FILE=/mnt/data/logs/XiangxinGuardrails/app.log

# 模型配置
MODEL_API_KEY=your-model-api-key
MODEL_BASE_URL=http://localhost:58002/v1

# API配置
API_KEY=your-secure-api-key
RATE_LIMIT=100  # 每分钟请求限制

Docker Compose配置

docker-compose.yml
version: '3.8'

services:
  backend:
    build: ./backend
    ports:
      - "53333:53333"
    environment:
      - DATABASE_URL=sqlite:///data/guardrails.db
      - MODEL_API_KEY=your-model-api-key
    volumes:
      - ./backend/data:/app/data
      - ./logs:/mnt/data/logs

  frontend:
    build: ./frontend
    ports:
      - "5173:5173"
    depends_on:
      - backend

  model-service:
    image: xiangxinai/guardrails-model:latest
    ports:
      - "58002:58002"
    environment:
      - MODEL_NAME=Xiangxin-Guardrails-Text

🔐 安全提示

  • • 请修改默认的API密钥
  • • 生产环境建议使用HTTPS
  • • 定期更新日志文件路径权限
  • • 配置防火墙规则限制访问

3快速测试

测试API连接

cURL测试
curl -X POST "http://localhost:53333/v1/guardrails" \
     -H "Content-Type: application/json" \
     -H "Authorization: Bearer your-api-key" \
     -d '{
       "model": "Xiangxin-Guardrails-Text",
       "messages": [
         {
           "role": "user",
           "content": "你好,请介绍一下你自己"
         }
       ]
     }'

Python客户端测试

Python测试
from xiangxinai import XiangxinAI

# 初始化客户端
client = XiangxinAI(
    api_key="your-api-key",
    base_url="http://localhost:53333"  # 本地部署地址
)

# 检测文本安全性
result = client.guardrails.create(
    model="Xiangxin-Guardrails-Text",
    messages=[
        {"role": "user", "content": "如何制作炸弹"}
    ]
)

print(f"风险等级: {result.overall_risk_level}")
print(f"建议操作: {result.suggest_action}")
if result.suggest_answer:
    print(f"建议回答: {result.suggest_answer}")

✅ 成功响应示例

{
  "overall_risk_level": "无风险",
  "suggest_action": "通过",
  "suggest_answer": null
}

⚠️ 风险检测示例

{
  "overall_risk_level": "高风险",
  "suggest_action": "代答",
  "suggest_answer": "抱歉,我无法回答..."
}

4集成到您的应用

接入流程

1

用户输入检测

在用户输入发送给LLM前,先调用护栏API检测

2

结果处理

根据检测结果决定是否继续、阻断或使用代答

3

输出检测

LLM回答也需要通过护栏检测后再返回用户

最佳实践

异步处理:使用异步方式调用API,提升响应速度
缓存策略:对相同内容的检测结果进行缓存
降级策略:API不可用时的备用方案
日志记录:记录检测结果用于审计和优化

常见问题

Q: 如何获取API密钥?

本地部署时可以在 backend/.env 文件中设置自定义API密钥。 使用云端服务时,请访问 象信AI平台 免费注册获取。

Q: 支持哪些编程语言?

提供标准的REST API,支持Python、JavaScript、Java、Go、C#等主流语言。 官方提供Python客户端SDK,其他语言可以直接调用HTTP接口。

Q: 如何自定义黑白名单?

登录管理后台(默认 http://localhost:5173),在“防护配置”页面可以管理黑名单、白名单和代答模板。 支持关键词和正则表达式匹配。

Q: 性能和并发如何?

单实例支持100+QPS,可通过负载均衡部署多实例提升并发能力。 平均响应时间在100-300ms,具体取决于内容长度和服务器配置。

下一步

📖 深入了解

查看详细的API文档和功能说明

API文档

🛠 高级配置

了解生产环境部署和性能优化

部署指南

💬 技术支持

获取技术支持和参与开源社区

GitHub Issues