# ai_ge_case **Repository Path**: springjohn123/ai_ge_case ## Basic Information - **Project Name**: ai_ge_case - **Description**: 使用AI大模型生成测试用例 - **Primary Language**: Python - **License**: MIT - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 14 - **Forks**: 4 - **Created**: 2025-06-23 - **Last Updated**: 2026-01-23 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 🚀 智能化测试用例生成系统 基于AI大模型的智能测试用例生成工具,支持多种AI模型,能够根据需求文档自动生成高质量的测试用例。 ## ✨ 核心特性 - **🤖 智能用例生成**:基于AI大模型,根据需求描述自动生成测试用例 - **🧠 推理模型支持**:支持deepseek-r1、o1系列等推理模型,智能过滤思考内容 - **📄 多格式支持**:支持文本输入、文档上传(Word、PDF、TXT等) - **⚡ 高性能批量生成**:支持大批量测试用例生成,智能分批处理 - **📊 用例管理**:完整的测试用例CRUD操作,支持分页查看 - **📈 Excel导出**:支持将测试用例导出为Excel格式 - **🧠 智能提示词系统**:革命性的智能提示词优化,生成速度提升200-400% ## 🤖 支持的AI模型 ### 🎯 预定义提供商(支持任意模型) | 提供商 | 推荐模型 | 推荐度 | 特点 | |--------|----------|--------|------| | DeepSeek | deepseek-chat, deepseek-v3, **deepseek-r1** | ⭐⭐⭐⭐⭐ | 性价比最高,推荐,支持推理模型 | | OpenAI | gpt-4o, gpt-4o-mini, **o1-preview**, **o1-mini** | ⭐⭐⭐⭐ | 质量稳定,支持推理模型 | | 豆包 | doubao-pro-4k, Doubao-Seed-1.6-flash | ⭐⭐⭐⭐ | 中文支持好 | | Claude | claude-3-5-sonnet-20241022 | ⭐⭐⭐⭐ | 逻辑推理强 | | Gemini | gemini-1.5-pro, gemini-2.0-flash | ⭐⭐⭐ | 多模态支持 | | 智谱AI | glm-4, glm-4-flash | ⭐⭐⭐ | 国产化选择 | | 本地模型 | llama3.1, qwen2.5 | ⭐⭐ | 数据安全 | > 🧠 **推理模型支持**: 系统现已支持推理模型(如deepseek-r1、o1系列),能够自动处理包含思考过程的响应,智能过滤思考内容并提取有效数据。详见 [推理模型支持文档](docs/reasoning_models_support.md) ### 🚀 自定义提供商(全新支持) **支持任何OpenAI兼容的API接口,包括但不限于:** - 🌙 **月之暗面** (Moonshot): moonshot-v1-128k - 🔥 **阿里通义千问** (Qwen): qwen-max-2024 - 🎯 **百度文心一言** (ERNIE): ernie-4.0-turbo - ⚡ **腾讯混元** (Hunyuan): hunyuan-pro - ✨ **讯飞星火** (Spark): spark-max - 🎨 **360智脑** (360GPT): 360gpt-pro - 🔮 **商汤日日新** (SenseNova): nova-ptc-xl - 🌟 **其他任何OpenAI兼容的API** > 🎉 **重大更新**: 系统现已支持任意AI模型,不再受限于预定义列表!详见 [自定义模型指南](docs/CUSTOM_MODELS_GUIDE.md) ## 🛠️ 技术栈 - **后端**:FastAPI + Pydantic + SQLite + APScheduler - **前端**:原生HTML/CSS/JavaScript,响应式设计 - **AI集成**:多模型适配器架构,统一接口 ## 📦 快速开始 ### 环境要求 - Python 3.8+ - 8GB+ 内存(推荐) - 稳定的网络连接 ### 安装步骤 ```bash # 1. 克隆项目 git clone cd auto_case # 2. 创建虚拟环境 python -m venv venv # Windows: venv\Scripts\activate # Linux/Mac: source venv/bin/activate # 3. 安装依赖 pip install -r requirements.txt # 4. 配置环境变量(复制.env.example为.env并编辑) cp .env.example .env # 编辑.env文件,设置AI模型API密钥 # 5. 启动应用 python main.py # 6. 访问应用 # 打开浏览器访问:http://localhost:8000 ``` ### Docker 部署 ```bash docker build -t auto-case . docker run -p 8000:8000 -v $(pwd)/.env:/app/.env auto-case ``` ## ⚙️ 配置说明 ### 🎯 预定义提供商配置 在 `.env` 文件中配置AI模型参数: ```env # 基本配置 LLM_PROVIDER=deepseek # 选择AI提供商 LLM_API_KEY=your-api-key-here LLM_MODEL=deepseek-v3 # 支持任意模型名称 # DeepSeek(推荐) DEEPSEEK_API_KEY=sk-your-deepseek-key DEEPSEEK_MODEL=deepseek-v3 # 最新模型 # OpenAI OPENAI_API_KEY=sk-your-openai-key OPENAI_MODEL=gpt-4o-2024-12-17 # 最新模型 # 豆包 DOUBAO_API_KEY=your-doubao-key DOUBAO_MODEL=doubao-2.0-ultra-256k # 最新模型 ``` ### 🚀 自定义提供商配置 支持任何OpenAI兼容的API: ```env # 月之暗面 Moonshot LLM_PROVIDER=moonshot LLM_MODEL=moonshot-v1-128k LLM_API_KEY=your-moonshot-api-key LLM_API_URL=https://api.moonshot.cn/v1/chat/completions # 阿里通义千问 LLM_PROVIDER=qwen LLM_MODEL=qwen-max-2024 LLM_API_KEY=your-qwen-api-key LLM_API_URL=https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation # 任意自定义提供商 LLM_PROVIDER=your-custom-provider LLM_MODEL=your-custom-model LLM_API_KEY=your-api-key LLM_API_URL=https://api.example.com/v1/chat/completions ``` > 📖 **详细配置说明**:查看 [docs/configuration.md](docs/configuration.md) 了解完整配置选项 > 🚀 **自定义模型指南**:查看 [docs/CUSTOM_MODELS_GUIDE.md](docs/CUSTOM_MODELS_GUIDE.md) 了解如何使用任意AI模型 ## 📖 使用指南 ### 基本使用流程 1. **输入需求**:在页面中输入需求描述或上传需求文档 2. **生成用例**:点击"生成测试用例"按钮,AI自动生成 3. **管理用例**:在用例列表中查看、编辑、删除用例 4. **导出用例**:支持导出为Excel格式 ### 支持的文档格式 - `.docx` - Word文档 - `.pdf` - PDF文档 - `.txt` - 纯文本 - `.md` - Markdown文档 > 📖 **详细使用说明**:查看 [docs/user-guide.md](docs/user-guide.md) 了解完整使用方法 ## 🏗️ 项目结构 ``` auto_case/ ├── app/ # 应用主目录 │ ├── api/ # API路由 │ ├── config/ # 配置管理 │ ├── models/ # 数据模型 │ ├── services/ # 业务服务 │ │ ├── llm/ # LLM服务模块 │ │ ├── parsers/ # 文档解析模块 │ │ └── model_adapters/ # AI模型适配器 │ └── utils/ # 工具函数 ├── docs/ # 详细文档 ├── tests/ # 测试文件 ├── main.py # 应用入口 └── requirements.txt # 依赖列表 ``` ## 🔧 开发指南 ### 使用自定义AI模型 **无需修改代码!** 系统现已支持任意OpenAI兼容的API: 1. **直接配置环境变量**:设置提供商名称、API密钥、URL和模型名称 2. **自动适配**:系统自动使用通用适配器处理未知提供商 3. **智能检测**:自动检测API特性(如JSON格式支持) ### 添加专用适配器(可选) 如需为特定提供商添加专用适配器: 1. 在 `app/services/model_adapters/` 创建适配器 2. 在 `model_factory.py` 中注册适配器 3. 在 `settings.py` 中添加配置 ### 运行测试 ```bash pytest # 运行所有测试 pytest tests/test_api.py # 运行特定测试 ``` > 📖 **开发文档**:查看 [docs/development.md](docs/development.md) 了解详细开发指南 ## 🐛 故障排除 ### 常见问题 - **生成0个用例**:检查API密钥配置和网络连接 - **请求超时**:增加超时时间配置或简化需求描述 - **文档解析失败**:确保文档格式正确,大小不超过50MB - **模型连接失败**:验证API密钥和模型配置 ### 诊断工具 ```bash python debug_config.py # 调试配置问题 python check_db.py # 检查数据库状态 tail -f logs/app.log # 查看实时日志 ``` > 📖 **详细故障排除**:查看 [docs/troubleshooting.md](docs/troubleshooting.md) 了解完整解决方案 ## 📊 性能指标 - **单次生成**:最多100个测试用例 - **文档大小**:最大50MB - **生成效率**:简单需求30秒,复杂需求3-5分钟 - **准确率**:用例完整性95%+,格式规范性99%+ ## 🤝 贡献 & 许可证 欢迎提交 Issue 和 Pull Request!本项目采用 MIT 许可证。 ## 📚 文档 - [🚀 自定义模型支持指南](docs/CUSTOM_MODELS_GUIDE.md) **← 新功能** - [📖 详细配置说明](docs/configuration.md) - [📖 使用指南](docs/user-guide.md) - [📖 开发文档](docs/development.md) - [📖 故障排除](docs/troubleshooting.md) - [📖 更新日志](CHANGELOG.md) ---
**⭐ 如果这个项目对您有帮助,请给我们一个星标!** **让AI为您的测试工作赋能!🚀**