# vosk_demo **Repository Path**: ai-medi-tech/vosk_demo ## Basic Information - **Project Name**: vosk_demo - **Description**: No description available - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-11-04 - **Last Updated**: 2025-11-05 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # Vosk 语音识别演示 这是一个基于 [Vosk](https://alphacephei.com/vosk/) 的语音识别演示项目,提供了一个简单的 Python 接口用于语音识别任务。 --- ## 📌 功能简介 该项目实现了基础的语音识别功能,主要包含以下内容: - 使用指定模型路径进行语音识别 - 支持指定设备(如 GPU)进行推理 - 支持自定义采样率(默认为 16000) --- ## 📦 主要文件 - `main.py`:核心代码,提供 `speech_recognition` 函数用于语音识别。 --- ## 🚀 使用方法 ### 安装依赖 请确保已安装 Python 和相关依赖库。可以使用以下命令安装依赖: ```bash pip install vosk ``` ### 安装FFmpeg ```bash https://www.gyan.dev/ffmpeg/builds/packages/ffmpeg-7.1.1-essentials_build.zip ``` 解压到到 当前目录的ffmpeg下 ### 运行示例 ```python from main import speech_recognition result = speech_recognition(model_path="path/to/model", device="cpu", samplerate=16000) print(result) ``` --- ## 📝 注意事项 - 请确保已下载并指定正确的模型路径。 - 支持设备参数如 `"cpu"` 或 `"cuda"`(取决于你的环境支持)。 - 采样率需与模型训练时使用的采样率一致。 --- ## 📎 许可证 本项目遵循 [Apache-2.0](LICENSE) 许可证。