本项目基于 RAG(Retrieval-Augmented Generation)技术构建了一个问答系统,后端使用了嵌入模型、FAISS 向量数据库以及 Flask 提供 API 接口,前端使用 Vue 框架进行开发,整体结合阿里大模型以提升问答效果与智能化能力。
项目根目录/ ├── mffaq-rag-qa/ ←←← 后端代码(Flask) │ ├── api_server.py │ └── ...其他后端文件 │ └── mffaq-frontend/ ←←← 前端代码(Vue) ├── src/ ├── package.json └── vue.config.js-
后端:
-
Python 3.8+
-
sentence-transformers
-
faiss-cpu
-
transformers
-
torch
-
flask
-
openai
-
python-dotenv
-
前端:
-
Vue.js
-
Axios (用于HTTP请求)
-
Vite 或 Vue CLI (根据你的构建工具选择)
-
Ant Design Vue
后端依赖安装 请先创建并激活虚拟环境,然后安装依赖:
cd mffaq_rag_qa python -m venv venv source venv/bin/activate # Linux/macOS venv\Scripts\activate # Windows pip install -r requirements.txt前端依赖安装 进入前端目录并安装依赖:
cd ../mffaq-frontend npm install请确保当前目录下包含以下文件:
- faq.json: 包含 FAQ 的原始数据
- .env: 存放 Qwen等大模型 API 密钥等配置信息(需要手动创建)
DASHSCOPE_API_KEY=your_api_key_here运行以下命令,将 faq.json 中的问题转换为向量并保存为 embeddings.npy:
python encoding.py运行以下命令,基于 embeddings.npy 构建 FAISS 索引并保存为 index.faiss:
python build_index.py- 后端启动:
python api_server.py服务默认运行在 http://127.0.0.1:5000 你可以通过 /api/ask 接口进行问答请求
- 前端启动:
在前端项目根目录下运行以下命令启动开发服务器:
cd ../mffaq-frontend npm run serve默认情况下,服务器会在 http://localhost:8081/ 运行。


