GPT4Free-TS 项目使用指南:从接口说明到部署实践
2025-07-07 03:17:07作者:段琳惟
项目概述
GPT4Free-TS 是一个提供多种大语言模型访问接口的开源项目,支持包括 GPT-4、GPT-3.5-turbo 等多种模型,通过统一的 API 接口提供服务。本文将详细介绍该项目的接口功能、环境配置、部署方法以及使用技巧。
接口功能详解
1. 核心接口说明
项目提供了三类主要接口,满足不同场景下的使用需求:
-
支持查询接口
/supports
- 功能:查询当前项目支持的所有站点和模型
- 返回值:JSON格式,包含可用站点和对应支持的模型列表
-
简化问答接口
/ask
:标准问答接口,等待完整响应后返回/ask/stream
:流式问答接口,适合需要实时显示的场景
-
AI服务兼容接口
/:site/v1/chat/completions
- 完全兼容主流AI服务API格式
- 使用前需通过/supports查询可用站点
- 将
:site
替换为实际站点名称即可使用
环境配置指南
2.1 环境变量配置
项目通过.env文件配置运行参数,关键配置项包括:
- 代理设置:
http_proxy
指定网络代理地址 - 重试机制:
RETRY
设置请求失败自动重试次数 - 账号池配置:各类站点的账号池大小设置
COPILOT_POOL_SIZE
:Copilot账号数量POE_POOL_SIZE
:Poe账号数量PERPLEXITY_POOL_SIZE
:Perplexity账号数量
- 认证信息:各平台所需的token或cookie
POE_PB
:Poe平台的PB认证信息PERPLEXITY_TOKEN
:Perplexity平台token
重要提示:
- 实际使用时需删除所有注释
- Docker Compose部署时应直接将变量写入docker-compose.yaml
2.2 负载均衡配置
run/config.json文件实现智能路由功能,主要特点:
- 模型-站点映射:定义不同模型可用的后端站点
- 优先级设置:通过priority字段控制站点调用顺序
- 动态生效:修改后无需重启服务
配置示例说明:
{
"site_map": {
"gpt-4": [
{"site": "poe", "priority": 20},
{"site": "perplexity", "priority": 20}
],
"gpt-3.5-turbo": [
{"site": "bai", "priority": 50},
{"site": "copilot", "priority": 0}
]
}
}
部署实践教程
3.1 Docker Compose部署(推荐方案)
前置条件:
- 已安装Docker和Docker Compose
- 如需使用私有镜像,需先执行docker login
部署步骤:
- 创建docker-compose.yaml文件:
version: "3.9"
services:
gpt4free:
image: gpt4freets/gpt4free-ts:v0.0.46-private
ports:
- "3000:3000"
restart: always
volumes:
- ./run:/usr/src/app/run
environment:
- http_proxy=http://127.0.0.1:7890
- POE_PB=your_poe_pb_token
- POE_POOL_SIZE=2
- 启动服务:
docker-compose up -d
- 验证部署:
访问
http://服务器IP:3000/poe/v1/chat/completions
测试API是否可用
3.2 其他部署方式
项目还支持多种部署方案,包括:
- 纯Docker部署:适合简单测试场景
- Sealos部署:面向云原生环境
- Windows Docker:Windows平台下的容器化部署
最佳实践建议
-
账号管理:
- 合理设置POOL_SIZE避免资源浪费
- 多账号配置时使用"|"分隔各项
-
负载均衡:
- 根据站点稳定性调整priority值
- 高priority站点会被优先调用
-
性能优化:
- 流式接口适合前端实时展示场景
- 合理设置RETRY值平衡成功率与响应时间
-
安全建议:
- 重要信息如token不应直接提交到版本库
- 生产环境建议使用私有镜像部署
通过本文介绍,开发者可以快速掌握GPT4Free-TS项目的核心功能与部署方法,根据实际需求选择合适的接口和配置方案。项目提供的多模型支持和负载均衡能力,使其成为构建AI应用的理想基础平台。