Lobe Chat 是一款基于 Next.js 和 TypeScript 构建的开源 AI 聊天框架,内置多模型服务(OpenAI、Claude 3、Gemini、Ollama 等),支持知识库管理、文件上传与 RAG 方案,实现全功能本地部署与私有化托管。
其现代化设计遵循 Material You 风格,提供语音合成、思维链、插件扩展与多模态交互,为开发者和终端用户打造极简且高效的对话体验。
使用方法
-
获取源码或镜像:
-
GitHub 克隆:在终端运行
git clone https://github.com/lobehub/lobe-chat.git.
-
或访问 One-Click 部署:打开 chat-preview.lobehub.com 一键体验。
-
-
安装依赖与启动:
cd lobe-chat pnpm install pnpm dev
-
配置多模型提供商:
编辑根目录下的.env.example
,填写OPENAI_API_KEY
、CLAUDE_API_KEY
等环境变量,然后重命名为.env
。 -
部署到生产环境:
-
Vercel/Zeabur/Sealos:参考官方文档,配置环境变量并开启自动部署。
-
Docker:运行
docker-compose up -d
即可快速构建私有化服务。
-
-
访问界面:
在浏览器中访问http://localhost:3000
,即可开始使用私有 ChatGPT、Claude 或 DeepSeek 应用。
功能
-
多模型服务提供商:支持 OpenAI、Claude 3、Gemini、Ollama、DeepSeek、Qwen 等多家 API,无缝切换并行调用。
-
知识库与 RAG:文件上传、知识管理、检索增强生成,帮助构建领域化智能问答系统。
-
插件与思维链:一套可扩展的插件系统(Function Calling),支持链式思考、分支对话与多模态输出。
-
本地 LLM 支持:集成 Ollama、Llama 2 等本地大模型,脱离云端,增强隐私与离线体验。
-
语音合成与识别:内置 TTS/STT 模块,实现语音对话与文字并行交互。
-
PWA 与移动适配:渐进式 Web 应用支持,手机和平板均可顺畅使用,无需额外安装。
-
自定义主题:深色/浅色模式切换,支持自定义皮肤与品牌配色。
适用场景
-
企业内部知识问答:通过 RAG 与文件上传,打造私有化智能客服与知识库助手。
-
开发者原型验证:快速接入多家 AI 提供商,检验不同大模型在项目中的表现。
-
教育与培训:本地部署,保障学生和教师数据隐私,结合插件系统实现互动式学习。
-
个人笔记与写作助手:集成思维链与多模态输出,提升创作灵感与效率。
-
跨平台即时通讯:PWA + 语音对话,适用于各类移动设备,实现随时随地的智能交流。
Libre Depot(自由仓库)原创文章、发布者:Libre Depot = 转载请注明出处:https://www.libredepot.top/zh/5370.html