-
Notifications
You must be signed in to change notification settings - Fork 1.2k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
可以调用自己部署的模型API 或者其他大模型API吗? #119
Comments
同求,希望能增加api调用功能 |
目前正在内测切换大模型的功能,但由于普遍大模型 API 延迟较为严重,会额外增加1~2秒的应答时间,导致体验不佳。如果希望自定义模型 API,可以考虑采用其他开源项目如 ESPAI 的方案。 |
其实也不是所有的客户都需要非常及时的响应,但是很多客户都需要连接到自己微调后的大语言模型上,所以有时候增加五秒都没关系,主要是连接大模型的接口能不能开放一下,或者至少出一个demo连一个大模型? |
后台模型可以改用deepseek吧?应该比qwen强 |
https://github.com/xinnan-tech/xiaozhi-esp32-server 有群友实现了简单版本的后端,可以对接dify,自由编排 |
有提供deepseek的, 毕竟是推理模型, 都会有延迟, 体验不太好 |
可以不用多快 但是可以给用户自己一个选择嘛 |
可以调用自己部署的模型API 或者其他大模型API吗? 应该在哪个文件改代码?
The text was updated successfully, but these errors were encountered: