Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

可以调用自己部署的模型API 或者其他大模型API吗? #119

Open
ThrallOtaku opened this issue Jan 31, 2025 · 7 comments
Open

Comments

@ThrallOtaku
Copy link

可以调用自己部署的模型API 或者其他大模型API吗? 应该在哪个文件改代码?

@WangCY037
Copy link

同求,希望能增加api调用功能

@78
Copy link
Owner

78 commented Feb 2, 2025

目前正在内测切换大模型的功能,但由于普遍大模型 API 延迟较为严重,会额外增加1~2秒的应答时间,导致体验不佳。如果希望自定义模型 API,可以考虑采用其他开源项目如 ESPAI 的方案。

@lanhung
Copy link

lanhung commented Feb 2, 2025

其实也不是所有的客户都需要非常及时的响应,但是很多客户都需要连接到自己微调后的大语言模型上,所以有时候增加五秒都没关系,主要是连接大模型的接口能不能开放一下,或者至少出一个demo连一个大模型?

@Zc365
Copy link

Zc365 commented Feb 2, 2025

目前正在内测切换大模型的功能,但由于普遍大模型 API 延迟较为严重,会额外增加1~2秒的应答时间,导致体验不佳。如果希望自定义模型 API,可以考虑采用其他开源项目如 ESPAI 的方案。

后台模型可以改用deepseek吧?应该比qwen强

@kaiyuanwansui
Copy link

https://github.com/xinnan-tech/xiaozhi-esp32-server

有群友实现了简单版本的后端,可以对接dify,自由编排

@960208781
Copy link

目前正在内测切换大模型的功能,但由于普遍大模型 API 延迟较为严重,会额外增加1~2秒的应答时间,导致体验不佳。如果希望自定义模型 API,可以考虑采用其他开源项目如 ESPAI 的方案。

后台模型可以改用deepseek吧?应该比qwen强

有提供deepseek的, 毕竟是推理模型, 都会有延迟, 体验不太好

@NevermoreN
Copy link

目前正在内测切换大模型的功能,但由于普遍大模型 API 延迟较为严重,会额外增加1~2秒的应答时间,导致体验不佳。如果希望自定义模型 API,可以考虑采用其他开源项目如 ESPAI 的方案

可以不用多快 但是可以给用户自己一个选择嘛

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

8 participants