其他 AI 模型临时接入
Ollama
- 从官网下载安装 ollama
- MacOS
- OLLAMA_ORIGINS="*" ollama serve (允许跨域访问并启动ollama)
- Windows
- 在控制面板-系统属性-环境变量-用户环境变量新建变量名"OLLAMA_HOST"变量值"0.0.0.0",变量名"OLLAMA_ORIGINS"变量值"*"
- 进入插件的设置页,翻译服务选择 openAI
- api_key: ollama
- 自定义模型: llama2 、other models
- 自定义 URL 地址: http://localhost:11434/v1/chat/completions
- 相关参考文档
Groq
- 进入插件的设置页,翻译服务选择 openAI
- api_key: 获取api_key
- 自定义模型: mixtral-8x7b-32768、llama2-70b-4096
- 自定义 URL 地址: https://api.groq.com/openai/v1/chat/completions
- 速率控制: 20/min+25/10min
- 注意
- 建议仅在鼠标悬停和输入增强功能处使用