跳到主要内容

其他 AI 模型临时接入

Ollama

  • 官网下载安装 ollama
  • MacOS
    • OLLAMA_ORIGINS="*" ollama serve (允许跨域访问并启动ollama)
  • Windows
    • 在控制面板-系统属性-环境变量-用户环境变量新建变量名"OLLAMA_HOST"变量值"0.0.0.0",变量名"OLLAMA_ORIGINS"变量值"*"
  • 进入插件的设置页,翻译服务选择 openAI
    • api_key: ollama
    • 自定义模型: llama2 、other models
    • 自定义 URL 地址: http://localhost:11434/v1/chat/completions
  • 相关参考文档

Groq