Pular para o conteúdo principal
Upgrade to Pro
Português (Brasil)
简体中文
繁體中文
繁體中文(香港)
English
日本語
العربية
Deutsch
Español
Français
हिन्दी
Italiano
한국어
Português
Português (Brasil)
Русский

Como implementar Outros Modelos de IA no Immersive Translate

Ollama

  1. Instalação:

    • Baixe e instale o Ollama a partir do site oficial.
    • MacOS: Execute OLLAMA_ORIGINS="*" ollama serve para permitir acesso de várias origens e iniciar o Ollama.
    • Windows:
      • Vá em "Painel de Controle" > "Propriedades do Sistema" > "Variáveis de Ambiente" > "Variáveis de Ambiente do Usuário".
      • Crie uma variável chamada OLLAMA_HOST com o valor 0.0.0.0.
      • Crie outra variável chamada OLLAMA_ORIGINS com o valor *.
  2. Configuração no Immersive Translate:

Referência: https://github.com/ollama/ollama/issues/2335

Groq

  1. Configuração no Immersive Translate:

    • Na página de configurações do plugin, selecione "OpenAI" como serviço de tradução.
    • Preencha os campos:
      • api_key: api_key Obtenha sua chave de API aqui.
      • Modelo personalizado: mixtral-8x7b-32768, llama2-70b-4096
      • URL personalizada: https://api.groq.com/openai/v1/chat/completions
  2. Limitações:

    • Controle de taxa: 20/min+25/10min
    • Recomendação: Utilize o Groq para os recursos de realce de entrada e "Passar o mouse".

Claude

  1. Implementação:

    • Utilize o projeto Claude to ChatGPT para implementar o Claude no ChatGPT usando Docker/Cloudflare.
  2. Configuração no Immersive Translate:

  3. Observações: