Pular para o conteúdo principal

Como implementar Outros Modelos de IA no Immersive Translate

Ollama

  1. Instalação:

    • Baixe e instale o Ollama a partir do site oficial.
    • MacOS: Execute OLLAMA_ORIGINS="*" ollama serve para permitir acesso de várias origens e iniciar o Ollama.
    • Windows:
      • Vá em "Painel de Controle" > "Propriedades do Sistema" > "Variáveis de Ambiente" > "Variáveis de Ambiente do Usuário".
      • Crie uma variável chamada OLLAMA_HOST com o valor 0.0.0.0.
      • Crie outra variável chamada OLLAMA_ORIGINS com o valor *.
  2. Configuração no Immersive Translate:

Referência: https://github.com/ollama/ollama/issues/2335

Groq

  1. Configuração no Immersive Translate:

    • Na página de configurações do plugin, selecione "OpenAI" como serviço de tradução.
    • Preencha os campos:
      • api_key: api_key Obtenha sua chave de API aqui.
      • Modelo personalizado: mixtral-8x7b-32768, llama2-70b-4096
      • URL personalizada: https://api.groq.com/openai/v1/chat/completions
  2. Limitações:

    • Controle de taxa: 20/min+25/10min
    • Recomendação: Utilize o Groq para os recursos de realce de entrada e "Passar o mouse".

Claude

  1. Implementação:

    • Utilize o projeto Claude to ChatGPT para implementar o Claude no ChatGPT usando Docker/Cloudflare.
  2. Configuração no Immersive Translate:

  3. Observações: