Zum Hauptinhalt springen

Temporäre Integration anderer KI-Modelle

Ollama

  • Laden Sie ollama von der offiziellen Website herunter und installieren Sie es
  • Führen Sie OLLAMA_ORIGINS="*" ollama serve aus (erlaubt Zugriff von anderen Ursprüngen und startet ollama)
  • Gehen Sie zur Einstellungsseite des Plugins und wählen Sie openAI als Übersetzungsdienst
    • api_key: ollama
    • Benutzerdefiniertes Modell: llama2, andere Modelle
    • Benutzerdefinierte URL: http://localhost:11434/v1/chat/completions
  • Zugehörige Referenzdokumente

Groq

Claude

  • Einsatz von Claude in ChatGPT mit Docker/Cloudflare Claude in ChatGPT
  • Gehe zur Einstellungsseite des Plugins und wähle openAI als Übersetzungsdienst
    • api_key: Erhalte den api_key
    • Benutzerdefiniertes Modell: claude-instant-1, claude-2
    • Benutzerdefinierte URL-Adresse: http://localhost:8000/v1/chat/completions
    • Siehe Rate Limits für Frequenzbeschränkungen
    • Hinweise
      • Beachte die Export-IP
      • Es wird empfohlen, dies nur für die Funktionen Mouseover und Eingabeerweiterung zu verwenden