Temporäre Integration anderer KI-Modelle
Ollama
- Laden Sie ollama von der offiziellen Website herunter und installieren Sie es
- Führen Sie
OLLAMA_ORIGINS="*" ollama serve
aus (erlaubt Zugriff von anderen Ursprüngen und startet ollama) - Gehen Sie zur Einstellungsseite des Plugins und wählen Sie openAI als Übersetzungsdienst
- api_key: ollama
- Benutzerdefiniertes Modell: llama2, andere Modelle
- Benutzerdefinierte URL: http://localhost:11434/v1/chat/completions
- Zugehörige Referenzdokumente
Groq
- Gehen Sie zur Einstellungsseite des Plugins und wählen Sie openAI als Übersetzungsdienst
- api_key: Erhalten Sie api_key
- Benutzerdefiniertes Modell: mixtral-8x7b-32768, llama2-70b-4096
- Benutzerdefinierte URL: https://api.groq.com/openai/v1/chat/completions
- Rate Control: 20/min+25/10min
- Hinweis
- Es wird empfohlen, dies nur für die Funktionen Mouse-Hover und Eingabeerweiterung zu verwenden
Claude
- Einsatz von Claude in ChatGPT mit Docker/Cloudflare Claude in ChatGPT
- Gehe zur Einstellungsseite des Plugins und wähle openAI als Übersetzungsdienst
- api_key: Erhalte den api_key
- Benutzerdefiniertes Modell: claude-instant-1, claude-2
- Benutzerdefinierte URL-Adresse: http://localhost:8000/v1/chat/completions
- Siehe Rate Limits für Frequenzbeschränkungen
- Hinweise
- Beachte die Export-IP
- Es wird empfohlen, dies nur für die Funktionen Mouseover und Eingabeerweiterung zu verwenden