Temporäre Integration anderer KI-Modelle
Ollama
- Laden Sie ollama von der offiziellen Website herunter und installieren Sie es
- Führen Sie
OLLAMA_ORIGINS="*" ollama serve
aus (erlaubt Zugriff von anderen Ursprüngen und startet ollama) - Gehen Sie zur Einstellungsseite des Plugins und wählen Sie openAI als Übersetzungsdienst
- api_key: ollama
- Benutzerdefiniertes Modell: llama2, andere Modelle
- Benutzerdefinierte URL: http://localhost:11434/v1/chat/completions
- Zugehörige Referenzdokumente
Groq
- Gehen Sie zur Einstellungsseite des Plugins und wählen Sie openAI als Übersetzungsdienst
Claude
- Einsatz von Claude in ChatGPT mit Docker/Cloudflare Claude in ChatGPT
- Gehe zur Einstellungsseite des Plugins und wähle openAI als Übersetzungsdienst
- api_key: Erhalte den api_key
- Benutzerdefiniertes Modell: claude-instant-1, claude-2
- Benutzerdefinierte URL-Adresse: http://localhost:8000/v1/chat/completions
- Siehe Rate Limits für Frequenzbeschränkungen
- Hinweise
- Beachte die Export-IP
- Es wird empfohlen, dies nur für die Funktionen Mouseover und Eingabeerweiterung zu verwenden