Intégration temporaire d'autres modèles d'IA
Ollama
- Téléchargez et installez ollama depuis le site officiel
- Exécutez
OLLAMA_ORIGINS="*" ollama serve
(permet l'accès cross-origin et démarre ollama) - Allez à la page de paramètres du plugin, et sélectionnez openAI pour le service de traduction
- clé_api : ollama
- Modèle personnalisé : llama2, autres modèles
- URL personnalisée : http://localhost:11434/v1/chat/completions
- Documents de référence associés
Groq
- Allez à la page de paramètres du plugin, et sélectionnez openAI pour le service de traduction
Claude
- Déploiement de Claude vers ChatGPT en utilisant Docker/Cloudflare Claude vers ChatGPT
- Aller à la page des paramètres du plugin, et sélectionner openAI pour le service de traduction
- api_key : Obtenir la clé API
- Modèle personnalisé : claude-instant-1, claude-2
- Adresse URL personnalisée : http://localhost:8000/v1/chat/completions
- Voir les Limites de Fréquence pour les limitations de fréquence
- Notes
- Être conscient de l'exportation IP
- Il est recommandé de l'utiliser uniquement pour les fonctionnalités d'amélioration du survol de la souris et de saisie