Ollama
💡 從外掛版本 1.15.1 開始支援
簡要說明
- 官方網站:Ollama
- 官方資費說明:本地運行的大模型,完全免費
使用方法
- 打開 Ollama 下載 Ollama
- 打開 模型列表下載模型,比如可以使用
ollama pull llama3.3
下載 llama3.3 模型 - APIKEY 使用預設的即可,啟動 Ollama,比如可以使用
ollama run llama3.3
啟動 llama3.3 - 完成 🎉,如有疑惑的地方,請在 這裡 反饋。
參考檔案
常見問題說明
-
使用區域網的接口地址時出現跨域問題?
此時允許跨域即可:
- macOS:命令行執行
launchctl setenv OLLAMA_ORIGINS "*"
,再啟動 App。 - Windows:控制面板 - 系統屬性 - 環境變數 - 使用者環境變數新建 2 個環境變數:變數名
OLLAMA_HOST
變數值0.0.0.0
,變數名OLLAMA_ORIGINS
變數值*
,再啟動 App。 - Linux:命令行執行
OLLAMA_ORIGINS="*" ollama serve
。
- macOS:命令行執行
-
使用油猴腳本時,自訂接口地址請求失敗?
油猴腳本要求腳本的所有請求都需要在腳本的開頭聲明權限,比如:
http://localhost:11434
,所以,如果你需要新增一個非預設的域名,請在油猴腳本開頭仿照其他域名進行聲明。