Guide
UI
Commands
- ollama list : 查看以配置本地模型
- ollama run {model} : 下載/執行模型
- ollama ps : 展示目前載入的模型、它們所佔的記憶體大小以及所使用的處理器類型(GPU 或 CPU)
Use model from Ollama
Use GGUF model from Hugging Face Hub
# Run Ollama with specified model
# ollama run hf.co/{username}/{repository}
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF
# Run Ollama with specified model and desired quantization
# ollama run hf.co/{username}/{repository}:{quantization}
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:IQ3_M
Use GGUF model from local
import_gguf_to_ollama.bat
@echo off
REM 設定本地環境,並切換到批次檔所在的目錄
setlocal
cd /d %~dp0
REM 搜尋當前目錄中的 .gguf 檔案
for %%f in (*.gguf) do (
REM 創建 Modelfile.txt 並寫入模型檔案名稱
echo FROM %%~nf.gguf > Modelfile.txt
REM 打印 Modelfile.txt 的內容以供確認
type Modelfile.txt
REM 執行 ollama create 命令來包裝模型檔
ollama create %%~nf -f Modelfile.txt
REM 刪除 Modelfile.txt
del Modelfile.txt
REM 如果有多個 gguf 檔案,只處理第一個找到的檔案
goto end
)
:end
REM 顯示完成訊息
echo done...
REM 列出已經存在的模型
ollama list
REM 等待用戶確認並關閉
pause >nul