
Cherry Studio
Cherry Studio AI 是一款强大的多模型 AI 助手,支持 iOS、macOS 和 Windows 平台。快速切换多个先进的 LLM 模型,提升工作学习效率。
本地大语言模型“一站式”部署与运行平台
Ollama(ollama.com)是一款开源、跨平台的本地大模型运行框架,被称为“大模型界的 Docker”。它通过极简的命令行与标准化 API,让用户在 Windows / macOS / Linux 乃至 Docker 容器内,一条指令即可拉取、部署并运行 Llama 3、DeepSeek、Mistral、Gemma 等主流开源大模型,无需云算力即可实现离线、低延迟、高隐私的 AI 推理服务。
ollama run llama3.2 即可在本地启动 8B 模型对话,支持 CPU / GPU(CUDA & ROCm)混合推理,自动量化降低显存占用 3–4 倍。pull / push / list / rm / cp 等 Docker 风格命令,轻松切换多版本。username/model。ollama search deepseek 在线检索,ollama pull deepseek-r1:14b 拉取ollama run model 交互式对话POST http://127.0.0.1:11434/api/chat JSON 接口localhost:11434 图形化聊天OLLAMA_HOST、OLLAMA_MODELS、OLLAMA_NUM_PARALLEL 自定义端口、并发、缓存路径ollama/ollama 一键部署ollama push username/my-model 发布模型| 操作系统 | 安装方式 |
|---|---|
| macOS | brew install ollama 或下载 dmg |
| Windows | 双击 OllamaSetup.exe,默认安装至 C 盘,可 /DIR= 指定路径 |
| Linux | curl -fsSL https://ollama.com/install.sh | sh 或手动二进制 |
| Docker | docker run -d -p 11434:11434 ollama/ollama |
硬件建议:7 B 模型 ≥ 8 GB RAM,14 B ≥ 16 GB RAM,33 B ≥ 32 GB RAM;NVIDIA/AMD GPU 可显著加速。