

统一声明:
1.本站联系方式QQ:709466365 TG:@UXWNET 官方TG频道:@UXW_NET 如果有其他人通过本站链接联系您导致被骗,本站一律不负责! 2.需要付费搭建请联系站长QQ:709466365 TG:@UXWNET 3.免实名域名注册购买- 游侠云域名 4.免实名国外服务器购买- 游侠网云服务
本地AI大模型搭建:从安装到启动的3步实操
别被“本地部署”吓到,ollama对电脑要求真不高。我自己用的是4年前买的笔记本,i5处理器、16G内存,跑中小型模型完全没问题。你只要确保电脑满足这几点:系统是Windows 10以上、macOS 12以上或者常见的Linux发行版(比如Ubuntu);硬盘至少留20G空间(模型文件要占地方);网络能临时联网下载模型(下完就能断网用)。
安装ollama超简单,官网(ollama.com,nofollow)直接下安装包,点两下就好。不同系统的安装命令稍微不一样,我整理了个表格,你对着抄作业就行:
系统类型 | 安装命令/方式 | 验证是否安装成功 |
---|---|---|
Windows | 官网下载.exe安装包,双击运行 | 按Win+R输入cmd,敲ollama version ,显示版本号即可 |
macOS | 官网下载.dmg,拖到应用文件夹 | 启动台打开终端,敲ollama version
|
Linux | 终端输入curl -fsSL https://ollama.com/install.sh | sh
|
同Windows,敲ollama version
|
我踩过的坑
:第一次在Windows上装的时候,安装完敲命令没反应,后来发现是没重启终端——你装完记得关掉命令行窗口重开,不然可能识别不到ollama命令。
模型不用贪大,我刚开始就犯了傻,非要下70亿参数的Llama 3,结果我那16G内存的电脑卡到动不了。其实对新手来说,先从中小模型试起更合适,我整理了3个亲测好用的,你可以按自己电脑配置选:
模型名称 | 大小 | 推荐配置 | 特点 |
---|---|---|---|
Phi-3-mini | 2.3G | 8G内存 | 超轻量,适合低配电脑,对话流畅 |
Mistral 7B | 4.1G | 16G内存 | 平衡性能和速度,写文案、答问题都在行 |
Llama 3 8B | 4.7G | 16G内存+固态盘 | Meta官方模型,逻辑能力强 |
选好模型后,直接在命令行敲ollama run 模型名
就行,比如想装Phi-3-mini,就输ollama run phi3
。ollama会自动下载模型,网速慢的话可以用手机热点(我家宽带50M,下Mistral用了20分钟,换5G热点10分钟就好了)。下载过程中别关窗口,进度条走完会自动启动模型,出现>>>
提示符就说明成功了,你可以直接打字跟它聊天,比如问“写一个周末出游计划”,试试它的反应。
模型启动后,先别急着调用,最好本地测试一下是否正常工作。最简单的办法是在命令行直接对话,比如输入“你是谁?”,模型会回复类似“我是由ollama运行的AI助手”。如果没反应,可能是这两个问题:
netstat -ano | findstr 11434
(Windows)看看谁占了端口,关掉那个程序就行。我之前就是开着另一个AI工具,端口冲突了,关了就好。 ollama rm 模型名
,比如ollama rm mistral
,然后重新run
一遍。 应用调用实战:3种场景教你把模型用起来
搭好模型只是第一步,能用起来才是关键。我 了3个最实用的调用场景,从简单到进阶,你可以按需求选着试。
如果你只是偶尔想让模型写点东西、解答问题,直接在命令行用最方便。除了打字聊天,还有几个实用小技巧:
/reset
就能清空历史记录,像微信“清除聊天记录”一样。 /set temperature 0.8
(默认0.7),数值越高回答越有创造性(但可能离谱);想让回答更简洁,就调max_tokens 200
限制字数。我上次写小红书文案,把temperature调到0.9,模型写出好几个有趣的标题,比默认的呆板版本强多了。 Ctrl+Shift+S
(Windows)或Cmd+S
(Mac),就能保存成文本文件,方便后续整理。 如果你会点Python,用API调用能玩出更多花样。ollama默认开启API服务,地址是http://localhost:11434/api/chat
,你只要给这个地址发“消息”,模型就会回复。我写了个超简单的示例代码,你复制过去改改就能用:
import requests
def chat_with_model(message):
url = "http://localhost:11434/api/chat"
data = {
"model": "mistral", # 换成你装的模型名
"messages": [{"role": "user", "content": message}]
}
response = requests.post(url, json=data)
return response.json()["message"]["content"]
调用示例:让模型写一封请假邮件
print(chat_with_model("帮我写一封因感冒请假2天的邮件,语气正式点"))
我用这个方法帮朋友做过一个“本地知识库”:把他公司的产品文档喂给模型,然后用API调用让模型回答客户常见问题,比人工回复快多了。你如果懂点前端,甚至能搭个网页界面,像用ChatGPT一样和本地模型聊天——GitHub上有很多现成的开源界面(比如Open WebUI,nofollow),直接下载就能连到本地ollama,不用自己写代码。
如果你不想碰代码,也有现成工具能直接用本地模型。我试过5个工具,这3个最顺手:
http://localhost:11434
就能用,支持历史记录、模型切换,适合纯小白。 http://localhost:11434/v1
,就能把本地模型当“ChatGPT平替”用,界面和ChatGPT几乎一样,我同事还以为我偷偷开了ChatGPT会员。 其实本地搭AI大模型真没那么难,我刚开始以为要学Docker、配环境变量,结果全程就敲了几个命令,半小时就跑起来了。现在我用它写周报、改文案,甚至帮孩子检查作业,完全不用联网,数据都存在自己电脑里,安全感也高。
你如果按这些步骤试了,欢迎回来告诉我你用的哪个模型、遇到了什么问题——比如“我Phi-3跑起来很卡”或者“Llama 3回答超准”,咱们一起看看怎么优化!
你是不是也担心过,用本地模型的时候,聊天记录会不会偷偷传到网上去?尤其是处理一些敏感内容,比如公司的项目文档、客户资料,或者个人的私密问题,总怕数据飘到云端被别人看到。我之前帮一个做财务的朋友搭本地模型时,他就反复问我这个问题——毕竟他们每天要处理大量报表数据,对隐私要求特别高。后来我让他试了个简单办法:把家里的路由器拔掉,断网状态下用ollama跑模型,结果照样能正常聊天、分析表格,这才彻底放心。
其实ollama的设计思路就是“本地优先”,所有东西都存在你自己的电脑里。你下载的模型文件,比如Mistral或者Llama 3,会老老实实待在硬盘的.ollama/models
文件夹里,就像你电脑里的Word文档一样,别人不碰你电脑根本拿不到。聊天记录更不用担心,除非你主动保存成文本文件,否则关掉命令行窗口后,对话数据就只存在内存里,下次重启模型都是全新的开始。我自己用它写过几版没公开的小说草稿,就算电脑借给朋友用,他们也看不到我和模型聊过什么——这种“数据完全自己掌控”的感觉,比用云端AI踏实多了。
我的电脑内存只有8G,能运行ollama和模型吗?
可以优先选择超轻量模型,如Phi-3-mini(2.3G),8G内存基本能流畅运行。但需注意关闭其他占用内存的程序(如浏览器多个标签页、视频软件),避免卡顿。如果运行时提示内存不足,可尝试减少模型上下文长度(通过/set context 2048
命令)。
模型下载速度很慢,有什么解决办法?
可以尝试切换网络(如手机热点,5G网络通常比宽带更快),或在非高峰时段下载(如凌晨)。若频繁中断,可手动下载模型文件(部分社区提供磁力链接),放到ollama默认模型目录(Windows在C:Users用户名.ollamamodels
,macOS/Linux在~/.ollama/models
),再通过ollama create 模型名 -f Modelfile
手动加载。
调用API时提示“连接失败”,可能是什么原因?
首先检查ollama服务是否启动(命令行输入ollama ps
,显示“running”说明正常);其次确认端口是否被占用(默认11434端口,可用netstat -ano | findstr 11434
查看),关闭占用程序或重启电脑;最后检查API地址是否正确(本地调用统一为http://localhost:11434/api/chat
)。
能否在同一台电脑上同时运行多个ollama模型?
可以,但需注意内存和硬盘空间。例如16G内存电脑,同时运行Phi-3-mini(2.3G)和Mistral 7B(4.1G)通常没问题,但同时运行Llama 3 8B(4.7G)和更大模型可能导致卡顿。启动第二个模型时,新开命令行窗口输入ollama run 模型名
即可,每个模型独立占用端口,不会冲突。
本地模型的数据会上传到云端吗?隐私安全吗?
完全隐私安全。ollama所有操作都在本地完成,模型文件存储在电脑硬盘,对话数据不会上传到任何云端服务器。即使断网,已下载的模型仍可正常使用,适合处理敏感信息(如个人文档、企业数据)。
2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
7. 如遇到加密压缩包,请使用WINRAR解压,如遇到无法解压的请联系管理员!
8. 精力有限,不少源码未能详细测试(解密),不能分辨部分源码是病毒还是误报,所以没有进行任何修改,大家使用前请进行甄别!
站长QQ:709466365 站长邮箱:709466365@qq.com