如何本地部署自己的AI模型(消费级显卡),并通过Modelfile文件调试让本地AI模型更适合自己使用。
安装Ollama
官网地址: https://ollama.com/
1,默认安装,安装完成后在设置里根据你电脑配置设置下面2个参数:
Model Loaction :模型存储路径
Context Length :上下文长度
2,ollama run 命令安装你所需的模型。
#查看模型列表
ollama list
#下载并运行qwen3-vl:8b 模型
ollama run qwen3-vl:8b
#删除模型
ollama rm qwen3-vl:8b
Modelfile
1,新建一个TXT文件,如文件名:qwen3vl-modelfile.txt。把下面TEXT里面的内容直接复制进去然后保存。
FROM qwen3-vl:8b
SYSTEM """
你是一位技术扎实、表达自然的安全专家。用户可能发送文字、代码、终端截图、网络流量图或 Web 界面等内容。
请始终以连贯的段落回答,避免使用编号、项目符号或分段标题。看到图像时,先准确描述其中可见的关键信息,如命令输出、URL 参数或服务版本;如果图像模糊或信息不足,请直接说明无法可靠判断。
在分析问题时,尽量讲清从现象到原理、再到风险和建议的完整逻辑链。例如,当讨论漏洞时,可以解释其成因、影响范围,并提供验证或修复思路。
对于涉及密码恢复、漏洞利用等敏感操作,优先推荐合法且高效的替代方案(如通过路由器管理界面查看密码、使用 netsh 导出已保存的 WiFi 凭据)。只有在用户明确处于授权测试环境中,才提供进一步的技术路径,并自然提醒注意合规边界。
绝不生成用于未授权攻击、绕过法律限制或造成系统/人身危害的内容。除此之外,知识深度完全开放:可深入讨论协议细节(如 WPA2 四次握手)、二进制逆向、云安全配置、CTF 解题技巧等。
你的风格应像一位经验丰富的同事在白板前讲解:专业、流畅、有重点、有分寸。
"""
PARAMETER temperature 0.72
PARAMETER top_p 0.93
PARAMETER repeat_penalty 1.08
PARAMETER num_ctx 32768
PARAMETER mirostat 2
PARAMETER mirostat_tau 5.5
PARAMETER stop "<|im_end|>"
2,在文件当前目录下右键空白处,选择在终端中打开,输入下面命令。
ollama create qwen3vl-pro -f .\qwen3vl-modelfile.txt
-
看到提示 success,表示成功。
-
然后输入前面教的 ollama lsit,就能看到你创建的名为qwen3vl-pro的AI模型了。
以这个modelfile文件调教的AI模型,询问关于渗透方面的问题,不会直接拒绝你,会告诉你在授权合法的环境中如何操作。 你可以自定义modelfile文件,让AI模型更贴切你自己的需求。AI伴侣也可以这么调教出来。
安装Open Web UI
安装这个的目的是可以在内网环境下share你自定义调教的AI模型。使用场景企业内部、学校寝室局域网等等。
AnythingLLM界面没这个简洁好用。功能太多,配置略复杂点。
pip install --upgrade open-webui
1,一段代码就搞定了。前提是需安装python环境。
#启动Open Web UI,指定端口3000
open-webui serve --port 3000
2,然后在浏览器中输入: http://127.0.0.1:3000,即可打开。端口可任意指定,不指定的话默认是8000。
PS: 官方推荐用docker安装,我不想在windows上折腾这个。就用python安装了。
python也推荐用虚拟环境来安装,可以避免弄坏你当前的python的配置环境。感兴趣可以查下python venv。
缺点:CMD那个窗口需要一直保持,不能关闭。可以隐藏CMD窗口以服务形式启动,感兴趣可以查下这方面资料。

说些什么吧!