一、 第一部分:Ollama 安装与使用(拉取小模型,Windows 环境)

核心目标

完成 Ollama 安装,学会拉取轻量大模型、交互式运行模型,实现 “终端提问→模型回复” 的基础功能,小白优先选择低显存占用的小模型,避免电脑卡顿。

步骤 1:Ollama 下载与安装

  1. 官网下载(安全无捆绑)直接访问 Ollama 官方下载页:Ollama Windows 下载小白避坑:下载完成后得到 .exe 安装包(文件名 OllamaSetup.exe),无需纠结版本,官网默认提供最新稳定版。

  2. 安装步骤(全程无脑下一步,关键避坑)

    • 双击 OllamaSetup.exe,弹出安装窗口,点击「Next」。
    • 同意许可协议,点击「Next」。
    • 选择安装路径:建议安装在非 C 盘(比如 D:\Software\Ollama),路径无中文、无空格(避免后续运行报错)。
    • 点击「Install」,等待安装完成(约 1-2 分钟,安装包较小)。
    • 安装完成后,点击「Finish」,Ollama 会自动后台运行(Windows 任务栏右下角会出现 Ollama 图标,说明启动成功)。
  3. 验证 Ollama 安装是否成功

    • 打开 Windows 命令提示符(Win+R,输入 cmd,回车)。
    • 输入验证命令:
      ollama --version
      
    • 运行结果:显示 ollama version x.x.x(比如 ollama version 0.1.29),说明安装成功且配置了环境变量;若提示「'ollama' 不是内部或外部命令」,重启电脑即可(Ollama 安装后会自动配置环境变量,重启生效)。

步骤 2:拉取轻量大模型(小白首选,低显存占用)

前置说明
  1. 优先选择 0.5B/1B 参数的小模型(B = 参数规模,数值越小,显存占用越低,Windows 普通电脑(8G/16G 内存)也能流畅运行)。
  2. 推荐模型:qwen2:0.5b(通义千问轻量版,中文支持好,适合小白),无需额外配置,终端一条命令即可拉取。
拉取操作(全程在 cmd 中执行)
  1. 打开 cmd,输入拉取命令(直接复制,回车执行):
    ollama pull qwen2:0.5b
    
  2. 等待下载完成:Ollama 会自动下载模型文件(约几百 MB,下载速度取决于网络),cmd 会显示下载进度条(pulling manifestpulling weightssuccess)。
  3. 小白避坑:
    • 下载慢 / 卡住:无需手动干预,耐心等待,Ollama 会自动断点续传。
    • 无网络无法下载:若后续电脑无网络,需提前在有网环境下拉取完成,模型文件会保存在 Ollama 安装目录,离线也能运行。

步骤 3:运行 Ollama 模型(交互式聊天,小白易上手)

  1. 启动模型:cmd 中输入运行命令,回车:
    ollama run qwen2:0.5b
    
  2. 验证启动成功:cmd 显示 >>> 提示符,说明模型已就绪,可开始提问。
  3. 交互式聊天示例(直接在 cmd 中输入问题,回车即可得到回复):
    • 输入:什么是AI大模型?用小白能懂的语言解释
    • 等待:模型会快速生成回复(小模型响应速度快,约 1-3 秒)。
    • 继续提问:回复完成后,仍会显示 >>> ,可继续输入下一个问题。
  4. 退出模型:输入 /bye,回车,即可退出交互式聊天,回到 cmd 默认提示符。

小白常见 Ollama 问题解决

  1. 模型运行卡顿:关闭电脑上其他大型软件(比如浏览器多标签、视频播放器),释放内存。
  2. 无法启动模型:检查 Ollama 后台是否运行(任务栏右下角有无 Ollama 图标),无则双击 Ollama 安装目录下的 ollama.exe 启动。
  3. 回复乱码:模型本身支持中文,无需额外配置,乱码多为 cmd 编码问题,可右键 cmd 窗口→「属性」→「字体」,选择「Consolas」即可。

二、 第二部分:Streamlit 基础(搭建简单网页,Windows 环境 )

核心目标

用 Python+pip 安装 Streamlit,学会编写简单网页、运行网页,实现 “浏览器可视化界面”,为后续搭建聊天机器人界面铺路。

前置准备:验证 Python 与 pip(无 Anaconda 必备)

需确保电脑已单独安装 Python(且配置了环境变量),Streamlit 通过 pip 安装(Python 自带 pip 工具)。

  1. 打开 cmd,输入以下两个命令,验证是否可用:
    # 验证Python
    python --version
    # 验证pip
    pip --version
    
  2. 运行结果:显示对应版本号(比如 Python 3.10.13pip 23.2.1),说明可用;若提示命令不识别,需先安装 Python(小白建议安装 Python 3.9/3.10,官网下载后勾选 “Add Python to PATH”)。

步骤 1:安装 Streamlit(pip 直接安装)

  1. 打开 cmd,输入安装命令(小白推荐使用国内镜像源,下载速度更快,避免超时失败):
    pip install streamlit -i https://pypi.tuna.tsinghua.edu.cn/simple
    
  2. 等待安装完成:cmd 会显示安装进度,最后提示 Successfully installed streamlit-x.x.x,说明安装成功。
  3. 小白避坑:
    • 安装报错「Permission denied」:以 “管理员身份” 打开 cmd,重新执行安装命令。
    • 提示 pip 版本过低:先升级 pip,输入 python -m pip install --upgrade pip -i https://pypi.tuna.tsinghua.edu.cn/simple,再安装 Streamlit。

步骤 2:验证 Streamlit 安装(运行默认演示网页)

  1. cmd 中输入验证命令,回车:
    streamlit hello
    
  2. 自动执行流程:
    • Streamlit 会自动启动本地服务(显示 You can now view your Streamlit app in your browser)。
    • 自动打开默认浏览器,显示 Streamlit 演示网页(包含多个示例功能,比如绘图、数据展示)。
  3. 验证成功:浏览器能正常打开演示网页,且无报错,说明 Streamlit 安装完成且可正常运行。
  4. 关闭演示网页:
    • 浏览器直接关闭即可。
    • 回到 cmd,按 Ctrl + C,输入 y 回车,停止 Streamlit 服务。

步骤 3:编写第一个简单 Streamlit 网页(小白友好,无复杂逻辑)

核心说明

Streamlit 的核心优势:无需懂 HTML/CSS/JS,只用 Python 代码,就能搭建可视化网页,小白只需掌握几个基础函数,就能实现简单界面。

  1. 创建 Python 脚本文件

    • 新建一个文件夹(存放 Streamlit 脚本,比如 D:\AI_Study\Streamlit_Projects,路径无中文、空格)。
    • 在该文件夹中,右键→「新建」→「文本文档」,重命名为 first_streamlit_web.py后缀必须改为 .py,不是 .txt,小白注意:需先显示文件扩展名,Windows 文件夹选项中勾选 “文件扩展名”)。
  2. 编写网页代码(直接复制,注释详细)打开 first_streamlit_web.py,粘贴以下代码,保存文件(Ctrl+S):

    # 导入Streamlit库,简写为st(小白固定写法,无需修改)
    import streamlit as st
    
    # 1. 设置网页标题(显示在浏览器标签栏)
    st.set_page_config(page_title="小白学AI第一个网页")
    
    # 2. 添加网页大标题(一级标题,居中显示)
    st.title("✨ 小白AI学习网页演示")
    
    # 3. 添加普通文本内容(支持换行、格式化)
    st.write("这是用Streamlit搭建的第一个简单网页,无需懂前端知识!")
    st.write("对应大纲中的「搭建简单网页」学习目标,后续可升级为聊天机器人界面。")
    
    # 4. 添加输入框(获取用户输入的姓名)
    user_name = st.text_input("请输入你的姓名:")
    
    # 5. 添加按钮(点击按钮后,显示问候语)
    if st.button("点击获取问候"):
        # 判断用户是否输入了姓名
        if user_name:
            st.success(f"你好,{user_name}!祝你顺利掌握AI大模型开发~")
        else:
            st.warning("请先输入你的姓名哦!")
    
    # 6. 添加分隔线和备注文本
    st.divider()
    st.caption("Streamlit基础演示 | 零基础小白友好")
    
  3. 运行 Streamlit 网页

    • 打开 cmd,切换到脚本所在文件夹(比如 D:\AI_Study\Streamlit_Projects),输入切换目录命令(修改为你的文件夹路径):
      cd D:\AI_Study\Streamlit_Projects
      
    • 输入运行命令,回车:
      streamlit run first_streamlit_web.py
      
  4. 查看运行结果

    • Streamlit 自动启动本地服务,打开默认浏览器,显示你编写的网页。
    • 实操测试:输入姓名,点击按钮,查看是否显示成功问候语,体验网页交互流程。
  5. 核心基础语法总结(小白入门必备)

    Streamlit 函数 作用
    st.title() 添加一级标题,突出核心主题
    st.write() 添加普通文本、数据,支持格式化
    st.text_input() 添加文本输入框,获取用户输入
    st.button() 添加交互按钮,点击触发逻辑
    st.success()/st.warning() 显示带颜色的提示信息

步骤 4:关闭 Streamlit 服务

  • 浏览器关闭网页后,回到 cmd,按 Ctrl + C,输入 y 回车,即可停止本地服务,恢复 cmd 默认状态。

小白常见 Streamlit 问题解决

  1. 运行命令报错「No such file or directory」:检查 cd 命令是否切换到了脚本所在文件夹,或脚本文件名是否输入正确(区分大小写)。
  2. 浏览器无法打开网页:cmd 中显示的网址(比如 http://localhost:8501),手动复制到浏览器地址栏,回车访问。
  3. 网页无响应:关闭其他占用内存的软件,按 Ctrl + C 停止服务,重新运行脚本。

三、 综合实操:整合 Ollama 与 Streamlit(简易聊天界面预览)

核心目标

简单整合两者,让你直观看到 “网页界面调用本地 Ollama 模型” 的效果,后续深入学习可完善该功能,对应大纲中的「本地聊天机器人」项目。

  1. 创建整合脚本:在 Streamlit_Projects 文件夹中,新建 ollama_streamlit_chat.py,粘贴以下代码:

    import streamlit as st
    import subprocess
    
    # 设置网页标题
    st.set_page_config(page_title="小白简易AI聊天机器人")
    st.title("🤖 本地大模型聊天界面(Ollama+Streamlit)")
    
    # 输入框:获取用户提问
    user_question = st.text_input("请输入你的问题:")
    
    # 按钮:提交问题,调用Ollama模型
    if st.button("发送提问"):
        if user_question:
            st.info("模型正在思考中...")
            # 调用Ollama模型(qwen2:0.5b),获取回复
            try:
                # 执行Ollama命令,获取输出结果
                result = subprocess.run(
                    ["ollama", "run", "qwen2:0.5b", user_question],
                    capture_output=True,
                    text=True,
                    encoding="utf-8"
                )
                # 显示模型回复
                st.success("模型回复:")
                st.write(result.stdout)
            except Exception as e:
                st.error(f"出错啦:{str(e)}")
        else:
            st.warning("请先输入你的问题哦!")
    
  2. 运行整合脚本

    • cmd 切换到脚本文件夹,输入命令:
      streamlit run ollama_streamlit_chat.py
      
    • 浏览器打开网页后,输入问题(比如「什么是 LoRA 微调?」),点击「发送提问」,等待模型回复。
  3. 注意事项:该脚本为简易版本,仅作演示,后续可学习优化(比如持续聊天、格式美化等),核心是让你理解 “网页工具调用本地大模型” 的逻辑。


总结

  1. Ollama 核心:Windows 安装无脑下一步,拉取轻量模型(qwen2:0.5b),运行命令 ollama run 模型名,交互式聊天用 /bye 退出。
  2. Streamlit 核心:无 Anaconda 时用 pip 安装(搭配国内镜像源),核心命令 streamlit run 脚本名.py,入门只需掌握st.title()/st.text_input()等基础函数。
  3. 关键避坑:所有路径无中文 / 空格,cmd 命令验证安装是否成功,运行报错优先检查命令拼写和环境变量。
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐