本地部署DeepSeek

一、Ollama

Ollama是一个开源工具,专注于在本地运行、管理和部署大型语言模型(LLMs)。它简化了在本地机器上运行这些模型的过程,适合开发者、研究人员或任何希望在没有云服务依赖的情况下使用LLMs的用户。

本次部署直接用Ollama,一种简单直接的解决方案。

二、具体部署流程

  1. 安装Ollama,Ollama官网
  2. 配置用户环境变量
     OLLAMA_HOST     0.0.0.0:11434
     OLLAMA_MODELS   D:\ollamaModels
    
  3. 下载DeepSeek模型,根据本地环境,量力而行
     ollama run deepseek-r1:1.5b
     ollama run deepseek-r1:32b
    
  4. 下载完成后即可与模型交互

results matching ""

    No results matching ""