在 VSCode 中配置 Ollama 使用 deepseek-coder-v2:16b 和 deepseek-r1:7b 模型的步骤

  1. 下载Ollama模型
    ollama run deepseek-coder-v2:16b
    ollama run deepseek-r1:7b

    这2个模型,本地电脑就能带动起来。

  2. 配置 Continue 插件

    {
      "models": [
     {
       "title": "DeepSeek Coder V2",
       "model": "deepseek-coder-v2:16b",
       "provider": "ollama",
       "systemMessage": "You are a helpful coding assistant."
     },
     {
       "title": "DeepSeek R1",
       "model": "deepseek-r1:7b",
       "provider": "ollama",
       "systemMessage": "You are a helpful assistant."
     }
      ]
    }
  3. 可以用了
    代码生成:
    新建一个文件或打开已有文件,按 Ctrl + I,输入需求描述,回车后 Continue 会生成代码。
    代码优化:
    选中需要优化的代码,按 Ctrl + L,Continue 会根据模型生成优化后的代码。
    聊天功能:
    在 Continue 界面中输入问题,选择对应的模型(如 deepseek-r1:7b),模型会根据问题生成回答。
  4. 配置Ollama,当OLLAMA_KEEP_ALIVE=-1是永久不释放

    echo 'export OLLAMA_KEEP_ALIVE=24h' >> ~/.bashrc
    echo 'export OLLAMA_MODELS=/data/ollama/models' >> ~/.bashrc
    source ~/.bashrc
  5. 阿里最新的32b模型QwQ

    ollama run qwq
    内存常驻
    curl http://localhost:11434/api/generate -d '{"model": "模型名称", "keep_alive": -1}'
    通过 API 卸载模型
    curl http://localhost:11434/api/generate -d '{"model": "模型名称", "keep_alive": 0}'
    通过 命令卸载模型
    ollama stop 模型名称
  6. 删除模型
    ollama list
    ollama rm <model_name>
  7. mac升级ollama
    ollama --version
  8. ollama run gemma3:27b

标签: none

添加新评论