目录

使用的模型

  • 代码生成 Tabby 使用的是 Deepseek Coder 6.7B 模型。
  • AI 聊天 CodeGPT 使用的是 ChatGLM3-6B 模型。这个后面考虑使用 Deepseek Coder 6.7B 来替换。

部署服务器端

Tabby 服务

docker run -d --runtime nvidia --name tabby -p 8080:8080 \
  -e TABBY_DOWNLOAD_HOST=modelscope.cn \
  -e NVIDIA_VISIBLE_DEVICES=3 \
  -e RUST_BACKTRACE=1 \
  -v `pwd`/.tabby:/data tabbyml/tabby \
  serve --model TabbyML/DeepseekCoder-6.7B  --device cuda

OpaneAI 服务

  • 启动服务 Controller
    python -m fastchat.serve.controller
    
  • 启动服务 Model Worker
    python -m fastchat.serve.model_worker \
    --model-path THUDM/chatglm3-6b --port 21002 \
    --worker-address http://localhost:21002 \
    --model-names chatglm3-6b,gpt-3.5-turbo
    
  • 启动服务 OpenAI API Server
    python -m fastchat.serve.openai_api_server --port 8000
    

安装 PyCharm

安装插件

插件

安装方法一

使用 PyCharm 安装插件,发现找不到插件,需要手动下载插件安装包,然后通过 PyCharm 安装本地插件。

安装方法二

如果您打开 PyCharm IDE 后,然后到插件市场找到插件,可以看到 Install to PyCharm 按钮,点击后会自动下载并安装插件。

配置插件

Tabby

参数

  • EndPoint: http://172.16.33.66:8080

CodeGPT

参数

  • Service: OpenAI Service
  • API key: NULL
  • Model: GPT-3.5(4k)
  • Base host: http://172.16.33.66:8000

使用插件

AI 聊天

代码生成

参考资料