基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
类别: PyCharm Tabby CodeGPT 标签: GitHubCopilot PyCharm Tabby CodeGPT FastChat OpenAI CodeLLM LLM目录
使用的模型
- 代码生成
Tabby
使用的是Deepseek Coder 6.7B
模型。 - AI 聊天
CodeGPT
使用的是ChatGLM3-6B
模型。这个后面考虑使用Deepseek Coder 6.7B
来替换。
部署服务器端
Tabby 服务
docker run -d --runtime nvidia --name tabby -p 8080:8080 \
-e TABBY_DOWNLOAD_HOST=modelscope.cn \
-e NVIDIA_VISIBLE_DEVICES=3 \
-e RUST_BACKTRACE=1 \
-v `pwd`/.tabby:/data tabbyml/tabby \
serve --model TabbyML/DeepseekCoder-6.7B --device cuda
OpaneAI 服务
- 启动服务
Controller
python -m fastchat.serve.controller
- 启动服务
Model Worker
python -m fastchat.serve.model_worker \ --model-path THUDM/chatglm3-6b --port 21002 \ --worker-address http://localhost:21002 \ --model-names chatglm3-6b,gpt-3.5-turbo
- 启动服务
OpenAI API Server
python -m fastchat.serve.openai_api_server --port 8000
安装 PyCharm
安装插件
插件
安装方法一
使用 PyCharm 安装插件,发现找不到插件,需要手动下载插件安装包,然后通过 PyCharm 安装本地插件。
安装方法二
如果您打开 PyCharm IDE 后,然后到插件市场找到插件,可以看到 Install to PyCharm
按钮,点击后会自动下载并安装插件。
配置插件
Tabby
参数
- EndPoint:
http://172.16.33.66:8080
CodeGPT
参数
- Service:
OpenAI Service
- API key:
NULL
- Model:
GPT-3.5(4k)
- Base host:
http://172.16.33.66:8000