一元网络论坛

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 187|回复: 0

Copilot 后端代理服务,实现本地中转、离线使用和 FIM 模型本地补全。

[复制链接]

2万

主题

2万

帖子

8万

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
89955
发表于 2024-9-24 16:12:00 | 显示全部楼层 |阅读模式
## Github Copilot 后端代理服务
基于 Docker 部署的本地离线服务,只需四步即可拥有离线的 Copilot 同款服务,速度更快,更稳定,更安全。
该服务通过接管 GitHub Copilot 插件服务端,使用其他 FIM 模型(如 DeepSeek),为开发者提供高效的代码补全功能。
支持任意符合 OpenAI 接口规范的模型,包括 DeepSeek-v2,并提供本地部署 FIM 模型方案。
**特性:**
* 使用 Docker 部署,简单方便
* 支持多种 IDE,如:VSCode、Jetbrains IDE 系列、Visual Studio 2022、HBuilderX
* 支持任意符合 OpenAI 接口规范的模型,如:DeepSeek-v2
* 完整接管 GitHub Copilot 插件 API 接口,无需担心插件升级导致服务失效
* 代码补全请求防抖设置,避免过度消耗 Tokens
**如何使用?**
确保环境干净,删除 GITHUB COPILOT 相关环境变量,更新插件最新版本后重启 IDE 即可。
**模型超参数说明:**
* CODEX_TEMPERATURE:模型温度,默认值为 1,可以调整为 0.1-1.0 之间的值。
* 不建议调整此参数,除非你了解其影响。
**内存占用说明:**
* 运行 docker-compose up -d 后,占用约 30MB-40MB 内存,不会超过 50MB 内存。
* Windows 环境的 Docker Desktop 占用约 200MB 内存。
* MacOS 环境建议使用 Orbstack 软件替代 Docker Desktop,可大幅降低内存占用。
* Linux 环境的 Docker 服务占用约 80MB 内存。
**本地部署 FIM 模型:**
* 利用 Ollama 部署 DeepSeek-v2 FIM 模型,替换 OpenAI 模型实现离线使用。
* 模型权重文件可以在 DeepSeek-v2 网站获取,直接使用 Ollama 启动即可。
* 将 Ollama 地址配置到 docker-compose.yml 文件中。
**更多信息:**
Copilot 后端代理服务: Copilot 中转服务,借助其他 FIM 模型(如 DeepSeek)来接管 GitHub Copilot 插件服务端 (gitee.com)
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一元网络论坛

GMT+8, 2024-11-16 18:06 , Processed in 0.219335 second(s), 20 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表