https://github.com/shengyanli1982/deepseek-ollama-bridge-release
DeepSeek-Ollama Bridge 是一款专为 DeepSeek 模型打造的高性能桥接服务,让您的 AI 应用如虎添翼!
高频对话场景
资源受限环境
企业级应用
只需一行命令,即可启动企业级 AI 加速服务:
deepseek-ollama-bridge --enable-cache --cache-dir ./cache
更多高级配置选项请使用 -h
参数查看帮助文档。
注:实际性能提升因使用场景和配置而异。欢迎留言反馈问题和改进建议。
curl http://127.0.0.1:3000/v1/chat/completions/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-xxx" \
-d '{
"model": "deepseek-coder",
"messages": [
{
"role": "user",
"content": "写一个冒泡排序算法"
}
],
"temperature": 0.7
}'
import openai
# 设置 API 基础地址(默认为本地服务)
openai.api_base = "http://127.0.0.1:3000/v1/chat/completions"
# 设置一个占位 API Key (本地服务不校验)
openai.api_key = "sk-xxx"
# 基础对话示例
def chat_example():
response = openai.ChatCompletion.create(
model="deepseek-coder", # 使用 DeepSeek Coder 模型
messages=[
{"role": "user", "content": "写一个 Python 快速排序算法"}
],
temperature=0.7
)
print(response.choices[0].message.content)
# 带上下文的对话示例
def context_chat_example():
messages = [
{"role": "system", "content": "你是一个专业的编程助手。"},
{"role": "user", "content": "我想实现一个 REST API 。"},
{"role": "assistant", "content": "我可以帮你使用 FastAPI 框架实现。"},
{"role": "user", "content": "好的,请给出具体示例。"}
]
response = openai.ChatCompletion.create(
model="deepseek-coder",
messages=messages,
temperature=0.7
)
print(response.choices[0].message.content)
if __name__ == "__main__":
print("基础对话示例:")
chat_example()
print("\n 带上下文的对话示例:")
context_chat_example()
package main
import (
"context"
"fmt"
"log"
openai "github.com/sashabaranov/go-openai"
)
func main() {
// 创建客户端(使用本地服务地址)
client := openai.NewClient("sk-xxx")
client.BaseURL = "http://127.0.0.1:3000/v1/chat/completions"
// 创建对话请求
req := openai.ChatCompletionRequest{
Model: "deepseek-coder",
Messages: []openai.ChatCompletionMessage{
{
Role: openai.ChatMessageRoleUser,
Content: "用 Go 实现一个简单的 HTTP 服务器",
},
},
Temperature: 0.7,
}
// 发送请求
resp, err := client.CreateChatCompletion(context.Background(), req)
if err != nil {
log.Printf("对话请求失败: %v\n", err)
return
}
// 输出响应
fmt.Println(resp.Choices[0].Message.Content)
// 带上下文的对话示例
contextReq := openai.ChatCompletionRequest{
Model: "deepseek-coder",
Messages: []openai.ChatCompletionMessage{
{
Role: openai.ChatMessageRoleSystem,
Content: "你是一个专业的 Go 开发专家。",
},
{
Role: openai.ChatMessageRoleUser,
Content: "解释什么是依赖注入",
},
},
Temperature: 0.7,
}
contextResp, err := client.CreateChatCompletion(context.Background(), contextReq)
if err != nil {
log.Printf("上下文对话请求失败: %v\n", err)
return
}
fmt.Println("\n 带上下文的对话响应:")
fmt.Println(contextResp.Choices[0].Message.Content)
}
const { Configuration, OpenAIApi } = require("openai");
// 配置 OpenAI API
const configuration = new Configuration({
basePath: "http://127.0.0.1:3000/v1/chat/completions",
apiKey: "sk-xxx",
});
const openai = new OpenAIApi(configuration);
// 基础对话示例
async function basicChatExample() {
try {
const response = await openai.createChatCompletion({
model: "deepseek-coder",
messages: [{ role: "user", content: "用 Express 实现一个 RESTful API" }],
temperature: 0.7,
});
console.log("基础对话响应:", response.data.choices[0].message.content);
} catch (error) {
console.error("对话请求失败:", error.message);
}
}
// 带上下文的对话示例
async function contextChatExample() {
try {
const response = await openai.createChatCompletion({
model: "deepseek-coder",
messages: [
{ role: "system", content: "你是一个专业的 Node.js 开发专家。" },
{ role: "user", content: "如何实现一个 WebSocket 服务器?" },
],
temperature: 0.7,
});
console.log("\n 带上下文的对话响应:");
console.log(response.data.choices[0].message.content);
} catch (error) {
console.error("对话请求失败:", error.message);
}
}
// 执行示例
async function main() {
console.log("=== 基础对话示例 ===");
await basicChatExample();
console.log("\n=== 带上下文的对话示例 ===");
await contextChatExample();
}
main().catch(console.error);