后端语言Pyton如何调用deepseek本地大模型

发布于 1周前 作者 itying888 最后一次编辑是 5天前 来自 DeepSeek

后端语言Pyton如何调用deepseek本地大模型的方法

1、需求启动ollama deepseek服务(windows电脑忽略)

ollama serve

2、Pyton调用deepseek代码如下

https://pypi.org/project/ollama/

pip install ollama
from ollama import Client
client = Client(
  host='http://192.168.1.4:11434',
  headers={'x-some-header': 'some-value'}
)
stream = client.chat(model='deepseek-r1',stream=True, messages=[
  {
    'role': 'user',
    'content': '你叫什么?',
  }
  
])

for chunk in stream:
  print(chunk['message']['content'], end='', flush=True)

回到顶部