DeepSeek本地摆设+Page Assist浏览器插件+C#接口调用

鼠扑  论坛元老 | 2025-4-12 17:38:06 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 2086|帖子 2086|积分 6258

1.安装Ollama

Ollama作为本地摆设大模型的方案,还是非常不错的。
1、跨平台:支持 macOS、Linux 和 Windows。
2、市面主流开源模型都支持:包罗Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2等54个开源模型。
3、REST API:Ollama提供对外API能力,想要自己开发客户端、或者集成到应用体系都是非常方便的。
4、生态完善:众多开源Web项目、开源桌面软件支持Ollama,还有终端工具、移动应用、开发工具库等开源项目。
下载地点:https://ollama.com/download

安装Ollama还是比力简单的,下载安装包后,直接安装就行。我这边选择的是Windows版本。

2.修改Ollama默认设置

设置体系变量

修改设置后,记得重启Ollama。
我临时就需要这两个,其他更多设置信息,各人可以检察官方文档:
https://github.com/ollama/ollama/tree/main/docs
3.下载并安装模型

Ollama支持模型非常多,我们这边选择的是:deepseek-r1。

选择对应的模型,我们就可以看到模型的相信先容、各种参数的模型。

各个版本模型对硬件要求,官方没有明确的说明,根据网友分享的大概整理如下,各人可以根据自己的电脑设置选择模型。

安装模型也很简单,选择对应版本的模型,拷贝下令就行。

在下令窗口输入以上下令,就会自动下载。

耐烦等待,等出现success就代表安装成功了。

安装成功后,我们就可以直接在下令窗口进使用用了。
同时在浏览器访问:http://127.0.0.1:11434,有如下提示也代表启动成功了。

4.API调用

Ollama也为我们提供API接口功能,想要自己开发客户端、或者集成到应用体系都是非常方便的。
Ollama相关生态也非常完善,我们直接使用C#版本Ollama的SDK,就可以快速开发,下面一起看看简单例子。
4.1、安装依靠包:OllamaSharp


4.2 示例代码
  1. using Microsoft.Extensions.AI;
  2. using OllamaSharp;
  3. Uri modelEndpoint = new("http://localhost:11434");
  4. //指定模型
  5. string modelName = "deepseek-r1:14b";
  6. var chatClient = new OllamaApiClient(modelEndpoint, modelName);
  7. //提问
  8. string question = "你好,我们可以认识一下吗?";
  9. var response = chatClient.GetStreamingResponseAsync(question);
  10. Console.WriteLine($">>> 你: {question}");
  11. Console.Write(">>>");
  12. Console.WriteLine(">>> DeepSeek: ");
  13. //输出
  14. await foreach (var item in response)
  15. {
  16.         Console.Write(item);
  17. }
  18. Console.ReadLine();
复制代码
效果如下:
Ollama相关的API接口,也可以检察官方文档。
https://github.com/ollama/ollama/blob/main/docs/api.md
5. OLLAMA的客户端

在下令窗口使用DeepSeek,肯定是不方便的。自己开发客户端,又需要大量时间。
Ollama的客户端是非常众多的,而且都是开源的项目,包罗:Web网页版本、桌面应用、浏览器插件、移动端APP等。
每一个客户端提供的功能也非常丰富,并且都不一样,包罗:OCR图片识别、语音识别、文档解析等。
各人可以根据自己的需求自行选择。
https://github.com/ollama/ollama

6. Page Assist浏览器插件

我这边的是选择浏览器插件,比力机动。
在Chrome应用商店,安装浏览器插件:Page Assist。

安装后打开插件,把语音识别、界面语音修改为中文,方便我们使用。

修改Ollama的设置:
1、Ollama URL修改为Ollama服务器的地点。
2、在Ollama 高级设置中,启用:启用或禁用自定义来源 URL,这样才能访问。

Ollama服务器需要关闭防火墙,或者在入站规则里开启端口:11434。


完成以上设置后,我们就可以使用了。
使用的时候,选择对应的模型版本就可以了。

本文参考:https://www.cnblogs.com/mq0036/p/18742652

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

鼠扑

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表