近来秋招发放Offer已高一段落。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
近来,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
喜好本文记得收藏、关注、点赞。更多实战和面试交换,文末加入我们
技术交换

今天我要讲的是如安在本地部署本身的DeepSeek,以及如何将本地部署的DeepSeek接入WPS文档。
本地部署的长处显而易见,可以实现资料在本地处置处罚,减少被第三方获取的风险,也可以减少延迟,进步响应速率。
由于我本人的电脑比力渣,所以我本地部署的最小的那个模子deepseek-r1:1.5b,接下来也只演示如何部署deepseek-r1:1.5b。
首先打开ollama网站,https://ollama.com/,点击Download(下载)。

然后可以看到选择操纵系统进行安装。这里我的电脑由于是Windows系统,所以我选择下载Windows系统配套版本。

下载之后选择安装。

安装完Ollama之后,在键盘上选择Win+R将运行窗口打开(有的同学不知道Win是哪个键,就是键盘左下角Ctrl和Alt之间有窗口图标那个键)。

在运行窗口中输入cmd,点击确定,这时间会出来一个黑洞洞的窗口,也就是我们的命令行工具。

在命令行工具中输入ollama -v,然后点击回车,如果出现ollama version is 0.5.7。那么说明你安装ollama成功了。
这个时间我们再回到ollama网站,下载我们的模子。

点击deepseek-r1,进入后选择1.5b(如果你电脑配置充足,也可以选择更大参数的模子)。


然后选择复制ollama run deepseek-r1:1.5b。

这个时间我们回到命令行工具,粘贴ollama run deepseek-r1:1.5b,回车。这个时间就开始在本地安装deepseek大模子了,安装时间可能需要10分钟左右。直到出现success,那么就意味着你已经成功在本地部署了deepseek。

这个时间你就可以在这个黑洞洞的窗口向独属于你的人工智能发出第一声问候:你好。

那么有的同学会问了,如何将这个本地部署的deepseek接入WPS文档,而不是面临这个黑洞洞的窗口呢。
首先我们随便打开一个WPS文档,点击工具——开发工具——切换到JS环境,打开WPS宏编辑器。

打开模块,键入以下代码

- function callSiliconFlowAPI(apiKey, inputText) {
- // Ollama的API地址(默认端口11434)
- const API = "http://localhost:11434/api/generate";
- const data = {
- model: "deepseek-r1:1.5b",
- prompt: inputText, // Ollama使用prompt字段
- stream: false // 关闭流式传输
- };
- const options = {
- method: "POST",
- headers: {
- "Content-Type": "application/json",
- },
- body: JSON.stringify(data)
- };
- return fetch(API, options)
- .then(response => {
- if (response.ok) {
- return response.json();
- } else {
- throw new Error("Error: " + response.status + " - " + response.statusText);
- }
- })
- .then(data => {
- return data;
- })
- .catch(error => {
- return error.message;
- });
- }
- function siliconFlowV3() {
- const selection = Application.Selection;
- const inputText = selection.Text;
- if (!inputText) {
- alert("Please select text.");
- return;
- }
- callSiliconFlowAPI(null, inputText).then(response => {
- if (typeof response === "string" && response.startsWith("Error")) {
- alert(response);
- } else {
- // Ollama的响应结构不同,使用response.response获取内容
- const content = response.response || "No content found";
- const range = selection.Range;
- range.InsertAfter("\n" + content);
- range.Select();
- }
- });
- }
复制代码 然后点击保存,保存为(*.dotm)格式文件,保存地址为:找一个文件不轻易丢失的地址,比如我保存在WPS软件的某个安装文件夹里。

然后回到文档,在菜单栏这里新建一个选项卡,如果之前已经新建过了,那么不新建也可以。

这个时间我们点击这个“加载项”。

选择“添加”,添加刚才被我们保存的dotm文件。

添加后勾选文件,如图,我这个里面有两个已经被添加的,上面那个是调用硅基活动API的宏文件(教程参见以前文章),下面那个就是我们刚保存的那个调用本地部署deepseek的宏文件,我们选择勾选Dpsk-本地.dotm,点击确定。
这个时间我们在文档里写下一句话,选择这句话(记住要选中文本),然后点击选项卡“DeepSeek-JS”。稍等片刻,就得到回应了。

本地部署DeepSeek,并接入WPS文档,需要注意两点:
1、首先确保本身的模子已经在电脑上跑起来了,怎么跑起来呢,WIN+R,然后输入cmd,打开命令行工具,然后输入ollama run deepseek-r1:1.5b
2、确保加载项这里已经勾选上了。

以上,看完的同学快去试一试吧!
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |