通过Obsidian Copilot和 Ollama 实现 Obsidian 本地知识库和智能化 ...

打印 上一主题 下一主题

主题 994|帖子 994|积分 2982

原理

Obsidian Copilot 是一款为 Obsidian 笔记软件筹划的 AI 助手插件,它将 AI 技术(如 OpenAI 的 GPT 模型)无缝集成到 Obsidian 的笔记工作流中,为用户提供智能化的写作、知识管理和思索辅助功能。通过 Obsidian Copilot,用户可以在笔记中直接与 AI 进行交互,从而提升笔记的整理效率、写作质量和知识探索本领。
Obsidian Copilot 的作者是 Logan Yang,他是一位履历丰富的软件开辟者和知识管理爱好者,致力于为 Obsidian 社区提供更智能、高效的工具。
Obsidian Copilot 中有两个地方必要配置大模型,分别是General Settings处和QA Settings 下的 Embedding Models 处。General Settings处配置的模型为 chat 模型,用于 chat 模式, Embedding Models 处配置的模型要求是 Embedding 模型,用于 Vault QA模式创建索引知识向量库。因此仅配置General Settings处的模型将只能使用 chat 模式,必须同步乐成配置 Embedding Models 处的 Embedding 模型才气够有用激活Vault QA 模式**。**
Obsidian Copilot 可以通过 Ollama 模式支持本地模型,本文下面将先容基于本地Ollama 来配置 Obsidian Copilot。
配置过程

安装Ollama

Mac 下执行如下命令安装:
  1. brew install ollama
复制代码
其他操作系统请自行到 ollama 网站下载安装。
Ollama 安装 chat 模型和 embedding 模型

启动 ollama:
  1. ollama serve
复制代码
在一个新的 bash下安装 chat 模型,这里使用mistral为例,读者可以根据自己情况选择其他模型,假如ollama下已有下载过的模型,可以跳过此步骤:
  1. ollama run mistral
复制代码
继承安装 embedding 模型,这里使用nomic-embed-text
  1. ollama pull nomic-embed-text
复制代码
pull命令拉取模型后,ollama 服务会主动启动和管理模型,不必要再显式的启动模型。
关联obsidian重新启动 Ollama

关闭 ollama 服务, 使用如下命令重新启动 ollama:
  1. OLLAMA_ORIGINS=app://obsidian.md* ollama serve
复制代码
重新启动后,Ollama 端准备完毕,可转入 Obsidian 进行后续设置。
Obsidian Copilot 安装

在 Community Plugins 中搜刮安装 Obsidian Copilot 插件。打开 Obsidian Copilot 的设置页面。
Obsidian Copilot chat模型配置

在 General Setting 标签下点开 Add Custom Model


  • Model Name 填写 mistral
  • Provider 填写 ollama
  • Base URL 和 API Key 为空
可以点击 Verify Connection,显示 Successful 后即可点击 Add Model 添加。

然后在上方的列表中选择刚添加的 mistral 模型:

完成 chat 模型设置。
Obsidian Copilot Embedding 模型配置

向下拉 Obsidian Copilot 的配置页,在 QA Setting 下点开 Add Custom Model


  • 在 Model Name 处填写 nomic-embed-text
  • Provider 处填写 ollama,其余同上置空
点击 Verify Connection 测试,这里可能会显示失败,先点击 Add Model。

在上方的列表中选择刚添加的nomic-embed-text embedding 模型,同时勾选对应的 CORS:

完成 Embedding 设置。此时激活Vault QA 模式有可能会报 index 失败的错误,先无视。打开 Command+P 的命令面板,选择Copilot: Force re-index vault for QA,此时会进入到 index 过程中,右上角会报 index 的进度,等候完成(假如还是报错,可以关闭ollama,再使用上述命令重启ollama服务)

此时已完成将 vault 中所有的 md文件建成向量化知识库。默认对话框为chat模式,可以切换为"vault QA(basic)",如图红线所示。并在 chat 模型处选择我们在 Ollama 中安装的 mistral,即可正常对所有笔记的知识库进行问答:

经测试,Ollama 模型在 Mac M1 芯片电脑上问答的复兴时间约为 40s,如想要更快的速度,可以按下个章节的方式配置商业模型。
商业Chat模型配置

Datapipe 是一个中转的大模型服务,提供 GPT-4o 等大模型服务,基础版费用为 20 元/月,可满足一般人的使用,既可以在网页端按照 chatGPT 的形式使用,也可以使用 API 的方式使用,如这里用到的作为 chat 模型整合进入 Obsidian Copilot。可以使用 https://chat.datapipe.app/register?referral=KHXJXD 链接注册,会附送积分。在 Obsidian Copilot 的设置页,在 General Setting 下进行设置,Model Name 填写 gpt-4o,Provider 选择 3rd party (openai-format),Base URL 填写 https://chat-api.datapipe.app/v1 , API Key 填写刚获取的 key,选择 Add Model:

在 General Setting 下的模型列表中选择刚添加的 gpt-4o,并勾选 CORS,

在 Chat 窗口的 chat 模型选择更添加的 gpt-4o,然后便可以正常使用了,速度会比 Ollama 中的 Chat 模型更快:

怎样学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本事。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不停。
不如成为「掌握AI工具的技术人」,究竟AI时代,谁先实验,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不但必要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增长自己的职场竞争力。
但是LLM相关的内容许多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么我作为一名热心肠的互联网老兵,我意识到有许多履历和知识值得分享给各人,希望可以资助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和本领了 。我已将紧张的AI大模型资料包括AI大模型入门学习头脑导图、佳构AI大模型学习册本手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们假如必要可以微信扫描下方CSDN官方认证二维码免费领取【包管100%免费】

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

干翻全岛蛙蛙

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表