[LLM+AIGC] 06.零根本DeepSeek+Cherry Studio搭建个人知识库(安全论文) ...

打印 上一主题 下一主题

主题 947|帖子 947|积分 2841

近年来,人工智能技能火热发展,尤其随着ChatGPT和DeepSeek被提出,其能够基于在预训练阶段所见的模式、统计规律和知识来天生回答,还能根据聊天的上下文举行互动,真正像人类一样来聊天交流以及完成复杂的NLP任务。基于此,为更好地学习前沿AI知识,相识LLM和AIGC应用实战,本人开启了《LLM+AIGC》专栏,一方面作为在线条记纪录和分享本身的学习过程,另一方面期望帮助更多初学者以及对LLM感兴趣的同学。知识无价人有情,希望我们都能在人生路上开心快乐、共同成长。
该系列主要涵盖三方面:


  • 原理篇——以原理先容和论文阅读为主
  • 实战篇——以编程实现和构建自制LLM和RAG为主
  • 应用篇——以应用实践和API、Prompt探索为主
前一篇文章带领大家相识如何利用DeepSeek+Kimi自动天生PPT,以威胁谍报为例举行探索。这篇文章将分享如何利用DeepSeek+Cherry Studio搭建个人知识库,以安全论文为例举行探索,大家可以结合本身需求举行实验。根本性文章,希望对初学者有所帮助!且看且爱惜,加油 O(∩_∩)O


  
前文赏析:


  • [LLM+AIGC] 01.应用篇之中文ChatGPT初探及利用ChatGPT润色论文对比浅析(文心一言 | 讯飞星火)
  • [LLM+AIGC] 02.零根本DeepSeek入门初探及云端搭建详解(ChatGPT对比)
  • [LLM+AIGC] 03.零根本DeepSeek云端(硅基流动、腾讯云、国家超算平台)搭建及API接入
  • [LLM+AIGC] 04.零根本DeepSeek接入WPS实现智能办公
  • [LLM+AIGC] 05.零根本DeepSeek接入Kimi自动天生PPT(威胁狩猎范畴)
  • [LLM+AIGC] 06.零根本DeepSeek+Cherry Studio搭建个人知识库(安全论文)

一.DeepSeek接入

前面的第3篇文章我们先容过Cherry Studio的用法,从官网下载安装如下图所示:


  • https://cherry-ai.com/
   Cherry-Studio 是一个 面向开发者的工具或平台,主要用来帮助开发者更高效地完成工作。
  

第一步,打开硅基流动的官网,并注册。


  • https://siliconflow.cn/zh-cn/

第二步,注册登录后找到“API 密钥”。

新建API密钥,并界说一个名字“Knowledge”。

复制刚创建的API密钥。


  • sk-kqfqnd************czhaoxnsc

第三步,在设置中点击“API密钥”,并输入上面的Key。

点击“检查”,选择对应的模子DeepSeek-R1。至此,DeepSeek相关设置完成。

接下来我们将设置Cherry Studio来搭建知识库。

二.Cherry Studio搭建知识库

第一步,在当地整理知识库相关论文。
   注意:作者为了方便演示,将文件夹放置在桌面,读者通常会放在一个非C盘的指定目次,后续需要持续更新知识库。
  


第二步,打开Cherry Studio,点击“知识库”按钮,选择“添加”。

第三步,根据需要添加名称和嵌入模子。此中,嵌入模子用于知识化向量检索。

作者的仅有硅基流动的BAAI/bge-m3模子,如下图所示。

注意,这里的模子即为硅基流动中“模子广场”->“嵌入”的BAAI/bge-m3模子。

第四步,添加目次。可以添加的文件类型很多,读者可以自行实验,大家也可以将准备好的文件拖拽进去。

此时该软件会调用嵌入模子对文件夹内的文件举行向量化处置惩罚。

等待半晌,文件目次添加乐成。

第五步,处置惩罚完成后,点击按钮回到对话页面,并且开启刚才创建的知识库“CyberSecurity”。

第六步,开始DeepSeek+Cherry Studio当地知识库的智能问答。
   提示词1:
我现在需要一篇APT威胁狩猎的学术论文。
  可以看到模子在调用当地知识库的知识。

DeepSeek天生的结果如下。

同时给出相关引用。

索引确实是作者当地知识库中的文章。

此外,编辑可以天生Markdown格式,方便大家作为当地存储和编辑。



三.验证当地知识库

接下来,我们简单验证大模子究竟是仅学习到当地文件的名称,还是对其内容也举行了学习。
   提示词2:
请从当地知识库中给出3篇代表性大模子存在的安全问题的论文,并先容论文提出了什么方法来办理该问题的。
  

天生结果如下图所示:

对应答案为:
  1. 三篇代表性大模型安全问题的论文及解决方案
  2. 1. PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Jailbreak Approach
  3. 问题:大型语言模型(LLMs)在安全对齐上仍存在漏洞,可能被恶意利用生成有害内容。
  4. 方法:PathSeeker提出了一种基于强化学习的越狱攻击方法,通过生成针对性输入来绕过模型的安全机制。该方法通过实验验证了模型的脆弱性,并强调了安全对齐技术的改进需求12。
  5. 2. LLMSMITH——揭秘LLMs集成框架与应用中的RCE漏洞
  6. 问题:LLMs在集成框架和应用中可能引入远程代码执行(RCE)漏洞,导致严重的安全风险。
  7. 方法:LLMSMITH通过分析LLMs集成框架的架构,揭示了潜在的RCE漏洞,并提出了一种基于静态和动态分析的综合检测方法,以识别并修复这些漏洞3。
  8. 3. Universal Fuzzing via Large Language Models
  9. 问题:LLMs在协议模糊测试中可能生成无效或不符合协议规范的输入,影响测试效果。
  10. 方法:该论文提出了一种基于LLM的通用模糊测试方法,通过引导模型生成更符合协议规范的测试用例,提高了模糊测试的覆盖率和有效性4。
复制代码
由于作者在大模子本身安全文件夹中,传入的是中文命名,而非论文标题,我们可以发现:


  • 论文PDF文件中的内容也被乐成学习《LLMSMITH reveals and detects RCE vulnerabilities in LLM integration frameworks》

原文内容如下:


四.问题与办理

然而,上述过程存在两个关键问题:


  • 作者的当地知识库为啥没有深度思考?
  • 存在理解不准确问题。 譬如,作者希望得到关于大模子幻觉相关的问题,而非给出的结果并不太准确,固然和作者故意分类错误的文件夹名称可能也有一定关系,总之模子还需要继续学习啊!
作者后续发现,是未选中创建的DeepSeek-R1模子,对其举行修改后能举行深度思考。

思考界面如下所示:


此外,Cherry Studio设置过程中可能存在错误,如下图所示,读者可以结合错误代码举行搜索和办理。


五.总结

写到这里,这篇文章先容结束,希望对您有所帮助!
作为原创博客创作者和步伐员,大模子对我们的影响极大,拥抱变化,紧紧跟随。本文主要带领大家相识什么是LLM、AIGC、DeepSeek和ChatGPT。根本性文章,希望对您有所帮助。后续作者会继续深入,分享更多LLM和AIGC内容,加油,共勉!
   2024年4月28日是Eastmount的安全星球——『网络攻防和AI安全之家』正式创建和运营的日子,该星球目前主营业务为 安全零根本答疑、安全技能分享、AI安全技能分享、AI安全论文交流、威胁谍报每日推送、网络攻防技能总结、系统安全技能实战、面试求职、安全考研考博、简历修改及润色、学术交流及答疑、人脉触达、认知提升等。下面是星球的新人券,接待新老博友和朋友加入,一起分享更多安全知识,比较良心的星球,非常适合初学者和换安全专业的读者学习。

目前收到了很多博友、朋友和老师的支持和点赞,尤其是一些看了我文章多年的老粉,购买来感谢,真的很感动,类目。未来,我将分享更多高质量文章,更多安全干货,真心帮助到大家。固然起步晚,但贵在坚持,像十多年如一日的博客分享那样,脚踏实地,只争朝夕。继续加油,再次感谢!
  (By:Eastmount 2025-02-20 夜于贵州 http://blog.csdn.net/eastmount/ )

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

悠扬随风

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表