Elasticsearch8.17.0在mac上的安装
Kibana8.17.0在mac上的安装
Elasticsearch检索方案之一:使用from+size实现分页
快速把握Elasticsearch检索之二:滚动查询(scrool)获取全量数据(golang)
Elasticsearch检索之三:官方推荐方案search_after检索实现(golang)
1、面临的重要题目
对于elasticsearch的向量检索的学习,我打算做一个图片检索的方案,图片检索在自动驾驶、ai识图、搜刮都有广泛的应用,因此就借着学习elasticsearch的时机,设计一个mvp版本的图像搜刮方案,以供有需要的各位小伙伴参考。
在学习向量检索之前,数据是基石,从那里找上几千张图片,而且还有有一定的代表性,又如何将这些图片转化成向量,都是首先要办理的题目。
2、探求数据集
12月中旬去阿里到场了elastic的线下meetup,当时阿里同学分享了一个向量测试的性能数据,我对这个数据印象非常深刻,于是在问答环节,请教了这个性能数据测试使用了多大的数据量,索引巨细多少等题目,当时说到了一个数据集:ANN_GIST1M 960维,我们可以从这里下载到它:
- http://corpus-texmex.irisa.fr/
复制代码 下载解压后:
这些文件数据,需要使用matlab读取,咱也不太懂,照旧找找图片的吧,再用模型跑一下就能出向量。
之后搜刮了一些公开的图片数据集,找到了一个小猫、小狗数据集,这个挺有意思,小猫1000张图片,小狗1000张图片,除了训练集还有200张评测集,就用它了,我将数据集上传到了github上,点击查看https://github.com/liupengh3c/career/tree/main/cats_and_dogs_v2需要的同学可以自取。
这样数据集的题目就办理了,接下来办理抽取图像特征的题目。
3、探求开源模型,抽取图像特征
本想着网上找个免费的api,输入图片,返回图片768维的特征向量,最后没有找到,只好求助于团队内算法同学,他给推荐了一个openai的开源模型:
- https://hf-mirror.com/openai/clip-vit-large-patch14/tree/main
复制代码 这里所有的文件都需要下载下来:
并汇总放到一个文件夹下,之后编写python代码,用此模型抽取图片特征:
- import torch
- from PIL import Image
- from transformers import CLIPProcessor, CLIPModel
- import numpy as np
- # 加载预训练的CLIP模型和处理器
- model = CLIPModel.from_pretrained("/Users/liupeng/Downloads/clip-vit-large-patch14")
- processor = CLIPProcessor.from_pretrained("/Users/liupeng/Downloads/clip-vit-large-patch14")
- # 加载图像并进行预处理
- image = Image.open("/Users/liupeng/Downloads/dog.11001.jpg") # 替换为你的图像路径
- inputs = processor(images=image, return_tensors="pt")
- # 提取图像特征
- with torch.no_grad():
- image_features = model.get_image_features(**inputs)
- print("shape:",image_features.shape)
- # 对图像特征进行 L2 归一化
- # 使用 .norm() 计算 L2 范数并进行归一化
- image_features_normalized = image_features / image_features.norm(p=2, dim=-1, keepdim=True)
- numpy_array = image_features_normalized.numpy()
- # 打印归一化后的特征和特征的模长(应该为 1)
- print("归一化后的图像特征:", numpy_array[0])
- print("归一化后的模长:", image_features_normalized.norm(p=2, dim=-1)) # 应该接近 1
复制代码 上面代码实现了单张图片特征提取,后面根据需求再美满。
4、向量索引设计
向量检索,最大的呆板瓶颈就是内存,因此我们在设计索引时,应该最大限度的包管内存的占用最低,即使牺牲掉部分精度。
而检索算法:KNN(近来邻检索),它的原理是:计算待查询向量与数据库中所有向量之间的间隔,然后按照间隔从小到大排序,选择间隔近来的 K 个向量作为查询结果。KNN 算法的长处是可以包管正确的结果,但是服从较低,不是elastic的默认检索算法,大家可以参考这篇文章:
ElasticSearch向量检索技能方案介绍,
为了提拔向量检索的服从、降低呆板内存占用,elastic采用HNSW算法支持向量检索,HNSW是一种近似紧邻检索,牺牲了一定的精度,但是大大提拔了检索的服从。
对于向量索引,我们只设计3个字段:
- name:本张图片小动物名称,猫or狗
- IFV:本章图片向量
- path:图片路径或地址
复制代码 其中检索算法采用hnsw,并使用int8量化,以减少内存占用,这样会牺牲一定的精度,同时磁盘占用量会增加25%左右,向量间隔计算逻辑为欧氏间隔:
- PUT /vector_search_202412
- {
- "mappings": {
- "properties": {
- "name": {
- "type": "keyword",
- "ignore_above": 256
- },
- "path": {
- "type": "keyword",
- "ignore_above": 256
- },
- "IFV": {
- "type": "dense_vector",
- "index": true,
- "dims": 768,
- "similarity": "l2_norm",
- "index_options": {
- "type": "int8_hnsw"
- }
- }
- }
- }
- }
复制代码 5、全部数据集抽取特征并入库
首先调解我们抽取特征脚本,增加遍历文件夹所有图片+写入es部分:
- import torch
- from PIL import Image
- from transformers import CLIPProcessor, CLIPModel
- import numpy as np
- import os
- from elasticsearch import Elasticsearch, helpers
- # Elasticsearch服务器地址和端口
- host = 'https://localhost:9200'
- # 用户名和密码
- username = 'elastic'
- password = 'xpE4DQGWE9bCkoj7WXYE'
-
- # 创建Elasticsearch客户端实例,并提供用户名和密码
- es = Elasticsearch(hosts=[host], http_auth=(username, password), verify_certs=False,ca_certs="/Users/liupeng/Documents/study/elasticsearch-8.17.0/config/certs/http_ca.crt")
- # 检查连接是否成功
- if not es.ping():
- print("无法连接到Elasticsearch")
- exit()
- else:
- print("成功连接到Elasticsearch")
- # 现在你可以使用es变量来与Elasticsearch进行交互了
- # 加载预训练的CLIP模型和处理器
- model = CLIPModel.from_pretrained("/Users/liupeng/Documents/career/clip-vit-large-patch14")
- processor = CLIPProcessor.from_pretrained("/Users/liupeng/Documents/career/clip-vit-large-patch14")
- # 加载图像并进行预处理
- # folder = "/Users/liupeng/Documents/career/cats_and_dogs_v2/train/cats"
- folder = "/Users/liupeng/Documents/career/cats_and_dogs_v2/train/dogs"
- for root, dirs, files in os.walk(folder):
- index_id = 1000
- for file in files:
- index_id += 1
- print(os.path.join(root, file))
- image = Image.open(os.path.join(root, file))
- inputs = processor(images=image, return_tensors="pt")
- # 提取图像特征
- with torch.no_grad():
- image_features = model.get_image_features(**inputs)
- print("shape:",image_features.shape)
- # 对图像特征进行 L2 归一化
- # 使用 .norm() 计算 L2 范数并进行归一化
- image_features_normalized = image_features / image_features.norm(p=2, dim=-1, keepdim=True)
- numpy_array = image_features_normalized.numpy()
- # 打印归一化后的特征和特征的模长(应该为 1)
- # print("归一化后的图像特征:", numpy_array[0])
- # print("归一化后的模长:", image_features_normalized.norm(p=2, dim=-1)) # 应该接近 1
- documents = [
- {"name": "cat_"+str(index_id), "IFV": numpy_array[0].tolist(),"path":file},
- ]
- helpers.bulk(es, [
- {
- "_index": "vector_search_202412",
- "_id": index_id,
- "_source": doc
- }
- for doc in documents
- ])
复制代码 上面代码,由于数据集中小猫和小狗是两个差别的文件夹,以是需要跑2次,小猫和小狗各一次。
同期间码都已上传到github上:
- https://github.com/liupengh3c/career/blob/main/features/main.py
复制代码 推理过程很泯灭资源,mac的风扇呼呼的转呀。
占用的空间巨细35M:
到这里向量数据就全部入库完成了。
新的一年。就让我们对过去所有开心的事做个总结,对不开心的所有事也做个告终,微笑着迎接属于我们所有人的2025年,祝我可爱的小伙伴们新年快乐。
天亮了,去跑个20.25km迎接新一年的到来~~~~~~~~~~~~~
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |