Elasticsearch 开放 inference API 增加了对 Azure OpenAI 嵌入的支持
作者:来自 Elastic Mark Hoy我们很高兴地公布,Elasticsearch 现在在我们的开放 inference API 中支持 Azure OpenAI 嵌入,使开辟职员能够将天生的嵌入存储到我们高度可扩展和高性能的向量数据库中。
这一新功能进一步巩固了我们不仅致力于与 Microsoft 和 Azure 平台合作的答应,而且还进一步巩固了我们为客户提供更灵活的 AI 办理方案的答应。
Elastic 对人工智能的持续投资
这是 Elasticsearch 的 AI 支持的一系列附加功能和集成中的最新功能,如下:
[*]Elasticsearch 开放 inference API 增加了 Azure AI Studio 支持
[*]Elasticsearch 开放 inference API 添加了对 Azure OpenAI chat completions 的支持
[*]Elasticsearch 开放 inference API 添加了对 OpenAI chat completions 成的支持
[*]Elasticsearch 开放 inference API 增加了对 Cohere Embeddings 的支持
[*]将 Elasticsearch 向量数据库引入到数据上的 Azure OpenAI 服务(预览)
Azure OpenAI 的新 inference 嵌入服务提供商已在 Elastic Cloud 上的 stateless 产物中提供,并将很快在即将发布的 Elastic 版本中向全部人提供。
将 Azure OpenAI 嵌入与 Elasticsearch Inference API 结合使用
摆设 Azure OpenAI 嵌入模型
起首,你需要 Microsoft Azure 订阅以及 Azure OpenAI 服务的访问权限。 注册并有权访问后,你需要在 Azure 门户中创建资源,然后将嵌入模型摆设到 Azure OpenAI Studio。 为此,如果你的 Azure 门户中还没有 Azure OpenAI 资源,请从 Azure 市场中找到的 “Azure OpenAI” 类型创建一个新资源,并记下你需要的资源名称 这个稍后再说。 创建资源时,你选择的区域可能会影响你可以访问的模型。 有关更多具体信息,请参阅 Azure OpenAI 摆设模型可用性表。
https://img-blog.csdnimg.cn/direct/3b9bbdb3fa744b8db162645305ccd985.webp
获得资源后,你还需要一个 API 密钥,可以在 Azure 门户左侧导航的 “Keys and Endpoint” 信息中找到该密钥:
https://img-blog.csdnimg.cn/direct/ab490004353f4403948e9af768923ddf.webp
现在,要摆设 Azure OpenAI Embedding 模型,请进入 Azure OpenAI Studio 控制台并使用 OpenAI Embeddings 模型(比方 text-embedding-ada-002)创建摆设。 创建摆设后,你应该会看到摆设概述。 另请记下摆设名称,在下面的示例中,它是 “example-embeddings-model”。
https://img-blog.csdnimg.cn/direct/f90c7c9ae2fb4bbbb59a012f7e515310.webp
将摆设的 Azure OpenAI 嵌入模型与 Elasticsearch Inference API 结合使用
摆设 Azure OpenAI 嵌入模型后,我们现在可以配置 Elasticsearch 摆设的 _inference API 并创建一个管道来索引文档中的嵌入向量。 请参阅 Elastic Search Labs GitHub 存储库以获取更深入的指南和交互式笔记本。
要执行这些任务,你可以使用 Kibana 开辟控制台或你选择的任何 REST 控制台。
起首,使用创建推理模型端点配置推理端点 - 我们将其称为 “example_model”:
PUT _inference/text_embedding/example_model
{
"service": "azureopenai",
"service_settings": {
"api_key": "<api-key>",
"resource_name": "<resource-name>",
"deployment_id": "<deployment-id>",
"api_version": "2024-02-01"
},
"task_settings": {
"user": "<optional-username>"
}
} 对于 inference 端点,你将需要 API 密钥、资源名称以及上面创建的摆设 ID。 对于 “api_version”,你需要使用 Azure OpenAI 嵌入文档中的可用 API 版本 - 我们发起始终使用最新版本,即撰写本文时的 “2024-02-01”。 你还可以选择在任务设置的 “user” 字段中添加用户名,该用户名应该是代表终极用户的唯一标识符,以资助 Azure OpenAI 监控和检测滥用举动。 如果你不想如许做,请省略整个 “task_settings” 对象。
运行此命令后,你应该收到 200 OK 状态,表明模型已准确设置。
使用执行 inference 端点,我们可以看到推理端点的工作示例:
POST _inference/text_embedding/example_model
{
"input": "What is Elastic?"
}
上述命令的输出应提供输入文本的嵌入向量:
{
"text_embedding": [
{
"embedding": [
-0.0038039694,
0.0054465225,
-0.0018359756,
-0.02274399,
-0.01969836,
...
]
}
]
} 现在我们知道推理端点可以工作,我们可以创建一个使用它的管道:
PUT _ingest/pipeline/azureopenai_embeddings
{
"processors": [
{
"inference": {
"model_id": "example_model",
"input_output": {
"input_field": "name",
"output_field": "name_embedding"
}
}
}
]
} 这将创建一个名为 “azureopenai_embeddings” 的摄取管道,它将在摄取时读取 “name” 字段的内容,并将模型中的嵌入推断应用到 “name_embedding” 输出字段。 然后,你可以在摄取文档时(比方通过 _bulk 摄取端点)或对已填充的索引重新建立索引时使用此摄取管道。
目前可通过我们在 Elastic Cloud 上的 stateless 产物中的开放推理 API 获得此功能。 它还将很快在即将推出的 Elasticsearch 版本中向全部人开放,并具有额外的语义文本功能,使此步调更容易集成到你现有的工作流程中。
对于其他用例,你可以浏览带有推理的语义搜索教程,了解如何使用 Azure OpenAI 和其他服务(比方重新排名或 chat completions)大规模执行摄取和语义搜索。
还有更多即将到来
这种新的可扩展性只是我们从 Elastic 引入 AI 表的众多新功能之一。 立即为 Elastic Search Labs 添加书签以了解最新动态! 预备好将 RAG 构建到您的应用程序中了吗? 想要尝试使用矢量数据库的差别 LLMs? 在 Github 上查看我们的 LangChain、Cohere 等示例笔记本,并到场即将开始的 Elasticsearch 工程师培训!
预备好本身尝试一下了吗? 开始免费试用。
Elasticsearch 集成了 LangChain、Cohere 等工具。 加入我们的高级语义搜索网络研讨会,构建您的下一个 GenAI 应用程序!
原文:Elasticsearch open inference API adds support for Azure OpenAI embeddings — Elastic Search Labs
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]