AI引擎

更新时间: 2025-02-10 15:11:55

Lindorm在多模数据融合的基础上,集成了AI引擎,提供一站式的数据存储、计算和模型推理服务。无需将数据导出到其他AI平台,可直接在数据库内完成语义检索、多模态检索、知识问答等AI推理任务,确保检索和问答始终基于最新语料,同时满足安全、隐私和监管的需求。

通过Lindorm AI引擎,您可以实现:

文本或图像的向量化

将宽表引擎中的文本或图像转换为向量,适用于向量检索、聚类等场景。

image

计算语义相似度与重排序

计算目标文本与Lindorm搜索引擎检索结果的语义相似度,按相似度分数将结果从高到低重新排序。

image

私域知识问答

通过搜索引擎和宽表引擎,查找与用户问题语义相近的信息,查找结果经重排序后,与用户问题组成Prompt输入大模型,实现企业专属的私域知识问答。

image

快速上手Lindorm AI引擎

快速体验上图所示的数据向量化、语义相似度计算与重排序以及私域知识问答,请参见基于Lindorm多模能力快速搭建智能搜索服务

为什么选择Lindorm AI引擎

  • 数据不出库,一站式数据处理与AI推理

    • 您可以在Lindorm一站式地完成数据接入、存储、计算、推理等任务,确保数据始终存储在数据库内部,满足安全、隐私及监管需求。

    • 无需搭建Lindorm到其他AI平台的数据传输通道,系统复杂性和维护成本更低。同时,推理任务可直接基于Lindorm中的最新数据完成,提升数据处理的时效性和推理结果的准确性。

  • 弹性异构计算,提升AI推理性能

    Lindorm AI引擎的推理节点支持多种机型(CPU和GPU),不仅可以利用CPU处理传统的推理任务,还可以利用GPU加速推理实现复杂计算的推理任务,增强推理性能。此外,推理节点和多模引擎共享存储,在减少数据传输成本的同时实现了靠近数据的推理优化,提升推理效率。

  • 无缝对接外部模型平台与生态

    支持一键导入ModelScope和Hugging Face平台中的模型,简化了模型集成的过程,让您可以专注于业务应用开发与模型优化。同时,也支持您上传自己创建的模型,满足特定业务需求。

  • 数据库原生SQL交互,上手更简单

    无需掌握高级编程语言,只需使用Lindorm SQL,就能实现端到端的AI模型创建和推理。

支持的模型

Lindorm AI引擎支持部署ModelScopeHugging Face平台中的开源模型,您也可以上传自定义模型。

模型类型

模型列表

模型平台

向量化(Embedding)

  • text2vec-base-chinese

  • bge-large-zh

  • m3e-base

  • gte-large-zh

  • bge-m3

  • bge-visualized

  • bce-embedding-base_v1

Hugging Face

jina-embeddings-v2-base-zh

ModelScope

重排序(ReRank)

  • bge-reranker-large

  • bge-reranker-base

  • bge-reranker-v2-m3

  • bce-reranker-base_v1

Hugging Face

大语言模型(LLM)

ChatGLM-6B

Hugging Face

  • 通义千问-14B

  • 通义千问-7B

ModelScope

文生图

Stable Diffusion

ModelScope

自定义模型

不涉及

不涉及

计费说明

使用Lindorm AI引擎需要AI基础节点或AI引擎节点。其中AI引擎节点需要付费,AI基础节点和调用模型不收费。

不同应用场景下涉及的节点及计费说明如下。

应用场景

需要的节点

费用说明

AI推理服务,包括特征向量提取、语义检索与相似度排名、问答、文本生成、文生图

AI基础节点

免费

AI引擎节点

付费,具体价格请以售卖页为准。

时序引擎数据的时序预测和时序异常检测

AI基础节点

免费

AI基础节点用于管理和协调AI引擎。AI引擎节点用于部署推理服务。

相关文档

上一篇: 使用DLA访问 下一篇: 快速入门
阿里云首页 云原生多模数据库 Lindorm 相关技术圈