AI引擎
Lindorm在多模数据融合的基础上,集成了AI引擎,提供一站式的数据存储、计算和模型推理服务。无需将数据导出到其他AI平台,可直接在数据库内完成语义检索、多模态检索、知识问答等AI推理任务,确保检索和问答始终基于最新语料,同时满足安全、隐私和监管的需求。
通过Lindorm AI引擎,您可以实现:
将宽表引擎中的文本或图像转换为向量,适用于向量检索、聚类等场景。 |
计算目标文本与Lindorm搜索引擎检索结果的语义相似度,按相似度分数将结果从高到低重新排序。 |
通过搜索引擎和宽表引擎,查找与用户问题语义相近的信息,查找结果经重排序后,与用户问题组成Prompt输入大模型,实现企业专属的私域知识问答。 |
快速上手Lindorm AI引擎
快速体验上图所示的数据向量化、语义相似度计算与重排序以及私域知识问答,请参见基于Lindorm多模能力快速搭建智能搜索服务。
为什么选择Lindorm AI引擎
数据不出库,一站式数据处理与AI推理
您可以在Lindorm一站式地完成数据接入、存储、计算、推理等任务,确保数据始终存储在数据库内部,满足安全、隐私及监管需求。
无需搭建Lindorm到其他AI平台的数据传输通道,系统复杂性和维护成本更低。同时,推理任务可直接基于Lindorm中的最新数据完成,提升数据处理的时效性和推理结果的准确性。
弹性异构计算,提升AI推理性能
Lindorm AI引擎的推理节点支持多种机型(CPU和GPU),不仅可以利用CPU处理传统的推理任务,还可以利用GPU加速推理实现复杂计算的推理任务,增强推理性能。此外,推理节点和多模引擎共享存储,在减少数据传输成本的同时实现了靠近数据的推理优化,提升推理效率。
无缝对接外部模型平台与生态
支持一键导入ModelScope和Hugging Face平台中的模型,简化了模型集成的过程,让您可以专注于业务应用开发与模型优化。同时,也支持您上传自己创建的模型,满足特定业务需求。
数据库原生SQL交互,上手更简单
无需掌握高级编程语言,只需使用Lindorm SQL,就能实现端到端的AI模型创建和推理。
支持的模型
Lindorm AI引擎支持部署ModelScope和Hugging Face平台中的开源模型,您也可以上传自定义模型。
模型类型 | 模型列表 | 模型平台 |
向量化(Embedding) |
| Hugging Face |
jina-embeddings-v2-base-zh | ModelScope | |
重排序(ReRank) |
| Hugging Face |
大语言模型(LLM) | ChatGLM-6B | Hugging Face |
| ModelScope | |
文生图 | Stable Diffusion | ModelScope |
自定义模型 | 不涉及 | 不涉及 |
计费说明
使用Lindorm AI引擎需要AI基础节点或AI引擎节点。其中AI引擎节点需要付费,AI基础节点和调用模型不收费。
不同应用场景下涉及的节点及计费说明如下。
应用场景 | 需要的节点 | 费用说明 |
AI推理服务,包括特征向量提取、语义检索与相似度排名、问答、文本生成、文生图 | AI基础节点 | 免费 |
AI引擎节点 | 付费,具体价格请以售卖页为准。 | |
时序引擎数据的时序预测和时序异常检测 | AI基础节点 | 免费 |
AI基础节点用于管理和协调AI引擎。AI引擎节点用于部署推理服务。