近期,英伟达研究团队发表的一项研究表明,小语言模型(SLMs,Small Language Models)在 AI 智能体(Agent)系统中具备巨大潜力,能够以更低的成本和延迟提供与大模型相当的性能。研究指出,当前 AI Agent 系统过度依赖大语言模型(LLMs,Large Language Models)的设计范式存在经济和环境可持续性问题,而小模型在专门化任务上往往能够达到甚至超越大模型的表现,同时其较低的计算需求和内存占用使其更适合在智能手机、边缘设备等终端环境中部署。越来越多的厂商也在推出更小规模的模型,例如谷歌最近推出的 270M 参数的 Gemma 3 270M 模型,显示出业界对高效小模型的重视。
图丨相关论文(来源:arXiv)
也正是在这一趋势下,脱胎于麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)的人工智能公司 Liquid AI,正式推出了其首个视觉-语言基础模型系列 LFM2-VL。该系列模型就旨在解决当前多模态人工智能模型因体积庞大而难以在终端设备上部署的普遍问题,致力于为智能手机、笔记本电脑、可穿戴设备和各类嵌入式系统提供高效、低延迟的 AI 视觉理解能力。目前,LFM2-VL 系列的模型权重已在 Hugging Face 社区开源,供开发者和研究人员使用。