AI编程 · 架构思考 · 技术人生

LiquidAI开源LFM2.5端侧模型,1.2B参数实现极致推理

智谱 GLM,支持多语言、多任务推理。从写作到代码生成,从搜索到知识问答,AI 生产力的中国解法。

LiquidAI推出专为端侧部署的LFM2.5系列模型,其1.2B参数版本性能媲美大模型。该模型在AMD CPU上解码速度达239 tok/s,移动NPU上达82 tok/s,内存占用低于1GB。模型基于28T令牌训练,支持llama.cpp等框架,并涵盖日文、视觉及音频多模态,展示了端侧AI的强大潜力。

原文链接:Linux.do

赞(0)
未经允许不得转载:Toy's Tech Notes » LiquidAI开源LFM2.5端侧模型,1.2B参数实现极致推理
免费、开放、可编程的智能路由方案,让你的服务随时随地在线。

评论 抢沙发

十年稳如初 — LocVPS,用时间证明实力

10+ 年老牌云主机服务商,全球机房覆盖,性能稳定、价格厚道。

老品牌,更懂稳定的价值你的第一台云服务器,从 LocVPS 开始