腾讯正式发布混元翻译模型1.5版本,包含HY-MT1.5-1.8B(18亿参数)和HY-MT1.5-7B(70亿参数)两个模型。该模型支持33种语言之间的互译,并融合了5种民族语言及方言变体。HY-MT1.5-7B基于WMT25夺冠模型升级,针对解释性翻译和混合语言场景优化,新增术语干预、上下文翻译和格式化翻译功能。HY-MT1.5-1.8B虽参数量少,但性能接近大模型,可部署于边缘设备,支持实时翻译。技术报告已在GitHub发布。
原文链接:Linux.do
腾讯正式发布混元翻译模型1.5版本,包含HY-MT1.5-1.8B(18亿参数)和HY-MT1.5-7B(70亿参数)两个模型。该模型支持33种语言之间的互译,并融合了5种民族语言及方言变体。HY-MT1.5-7B基于WMT25夺冠模型升级,针对解释性翻译和混合语言场景优化,新增术语干预、上下文翻译和格式化翻译功能。HY-MT1.5-1.8B虽参数量少,但性能接近大模型,可部署于边缘设备,支持实时翻译。技术报告已在GitHub发布。
原文链接:Linux.do
腾讯近日开源混元翻译模型1.5版本,包含HY-MT1.5-1.8B(18亿参数)和HY-MT1.5-7B(70亿参数)两个模型。该模型支持33种语言互译及5种民族语言,基于WMT25夺冠模型升级,优化了解释性翻译和混合语言场景,新增术语干预、上下文翻译和格式化翻译功能。HY-MT1.5-1.8B参数量少但性能高,量化后可部署于边缘设备,支持实时翻译,在速度和质量上达到平衡。核心优势包括业界领先性能、广泛适用性及新功能支持。这一开源举措将推动边缘AI应用发展,促进实时翻译技术的普及。
原文链接:Linux.do
最新评论
开源的AI对话监控面板很实用,正好团队在找这类工具。准备试用一下。
折叠屏市场确实在升温,不过售罄也可能是备货策略。期待看到实际销量数据。
从磁盘I/O角度解释B树的设计动机,这个切入点很好。终于理解为什么数据库不用二叉树了。
IT术语转换确实是个痛点,之前用搜狗总是把技术词汇转成奇怪的词。智谱这个方向值得期待。
这个工具结合LLM和搜索API的思路很有意思,正好解决了我在做知识管理时遇到的问题。请问有没有部署文档?
这个漏洞确实严重,我们团队上周刚遇到类似问题。建议补充一下如何检测现有项目是否受影响的方法。
从简单规则涌现复杂性这个思路很有意思,让我想起元胞自动机。不过数字物理学在学术界争议还挺大的。
我也遇到了指令跟随变差的问题,特别是多轮对话时容易跑偏。不知道是模型退化还是负载优化导致的。