登顶AI榜单!智谱GLM-4.7-Flash获评百亿参数下最强开源模型
Artificial Analysis 最新评测显示,智谱 GLM-4.7-Flash 以 30 分的成绩,获评为总参数量低于 100B 的最智能开源模型。该模型采用 31B 总参数与 3B 活跃参数设计,能在单块 NVIDIA H100 ...
Artificial Analysis 最新评测显示,智谱 GLM-4.7-Flash 以 30 分的成绩,获评为总参数量低于 100B 的最智能开源模型。该模型采用 31B 总参数与 3B 活跃参数设计,能在单块 NVIDIA H100 ...
针对近期的Claude供应链危机,CodePlan通过攻克不同模型API协议的交叉兼容转换技术,目前已完成90%的进度。数据显示,其站内GPT、Gemini及国产开源模型的Token消耗量已大幅超越Claude系列,且呈持续上升趋势。实测表...
阿里巴巴通义千问团队正式发布新一代开源语音合成模型Qwen3-TTS,涵盖0.6B至1.8B参数规模。该模型支持10种主流语言,不仅能实现3秒音频高保真克隆,更创新支持通过自然语言指令“设计”人声。技术上采用12Hz高压缩率Tokenize...
Sweep AI推出了名为Sweep Next-Edit 1.5B的开源代码补全模型。该模型基于Qwen2.5-Coder,量化后体积小巧,可在笔记本电脑本地500毫秒内完成推理。它专门用于预测开发者的下一步代码编辑操作,在基准测试中表现超...
智谱AI旗下的30B参数模型GLM-4.7-Flash现身Hugging Face。基准测试数据显示,该模型在多项任务中表现优异,特别是在SWE-bench Verified代码修复任务中得分59.2,大幅超越同量级的Qwen3-30B和G...
Ollama 正式实现对 Anthropic API 格式的兼容,这一更新打破了本地开源模型与 Claude 生态之间的壁垒。现在,用户部署在 Ollama 上的本地模型也能像 Claude 官方模型一样,完美支持工具调用和函数调用功能,并...
SWE-rebench公布了基于2025年12月GitHub真实任务的最新评测榜单。Anthropic的Claude Opus 4.5以63.3%的解决率位居榜首,OpenAI GPT-5.2与谷歌Gemini 3 Flash Previe...
Black Forest Lab 发布 FLUX.2 [klein] 模型家族,号称迄今为止最快的图像模型。该架构统一了生成与编辑功能,实现亚秒级端到端推理,最高画质下仅需0.5秒。模型专为实时交互设计,支持消费级显卡(约13GB显存),并...
谷歌基于Gemma 3架构推出TranslateGemma开源翻译模型系列,包含4B、12B和27B三种参数规模,支持55种语言及多模态图像翻译。测试显示,TranslateGemma 12B性能超越参数量翻倍的27B基线模型,而4B小模型...
美团正式发布并开源升级版推理模型 LongCat-Flash-Thinking-2601。该模型基于混合专家架构,总参数量达 5600 亿。通过大规模多环境强化学习,系统性增强了 Agent 思维能力。升级核心包括:具备极致的抗噪环境鲁棒性...
在AI技术快速发展的背景下,开源模型与硬件适配成为关键痛点。开发者经常面临开源模型与国产GPU卡适配性不明、资源需求不清的问题。当前,国内论坛用户呼吁建立专门网站,查询各开源模型支持的GPU卡类型(包括国产和非国产)及其资源要求。这一需求反...
MiroThinker v1.5作为开源搜索智能体近日发布,在BrowseComp-ZH数据集上超越Kimi-K2-Thinking,参数量仅为后者的1/30,成本大幅降低。在HLE-Text、BrowseComp、BrowseComp-Z...
CodePlan上线半个月,团队完善多项功能:优化Claude原生支持、转义层、工具调用兼容、状态展示和文档;上线MiniMax-M2.1、GLM-4.7等开源模型;产品稳定运行95%,向99.9% SLA目标迈进。为回馈用户,开启每日抽奖...
Qwen-Image-2512作为Qwen-Image模型的最新更新,显著提升了图像生成质量。该模型在人物真实感、自然细节渲染和文字准确性方面均有突破,尤其在人像表现上减少了AI痕迹。性能评估显示,它在AI Arena上经过10,000轮盲...
阿里巴巴开源的Qwen-Image-2512文生图模型迎来重要更新,相比8月发布的基础版本实现了三大技术突破:显著提升人物质感,降低AI感;优化自然纹理细节,尤其在风景构图和动物毛发表现上更细腻;改进文字渲染能力,图文混合排版更加准确。该模...
用户在探索利用LLM为教育出题时,发现题目常偏离教材、难度不符年级,尤其语文等抽象学科效果不佳。尽管尝试RAG技术提升精准度,但效果仍不理想。现寻求教育领域的开源LLM项目推荐,以解决实际出题需求,推动AI教育向个性化发展。 原文链接:Li...
近日,Naver旗下CLOVA X品牌发布了开源语言模型HyperCLOVA X SEED Think。在独立分析平台artificialanalysis上,该模型得分为44分,处于第三梯队,性能与韩国模型EXAONE 4.0 32B接近,...
某公司因信息安全限制,计划本地部署大模型以支持其技术需求。需求涵盖嵌入式开发的C/C++代码辅助、芯片底层驱动与协议栈开发、日志故障诊断、安卓中间件研发中的代码助手、系统性能优化、兼容性测试分析、技术文档生成以及内部知识问答。该公司希望了解...
小米近日推出了其开源大模型MiMo-V2-Flash,据初步测试显示,该模型在推理速度方面表现出色,能够快速响应各类请求。然而,用户反馈称,在理解能力和内容生成效果方面,该模型与预期仍有差距。作为小米在AI领域的重要布局,MiMo-V2-F...
智谱公司近期在人工智能领域动作频频,本周连续推出了AUTO-GLM、GLM-ASR、GLM-4.6V和GLM-TTS等一系列开源模型。其中,GLM-TTS作为文本转语音模型,为AI语音合成领域带来了新的技术选择。此次密集开源展示了智谱公司在...
最新评论
这篇文章写得太实用了!按照步骤一步步来,真的能从小白搭建起一个仿小红书的小程序。Cursor的AI补全功能确实大大提高了开发效率,感谢分享!
对比得很清晰。个人觉得如果只是日常聊天和简单任务,Claude 4.5的性价比更高;但如果是复杂的编程任务,GPT-5.2还是更稳定一些。希望能看到更多关于具体使用场景的对比。
开源项目的安全确实容易被忽视。这个案例提醒我们,即使是小功能也要做好权限校验。建议作者可以补充一下修复后的代码实现,让读者更清楚如何防范此类问题。
这个案例太典型了。配置错误导致的故障往往最难排查,因为看起来一切都正常。我们在生产环境也遇到过类似问题,后来引入了配置审查机制才好转。建议大家都重视配置管理!
很棒的漏洞分析!这种小号入侵的问题确实很容易被忽略。建议项目方可以增加一些风控规则,比如检测同一IP的多次注册行为。感谢分享这个案例!
FreeBSD的jail机制确实很强大,能把服务隔离得很干净。不过配置起来确实有点复杂,这篇文章把步骤写得很详细,准备按照教程试试!
实测下来确实如文章所说,规划能力有提升但偶尔会抽风。天气卡片那个案例很有意思,说明模型在理解上下文时还是会踩坑。希望后续版本能更稳定一些。
论文筛选真的是科研人员的痛点,每天arxiv上那么多新论文,手动看根本看不过来。这个工具如果能准确筛选出相关论文,能节省不少时间。感谢开源!