AI编程 · 架构思考 · 技术人生
共 158 篇文章

标签:AI模型 第4页

GLM-4.7实测:性能与用量分析

用户在Linux.do社区分享GLM-4.7的深度使用体验,通过多项式因式分解和立体几何等实际测试,验证了模型的多模态能力,均成功解答。然而,用户指出性能降智问题,如重复写入时识别错误、自定义指令执行异常,以及实际用量不足导致被欺骗感。作者...

赞(0)ToyToy前沿 阅读(44)去评论
谷歌 I/O 2025:AI 渗透每一寸产品-Toy's Tech Notes

谷歌 I/O 2025:AI 渗透每一寸产品

谷歌 I/O 2025:AI 渗透每一寸产品 谷歌 I/O 2025 大会核心信息只有一个:AI 不再是亮点,而是基础设施。从搜索到视频生成,从操作系统到 3D 通信,AI 正在重写谷歌的产品基因。 一、Gemini AI:谷歌的̶...

赞(0)ToyToyAI 阅读(60)去评论

GLM-4.7模型测评:性能提升与逻辑问题

本文基于实际项目测试,深入分析了GLM-4.7模型相对于4.6版本的性能变化。作者发现,4.7在命令执行和文字理解方面显著提升,Prompt响应更严格,能更细致地执行用户指令。然而,分析能力存在逻辑问题,如对输入权重过大,导致错误分析(如端...

赞(0)ToyToy前沿 阅读(35)去评论

微软AI模型沉寂,国产替代崛起

近日,在Linux.do平台上,关于微软自家研发的开源模型如Phi和Qwen的讨论热度明显下降,令人疑惑。与此同时,国产AI模型如MiniMax、智谱GLM、DeepSeek和豆包等不断有新动态,技术进步迅速。用户指出,自Qwen3发布Ma...

赞(0)ToyToy前沿 阅读(42)去评论

MiniCPM-V2.6 CPU推理耗时数分钟,优化引关注

近日,有用户发现在使用MiniCPM-V2.6模型时,CPU推理一张图片需要大量时间,据称可能达到255秒甚至360秒,而模型加载仅需5秒左右。这一现象引发了对CPU推理性能优化的讨论。在AI应用日益普及的背景下,如何在普通硬件上提高模型推...

赞(0)ToyToy前沿 阅读(34)去评论

豆包1.8模型回炉优化 暂时无法调用

据多方消息,豆包1.8模型已回炉重制,火山方舟平台已将其下架,并宣布计划于1月5日前重新上线。官方客服回应称,模型暂时无法调用是因为图形用户界面(GUI)能力仍在优化中,此回复在多个消息源中得到验证,疑似为统一客服通稿。该事件涉及AI模型的...

赞(0)ToyToy前沿 阅读(38)去评论

十年稳如初 — LocVPS,用时间证明实力

10+ 年老牌云主机服务商,全球机房覆盖,性能稳定、价格厚道。

老品牌,更懂稳定的价值你的第一台云服务器,从 LocVPS 开始