AI编程 · 架构思考 · 技术人生

Toy的文章

提示缓存:LLM成本降低10倍的技术解析

提示缓存(Prompt caching)是一项革命性的AI优化技术,通过智能缓存和重用重复使用的提示内容,显著降低大语言模型(LLM)的token成本,实现高达10倍的节省。本文深入剖析其工作原理,包括如何识别、存储和复用提示片段,减少冗余...

赞(0)ToyToy前沿 阅读(32)去评论

GitHub年度复盘:2025年代码轨迹可视化

本文分享了作者2025年GitHub使用轨迹的详细复盘,包括commit记录、常用编程语言和活跃节奏的可视化分析。作者自行开发了一个工具,帮助用户生成个人GitHub年度报告,链接已提供。这种数据可视化不仅帮助开发者反思编码习惯,还能提高工...

赞(0)ToyToy前沿 阅读(39)去评论

AI小模型文学润色评测:Kimi夺冠

本文评测了多款价格在10元以下的AI小模型在文学润色任务中的表现。Kimi K2 Thinking以超绝效果和性价比夺冠,接近Gemini 3水平;Gemini 3系列虽有优点,但幻觉问题严重,影响稳定性;其他模型如Grok、MiniMax...

赞(0)ToyToy前沿 阅读(36)去评论

十年稳如初 — LocVPS,用时间证明实力

10+ 年老牌云主机服务商,全球机房覆盖,性能稳定、价格厚道。

老品牌,更懂稳定的价值你的第一台云服务器,从 LocVPS 开始