公告
折腾的尽头是默认。
一次诡异的RPC超时:Protostuff序列化踩坑与排错实录

在使用Protostuff序列化框架时,遇到客户端超时问题。通过切换序列化方式发现问题源于Protostuff对泛型的处理限制,最终通过包装模式解决了反序列化失败的问题,并强调了构建环节的重要性。

从“炼丹”到“建厂”:为什么说上下文工程(Context Engineering)才是AI应用的未来?

Prompt Engineering与Context Engineering之间的分歧反映了AI应用开发的演变,前者关注指令构建,后者强调动态管理上下文以支持复杂任务。Context Engineering通过RAG架构优化信息流,提升智能体的自主性和系统设计能力,推动AI智能体从简单响应转向复杂决策执行。

实验室的服务器被黑了:对抗挖矿病毒和高级后门的记录

实验室服务器遭到挖矿病毒攻击,黑客通过设置后门账户控制系统。经过一系列清除操作,成功删除病毒及其守护服务。

Spring AI还是Langchain4j

Java开发者在选择AI框架时,主要在Spring AI和Langchain4j之间权衡: • Langchain4j优势在于功能全面、声明式注解开发便捷,支持多种LLM和向量数据库 • Spring AI作为Spring生态原生方案,与Spring Boot无缝集成,适合企业级应用 • 目前(2025.4)Langchain4j在开发便利性上领先,但Spring AI在持续演进中 选择建议:如果项目重度依赖Spring生态且对AI功能要求不高,可选Spring AI;若需要丰富的AI功能集成,推荐使用Langchain4j。

‌CPU、GPU、NPU:计算世界的三位“建筑师”

从CPU到NPU的进化史,本质上是一场不断突破“效率天花板”的远征。当通用性(CPU)、并行性(GPU)、专用性(NPU)形成动态平衡时,人类终于挣脱了冯·诺依曼架构的桎梏。未来的计算世界或将没有“CPU、GPU、NPU”的界限,有的只是根据任务需求自由流动的算力之海。而这场革命的终极目标,是让每一焦耳能量都迸发出最极致的计算价值。

本地大模型部署

Ollama在本地Linux上运行大模型,以Gemma3为例

OpenMind开源实习总结

记录第一次线上开源实习,内容主要是用昇腾NPU进行大模型微调和预训练。

本地大模型选购

HuggingFace 大语言模型选购指南