Clawdbot,现在已经改名 Moltbot(当然是因为侵权被告了)。它不是传统意义上的聊天机器人,而是一个能真正“做事”的 AI Agent,被社区称为“钢铁侠的贾维斯雏形”。阿里云/腾讯云已经上线轻量应用服务器部署能力。
Clawdbot,现在已经改名 Moltbot(当然是因为侵权被告了)。它不是传统意义上的聊天机器人,而是一个能真正“做事”的 AI Agent,被社区称为“钢铁侠的贾维斯雏形”。阿里云/腾讯云已经上线轻量应用服务器部署能力。
大模型正在重塑生产力格局,Agent 已经席卷各个行业。写代码、做PPT、生成图片和视频,基于大模型的各种Agent正在成为专业选手。去年我们还在以“大模型基于概率预测”来质疑各种需求,私下里骂了算法团队不少次,今年已经义无反顾地投入到业务Agent的落地中,比如商品信息理解、提取结构化参数。
2026 年刚开年,一条消息在技术圈悄然传开:前阿里 P10、知名技术人毕玄在他创业的新公司宣布——不再按技术栈划分岗位,所有工程师统一称为 “Agent 工程师”。
在大语言模型(Large Language Model, LLM)推理过程中,KV Cache(Key-Value Cache)是提升生成效率的核心机制。其本质是在自回归解码阶段缓存已计算的注意力键(Key)和值(Value)张量,避免对历史 token 重复执行前向传播中的注意力计算。然而,随着上下文长度增长,KV Cache 的内存占用呈线性增长,成为推理系统的主要瓶颈。
Transformer 模型中的注意力机制:AI 理解上下文的“聚焦之眼”
在人工智能的发展历程中,2017 年是一个分水岭。这一年,Google 团队发表了一篇名为《Attention Is All You Need》的论文,彻底颠覆了自然语言处理(NLP)领域的建模范式——Transformer 模型诞生了。而其核心灵魂,正是我们今天要深入探讨的主题:注意力机制(Attention Mechanism)。
在当前大语言模型(Large Language Models, LLMs)广泛应用的背景下,推理效率已成为决定模型能否落地的关键因素。无论是聊天机器人、智能写作助手,还是企业级文档分析系统,用户都期望模型能“秒出结果”。然而,LLM 的自回归生成特性(即逐 token 生成)天然带来了大量重复计算——这正是KV Cache(Key-Value Cache)技术要解决的核心问题。
2025年11月12号,Java Agent 生态迎来重大发布,Spring AI 发布 1.1.0 GA 正式版本,紧接着,2025年11月13号,Spring AI Alibaba 1.1 版本正式发布。1.1 版本是在总结 1.0 版本企业实践经验基础上发布的新版本,标志着构建企业级、生产就绪的 AI 智能体(Agent)应用进入了一个新的阶段。
服务器请求阿里云大模型服务总是报“Remote host terminated the handshake”异常,从日志看是 SSL 握手出现异常。多方排查未能锁定问题,经过分析 SSL 握手日志,发现是 SNI 问题。对历史代码进行分析,竟是某个角落处禁用了 SNI 扩展。
本站简介