<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>AI Agent on 卓琪的开发笔记</title>
    <link>https://zhuoqidev.com/tags/ai-agent/</link>
    <description>Recent content in AI Agent on 卓琪的开发笔记</description>
    <generator>Hugo -- gohugo.io</generator>
    <language>zh-CN</language>
    <copyright>© 2026 Liu ZhuoQi</copyright>
    <lastBuildDate>Mon, 04 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://zhuoqidev.com/tags/ai-agent/index.xml" rel="self" type="application/rss+xml" />
    
    <item>
      <title>Why LLMs Have No Memory — A Cross-Validated Research Report with 67 Primary Sources</title>
      <link>https://zhuoqidev.com/en/projects/llm-memory-research/</link>
      <pubDate>Mon, 04 May 2026 00:00:00 +0000</pubDate>
      
      <guid>https://zhuoqidev.com/en/projects/llm-memory-research/</guid>
      <description>&lt;h2 class=&#34;relative group&#34;&gt;TL;DR&#xA;    &lt;div id=&#34;tldr&#34; class=&#34;anchor&#34;&gt;&lt;/div&gt;&#xA;    &#xA;    &lt;span&#xA;        class=&#34;absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none&#34;&gt;&#xA;        &lt;a class=&#34;text-primary-300 dark:text-neutral-700 !no-underline&#34; href=&#34;#tldr&#34; aria-label=&#34;锚点&#34;&gt;#&lt;/a&gt;&#xA;    &lt;/span&gt;&#xA;    &#xA;&lt;/h2&gt;&#xA;&lt;p&gt;&amp;ldquo;LLMs have no memory&amp;rdquo; isn&amp;rsquo;t an oversight — it&amp;rsquo;s the equilibrium of four compounding constraints: &lt;strong&gt;O(n²) attention + KV cache VRAM + catastrophic forgetting + GDPR compliance&lt;/strong&gt;. Every &amp;ldquo;Memory&amp;rdquo; feature from ChatGPT / Claude / Cursor works the same way: &lt;strong&gt;inject structured text back into the system prompt&lt;/strong&gt;. Weights never change. Prompt Caching is performance optimization, not memory. The mainstream for the next 1–3 years is &lt;strong&gt;&amp;ldquo;stateless LLM core + stateful Agent memory layer&amp;rdquo;&lt;/strong&gt;.&lt;/p&gt;</description>
      
    </item>
    
    <item>
      <title>大模型为什么没有记忆——67 条一手资料的交叉验证调研</title>
      <link>https://zhuoqidev.com/projects/llm-memory-research/</link>
      <pubDate>Mon, 04 May 2026 00:00:00 +0000</pubDate>
      
      <guid>https://zhuoqidev.com/projects/llm-memory-research/</guid>
      <description>&lt;h2 class=&#34;relative group&#34;&gt;一句话结论&#xA;    &lt;div id=&#34;一句话结论&#34; class=&#34;anchor&#34;&gt;&lt;/div&gt;&#xA;    &#xA;    &lt;span&#xA;        class=&#34;absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none&#34;&gt;&#xA;        &lt;a class=&#34;text-primary-300 dark:text-neutral-700 !no-underline&#34; href=&#34;#%e4%b8%80%e5%8f%a5%e8%af%9d%e7%bb%93%e8%ae%ba&#34; aria-label=&#34;锚点&#34;&gt;#&lt;/a&gt;&#xA;    &lt;/span&gt;&#xA;    &#xA;&lt;/h2&gt;&#xA;&lt;p&gt;所谓「大模型没有记忆」不是疏忽，而是 &lt;strong&gt;Transformer O(n²) 注意力 + KV cache 显存 + 权重纠缠（灾难性遗忘）+ GDPR 合规&lt;/strong&gt; 四重约束的均衡解。ChatGPT / Claude / Cursor 的 &amp;ldquo;Memory&amp;rdquo; 本质都是&lt;strong&gt;把结构化文本塞回 system prompt&lt;/strong&gt;，模型权重永远不动。Prompt Caching 只是性能优化，不是记忆。未来 1–3 年的主流是 &lt;strong&gt;「无状态 LLM 内核 + 有状态 Agent 记忆层」&lt;/strong&gt; 混合架构。&lt;/p&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;计算复杂度&lt;/th&gt;&#xA;          &lt;th&gt;100M ctx 成本&lt;/th&gt;&#xA;          &lt;th&gt;Cache 价格&lt;/th&gt;&#xA;          &lt;th&gt;主流 TTL&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;O(n²)&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;&lt;strong&gt;638×H100&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;&lt;strong&gt;0.1×&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;&lt;strong&gt;5min–24h&lt;/strong&gt;&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;hr&gt;&#xA;&#xA;&lt;h2 class=&#34;relative group&#34;&gt;1. 为什么 LLM 被设计成无状态&#xA;    &lt;div id=&#34;1-为什么-llm-被设计成无状态&#34; class=&#34;anchor&#34;&gt;&lt;/div&gt;&#xA;    &#xA;    &lt;span&#xA;        class=&#34;absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none&#34;&gt;&#xA;        &lt;a class=&#34;text-primary-300 dark:text-neutral-700 !no-underline&#34; href=&#34;#1-%e4%b8%ba%e4%bb%80%e4%b9%88-llm-%e8%a2%ab%e8%ae%be%e8%ae%a1%e6%88%90%e6%97%a0%e7%8a%b6%e6%80%81&#34; aria-label=&#34;锚点&#34;&gt;#&lt;/a&gt;&#xA;    &lt;/span&gt;&#xA;    &#xA;&lt;/h2&gt;&#xA;&lt;p&gt;四个独立约束叠加，每一个单独都不致命，叠在一起就只剩&amp;quot;无状态&amp;quot;这一种工程解——这个结论来自对 67 条一手资料的交叉验证。&lt;/p&gt;</description>
      
    </item>
    
  </channel>
</rss>
